Die Medien haben eine Verantwortung, unabhängige Analysen des Klima-‚Konsens‘ zu veröffentlichen

Sollte man Kritikern der erneuerbaren Energien erlauben, ihre Einwände in den Meinungsspalten der Zeitungen artikulieren? Konterkarieren die Proteste gegen Ökosteuern oder die Angriffe auf Subventionen für Wind- und Solarenergie (und die daraus folgende Umverteilung von Wohlstand von den Armen zu den Reichen) nicht das Kernprinzip der Medien von „genauer, fairer und ausgewogener Berichterstattung?“, wie Lobbyisten grüner Energie beklagen?
Und was ist mit den Klimaskeptikern? Sollte man ihnen erlauben, ihren Zweifeln in den Kommentarspalten der Zeitungen Ausdruck zu verleihen? Schließlich haben die grünen Aktivisten das konventionelle Wissen über die globale Erwärmung als „bewusst irreführend“ bezeichnet. Sie behaupten, dass jeder Skeptizismus hinsichtlich des Konsens’ des IPCC das Prinzip des eigenen Verhaltenskodex’ der Medien verletzt.
Der frühere Berater zur Klimaänderung Ross Garnaut hat sich darüber beklagt, dass eine ausgewogene Berichterstattung zur Klimaänderung den Antrieb für politische Maßnahmen massiv unterminiert hätte: „Schaut man sich die Mainstream-Medien an, scheint es oft so, als ob die Medien eine gewisse Balance herstellen wollen zwischen Leuten, deren Ansichten auf der Mainstream-Wissenschaft beruhen und solchen, bei denen das nicht der Fall ist. Das ist eine sehr seltsame Art der Ausgewogenheit. Es ist die Ausgewogenheit von Worten und nicht eine Ausgewogenheit der wissenschaftlichen Autorität“.
Eine wachsende Zahl von Klimawissenschaftlern und Umweltaktivisten führen eine organisierte Kampagne gegen die Prinzipien eines fairen und ausgewogenen Journalismus durch, der die offene und pluralistische Gesellschaften verkörpert.
Politische Aktivisten sorgen sich, dass irgendwelche in den Medien angesprochene Zweifel, Ungewissheiten und Einwände drastische politische Maßnahmen verhindern. Da ist es kein Wunder, dass Aktivisten Strategien entwickeln, um Herausgeber davon abzuhalten und sie einzuschüchtern, damit sie keinen Kritikern zur Erklärung ihrer Einwände Raum geben. Gelegentlich wagt es ein nachforschender Herausgeber oder Kolumnist, diese Form der Nötigung herauszufordern, trotz der Drohungen von Protest und Einschüchterung. In diesem Fällen wird eine ganze Armee von Aktivisten und Bloggern aktiviert, den ungehorsamen Journalisten anzugreifen.
Auf „Konsens” basierende Wissenschaft ist ein heikles Geschäft. Ich glaube nicht daran, weil uns die Geschichte der Wissenschaft sagt, dass der heutige Konsens die widerlegte Theorie von morgen sein kann – und häufig auch ist.
Es gibt bestimmte Arten allgemeiner Übereinstimmung in der Wissenschaft, die überzeugender und dauerhafter als andere sind. In einigen Gebieten der empirischen Wissenschaft, wie z. B. der Astronomie des Sonnensystems, gibt es mehr Übereinstimmung, weil die Daten viel robuster und die Methoden weniger komplex sind. Je komplexer die Wissenschaft und je weniger zuverlässig die Daten, umso mehr wissenschaftliche Kontroversen sollte man zu finden erwarten. Andererseits wissen wir auch, dass die Wissenschaft dazu tendiert – und sie tatsächlich auch braucht – wissenschaftliche Paradigmen zu erzeugen, was vielleicht ein besseres Wort ist als Konsens.
Darum habe ich wirklich kein Problem mit der Tatsache, dass eine Mehrheit der Klimawissenschaftler glaubt, die wesentlichen Antriebe der Klimaänderung zu verstehen.
Aber die Wissenschaft würde sehr schnell in einer Sackgasse landen ohne die steten und notwendigen Versuche, das führende Paradigma des Tages eingehend zu prüfen und zu falsifizieren, vor allem solche, die schwach daher kommen und auf umstrittenen Daten, fragwürdigen Methoden und gescheiterten Computermodellen beruhen. Tatsächlich weisen einige Kritiker darauf hin, dass die Wissenschaft fast eine solche Sackgasse erreicht hat.
Die wissenschaftlichen Bemühungen involvieren sowohl die Protektoren als auch die Herausforderer jedes einzelnen Paradigmas. Beide sind für die Gesundheit und die Dynamik eines hoch konkurrenzbetonten Abenteuers unabdingbar, das Wissenschaft ist. Kein Konsens ist sakrosankt.
Und es ist die innerste Natur eines fairen und ausgewogenen Journalismus’, dass alle vernünftigen Positionen und Gegenargumente gehört werden sollten.
Während grüne Aktivisten versuchen, selbst die Debatten um Energie und Wirtschaft in das traditionelle Schema eines Konfliktes zwischen Zustimmung und Ablehnung zu pressen, geht es in der politischen Diskussion nicht mehr um den Gegensatz zwischen Aktionen und Tatenlosigkeit.
Das wirkliche Thema heute dreht sich um die kosteneffektivsten Wege, der Klimaänderung zu begegnen: revolutionäre Transformation der globalen Ökonomie, wie sie von Klimaalarmisten befürwortet wird, oder graduelle Übernahme von allem und Anpassung an alles, was die Natur in der Zukunft für uns bereit halten könnte, wie es von moderaten Umweltaktivisten vorgeschlagen wird.
Trotz der Mehrheitsmeinung unter den Klimawissenschaftlern, wissenschaftlichen Organisationen und Regierungen gibt es eine große Minderheit von Forschern, Ökonomen und politischen Beobachtern, die sich Sorgen über die apokalyptische Natur des Klimahypes und das wachsende Risiko machen, dass diese Form der kollektiven Hysterie für die politische und wirtschaftliche Stabilität darstellt. Skeptische Forscher werden weiterhin kritische Studien veröffentlichen, und kritische Kolumnisten werden Kommentare veröffentlichen, die den sog. Klimakonsens in Frage stellen.
Sollten die Mainstream-Medien eine Plattform für diese Kritiker zur Verfügung stellen? Sollten sie das Gewicht ihrer Beweise und die Gültigkeit ihrer Argumente zur Disposition stellen? Oder sollten die Medien Herausforderungen des Status quo einfach ignorieren?
Die Integrität der westlichen Medien hängt davon ab, ob sie Kritiker oder Analysen zur Fehlerfindung ermutigen – oder ob sie mehr und mehr in einen leichtgläubigen Kampagnenjournalismus abgleiten.
Benny Peiser, The Australian
Benny Peiser is the director of the Global Warming Policy Foundation, an all-party and non-party think tank based in London.
The Australian, 2 June 2012
Link: http://thegwpf.org/opinion-pros-a-cons/5867-benny-peiser-media-has-a-responsibility-to-publish-independent-analysis-of-climate-consensus.html
Übersetzt von Chris Frey EIKE




Das Mysterium von Gleichung 8 oder John v. Neumanns Elefant*

„Warum versuchen Sie alle nicht, unsere WUNDERgleichung zu widerlegen, anstatt Ihre Köpfe gegen die Wand zu schlagen bei dem Versuch, zu beweisen oder zu widerlegen, wer was weiß und zu betonen, dass Sie mit diesem oder jenem Probleme haben? Die Frage lautet, wie wir das haben machen können – keine Frage ist, dass unsere Gleichungen funktionieren – wenn Sie nicht verifiziert haben, dass sie funktionieren, warum haben Sie nicht? (…) Warum denken Sie nicht „hmmmm, N&Z haben uns eine Gleichung gegeben. Wenn man darin den gemessenen Druck eingibt und Tgb wie vorgeschlagen berechnet, erhält man einen berechneten Wert von Ts, der selbst zu gemessenen Werten passt! Sie können die Gleichung nicht widerlegen? Also kochen wir vielleicht irgendwie die richtigen Daten?“
Dies soll der Beweis sein, dass ihre Theorie korrekt ist, und Leute sagen mir immer wieder ‚aber sie haben einen wirklichen Beweis, sie können planetarische Temperaturen vorhersagen, schau mal nach!‘ Außerdem fällt es schwer, eine Einladung nach Art von Dr. Zeller zu ignorieren, also habe ich nachgeschaut.
Abbildung rechts: Es sind nicht diese Gleichungen, nach denen Sie suchen.
Zuerst postulieren sie etwas, das sie den „Atmospheric Thermal Enhancement“- oder „ATE“-Effekt nennen, der die Erde wärmer macht, als sie ohne Atmosphäre wäre.
Der ATE-Effekt”  wird durch etwas gemessen, das Nte(Ps) genannt wird, was in ihrer Studie wie folgt definiert und abgeschätzt worden ist.

Darin ist Nte(Ps) ein Maß für den „oberflächennahen Atmospheric Thermal Enhancement“-Effekt.
Nte(Ps) wird definiert als die tatsächliche mittlere Lufttemperatur des Planeten Ts geteilt durch die theoretische „Graukörper“-Temperatur des Planeten Tgb, berechnet aus der totalen solaren Einstrahlung So des Planeten. Nte(Ps) wird abgeschätzt durch Verwendung einer angepassten Funktion des Bodendrucks des Planeten Ts.
Lassen Sie mich das ein wenig vereinfachen. Symbolisch lässt sich der rechte Teil der Gleichung (7) schreiben als
Nte(Ps) = e^(t1 * Ps ^ t2 + t3 * Ps ^ t4)       (7Sym)
worin „e“ die Basis des natürlichen Logarithmus‘ und Ps der Bodendruck des Planeten oder Mondes ist. Es gibt vier regelbare Parameter (t1 bis t4), die an die Daten „angepasst“ oder danach ausgerichtet werden. Mit anderen Worten, diese Werte werden wiederholt justiert und ausgerichtet, bis die gewünschte Anpassung erreicht ist. Diese Anpassung kann leicht in Excel mit dem Menüpunkt „Löse…“ vorgenommen werden. Wie zu erwarten war, ist die Anpassung mit vier Parametern und nur acht Datenpunkten ziemlich gut, und ihre Schätzung kommt dem tatsächlichen Wert von Nte(Ps) ziemlich nahe.
Lustigerweise wird das Ergebnis von Gleichung (7) danach in einer anderen angepassten Gleichung verwendet, Nummer (8). Sie lautet:

wobei So die Gesamtsolarstrahlung ist.
Dies ist ihre WUNDERgleichung, von der sie sagen, dass man damit die Oberflächentemperatur von acht verschiedenen Planeten und Monden mit nur zwei Variablen berechnen kann – Pr, der Bodendruck und So, die Gesamtsolarstrahlung. Das ist es, was die Menge der Leute so fasziniert, dass sie mir schreiben, dass es „Beweise“ gibt, dass N&Z recht haben.
Offensichtlich gibt es einen weiteren angepassten Parameter in Gleichung (8), so dass wir sie symbolisch umschreiben können zu:
Ts = t5 * (Solar + adjustment ) ^ 1/4 * Nte(Ps).        (8Sym)
Halten wir hier mal einen Moment inne und gestatten uns eine Bemerkung zu Gleichung (8). Die gesamte Sonneneinstrahlung reicht von über 9000 W/m² für den Merkur bis 1,51 W/m² für Triton. Man betrachte Gleichung (8). Wie wird der Faktor 0,0001325 auf jeden dieser Werte vor dem Ziehen der vierten Wurzel im Ergebnis auch nur einen winzigen Unterschied machen? Das ist einfach bizarr. Sie sagen, dass sie es in die Formel einbringen, damit die Formel richtig ist, wenn keine Solarstrahlung vorhanden ist, so dass eine Hintergrundstrahlung von 3 Kelvin herauskommt. Wen kümmert das? Wirklich, es verändert Ts maximal durch ein Tausendstel Grad für Triton. Also wollen wir es für den Moment entfernen, da es keinen praktischen Unterschied und die Dinge nur konfuser macht.
Zurück zu unserer Geschichte. Entfernt man die Anpassung und setzt Gleichung (7) in Gleichung (8) ein, erhält man:
Ts = t5 * Solar^0.25 * e^(t1 * Ps ^ t2 + t3 * Ps ^ t4) (eqn 9)
Das ist faszinierend. Diese Burschen behaupten allen Ernstes, dass sie mit nur acht Datenpunkten und nicht weniger als fünf veränderbaren Parametern die Oberflächentemperatur der acht Planeten berechnen können, nur mit Kenntnis des Bodendrucks und der Sonneneinstrahlung. Und mit so vielen Drehknöpfen bin ich auch sicher, dass sie das tun können. Ich habe es selbst unter Verwendung ihrer Zahlen gemacht. Ich bekomme die gleichen Werte für alle Zahlen von t1 bis t5. Aber das beweist überhaupt nichts.
Ich meine … ich kann nur mit Bewunderung vor der schieren Unverfrorenheit dieser Behauptung stehen. Sie benutzen nur acht Datenpunkte und fünf veränderbare Parameter mit einer speziell gebildeten ad-hoc-Gleichung ohne physikalische Grundlage. Und sie denken nicht im Mindesten daran, wie merkwürdig dies ist.
Ich werde auf diese Frage der Anzahl der Parameter gleich noch einmal zurückkommen, denn obwohl es verblüffend ist, was sie hier gemacht haben, ist es nicht der Höhepunkt der Geschichte. Wir können Gleichung (7) auch auf etwas andere Art in Gleichung (8) einsetzen, indem wir den mittleren Term von Gleichung (7) verwenden. Das ergibt:
Ts = t5 * Solar^0.25 * Ts / Tgb  (eqn 10)
Dies bedeutet: wenn wir mit der Kenntnis der Bodentemperatur Ts auf der rechten Seite der Gleichung anfangen, können wir Ts auf der linken Seite berechnen … erschreckend, ich weiß, wer hätte das gedacht. Wir wollen den Rest der Mathematik in Gleichung 10 checken, um zu sehen, warum das herauskommt.
Man kann bei näherem Hinsehen erkennen, dass der erste Teil der rechten Seite von Gleichung (10)
t5 * Solar^0.25
eine andere Form der bekannten Stefan-Boltzmann-Gleichung ist, die den Zusammenhang von Strahlung und Temperatur beschreibt. Diese S-B-Gleichung kann auch geschrieben werden als
T = (Solar / c1) ^ 0.25.
wobei T die Temperatur ist und c1 eine Konstante, die gleich ist der S-B-Konstanten multipliziert mit der Emissivität. Wir können das umschreiben zu
T = 1/(c1^0.25) * Solar^0.25
Setzt man eine andere Konstante c2 = 1/(c1^0.25) ergibt sich die Stefan-Boltzmann-Gleichung zu:
T = c2 * Solar^0.25
Aber das ist genau die Form des ersten Teils der rechten Seite von Gleichung (10). Oder auf den Punkt gebracht, es ist eine Approximation der Graukörper-Temperatur des Planeten Tgb.
Wir können das prüfen, und zwar wenn wir die Emissivität mit 0,9 annehmen, dann beträgt die Konstante c1 5,103E-8, und c2 daher 66. Allerdings reduziert sich dieser Wert durch die Rotation des Planeten. Mit Hilfe der N&Z-Formel in ihrem jüngsten Beitrag ergibt sich ein Wert um 27.
Ihr angepasster Wert ist 25, nicht weit vom tatsächlichen Wert. Also kommt komischerweise heraus, dass sie nichts anderes getan haben als die Stefan-Boltzmann-Konstante mit einer bizarren Methode der Kurvenanpassung abzuschätzen. Und das haben sie gut gemacht. Tatsächlich sogar ziemlich eindrucksvoll, wenn man die Anzahl der Rechenschritte und der involvierten Parameter bedenkt.
Aber da  t5  * Solar^0.25 eine Schätzung der Graukörper-Temperatur des Planeten Tgb ist, bedeutet das, dass sich die Gleichung (10) reduziert, und zwar von
Ts = t5 * Solar^0.25 * Ts / Tgb (eqn 10)
zu
Ts = Tgb * Ts / Tgb.
Und schließlich zu
Ts = Ts
TA-DA!
Schlussfolgerung
Lassen Sie mich den zugrunde liegenden Effekt dessen wiederholen, was sie getan haben. Sie betrachteten acht Planeten und Monde.
1.      Sie haben eine Gleichung verwendet
e^(t1 * Ps ^ t2 + t3 * Ps ^ t4)
mit vier freien Parametern für eine Abschätzung von Ts/Tgb, basierend auf dem Bodendruck. Wie man unter der Tatsache erwarten würde, dass es halb so viele freie Parameter wie Datenpunkte gibt und dass sie freie Auswahl haben, irgendeinen davon für ihre Gleichung unbegrenzt auszusuchen, ist das überhaupt kein Problem und kann mit fast jeden Datensatz durchgeführt werden.
2.      Sie haben eine Gleichung verwendet
t5 * Solar^0.25
mit einem freien Parameter, um eine Schätzung von Tgb zusammenzubekommen, die auf der Gesamteinstrahlung des Planeten basiert. Da Tgb unter anderem von der planetarischen Einstrahlung abhängt, gibt es auch hier kein Problem.
3. Sie haben die beiden Schätzungen miteinander multipliziert. Da das Ergebnis eine Schätzung nach der Gleichung Tgb mal einer Schätzung von Ts/Tgb ist, hat das natürlich zur Folge, dass diese Operation Tgb aus der Gleichung hinauswirft.
4. Sie merken an, dass der Rest Ts ist, und erklären das zu einem WUNDER.
Sehen Sie, es wird Ts vorhergesagt, indem man bei Ts anfängt? Überhaupt nicht schwierig, und mit fünf freien Parametern und der Auswahl irgendeiner Gleichung, egal wie nicht-physischer Natur, ist das überhaupt kein WUNDER irgendeiner Art, sondern lediglich ein weiterer Fall einer zügellosen Kurvenanpassung…
Schließlich gibt es eine berühmte Geschichte in der Wissenschaft über diese Art der pseudowissenschaftlichen Verwendung von Parametern und Gleichungen, erzählt von Freeman Dyson:

Wir begannen mit der Berechnung der Mesonen-Protonen-Verteilung unter Verwendung einer Theorie der starken Kräfte, die als pseudoskalare Mesonentheorie bekannt ist. Im Frühjahr 1953 haben wir nach heroischen Bemühungen theoretische Graphen der Mesonen-Protonen-Verteilung geplottet. Wir haben mit Freuden festgestellt, dass unsere berechneten Zahlen ziemlich gut mit den von Fermi gemessenen Zahlen übereinstimmten. Also vereinbarte ich mit Fermi ein Treffen und zeigte ihm unsere Ergebnisse. Stolz fuhr ich im Greyhound-Bus [Greyhound, das führende nationale Busunternehmen in den USA. A. d. Übers.] von Ithaca nach Chicago mit einem Packen unserer theoretischen Graphen, um sie Fermi zu zeigen.
Als ich in Fermis Büro ankam, übergab ich ihm sofort die Graphen, aber er warf kaum einen Blick darauf. Er bat mich, Platz zu nehmen und fragte mich dann freundlich nach der Gesundheit meiner Frau und unseres neugeborenen Sohnes, der heute fünfzig Jahre alt ist. Dann gab er sein Urteil mit einer ruhigen Stimme ohne Höhen und Tiefen ab. Es gibt zwei Möglichkeiten, Berechnungen in theoretischer Physik durchzuführen“, sagte er. „Ein Weg, und zwar der, den ich bevorzuge, besteht darin, ein klares physikalisches Bild des Prozesses vor Augen zu haben, den man berechnet. Der zweite Weg besteht darin,  einen präzisen und einen in sich widerspruchsfreien mathematischen Formalismus zu haben. Sie haben keins von beiden“.

Ich war ein wenig geschockt, wagte es aber, ihn zu fragen, warum er die pseudoskalare Mesonentheorie nicht als widerspruchsfreien mathematischen Formalismus sieht. Er erwiderte: „Die Quanten-Elektrodynamik ist eine gute Theorie, weil die Kräfte schwach sind, und wenn der Formalismus mehrdeutig ist, haben wir ein klares physikalisches Bild, das uns leitet. Hinsichtlich der pseudoskalaren Mesonentheorie gibt es kein klares physikalisches Bild, und die Kräfte sind so stark, dass nichts konvergiert. Um Ihre berechneten Ergebnisse zu erlangen mussten Sie frei wählbare Prozeduren [cut-off procedures] einführen, die weder auf solider Physik noch auf solider Mathematik basieren“.
Verzweifelt fragte ich Fermi, ob er nicht wegen der Übereinstimmung zwischen unseren berechneten Zahlen und seinen gemessenen Werten beeindruckt sei. Er erwiderte: „Wie viele frei wählbare Parameter haben Sie für Ihre Berechnungen verwendet?“
Ich dachte einen Moment nach und sagte: „Vier“.
Er sagte: Ich erinnere mich, wie mein Freund Johnny von Neumann zu sagen pflegte, mit vier Parametern kann ich einen Elefanten anpassen, und mit fünf kann ich ihn dazu bringen, mit seinem Rüssel zu wackeln“. Damit war die Unterhaltung beendet. Ich dankte Fermi für seine Zeit und seine Bemühungen und nahm traurig den nächsten Bus zurück nach Ithaca, um den Studenten die schlechten Nachrichten zu überbringen.

Die Gleichung von Nikolov und Zeller enthält fünf Parameter und nur acht Datenpunkte. Wenn ich sagte, dass es kein WUNDER ist, dass sie den Elefanten mit seinem Rüssel wackeln lassen, sondern ein zu erwartendes und triviales Ergebnis ihrer betrügerischen Prozeduren ist, dann habe ich damit alles gesagt.
P.S. – Es gibt natürlich eine technische Bezeichnung für das, was sie getan haben, da es keine neuen Fehler unter der Sonne gibt. Man nennt es „Überanpassung“. Laut Wikipedia: „Überanpassung erfolgt immer dann, wenn ein Modell exzessiv komplex ist, zum Beispiel wenn man zu viele Parameter im Verhältnis zur Anzahl der Beobachtungen hat.“ Fünf Parameter ist ein viel, viel zu großes Verhältnis zu acht Datenpunkten, das ist garantiert überangepasst.
P.P.S. – Ein Problem mit der WUNDERgleichung von N&Z liegt darin, dass sie sie in keiner Weise statistisch getestet haben.
Ein Weg, um zu sehen, ob ihre Anpassung wenigstens vage gültig ist, besteht darin, einige Datenpunkte außen vor zu lassen und die Anpassung noch einmal vorzunehmen. Natürlich ist das mit nur acht Datenpunkten problematisch… aber in jedem Falle kommen die angepassten Parameter radikal unterschiedlich heraus, wenn man das macht, und das weckt viele Zweifel an der Anpassung. Ich ermutige N&Z, das zu tun und über die Ergebnisse zu berichten. Ich werde es tun, aber sie glauben mir nicht, also was soll das?
Ein anderer Weg, ihre Anpassung zu überprüfen, besteht darin, den Datensatz zu halbieren und die eine Hälfte anzupassen und die Ergebnisse mit der anderen Hälfte zu überprüfen. Dies ist so, weil angepasste Gleichungen von der Art, wie sie N&Z verwendet haben, dafür bekannt sind, „außerhalb des Bereichs“ nur sehr bedingt gültig zu sein, das heißt auf Daten, die nicht verwendet wurden, um die Parameter anzupassen. Hat man lediglich acht Datenpunkte und vier Parameter in Gleichung (7), ist dies natürlich wieder problematisch, weil man bei der Teilung des Datensatzes durch zwei genauso viele Parameter wie Datenpunkte hat … nun könnte man denken, dass dies ein Hinweis darauf ist, dass das Verfahren lückenhaft ist, aber was  weiß ich schon, ich wurde gestern geboren. In jedem Falle ermutige ich N&Z, auch diesen Test durchzuführen. Meine Ergebnisse eines solchen Tests sagen, dass ihre Anpassung bedeutungslos ist, aber vielleicht sind ja ihre Testergebnisse unterschiedlich.
Aktualisierung Einer der Kommentatoren unten sagte:
Willis – mach weiter – passe einen Elefanten an. Bitte!
Ernsthaft, N&Z zeigen nur mit Hilfe der Algebra, was in Experimenten beobachtet worden ist, nämlich dass das Erwärmen eines Gases in einem geschlossenen Behälter zur Erhöhung sowohl des Drucks als auch der Temperatur führt.
OK, hier kommt meine Nachbildung der Oberflächentemperatur unter Verwendung von nichts weiter als den Daten in der Darstellung von N&Z bzgl. der Eigenschaften planetarischer Körper:

Abbildung 1: Willis’ Nachbildung der Oberflächentemperatur planetarischer Körper.
Meine Gleichung enthält eine Variable mehr und zwei Parameter weniger als die Gleichung von N&Z. Zur Erinnerung, ihre Gleichung lautete:
Ts = 25.3966 * Solar^0.25 * e^(0.233001 * Pressure ^ 0.0651203 + 0.0015393 * Pressure ^ 0.385232)
Meine Gleichung andererseits sieht so aus:
Ts = 25.3966 * Solar^0.25 * e^(0.233001 * Pressure ^ 0.0651203 + 0.0015393 * Pressure ^ 0.385232)
Man beachte, dass ich absolut nicht behaupte, dass die Temperatur durch Dichte und Schwerkraft bestimmt wird. Ich zeige lediglich, dass die Anpassung einiger Punkte mit einigen Variablen und einigen Parametern überhaupt nicht schwierig ist. Es zeigt auch, dass man die Antwort auch ganz ohne Verwendung des Bodendrucks erhalten kann. Und schließlich zeigt es, dass weder meine Nachbildung noch die Nachbildung planetarischer Temperaturen von N&Z auch nur einen Pfifferling wert ist!*
*Im Original steht hier ein Kraftausdruck, den ich lieber nicht direkt übersetzen möchte! A. d. Übers.
2. Aktualisierung Ich habe mir gedacht, dass ich nach den Wundern, die ich mit der Wundergleichung von N&Z angestellt hatte, hier nicht aufhören sollte. Ich sollte schauen, ob ich sie nicht mit ihren eigenen Spielregeln schlagen könnte und ein einfacheres Wunder zu tun. Hier nochmal ihre Gleichung:
Ts = 25.3966 * Solar^0.25 * e^(0.233001 * Pressure ^ 0.0651203 + 0.0015393 * Pressure ^ 0.385232)
Meine vereinfachte Version ihrer Gleichung sieht so aus:
Ts = 25.394 * Solar^0.25 * e^(0.092 * Pressure ^ 0.17)
Komischerweise enthält meine vereinfachte Version einen etwas geringeren RMS-Fehler als die Version von N&Z, also habe ich sie wirklich mit ihren eigenen Spielregeln geschlagen. Meine Gleichung ist nicht nur einfacher, sie ist auch genauer. Es steht ihnen frei, meine vereinfachte Wundergleichung zu benutzen, ohne Honorar. Hier sind die Anpassungen:


Abbildung 2 Eine einfachere Version der Gleichung 8 von N&Z
Wieder behaupte ich nicht, dass dies die Dinge verbessert. Die bloße Tatsache, dass ich das mit zwei einstellbaren Parametern weniger tun kann (drei anstatt fünf), heißt nicht, dass sie nicht überangepasst ist.
Sowohl die vereinfachte als auch die kompliziertere Form der Gleichungen von N&Z sind nichts weiter als eine Kurvenanpassung. Dies wird durch die Tatsache belegt, dass wir bereits drei einfache und sehr unterschiedliche Gleichungen haben, die die planetarischen Temperaturen bestimmen. Das ist das Gute an einer angepassten Gleichung – wenn man schlau ist, kann man Vieles mit nur etwas finden … aber DAS HEISST NICHT, DASS DER DRUCK DIE TEMPERATUR BESTIMMT .
Zum Beispiel kann ich das gleiche tun, ganz ohne den Druck, sondern stattdessen die Dichte zu verwenden. Diese Gleichung sieht so aus:
Ts = 25.491 * Solar^0.25 * e^(0.603 * Density ^ 0.201)
Und hier sind die Ergebnisse:

Abbildung 3: Eine Nachbildung der planetarischen Temperaturen unter Verwendung der Dichte anstelle des Drucks.
Heißt das jetzt, dass die planetarische Temperatur wirklich von der Dichte abhängt? Natürlich nicht, das Ganze ist eine Übung zur Anpassung von Kurven.
Link: http://wattsupwiththat.com/2012/01/23/the-mystery-of-equation-8/
Eine ausführliche Erwiderung samt Klarstellung der von W. Eschenbach angegriffenen Autoren finden Sie hier http://tallbloke.wordpress.com/2012/02/09/nikolov-zeller-reply-eschenbach/
Mit Dank an Leser Kieser!
Übersetzt von Chris Frey
* Der berühmte Mathematiker und Erfinder der modernen Computerarchitektur John v. Neumann pflegt zu sagen:"Geben Sie mir vier Variable und ich baue ihnen damit einen Elefanten. Geben Sie mir eine fünfte, dann wackelt er auch noch mit dem Rüssel".




Romneys Chance – Billige Energie belebt US-Wirtschaft

Romney’s Historic Opportunity: Low-Cost Energie Fuels Economic Recovery

Gastbeitrag von Dr. Fred Singer (auf WUWT)
Energie, das Lebenselixier der Wirtschaft, ist Präsident Barack Obamas Achillesferse. Mitt Romney kann die Wahl im November gewinnen, wenn er seinen Wahlkampf auf eine vernünftige Energiepolitik konzentriert.

“Mr. Romney wird sich nicht nur mit Mr. Obamas Fehlern beschäftigen müssen, sondern auch mit einem besseren Plan zur Wiederherstellung der Prosperität.” [WSJ 4-26-12] Und mit einer “…optimistischen konservativen Vision, welche der Partei Zuversicht und den Wählern einen Anstoß zum Undenken gibt.  Er muss sein Regierungsprogramm ankündigen für den Fall, dass er im November gewinnt …”. (NYT)

Als Kandidat für die US-Präsidentschaft sollte Romney nun eine zusammenhängende Politik für billige und sichere Energie formulieren, welche der US-Wirtschaft einen Schub gibt und die Menschen aus der Armut befreit. Im Grunde muss er zusammen mit seinen Anhängern die Öffentlichkeit überzeugen und inspirieren.
Es sollte deutliche Ziele nennen: Niedrigere Benzinpreise; billigeren Strom; billigeren Dünger für die Farmer und niedrigere Nahrungsmittelpreise für jedermann; billigeren Treibstoff für den Luftverkehr und für das Speditionsgewerbe; niedrigere Rohstoffpreise für die Chemische Industrie. Auch sollte er nun die Köpfe benennen, die er in seiner Mannschaft haben möchte zur Besetzung der entscheidenden Posten, um seine Politik zu machen. Sein Partner für die Vizepräsidentschaft sollte sich zur Unterstützung dieser Ziele bereits bekannt haben.

Obama hat es Romney leicht gemacht

Romney kann gewinnen, Obama hat ihm schon das meiste an Munition geliefert:
**Unter Obama hat sich der Benzinpreis mehr als verdoppelt, von $1.80 (US-Durchschnitt) nähert er sich nun $5 pro Gallone. Sein Energieminister, Dr. Chu, wollte die Preise auf Europäischer Höhe von $8 – $10 sehen.” Das tut der Mittelschicht wirklich weh, besonders den Paaren mit zwei Autos, die zur Arbeit pendeln müssen. Aber alles, was Obama getan hat und noch tut, verschlimmert die Situation.
**Er hat sein Veto gegen die Keystone Pipeline eingelegt, die immer mehr Öl von Kanada zu den Raffinerien am Golf von Mexiko leiten sollte, die sofort verfügbare Jobs geschaffen und die Energiesicherheit erhöht hätte.
**Er hat eine Menge Gebiet in Bundesbesitz der Öl und Gasproduktion entzogen – besonders in Alaska und vor den Küsten. Die Alaska-Pipeline ist in Gefahr, auszutrocknen. Sogar dort, wo die Exploration erlaubt ist, können Fördergenehmigungen nur schwer erlangt werden wegen bürokratischer Hindernisse.
**Für Obama ist Öl ein “Treibstoff der Vergangenheit;” das ist nicht so bei den Millionen von Autofahrern. Er möchte ihnen gerne Algen in die Benzintanks füllen – das ist die letzte Bio-Treibstoff-Idee! In seinem 2008er Wahlkampf hat Obama versprochen, dass unter seiner Regierung die Strompreise durch die Decke schießen würden. Dieses Versprechen hat er eingehalten – mit Hilfe des fehlgehenden ‘Standards für Erneuerbare Elektrizität,’ welcher die Energieversorger verpflichtet, teure ‘Grüne ’ Energie von den Solar- und Windprojekten einzukaufen und so indirekt zu Steuer-Einnehmern zu werden.
**Er hat auch versprochen, dass potentielle Erbauer von kohlebefeuerten Kraftwerken pleite gehen würden. Das würde noch so kommen wegen der extrem belastenden Regulierungen aus der Umweltschutzbehörde EPA. Dem jüngsten EPA-Plan zufolge soll der Bau neuer kohlebefeuerter Kraftwerke gestoppt werden, indem unmöglich zu erreichende Emissionsgrenzwerte für Kohlendioxid gesetzt werden. Allerdings will die EPA Ausnahmen zulassen, wenn das Kraftwerk das CO2 abscheidet, die Technik dafür ist aber nicht da und die Kosten werden prohibitiv sein.
**Falls Obama wiedergewählt wird, wird wahrscheinlich seine EPA mit der CO2-Begründung auch bestehende Kohlekraftwerke schließen – und vermutlich überhaupt keinen Neubau von fossil-befeuerten Kraftwerken mehr zulassen, sogar die Erdgasbefeuerten, die nur etwa die Hälfte CO2 im Vergleich zu Kohle ausstoßen. Die kalifornische PUC hat schon Gaskraftwerke verboten (am 19. April 2012), um das unrealistische Ziel von 33% Grüner Elektrizität zu erreichen.
**Die Zeichen drohender EPA Maßnahmen zur Verhinderung der Ausbeutung der Schiefergaslager durch das Horizontalbohren stehen schon an der Wand. Man behauptet, dass vom ‘fracking’ das Wasser verschmutzt würde.
Es gibt nur eine Erklärung für derartiges irrationales Vorgehen: Die Obama-Regierung scheint von Kopf bis Fuß von der pathologischen Angst katastrophaler Erderwärmung besessen zu sein, ohne an die Zukunft der Wirtschaft oder der Arbeitsplätze zu denken. Die CO2-Emission muss gestoppt werden!
Die stärkste Bestätigung dafür ergab sich aus Obamas Aussagen zum Klimawandel, als er versprach dieses Glaubensbekenntnis der (amerikanischen politischen) Linken zu einem zentralen Punkt im kommenden Wahlkampf zu machen. Das mag sich gut bei der Leserschaft von Rolling Stone machen. Aber angesichts der wachsenden Skepsis unter den normalen Amerikanern über das ideologische Kauderwelsch, das hierzu von den Mainstream Medien und aus dem Weißen Haus ständig herausgespuckt worden ist, könnte das für Obama keine Hilfe bei den Wechselwählern und den Wählern aus der Arbeiterschaft werden, die er im November ebenso braucht, wie die gebildete Elite, die ihn dazu gedrängt hat, den Bau der Keystone XL Pipeline zu stoppen. Dieser Konflikt offenbart einen Widerspruch im Zentrum seines Präsidentschaftswahlkampfes. (Commentary Magazine)
Die Situation ist wie gemacht für Romney, um eine angriffslustige Kampagne gegen die derzeitige Energiepolitik zu starten –  die noch übler würde, wenn Obama wiedergewählt wird.

Was Romney tun muss, um im November zu gewinnen

Romney muss den Wählern ganz klar machen, warum billige Energie absolut nötig für eine wirtschaftliche Erholung ist, für neue Arbeitsplätze, für einen Anstieg der Durchschnittseinkommen. Dies besonders für die Familien der Mittelschicht, die derzeit zu viel ihres Budgets für die notwendige Energie ausgeben müssen. Romney sollte auf die völlig realistische Aussicht auf amerikanische Energie-Unabhängigkeit setzen. Das ist oft versprochen, aber nie zuvor erreicht worden. Ja, er kann sogar darauf setzen, dass die USA zu einem Exporteur von Energie werden können.
**Romney kann mit Aussicht auf Erfolg versprechen, den Benzinpreis auf $2.50 pro Gallone oder noch weniger zu reduzieren, und dabei kann er Newt Gingrich dankbar sein, der dieses Ziel in einer seiner Wahlkampfreden vorgeschlagen hatte. Um es zu erreichen, müsste der Weltmarktpreis für Öl unter $60 pro Barrel von gegenwärtig $110 fallen.
**Dieses glänzende Energieversprechen ist möglich wegen des niedrigen Preises für Erdgas, der auf $2 pro mcf (1000 cubic feet) von seiner Spitze von $13 (2008) gefallen ist – mit  einer Tendenz nach unten. Alles, was Romney tun muss, ist, die Hindernisse aus der gegenwärtigen Regulierung so weit wie nur möglich zu beseitigen.
Drei wichtige Wirtschaftstatsachen sind zu bedenken:
**Da viele der neuen Bohrlöcher hochwertiges Öl liefern und flüssiges Erdgas (NGL – natural gas liquids) als Nebenprodukt, kann letzteres gewinnbringend zu noch niedrigeren Preisen verkauft werden.
**Erdgas wird derzeit für weniger als 15% vom Durchschnittspreis für Rohöl verkauft, bezogen auf Energie/BTU Basis. Das heißt, dass der Ersatz von öl-basierten Treibstoffen wie z. B. Diesel und Benzin, entweder mit Flüssig-Erdgas (Liquid Natural Gas – LNG) oder komprimiertem Erdgas (Compressed Natural Gas – CNG) gewinnbringend ist. Das kann der wirtschaftlichste und schnellste Ersatz für schwere Straßenfahrzeuge, Erdbewegungsmaschinen, diesel-elektrische Lokomotiven, Busse und Flottenfahrzeuge sein.
**Es wird auch profitabel, Erdgas direkt in Benzin oder Diesel durch chemische Prozesse ähnlich wie in Raffinerien zu wandeln. Methanol, Wasserstoff und andere Exoten kann man vergessen. Die direkte Konversion könnte die existierende Infrastruktur nutzen; sie ist kommerziell sinnvoll, die Technik ist erprobt, und das Gewinnpotential ist offensichtlich – selbst wenn die Konversions-Effizienz bei bescheidenen 50% liegt.
Dank des billigen Erdgases wird Romneys Versprechen auf niedrigere Benzinpreise leicht erfüllbar sein: durch sinkende Nachfrage und weltweit steigendes Angebot wird der Weltmarktpreis fallen und damit auch der Preis für die treibstoffabhängigen Transportkosten. Durch Absenken des Bedarfs für Treibstoff für den Transport müsste es möglich sein, rasch die Ölimporte aus Übersee zu senken; derzeit beträgt der Öl-Anteil 60% (in $) am gesamten Importvolumen. Zugleich kann die Ölförderung in ganz Nordamerika gesteigert werden. Die USA würden sich dann auf dem Weg in die Energie-Unabhängigkeit befinden und dazu noch Treibstoffe exportieren – mit der Folge einer gewaltigen Verbesserung der Zahlungsbilanz.

Der Öl-Milliardär Harold Hamm, Vorstandssprecher von Continental Resources und Entdecker der ausgiebigen Bakken Ölfelder in den nördlichen Great Plains, beklagt die derzeitige Energiepolitik als entwicklungshemmend. “Präsident Obama sitzt bei  der Energie auf dem falschen Pferd,” sagte er in einem Interview mit Stephen Moore. Angesichts des Ausmaßes der Energieerzeugung können wir überhaupt nicht an das Ziel einer Energie-Unabhängigkeit herankommen, wenn wir Steuerdollars in „Grüne  Energie” Quellen versenken, wie z. B. Wind und Solar. Sie (die Energie-Unabhängigkeit) muss aus dem Öl und Gas kommen. Hamm ist Energieberater für Romney. Gleichermaßen klagte Gouverneur Bob McDonnel, der beabsichtigt, Virginia durch die Entwicklung von offshore Öl und Gas zum Hauptsitz der Energie-Erzeugung an der Ostküste zu machen, in einem Gastbeitrag im Wall Street Journal, dass Obamas Worte „meilenweit von seinen Taten entfernt seien.”

Und noch ein Versprechen kann Romney zuversichtlich geben, nämlich, dass er den Preis für Elektrizität um die Hälfte senken kann – oder noch darunter. Das Versprechen kann erfüllt werden nicht nur aufgrund des niedrigen Erdgaspreises sondern auch wegen der viel höheren Energie-Effizienz von 60% und höher der Gaskraftwerke im Vergleich zu den derzeitigen Kohle- und Kernkraftwerken von 35-40%. Höhere Effizienz reduziert nicht nur die Brennstoffkosten (pro Kilowattstunde) sondern senkt auch deutlich die Kapitalkosten (pro Kilowatt).
Die Effizienz kann noch höher gesteigerte werden, wenn Elektrizität in einem verteilten Erzeugungssystem produziert wird: Wenn nämlich Gaskraftwerke in den verstädterten Zentren stehen und dabei die Kraft-Wärme-Kopplung eingesetzt wird. Dabei wird die Niedertemperatur-Abwärme genutzt, die normalerweise in die Umwelt abgeht und somit verschwendet wird. Sie liefert dann warmes Wasser für Raumheizungen, für das Abtauen von Schnee und Eis, für Wäschereien und sogar für Klima- und Entsalzungsanlagen. Auch das ist erprobte Technik und die Gesichtspunkte der Wirtschaftlichkeit können sehr vorteilhaft sein. Verteilte Energie-Erzeugung erhöht auch die Sicherheit (gegen Terrorismus) und vereinfacht das Problem der Ableitung von Abwärme.
Billiges Erdgas kann Grundstoff für billige Dünger für die Farmer sein: Damit gingen die Nahrungsmittelpreise nach unten, auch Rohstoff für chemische Fabriken, die Plastik und andere Vorprodukte herstellen. Dann könnten Industrien zurück in die Vereinigten Staaten kommen und heimische Arbeitsplätze bereitstellen – anstatt im Ausland zu sein, wo das Erdgas billig ist.
Die Zukunft wird noch glänzender aussehen als heute, wenn erst einmal die Technik zur zukünftigen Ausbeutung der riesigen Gashydrat-Lagerstätten zur Verfügung steht. Das muss Romney in einem optimistischen Ausblick der Wählerschaft vermitteln.
“Naturgas ist ein Eingangsrohstoff zu eigentlich jedem Industrie-Prozess,” und der Gaspreis in den USA ist nur ein Bruchteil dessen in Europa und Asien. Unser Land hat einen unglaublichen Vorsprung, wenn die Arbeitskosten in Asien ansteigen, wenn die Güter-Transportkosten von Asien nach den USA steigen, wenn der Ölpreis steigt, da die amerikanischen Arbeitskosten stagnierten oder gar heruntergegangen sind während der vergangenen 10 Jahre. Wir haben eine wirklich wunderbare Möglichkeit, eine industrielle Wiedergeburt in den USA zu entfesseln.” [Aubrey McClendon, CEO of Chesapeake Energie, WSJ 4-26-12]

Den „Grünen Drachen“ töten

Romney sollte deutliche Aussagen machen zur “Fopperei” (Senator Inhofes Wort) mit Klimakatastrophen aufgrund ansteigender CO2-Pegel. Er sollte klar sagen, dass kein Bedarf an einem hohen Umfang von Windenergie oder Sonnenenergie besteht – sogar der Bau neuer Kernkraftwerke kann aufgeschoben werden. Viele Umweltschützer werden erleichtert sein, wenn die Landschaft nicht mehr mit Sonnenpaneelen, Windmühlen und – auch das – Hunderten von Meilen von Überlandleitungen verunstaltet wird.
In seinem Buch „Werft sie alle raus“ (Throw Them All Out) berichtete Peter Schweizer, dass 80% der Multi-milliardenschweren Grünen Anleihen, Anleihegarantien und Zuwendungen an Obama-Unterstützer gingen. Romney sollte erklären, dass es fortan keine Solyndras oder andere Wohltaten mehr geben wird und keine weiteren Regierungssubventionen für ‚Grüne Energie’ und den Kumpelkapitalismus. Die Märkte sollen in Zukunft über neue Techniken entscheiden, wie z.B. über Elektroautos, Sonnenenergie usw. Viele Washingtoner Lobbyisten werden ihre gutdotierten Pöstchen verlieren.
Es gibt absolut keinen Bedarf für Bio-Kraftstoff. Ja, das gilt auch für Algen wie für Ethanol, das derzeit etwa 40% der amerikanischen Maisernte verbraucht. Der Weltmarktpreis für Mais hat sich in den vergangenen fünf Jahren verdreifacht – auch weil die EPA den Ethanol-Anteil am Treibstoff von 10% auf 15% erhöhen will. Echte Umweltschützer wissen um die vielen Rückwirkungen von Bio-Treibstofffen, die Schäden, die sie an den Ackerflächen und Wäldern anrichten, in Amerika und anderswo, und um die weiten Gebiete, die natürlichen Lebensräumen gewidmet werden könnten.
Schließlich sollte Romney klarmachen, dass er im Falle seiner Wahl Minister für Energie, für das Innere, Leiter der NOAA, der EPA ernennen wird, die seine Überzeugungen in Energiefragen teilen. Und am wichtigsten: er sollte seine Mannschaft im Weißen Haus einschließlich seines Wissenschaftsberaters so zusammenstellen, dass sie das Versprechen billiger und sicherer Energieversorgung für die amerikanische Wirtschaft erfüllen.
Vielleicht wurde das am treffendsten im Wall Street Journal (27. April) formuliert: “Wenn Ihnen die vergangenen vier Jahre gefallen haben, dann können Sie noch mal vier davon haben”
——————-
S. Fred Singer ist Professor Emeritus der University of Virginia und Vorsitzender des Science & Environmental Policy Project (SEPP). Sein Spezialgebiet ist die Atmosphären- und Weltraumphysik. Als Experte auf dem Gebiet der Fernerkundung und der Satelliten war er Gründungsdirektor des US Weather Satellite Service und später Stellvertretender Leiter des US National Advisory Committee on Oceans & Atmosphere. Er ist Senior Fellow am Heartland Institute und am Independent Institute. Obgleich er Physiker ist, hat er Wirtschaftswissenschaft für Ingenieure gelehrt und ein Buch über den Welterdölpreis geschrieben. Er arbeitete in verschiedenen Regierungspositionen und war Berater für Finanzminister Wm. Simon. Er war Mitautor am New York Times Bestseller “Unstoppable Global Warming: Every 1500 years.”  Im Jahre 2007 gründete er das NIPCC (Nongovernmental International Panel on Climate Change), das viele wissenschaftliche Berichte veröffentlichte. [Siehe www.NIPCC.org]. Zu seinen jüngsten Veröffentlichungen siehe  „http://www.americanthinker.com/s_fred_singer/“ und Google Scholar.
Originalbeitrag hier.
Übersetzung: Helmut Jäger, EIKE




Wie es um den Wahrheitsgehalt der Aussagen von IPCC-Leitautoren steht

Im Dezember 2011 veröffentlichte der Biologe Prof. Andreas Fischlin von der ETH Zürich im Magazin schweizer monat eine Kritik an den Klimathesen des US-amerikanischen Atmosphärenphysikers Prof. Fred Singer. Fischlin war am zweiten und vierten IPCC Bericht jeweils als Leitautor beteiligt und verteidigt in seinem Text die Arbeit des Weltklimarats vehement. Sein Artikel ist dabei in einem hochemotionalen, teilweise aggressiven Stil abgefasst, der eine fruchtbare wissenschaftliche Diskussion eher behindert.
Wir haben uns einmal erlaubt, Fischlins Argumentation einem Faktencheck zu unterziehen. Sind seine harten Vorwürfe gegen Singer wirklich gerechtfertigt? Das Ergebnis der wissenschaftlichen Überprüfung von Fischlins Beweisführung ist ernüchternd. Alles deutet darauf hin, dass sich der ehemalige IPCC-Autor kräftig verrannt hat. Im Folgenden bringen wir eine detaillierte Analyse ausgewählter Passagen aus Fischlins Schmähschrift.
Nr. 1: Passage im Artikel von Andreas Fischlin;
Ich schicke an dieser Stelle bereits voraus, dass Herr Singer erstens kein aktiver Klimaforscher ist […]
Nr. 1: Fakten-Check
Prof. Fred Singer ist ein US-amerikanischer Atmosphärenphysiker. Im Jahre 1948 schloss er seine Promotion in Physik an der Princeton University ab. 1953 wurde er Professor für Physik an der University of Maryland und Direktor des dortigen Zentrums für Atmosphären- und Weltraumphysik. 1962 wechselte er als Direktor in die Abteilung für Wettersatelliten im US-Handelsministerium (heute bei NOAA) und kehrte 1964 in die Wissenschaft zurück als Gründungsdekan des Fachbereichs Umwelt- und Planetenwissenschaft an der University of Miami. Von 1967 bis 1971 arbeitete er erneut in der Bundesadministration, bis 1970 im US-Innenministerium als Deputy Assistent Secretary in der Abteilung für Wasserversorgung, die damals auch für die Atmosphären- und Ozeanographie-Aktivitäten zuständig war. 1970 bis 1971 war er Deputy Assistant Administrator (Policy) an der US-Bundes-Umweltbehörde. 1971 übernahm er die Professur für Umwelt-Wissenschaften an der University of Virginia wo er 1994 emeritierte (Quelle: Wikipedia). Eine von Singers neuesten Publikationen ist z.B. Singer (2011). Fischlin ist Biologe. Seine Forschungsinteressen sind die Modellierung von Ökosystemen. Die Frage sei erlaubt: Welcher der beiden Wissenschaftler hat wohl gemäß seiner Ausbildung und Berufserfahrung die größere Erfahrung im Themenkomplex Atmosphäre, Ozeanographie, Wetter und physikalische Klimamechanismen? Einen weiteren Punkt gilt es unbedingt zu beachten: Aufgrund der zahlreichen offensichtlichen Widersprüche und Probleme in den Klimawissenschaften, ist eine Evaluierung durch externe Auditoren dringend angezeigt. Da die in diesem Bereich „aktiven Klimaforscher“ durch vielfältige Kooperationen, Institutionszugehörigkeiten und andere Abhängigkeiten im Zuge von Fördermittbeantragungen und -bewilligungen miteinander eng verflochten sind, kann eine solche Überprüfung nur durch außenstehende Naturwissenschaftler erfolgen. Aus diesem Grund sowie wegen der großen gesellschaftlichen Bedeutung des Problems ist dem Fach dringend anzuraten, Kritiken von Personen außerhalb des Expertenzirkels ernst zu nehmen.
Nr. 2: Passage im Artikel von Andreas Fischlin
[…] und es, zweitens, gerade mit der «Ehrlichkeit und der Redlichkeit» nicht besonders genau nimmt.
Nr. 2: Fakten-Check
Starker Tobak. Um diese Frage werden wir uns am Abschluss des Faktenchecks etwas genauer kümmern. Welche Belege führt Fischlin für diese starke Behauptung an?
Nr. 3: Passage im Artikel von Andreas Fischlin
Singer behauptet, die Hockeyschlägerkurve aus dem IPCC-Bericht von 2001 sei mittlerweile von Statistikern widerlegt worden. Das ist mir nicht bekannt, und ich zweifle, dass Herr Singer hierfür irgendeinen Beleg hat. […] An der Hockeykurve waren bloss geringfügige Korrekturen erforderlich.
Nr. 3: Fakten-Check
Hier irrt Fischlin. Die Hockeyschlägerkurve ist heute in der Tat vollständig diskreditiert. Neuere Temperaturrekonstruktionen durch Michael Mann und Kollegen zeigen nun wieder deutlich die Mittelalterliche Wärmeperiode sowie die Kleine Eiszeit. Diese charakteristischen Temperaturanomalien wurden kürzlich auch von Fredrik Ljungqvist bestätigt (Ljungqvist 2010, Ljungqvist et al. 2012). Dringender Buchtip: The Hockey Stick Illusion(von Andrew Montford).Der IPCC täte gut daran, den offensichtlichen Hockeyschläger-Irrweg endlich offen einzuräumen, um einen Teil der Glaubwürdigkeit dieses Gremiums wieder herzustellen.
Nr. 4: Passage im Artikel von Andreas Fischlin
Die wesentlichen Erkenntnisse, die der Hockey Stick illustriert, sind jedoch korrekt. Sie zeigen, dass erstens die schon vor zehn Jahren messbare Erwärmung sich deutlich aus dem Bereich der langfristigen natürlichen Schwankungen heraus bewegte, und zweitens, dass die heutigen Temperaturen diejenigen vergangener, warmer Epochen – auch die der mittelalterlichen Warmzeit, mit der Herr Singer gern argumentiert – übersteigen
Nr. 4: Fakten-Check
Dies ist nicht richtig. Die Mittelalterliche Wärmeperiode (MWP) hatte ein ähnlich hohes Niveau wie die aktuelle Moderne Wärmeperiode. Was meint Fischlin nur mit „vor zehn Jahren messbare Erwärmung“? Die globale Durchschnittstemperatur ist bekanntlich seit mehr als zehn Jahren, also seit 2000, nicht mehr angestiegen! Anmerkung EIKE: Insbesondere die Proxy-Daten des Stalagmiten SPA12 zeigen, dass die MWP höhere Temperaturen aufwies, als die des 20. Jahrhunderts, s. hierzu auch die Veröffentlichungen hier und hier.
Nr. 5: Passage im Artikel von Andreas Fischlin
Relevant ist hingegen, dass ohne wirksamen Klimaschutz die Spitze des Schlägers für das Jahr 2100 Temperaturen aufweist, die auf diesem Planeten letztmals vor 3 oder 40 Millionen Jahren herrschten!
Nr. 5: Fakten-Check
Die zitierte starke Erwärmung bis 2100 basiert auf IPCC-Klimamodellen, die zu hinterfragen sind (siehe unten).
Nr. 6: Passage im Artikel von Andreas Fischlin
Herr Singer behauptet, dass Klimamodelle als Mittel zur Abschätzung zukünftiger Temperaturen nichts taugten, da sie nicht genügend überprüft seien und nicht einmal vergangene Temperaturänderungen nachrechnen könnten. Beides sind unzutreffende Behauptungen: Klimamodelle basieren auf physikalischen Gesetzen, und ihre Berechnung hat eine lange Tradition
Nr. 6: Fakten-Check
Die hier verwendeten Modelle sind nicht in der Lage, die deutlichen Klimaschwankungen (z.B. Bond-Zyklen) der letzten 10.000 Jahre zu reproduzieren. Diese Klimaschwankungen verliefen weitgehend synchron zu Änderungen der Sonnenaktivität. Laut aktuellen IPCC-Klimamodellen soll die Sonne jedoch angeblich nur eine fast zu vernachlässigend geringe Klimawirkung haben. Diese Annahme steht im krassen Gegensatz zu den geologischen Daten der nacheiszeitlichen Klimaentwicklung. Es ist davon auszugehen, dass ein signifikanter Teil der Erwärmung der letzten 150 Jahre seit Ende der Kleinen Eiszeit auf die Klimawirkung der Sonne zurückzuführen ist, ein Effekt der bislang fälschlicherweise teilweise dem CO2 zugeschlagen wurde. Auch CO2 trug zu der genannten Erwärmung bei, jedoch in einem weit geringeren Maße als von Fischlin und IPCC vorgeschlagen. Klimamodelle die die Vergangenheit nicht abbilden können, sind auch nicht in der Lage, die zukünftige Klimaentwicklung zuverlässig vorherzusagen. Es liegt ein grober Ansatzfehler vor, der dringend korrigiert werden muss.
Anmerkung EIKE:Noch im IPCC-Bericht 2001, Sec. 14.2.2.2., S. 774 heißt es „...we are dealing with a couped non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible„. Der Bearbeiter ist der Auffassung, dass zuverlässige Klimamodelle andere Eigenschaften aufweisen müssten. Den schlimmsten Missgriff leisten sich Klimamodelle immer noch, indem sie den sog. Hot Spot vorhersagen, der in zehntausenden Ballonmessungen bis heute nicht auffindbar ist.
Nr. 7: Passage im Artikel von Andreas Fischlin
[…] den städtischen Wärmeinseleffekt gibt es zwar, er ist aber vernachlässigbar (unterhalb 0.006°C pro Dekade) und kann die globalen Trends nicht erklären.
Nr. 7: Fakten-Check
Lokal spielt der städtische Wärmeinseleffekt (UHI) eine große Rolle. Aufgrund der weiten, unbesiedelten Flächen auf der Erde könnte er auf globaler Ebene vielleicht wirklich nur eine eher untergeordnete Rolle spielen. Dies suggerieren Eregbnisse der sogenannten BEST-Studie. Zusätzliche Untersuchungen hierzu sind im Gange. Die beobachtete Erwärmung der Erde seit 1850 war auf jeden Fall zu erwarten, da sie den seit 10.000 Jahren pulsierenden Temperaturzyklus fortsetzt. Immer wenn die Sonne sehr aktiv war, erwärmte sich die Erde, und wenn die Sonne schwächer wurde, kühlte die Erde ab. Die letzten Jahrzehnte gehörten zu den solar aktivsten der letzten 10.000 Jahre, wie Solanki et al. (2004)in einem Nature-Artikel zeigen konnte. Das Sonnenmagnetfeld als Maß der Sonnenaktivität hat sich in den letzten 100 Jahren mehr als verdoppelt. Obwohl die beobachtete Temperaturentwicklung der letzten 160 Jahre allgemein gut in das natürliche Grundmuster der Temperaturdynamik passt, hat wohl auch CO2den Erwärmungstrend weiter verstärkt. Hauptaufgabe der Klimawissenschaften sollte es sein, diesen anthropogenen Beitrag in realistischer Weise näher zu quantifizieren. Hierzu muss jedoch zunächst die nacheiszeitliche Klimageschichte korrekt modelliert werden.
Ergänzung von EIKE: In der Publikation wird die Wirkung des UHI quantitativ belegt.
Nr. 8: Passage im Artikel von Andreas Fischlin
Im Zeitraum zwischen der Inbetriebnahme erster mit Koks betriebener Hochöfen und der Erfindung des «iPhone» wurde eine Erhöhung der mittleren Erdtemperatur um 0.74°C gemessen, was gut mit den Erwartungen übereinstimmt, die sich also durch den CO2-Anstieg mittels Treibhauseffekt ergeben – den Herr Singer ja nicht bestreitet. Hierbei haben Schwankungen der Sonnenaktivität lediglich einen Beitrag von 7 Prozent geleistet – seit Ende der 80er-Jahre zeigt sich sogar ein gegenteiliger Effekt, die Sonnenaktivität schwächt sich ab. All das zeigt: die Sonne kann als natürliche Ursache für die beobachtete Erwärmung nicht verantwortlich gemacht werden
Nr. 8: Fakten-Check
Fischlins Annahme, dass die Sonne nur einen einstelligen Prozentanteil an der seit 1850 beobachteten Erwärmung besitzt, basiert auf theoretischen Klimamodellen, welche die Klimageschichte der vergangenen 10.000 Jahre nicht reproduzieren können (siehe oben). Die solar-synchrone Temperaturentwicklung der Nacheiszeit zeigt eindeutig, dass der vom IPCC für die Sonne angesetzte Strahlungsantrieb viel zu gering ist. Im Gegenzug ist der für das CO2angenommene Strahlungsantrieb viel zu hoch. Der Hinweis auf eine angebliche Abschwächung  der Sonnenaktivität seit den 1980er Jahren ist grob irreführend. Der 21. Und 22. Sonnenzyklus in den 1980er und 1990er Jahren bewegte sich auf einem sehr hohen Aktivitätsniveau. Wie berichtet, konnte Solanki et al. (2004) zeigen, dass die Sonnenaktivität der letzten Jahrzehnte insgesamt zu den solar aktivsten Phasen der vergangenen 10.000 Jahre zählte. Eine Bezugnahme auf Trends von wenigen Dekaden ist dabei weder zulässig noch sinnvoll. Zum einen unterschreitet es die 30-Jahres-Klima-Definition. Zum anderen müssen deutlich längere Entwicklungen von 100-200 Jahren betrachtet werden, da das Klimasystem durch die Trägheit der Ozeane nur mit starker Verzögerung vollständig auf Impulse reagiert. Es dauert mitunter mehrere Dekaden bis Gleichgewichte aufgebaut sind, teilweise sogar länger. Leider versäumt Fischlin darauf hinzuweisen, dass die Sonnenaktivität seit der Kleinen Eiszeit vor 300 Jahren stark angestiegen ist. Allein in den letzten 100 Jahren hat sich das Sonnenmagnetfeld mehr als verdoppelt. Aufgrund der empirisch bewiesenen starken Kopplung von Sonnenaktivität und Temperaturentwicklung muss von der Existenz von solaren Verstärkermechanismen ausgegangen werden, auch wenn der genaue physikalische Mechanismus noch nicht ausreichend bekannt ist. Derzeit wird an mehreren solcher Mechanismen geforscht. Die vorläufigen Ergebnisse hierzu werden regelmäßig in internationalen, begutachteten Fachzeitschriften veröffentlicht. Das Verschweigen all dieser Umstände in Fischlins Artikel könnte man – mit seinen eigenen Worten – als unredlich, pseudowissenschaftlich, verzerrend, unseriös, rosinenklauberisch oder unehrlich bezeichnen. Da wir uns hier jedoch auf die Diskussion der wissenschaftlichen Inhalte beschränken, wollen wir hierauf verzichten. Interessanterweise musste auch Alfred Wegener eine ähnlich heftige und unfaire Reaktion des wissenschaftlichen Establishments damals über sich ergehen lassen (siehe unser Blogartikel „Kontinentalverschiebung und Klimawandel: Die wundersame Wiederholung der Wissenschaftsgeschichte“). Es scheint zum guten Ton in der Wissenschaft zu gehören, Vertreter alternativer Interpretationen heftig und persönlich anzufeinden. Dies ist in höchstem Maße unethisch und einer modernen, aufgeklärten Wissenschaft unwürdig.
Nr. 9: Passage im Artikel von Andreas Fischlin
Auch in der von Singer erwähnten Arbeit von Mangini wird unzulässigerweise von einer Punktbeobachtung in einer Tropfsteinhöhle auf das Weltklima geschlossen und damit keineswegs ein Beweis für die Sonne als Ursache der heutigen Erwärmung beigebracht.
Nr. 9: Fakten-Check
Fischlin reduziert hier in unzulässigerweise die wichtigen Beobachtungen der Mangini-Gruppe auf ein angeblich lokales Phänomen. Ganz offensichtlich fehlt Fischlin hier der Überblick über die geologische Literatur. Mittlerweile gibt es eine große Anzahl von Publikationen aus den verschiedensten Teilen der Erde, in denen die solar-bedingten, synchronen Klimazyklen bestätigt wurden (siehe zum Beispiel S. 68-74 in „Die kalte Sonne“ oder unser Blogartikel-Übersichtzu diesem Thema). Neben den Ergebnissen der Mangini-Gruppe sind hier auch die Bond-Zyklen zu nennen, welche zuerst von Bond et al. (2001) beschrieben wurden. Fast im Monatstakt erscheinen heute neue Publikationen, die die Klimawirkung der Sonne im Bond-Takt bestätigen. Da die Bond-Zyklen offensichtlich nicht in Fischlins vorgefasstes Weltbild passen, spricht er unbeirrt von „Punktbeobachtungen“, was nur möglich ist, wenn man die eindeutige wissenschaftliche Faktenlage in erschreckender Weise ignoriert.
Ergänzung von EIKE: bevor man als fachfremder Biologe fragwürdige Behauptungen in die Welt entlässt, sollte man sich über den Stand der Fachliteratur informieren. Zur MWP gibt es eine sehr ausführliche Zusammenstellung, aus der hervorgeht, dass die MWP sehr wohl ein globales und kein lokales Ereignis war.
Nr. 10: Passage im Artikel von Andreas Fischlin
Schliesslich zeigt die durch Singer selbst erwähnte Abkühlung der oberen Luftschichten, dass der Treibhauseffekt wirksam ist. Nur der Anstieg der CO2-Konzentration kann erklären, wieso am Boden eine Erwärmung und in der Stratosphäre eine Abkühlung stattfindet. Wäre die Sonne verantwortlich, so müsste sich die ganze Atmosphäre gleichmässig erwärmen.
Nr. 10: Fakten-Check
Ähnlich wie Mojib Latif, unterliegt Fischlin offenbar dem Irrglauben, die Temperaturentwicklung der Stratosphäre könnte als Beweis für eine starke Klimawirkung des CO2 herangezogen werden. Dies ist aber nicht der Fall wie wir in unserem Blog-Beitrag „CO2-Fingerabdruck löst sich in Luft auf: Neue Studie belegt Ozonwirkung auf Temperatur in der mittleren Atmosphäre“ zeigen konnten. Eine neue Studie von Dr. Uwe Berger und Prof. Franz-Josef Lübken vom Leibniz-Institut für Atmosphären-Physik in Kühlungsborn belegte nun, dass der Abkühlungstrend in der hohen Atmosphäre überwiegend durch die Abnahme des stratosphärischen Ozongehalts verursacht wurde.
Nr. 11: Passage im Artikel von Andreas Fischlin
Bei der Behauptung Singers, die Erde reagiere weit weniger empfindlich auf die Verdoppelung des CO2 als durch die Klimamodelle «angenommen», übersieht er, dass diese sogenannte Klimasensitivität auch zu vergangenen Klimaänderungen passen sollte. Errechnet man ohne Klimamodelle den Zusammenhang zwischen CO2 und Gleichgewichtstemperaturen für die letzten 420 Millionen Jahre, so ergibt sich ein Wert von 2.8°C. Diese Zahl liegt nahe beim sich auf viele andere wissenschaftliche Arbeiten abstützenden, besten Schätzwert des IPCC von 3°C.
Nr. 11: Fakten-Check
Fischlin scheint übersehen zu haben, dass in der Erdgeschichte gar keine klare Korrelation zwischen CO2 und Temperatur ausgebildet war. Zudem ist unklar, in welchen Fällen die CO2-Dynamik Folge – und nicht Ursache – der Temperaturentwicklung war. Eine Berechnung der CO2-Klimasensitivität aufgrund der erdgeschichtlichen Entwicklung der letzten 420 Millionen Jahre ist daher weder sinnvoll noch möglich.
Nr. 12: Passage im Artikel von Andreas Fischlin
Ich möchte klarstellen: am letzten IPCC-Bericht haben 1369 Autoren mitgeschrieben, mehr als 2500 Gutachter haben die Texte überprüft, Zehntausende wissenschaftlicher Originalarbeiten von Zehntausenden Forschern sind berücksichtigt worden. Beim angeblichen Gegenbericht, dem NIPCC-Bericht, den Fred Singer mit Craig Idso geschrieben hat, sind es ganze 37 Personen, inklusive Gutachtern und Sekretärinnen, die mitgewirkt haben. Dieser Bericht kopiert in vermutlich bewusst verwirrender Absicht das Erscheinungsbild des letzten IPCC-Berichts, ist durch die Wiederholungen immergleicher Zitate unnötig aufgebläht, und argumentiert durchwegs rosinenklauberisch. Er genügt wissenschaftlichen Anforderungen nicht und ist aus oben genannten Gründen als pseudowissenschaftliches Machwerk zu bezeichnen.
Nr. 12: Fakten-Check
Die Kritik richtet sich nicht gegen die 1369 Autoren, sondern die kleine Gruppe von Forschern, die aus der großen Vielzahl der Daten und Interpretationsmöglichkeiten die letztendliche IPCC-Sichtweise herausarbeitet. An dieser Synthese sind nur relativ wenige Personen beteiligt, und genau an dieser Stelle werden die im Hauptteil des IPCC-Berichts durchaus erwähnten klaren Hinweise auf eine signifikante Beteiligung natürlicher Klimafaktoren wie der Sonne und Ozeanzyklen marginalisiert und kleingeredet. Entsprechend werden diese Sichtweisen auch nicht ausreichend in den Klimamodellen berücksichtigt. Solarverstärker sind in den Modellen nicht eingebaut, obwohl nur sie die Vergangenheit erklären können. Donna Laframboise konnte in ihrem wichtigen IPCC-kritischen Buch „The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert” zeigen, dass etwa ein Drittel der 34 Autoren des IPCC Summary Reports mit dem WWF und Greenpeaceverbandelt sind. Die angeblich unabhängigen IPCC-Gutachter begutachten zum Teil ihre eigenen Arbeiten für den Bericht. Interessenskonflikte sind hier vorprogrammiert.
Der NIPCC-Bericht als Gegenentwurf zum IPCC-Bericht betont gezielt die Rolle der natürlichen Klimafaktoren, da diese in der IPCC-Synthese drastisch unterschätzt wurden. Der Weltklimarat täte gut daran, den NIPCC-Bericht als konstruktiven Denkanstoß ernst zu nehmen, anstatt ihn reflexhaft als unerwünschtes Konkurrenzprodukt zu bekämpfen. Die Frage des Klimawandels ist gesellschaftlich zu wichtig, als dass hier auf dem Rücken der Bevölkerung Fehden beleidigter Autoren ausgefochten werden könnten.
Anmerkung EIKE: Wissenschaftliche Erkenntnisse sind in der Regel nicht das Ergebnis von Mehrheitsmeinungen.
Nr. 13: Passage im Artikel von Andreas Fischlin
Da Forschung höchsten wissenschaftlichen Standards genügen muss, werden Gesuche durch unabhängige Gutachter beurteilt, also von potentiellen Konkurrenten um die begrenzten Mittel. Wie wahrscheinlich ist es, dass dabei jahrzehntelang unredliche Wissenschaft nicht aufgedeckt würde?
Nr. 13: Fakten-Check
Es geht dabei nicht um Unredlichkeit, sondern um das Phänomen „Groupthink“, wobei sich eine eng verbandelte wissenschaftliche Gruppe zu sehr auf eine Richtung festgelegt hat. Gutachter prüfen dabei vor allem, ob ein Ergebnis mit der vorherrschenden IPCC-Denkweise kompatibel ist. Andere fachliche Interpretationen werden dabei blockiert bzw. auf Randschauplätze abgedrängt. Common Sense spielt nur eine untergeordnete Rolle. Es fehlt die ergebnisoffene Bewertung nach den Regeln der Logik und maximalen Plausibilität. Siehe auch unseren kürzlichen Blogartikel „Groupthink und Klimareligion: Die Psychologie der Klimadebatte“.
Anmerkung EIKE: Immerhin wurde die IPCC-Mär vom Abschmelzen der Himalaya Gletscher lange Zeit nicht nur nicht aufgedeckt, sondern von dem Gremium IPCC mit höchsten Gutachter-Standards (so Fischlin) auch noch so lange verteidigt, bis es endgültig peinlich wurde.
Nr. 14: Passage im Artikel von Andreas Fischlin
Auch behauptet Herr Singer, dass der IPCC durch eine handvoll Wissenschafter kontrolliert werde. Denkt er allen Ernstes, alle Regierungen dieser Welt liessen sich so auf der Nase herumtanzen?
Nr. 14: Fakten-Check
Das Entscheidungsgremium des IPCC ist in der Tat auf eine überschaubare Anzahl von Personen beschränkt. Erneut der Hinweis auf Donna Laframboise’s Buch „The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert“.
Anmerkung EIKE. Nicht alle Regierungen dieser Welt, denn es gibt nur noch die EU, Australien und Neuseeland, die beim „Klimaschutz“ mitmachen. Geht man daher von den weltweiten Kopfzahlen aus, ist die Menschheit also doch nicht so dumm, wie es uns Herr Fischlin weismachen möchte.
Nr. 15: Passage im Artikel von Andreas Fischlin
Er verschweigt auch hier, dass im Verlauf der Jahre den meisten seiner Behauptungen belegte Gegenargumente entgegengehalten wurden.
Nr. 15: Fakten-Check
Zwar wurden Gegenargumente vorgelegt, diese waren jedoch in der Regel nicht stichhaltig. Vielmehr wurden unbequeme Kritiker durch mediale Ächtung, Fördermittelentzug und persönliche Kampagnen aus der Klimadiskussion herausgedrängt (z.B. deutsche Bundesanstalt für Geowissenschaften und Rohstoffe, Prof. Mangini, Prof. Veizer), so dass es am Ende erschien, als hätte die IPCC-Seite durch Argumente überzeugen können. Viele der von früheren Klimaskeptikern vorgebrachten Argumente sind heute aktueller denn je und weiter gültig. Siehe z.B. FAQ unserer Webseite sowie die Kommentierung der Presseartikel zu unserem Buch „Die kalte Sonne“).
Anmerkung EIKE: Wir erlauben uns in aller Bescheidenheit, in diesem Zusammenhang auch auf die Bemühungen unserer Webseite hinzuweisen.
Nr. 16: Passage im Artikel von Andreas Fischlin
Wer angesichts dieser Sachlage unbeirrt an vorgefassten Resultaten festhält, wer wissenschaftliche Ergebnisse aus seriöser Forschung – weil nicht ins Weltbild passend – ausklammert, verschweigt, verzerrt, und haltlose Unterstellungen macht, was die mir bekannten Tätigkeiten und Veröffentlichungen von Herrn Singer seit Jahrzehnten wie ein roter Faden durchzieht, kann nicht in Anspruch nehmen ein redlicher und ehrlicher Wissenschafter zu sein.
Nr. 16: Fakten-Check
Fischlins Argumentation enthält zahlreiche schwerwiegende Fehler und Auslassungen (siehe oben). Die pauschale Abqualifizierung von Singer erscheint daher in keinster Weise gerechtfertigt. Fischlin sollte sich ernsthaft mit den vorgebrachten Argumenten auseinandersetzen und hierauf eine Antwort verfassen. Zudem sollte er in Erwägung ziehen, sich bei Fred Singer für die Entgleisungen in seinem Artikel im schweizer monat zu entschuldigen.
Anmerkung EIKE zu dieser letzten Passage von Fischlin: keine! Auch das ist ein Kommentar, denn mit solch haltlosem Unsinn disqualifiziert sich der Biologe Fischlin ganz von selber.
EIKE-Bearbeitung von
Prof. Dr. Horst-Joachim Lüdecke
(EIKE-Pressesprecher)




Neue Studie: Wasserdampf-Rückkopplung ist stark negativ

Beweise für eine negative Wasserdampf-Rückkopplung
Clive Best

Abstract: Es wird gezeigt, dass eine positive lineare Klima-Rückkopplung für kombinierte Wasserdampfeffekte mit dem Schwache-Sonne-Paradoxon unvereinbar ist. Im Besonderen führen Rückkopplungswerte von ~2,0 W/m²K, wie sie die gegenwärtigem GCMs annehmen, zu nichtphysikalischen Ergebnissen hinsichtlich der Solarstrahlung vor einer Milliarde Jahren. Ein einfaches Modell wird beschrieben, wonach erdähnliche Planeten mit großen Oberflächen flüssigen Wassers bei kleinen Änderungen der einfallenden Sonnenstrahlung die Temperatur selbst regulieren können. Das Modell nimmt an, dass sich reflektierende Wolken ausbreiten, während der Treibhauseffekt mit der heller werdenden Sonne abnimmt. Die Gesamtwasserdampf-Rückkopplung* des Modells ist stark negativ. Direkte Beweise für die negative Wasserdampf-Rückkopplung finden sich in den Stationsdaten von CRUTEM4, indem man die Temperaturanomalien in ariden Regionen (Wüsten und Polargebiete) mit jenen in feuchten Regionen (hauptsächlich in den Tropen) vergleicht. Alle 5600 Stationen wurden nach der Köppen-Geiger-Klimatologie (9) eingeordnet. Zwei separate Temperaturreihen von 1900 bis 2011 wurden für jedes Gebiet berechnet. Es ergab sich eine klare Differenz der Temperaturanomalien. Unter der Annahme, dass die Ursache der Differenz im atmosphärischen Wasserdampfgehalt zu suchen ist, kann ein Rückkopplungswert von -1,5 ±0,8 W/m²K abgeleitet werden.
[*Der Autor spricht immer von „Water feedback“. Eigentlich kann aber nur Wasserdampf  gemeint sein. A. d. Übers.]
EINFÜHRUNG
Das Schwache-Sonne-Paradoxon wurde zum ersten Mal von Carl Sagan (1) eingeführt, der darauf hingewiesen hatte, dass geologische Beweise für die Existenz flüssiger Ozeane auf der Erde vor 4 Milliarden Jahren nicht kompatibel mit einem solaren Output sind, das verglichen mit heute um 30% niedriger lag. Die Sonne ist ein Hauptstern, von deren Output bekannt ist, dass er mit der Zeit langsam zunimmt. Die Gesamtveränderung der Solarstrahlung während dieser langen Zeit ergibt sich zu riesigen rund 87 W/m². Es wurde gesagt, dass ein verstärkter Treibhauseffekt aufgrund sehr hoher CO2- und/oder CH4-Konzentrationen dieses Paradoxon auflösen kann (2). Allerdings stützen kürzliche geologische Beweise nicht die Verantwortung des CO2 dafür, sondern stattdessen führt eine größere Wasseroberfläche den Autoren zufolge zu einer niedrigeren Albedo als wahrscheinliche Lösung (3). Andere haben vorgeschlagen, dass hohe Zirruswolken die Erde effektiv erwärmt haben (4). Obwohl die Atmosphäre vor Beginn der Photosynthese ganz anders ausgesehen haben muss, setzt die Existenz großer flüssiger Ozeane immer noch voraus, dass Wolken und Wasserdampf eine ähnliche Rolle bei der Energiebilanz der Erde gespielt haben müssen wie heute.
Der Beweis besteht darin, dass sich die globale Temperatur während der Erdgeschichte nur ziemlich wenig verändert hat. Daher scheint es wahrscheinlich, dass die Rückkopplungen im Frühstadium der Erde negativ waren, um einen Runaway-Effekt der Aufheizung der Erdoberfläche im Zuge der heller werdenden Sonne zu vermeiden. Die fortgesetzte Bedeckung der Erde mit Wasser – etwa 70% – hat offensichtlich die globale Temperatur stabilisiert. Ein einfaches Modell, wie das vonstatten gegangen sein könnte, wird als Nächstes beschrieben, analog zu einem Vorschlag* von James Lovelock zur Rechtfertigung der Gaia-Theorie (7).
[*„Daisy World“ lautet dieser Vorschlag. Ich habe keine Ahnung, was damit gemeint sein könnte. A. d. Übers.]
—————
CRUTEM4-ANALYSE
Die Wasserdampf-Rückkopplung im gegenwärtigen Klima wurde durch Vergleiche zwischen Gebieten mit sehr geringem Wasserdampfgehalt (Wüsten und Polargebiete) mit Gebieten mit sehr hohem Wasserdampfgehalt (tropische Feuchtgebiete) ermittelt. Die jüngsten CRUTEM4-Daten (8) mit 5500 individuellen Stationen auf den Landgebieten der Erde wurden untersucht. Jede Station wurde klassifiziert, indem man sie in Abhängigkeit von ihrer Lage mit der Köppen-Geiger-Klimaklassifikation (9) indizierte.
„Aride” Stationen sind definiert als solche mit Niederschlagswerten ‚W’ oder mit dem Klima ‚E’ in (9). Diese befinden sich entweder in Wüsten oder in Polargebieten mit dem niedrigsten atmosphärischen Wasserdampfgehalt der Erde. „Nasse“ Stationen liegen definitionsgemäß in durch und durch humiden tropischen Gebieten – Klima ‚A’ und Niederschlag ‚f’ (9). Sie liegen in tropischen Regenwäldern oder in das ganze Jahr über feuchten Klimazonen, die den höchsten Wasserdampfgehalt weltweit aufweisen (10). Globale Anomalien wurden sowohl für aride und nasse Stationen unabhängig voneinander berechnet, und zwar mit dem gleichen Algorithmus wie für CRUTEM4. Die Ergebnisse zeigt die Abbildung:

Abbildung 4 (vergrößert): Temperaturanomalien für aride (trockene) Stationen in rot und nasse Stationen in blau. Die geglätteten Kurven wurden nach der FFT-Methode geglättet. Die schwarze gestrichelte Linie zeigt geglättet die gesamten globalen CRUTEM4-Anomalien.
Es zeigt sich ein klarer Trend in den Daten, dass sich nämlich aride Stationen schneller erwärmen und abkühlen als nasse Stationen. Sie reagieren stärker auf externe Antriebe. Die nassen humiden Stationen reagieren weniger sowohl im Vergleich mit ariden als auch mit dem gesamten globalen Mittel.
Dies ist mit den Werten kompatibel, die man braucht, um das Schwache-Sonne-Paradoxon aufzulösen. Wie von Lindzen (11) und anderen schon erwähnt, wird vieles der Erdwärme durch Verdunstung und Konvektion in die obere Atmosphäre [= Troposphäre] transportiert, wo die Undurchlässigkeit für IR gering ist, und danach ins Weltall abgestrahlt. Daher hängen Effekte der Wasserdampf-Rückkopplung zumeist vom Wasserdampfgehalt in der oberen Atmosphäre ab. Dies ist ein möglicher Mechanismus für negative Rückkopplung in den Tropen. Solche Effekte würden in ariden Gebieten weitgehend fehlen, in denen es keine lokalen Quellen der Verdunstung gibt.
SCHLUSSFOLGERUNGEN
Das Schwache-Sonne-Paradoxon schließt effektiv konstante positive Klimarückkopplungen durch Wasserdampf aus. Die Beweise stützen die Hypothese, dass die Ozeane der Erde den Temperaturverlauf der letzten 4 Milliarden Jahre stabilisiert haben. Hier wird vorgeschlagen, dass die Gesamtauswirkung einer Oberfläche, die zu 70% mit Wasser bedeckt ist, die Selbstregulierung des Erdklimas ist. Ein einfaches Modell, die diesen Zusammenhang zeigt, wurde beschrieben. Dieses Modell führt zu einem Temperaturanstieg von lediglich 5 Grad während 4 Milliarden Jahren. Dies führt zu den Werten der vorhergesagten negativen Rückkopplungen durch Wasserdampf von etwa -2 W/m²C. Direkte Beweise dafür, dass die Reaktionen der Temperatur in ariden und humiden Gebieten unterschiedlich sind, wurden in den CRUTEM4-Daten identifiziert. Unter der Annahme, dass diese Unterschiede ausschließlich wegen des atmosphärischen Wasserdampfes auftreten, ergibt sich eine gemessene negative Rückkopplung für Wasserdampf mit 1,5 ±0,8 W/m²C. Dies stimmt mit dem überein, was man zur Erklärung des Schwache-Sonne-Paradoxons braucht.
Clive Best, Hockey Schtick
REFERENCES
1. Sagan, C.; Mullen, G. (1972). “Earth and Mars: Evolution of Atmospheres and Surface Temperatures”. Science 177 (4043): 52–56. 1972
2. Pavlov, Alexander A.; Kasting, James F.; Brown, Lisa L.; Rages, Kathy A.; Freedman, Richard (May 2000). “Greenhouse warming by CH4 in the atmosphere of early Earth”. Journal of Geophysical Research 105
3. Hsien-Wang Ou, Possible Bounds on the Earth’s Surface Temperature, Journal of Climate, Vol 14, 2976, 2000.
4. Roberto Rondanelli and Richard Lindzen (2010) Can thin cirrus clouds in the tropics provide a solution to the faint young Sun paradox, Journal Geophys Research Vol 115, D02108
5.  Myhre et al, New estimates of radiative forcing due to well mixed greenhouse gases, Geophysical Research Letters (1998)
6. S. Bony et al. How well do we understand and evaluate Climate Change Feedback Processes, Journal of Climate, Vol 19, P. 3445, 2006
7. Lovelock, J. E. (1983b), Daisy world—A cybernetic proof of the Gaia hypothesis, CoEvol. Q., Summer, 66 – 72
8. Jones, P.D., Lister, D.H., Osborn, T.J., Harpham, C., Salmon, M. and Morice, C. 2012:  Hemispheric and large-scale land-surface air temperature variations: An extensive revision and an update to 2012.  J. Geophys. Res. 117, D05127
9.  Rubel, F., and M. Kottek, 2010: Observed and projected climate shifts 1901-2100 depicted by world maps of the Köppen-Geiger climate classification. Meteorol. Z., 19, 135-141
10. H. Schrijver, A. M. S. Gloudemans, C. Frankenberg, and I. Aben, Water vapour total columns from SCIAMACHY spectra in the 2.36µm window, Atmos. Meas. Tech., 2, 561–571, 2009
11. Richard Lindzen, Some uncertainties with respect to water vapor’s role in climate sensitivity. Proceedings NASA workshop on the role of Water Vapor in Climate Processes, 1990.
Nachtrag: Obige Studie wurde an das Journal Geophysics Research Letters am 25. April eingereicht. Der Herausgeber lehnte sie später ab mit der Begründung, dass „die Arbeit anscheinend nur einen kleinen Schritt zu unserem Verstehen eines Problems beiträgt, dass bereits in der begutachteten Literatur ausführlich behandelt worden ist, und die präsentierten Ergebnisse liegen jenseits dessen, was durch Forschungsmethoden und Ergebnisse unterstützt wird“. Wir fordern Sie auf, für sich selbst zu entscheiden, ob das stimmt oder nicht.
Link: http://icecap.us/index.php/go/political-climate vom 25. Mai 2012
Übersetzt von Chris Frey EIKE