Wir wurden betrogen – eine unabhängige Begutachtung des Intergovernmental Panel on Climate Change

Das IPCC wurde auf der Basis alarmistischer Behauptungen gegründet und erhielt so eine politische Dimension von Organisationen, die nach besseren Beweisen für diese Behauptungen als die Ergebnisse primitiver Klimamodellrechnungen verlangt hätten, falls sie je irgendeine Integrität gehabt hätten. (Kapitel 1)
Die Schlüsselprodukte des IPCC, die verschiedenen Zustandsberichte, spiegeln die persönlichen Meinungen von einem Kader ausgewählter Autoren, und im Gegensatz zu ihrer Ankündigung stellt jede einzelne Textpassage einen Konsens von knapp einer Handvoll Leute dar, von denen viele aus ihren eigenen Studien zitieren oder selektiv Informationen weglassen, die gegen ihre willkürlichen Verzerrungen sprechen. In einem Fall gab es überhaupt keine Informationen zur Stützung der Behauptungen. Also haben die Autoren des IPCC mit Hilfe von ein paar weiteren ein Papier geschrieben, aus dem das IPCC zitieren konnte, obwohl dieses Papier lediglich einem Journal zugespielt wurde, anstelle es selbst zu veröffentlichen (Kapitel 2).
Das vom IPCC praktizierte System der Begutachtung ist eine Schande, weil es nichts mit einer normalen Begutachtung vor der Veröffentlichung einer wissenschaftlichen Studie zu tun hat, sondern lediglich dazu dient, dringend nach die Behauptung unterstützenden Informationen zu verlangen. Sämtliche Vorschläge, dass weiterführendes Material eingeführt werden sollte, werden zurückgewiesen, selbst wenn dies bedeutet, dass man sich auf ein unveröffentlichtes Papier eines IPCC-Autors bezieht Kapitel 3).
Das IPCC lässt Informationen weg oder verzerrt diese, um seiner Agenda Genüge zu tun. Zum Beispiel sagt man uns nicht, dass es auf der Erde gegenwärtig recht kühl ist, verglichen mit der mittleren Temperatur der letzten 10 000 Jahre, und dass die 650 Jahre lange Kaltphase, die um das Jahr 1850 zu Ende gegangen war, möglicherweise die längste ununterbrochene Kältephase in 10 Jahrtausenden war. Das IPCC versteckt tief in einem langen Paragraphen die kritische Tatsache, dass der Grad der Erwärmung infolge des zunehmenden CO2-Gehaltes der Atmosphäre logarithmisch erfolgt (d. h. dass die Erwärmung sich mit weiter zunehmendem CO2 immer mehr verlangsamt). Im jüngsten Bericht des IPCC ist die Diskussion über die europäische Hitzewelle im Jahre 2003 widersprüchlich und alarmistisch, weil in Kapitel 3 eine klare meteorologische Erklärung geliefert wird, aber in Kapitel 9 auf der Basis einer Modellierung von einem der Autoren behauptet wird, dass menschliche Aktivitäten die Auswirkung dieser Hitzewelle verschlimmert hätten. Danach beruft sich das IPCC auf dieses Modell, als ob es akkurat und glaubwürdig wäre, obwohl es keins von beiden ist (Kapitel 4).
Die Temperaturdaten, auf die sich das IPCC bezieht, basieren auf Thermometerablesungen unmittelbar über der Erdoberfläche oder gerade unterhalb der Wasseroberfläche der Ozeane. Die Daten sind fehlerhaft und inkonsistent, weil die Umstände, unter denen sie gewonnen werden, so dynamisch sind, dass man sie verwerfen sollte. Man fragt sich, ob das IPCC diese Daten vor der Verwendung überhaupt überprüft hat, aber, unter dem Umstand, dass die Institutionen, die diese Daten ermittelt haben, Unterstützer des IPCC sind, hat das IPCC vielleicht geglaubt, dass dies nicht notwendig ist (Kapitel 5).
Der größte Trugschluss des IPCC liegt in der Nutzung von Klimamodellen, auf die es sich beruft. Die Zustandsberichte zeigen eindeutig, dass kaum Kenntnisse über viele Klimafaktoren vorhanden sind. Dies bedeutet, dass akkurate Modelle gar nicht erst erzeugt werden können. In späteren Kapiteln des Berichtes werden diese Defizite ignoriert, und die Modellergebnisse werden als unveränderlich behandelt. Schlimmer noch, die gleichen Modelle werden benutzt, um die Schuld von Klimavariationen bestimmten Faktoren zuzuordnen, unter der zweifelhaften Erkenntnis, falls die Beobachtungen mit den Modellen, die einen bestimmten Faktor enthalten, übereinstimmen, dies aber nicht mehr der Fall ist, wenn dieser Faktor weggelassen wird, wird dieser Umstand als Beweis heran gezogen, dass dieser Faktor der Grund für die Klimavariation gewesen ist. Diese Art der Argumentation ist nicht nur eine bloße Zurückweisung des gesunden Menschenverstandes, sondern eine eklatante Unehrlichkeit. Mehr noch, der dahinter steckende Gedanke bedeutet, dass Klimavariationen nur von den Faktoren verursacht werden, die auch modelliert werden; und das IPCC betrachtet lediglich einen einzigen Faktor in dieser Hinsicht – nämlich die anthropogenen Emissionen von Kohlendioxid (Kapitel 6).
Der sogenannte Beweis des IPCC für die anthropogen verursachte Erwärmung stand von Anfang an auf schwachen Füßen, aber inzwischen ist er vollständig unterminiert durch die kompromittierte Integrität des IPCC, seinen zweifelhaften Temperaturdaten und seinen Klimamodellen, deren Ungenauigkeit allgemein bekannt ist (Kapitel 7).
Das IPCC hat keine Integrität und damit keine Glaubwürdigkeit mehr. Es sollte aufgelöst werden, und zwar zusammen mit der UNFCC; und alle Zuständigkeit für Klimaangelegenheiten sollten der Weltorganisation für Meteorologie WMO übergeben werden. Obwohl es durch das Sponsoring für das IPCC mit einem Makel behaftet ist, hat es doch Erfahrung in meteorologischen Dingen. Außerdem hat die WMO ihre Bereitschaft bekundet, eine größere Vielfalt von Klimafaktoren zu berücksichtigen als das IPCC (Kapitel 8).
Diese Übersicht stellt die Fakten hauptsächlich aus Quellen des IPCC selbst dar und liefert Beispiele für die relevanten Gegebenheiten. Dadurch wird gezeigt, dass die Bestätigung der Behauptungen des IPCC vollständig ungerechtfertigt ist und mit Sicherheit keine Grundlage dafür sein kann, Versuche der Kontrolle von Emissionen von Kohlendioxid oder andere Gesetze mit Bezug auf das Klima einzuführen.
John McLean
Das Original finden Sie hier
Übersetzt von Chris Frey für EIKE




Die kalten Gleichungen

Ich habe diesen Beitrag schon viele Male geschrieben. Ich versuche es nochmals. Mit den Ergebnissen meiner früheren Arbeiten war ich nicht zufrieden. Den Titel habe ich nach der 1954 erschienenen gleichnamigen Science Fiction Story gewählt, die ich mit zehn oder elf Jahren gelesen habe. Der Inhalt ist etwa Folgender:
Ein Mädchen reist als blinder Passagier an Bord eines Rettungsschiffes, um eine bestimmte Arznei zu irgendwelchen planetarischen Kolonisten zu bringen. Sie wird entdeckt, sobald das Mutterschiff weg ist. Unglücklicherweise ergeben die kalten Gleichungen, dass das Rettungsschiff nicht genügend Treibstoff hat, um mit ihrem zusätzlichen Gewicht an Bord zu landen; aber wenn sie die Arznei über Bord werfen, um das Schiff zu erleichtern, würde die ganze Kolonie sterben… also musste das Mädchen durch die Luftschleuse katapultiert werden, um im All zu sterben.
Ich war höchst beeindruckt von dieser Geschichte. Ich mochte Mathematik schon immer, und hier habe ich zum ersten Mal gesehen, wie Gleichungen uns mit unbestreitbaren und unumstößlichen Ergebnissen versorgen können. Und ich sah, dass diese Gleichungen über den zur Verfügung stehenden Treibstoff und das Gewicht in keiner Weise von menschlichen Emotionen beeinflusst waren; entweder waren sie richtig oder falsch, ganz gleich, welche Gefühle ich oder irgendjemand sonst dabei hatte.
Vor kurzem habe ich mir die Gleichungen der AGW-Wissenschaftler angesehen, die sie in ihren Modellen benutzen. Abbildung 1 zeigt die fundamentalste Klimagleichung, die fast immer stimmt:


Abbildung 1. Die grundlegendste Klimagleichung besagt, dass die einfallende Energie gleich der ausgestrahlten Energie plus der in den Ozean gehenden Energie ist. Q ist die Menge der Energie, die in das System in einem bestimmten Zeitraum eingestrahlt wird. dH/dt ist die Veränderung der Wärmespeicherung in den Ozeanen von Anfang bis Ende dieses Zeitraumes. Die Einheit ist in allen Fällen Zettajoules (ZJ, oder 1021 Joule) pro Jahr.
Dies ist die gleiche Beziehung wie in der Wirtschaft, wo das, was ich innerhalb eines Jahres mache (in unserem Beispiel Q), gleich ist damit, was ich in jenem Jahr ausgebe plus die Änderungen meiner Ersparnisse von Jahr zu Jahr (dH/dt).
Jedoch, von hier starten wir in unbekannte Gewässer…
Ich werde meinen Text nehmen aus HEAT CAPACITY, TIME CONSTANT, AND SENSITIVITY OF EARTH’S CLIMATE SYSTEM , Stephen E. Schwartz, Juni 2007 (im Folgenden als S2007 bezeichnet). Die Studie ist weithin akzeptiert und wurde 49 mal in drei kurzen Jahren zitiert. Die Studie besagt unter Anderem Folgendes (Hervorhebung im Original):
Das Klimasystem der Erde enthält eine sehr empfindliche Balance zwischen der absorbierten kurzwelligen (solaren) Strahlung Q und der langwelligen Ausstrahlung (im thermischen Infrarot) an der Obergrenze der Atmosphäre E.
Q "fast gleich" E    *                                                                   (1)
Die globale und jährliche mittlere absorbierte kurzwellige Strahlung Q = gamma*J, wobei gamma für die mittlere planetarische Ko-Albedo (Komplement der Albedo) steht und J für die mittlere solare Strahlung an der Obergrenze der Atmosphäre (¼ der Solarkonstante) fast gleich 343 W/m2. Satellitenmessungen ergeben einen Wert Q fast gleich 237 W/m2 (Ramanthan 1987; Kiehl und Trenberth 1997), womit sich ein gamma von 0,69 ergibt. Die globale und jährliche mittlere langwellige Ausstrahlung kann mit der globalen und jährlichen mittleren Oberflächentemperatur GMST Ts in Beziehung gesetzt werden: E = epsilon x sigma x Ts^4, wobei epsilon für das effektive langwellige planetarische Emissionsvermögen (effective planetary longwave emissivity) steht, das definiert ist als das Verhältnis zwischen der globalen mittleren langwelligen Strahlung (flux), emittiert an der Obergrenze der Atmosphäre und jener durch die Stefan-Boltzmann-Gleichung berechnete der globalen mittleren Oberflächentemperatur; sigma  ist die Stefan-Boltzmann-Konstante.
Innerhalb dieses Einschichten-Energiebilanzmodells (North et al. 1981; Dickinson, 1982; Hansen et al., 1985; Harvey, 2000; Andreae et al., 2005, Boer et al., 2007) führt ein Ungleichgewicht Q – E durch eine einfache Störung in Q oder E zu einer Änderungsrate des globalen Wärmegehalts, die beschrieben wird durch 
dH/dt = Q – E                                                               (2)
wobei dH/dt für die Änderung des Wärmegehalts des Klimasystems steht.
Hmmm… Ich werde immer nervös, wenn jemand versucht, eine nicht nummerierte Gleichung in eine Studie einzuführen… aber ich schweife ab. Ihre Gleichung (2) ist die gleiche wie in meiner Abbildung 1 oben. Dies war ermutigend, weil ich die Abbildung 1 erstellt habe, bevor ich S2007 gelesen habe. In S2007 heißt es weiter (Hervorhebung von mir):
Der Ansatz des Energiebilanzmodells ist, dass dH/dt mit der Änderung der GMST (globale mittlere Oberflächentemperatur) in Beziehung stehen könnte, und zwar so:
dH/dt = C dTs/dt                          (3)
Hier steht C für die entsprechende Wärmekapazität. Es muss hier betont werden, dass C eine effektive Wärmekapazität ist, die nur den Teil der globalen Wärmekapazität reflektiert, der an die Störung im Zeitmaßstab der Störung gekoppelt ist [?]. Im gegenwärtigen Zusammenhang, der durch Änderungen der atmosphärischen Gasmischung im Zeitscale von Jahrzehnten und Jahrhunderten induzierten globalen Klimaänderung ist es das, was Gegenstand der Änderung in solchen Zeitscalen ist. Messungen des Wärmegehalts in den Ozeanen während der letzten 50 Jahre deuten darauf hin, dass diese Wärmekapazität von den oberen Schichten der Weltmeere dominiert wird.
[Im Original lautet dieser Absatz: „where C is the pertinent heat capacity. Here it must be stressed that C is an effective heat capacity that reflects only that portion of the global heat capacity that is coupled to the perturbation on the time scale of the perturbation. In the present context of global climate change induced by changes in atmospheric composition on the decade to century time scale the pertinent heat capacity is that which is subject to change in heat content on such time scales. Measurements of ocean heat content over the past 50 years indicate that this heat capacity is dominated by the heat capacity of the upper layers of the world ocean (Levitus et al., 2005).
Mit anderen Worten (unter Vernachlässigung der Ko-Albedo), sie schlagen zwei Einsetzungen in die Gleichung der Abbildung 1 vor. Sie sagen, dass
E = epsilon x sigma x Ts^4
und dass
dH/dt = C dTs/dt
was zu den Ergebnis führt
Q = epsilon x sigma x Ts^4 + C dTs/dt                     (4)
Abbildung 2 zeigt diese beiden Einsetzungen:


Abbildung 2. Eine graphische Darstellung der beiden zugrunde gelegten Einsetzungen in das „einschichtige Energiebilanzmodell“ der theoretischen Klimaerklärung. Die Originalgleichung vor der Einsetzung steht in hellbraun links unten, mit der Gleichung nach der Substitution darunter.
Warum sind diese Substitutionen wichtig? Man beachte, dass es in der Gleichung (4), wie in Abbildung 2 gezeigt, nur zwei Variablen gibt – Strahlung und Oberflächentemperatur. Sollten ihre Substitutionen gültig sein, bedeutet das, dass ein Strahlungsungleichgewicht nur durch eine Temperaturzunahme ausgeglichen wird. Oder wie es Dr. Andrew Lacis von NASA GISS ausdrückt (Hervorhebung von mir):

 „Wie ich schon früher gesagt habe, die globale Erwärmung ist in der Physik ein Problem von Ursache und Wirkung, dass stark auf akkuraten Messungen und wohlbekannten physikalischen Prozessen basiert. Im Besonderen ist das Klima der Erde das Ergebnis der Energiebilanz zwischen einfallender Solarstrahlung und thermischer Ausstrahlung, gemessen an der Obergrenze der Atmosphäre, also strikt ein Problem der Strahlungsenergiebalance. Da der Strahlungsfluss ein wohlbekannter und gut verstandener physikalischer Prozess ist, haben wir genaue Kenntnisse darüber, was mit der globalen Energiebalance der Erde passiert. Und wie ich früher schon bemerkte, die Konservierung von Energie lässt als Reaktion auf das zunehmende atmosphärische CO2 zum Erreichen des globalen Gleichgewichts der Temperatur nichts anderes als eine Erwärmung zu.

Die Kommentare von Dr. Lacis sind nichts anderes al seine englischsprachige Erklärung der Gleichung (4) aus S2007. Wenn Gleichung (4) falsch ist, ist auch seine Behauptung falsch. Und seine Behauptung, dass die zunehmende Konzentration von Treibhausgasen nur durch einen Temperaturanstieg kompensiert werden kann, steht im Zentrum der AGW-Klimawissenschaft.
Außerdem gibt es noch einen zweiten Grund, warum ihre Substitutionen wichtig sind. In der Originalgleichung gibt es drei Variable – Q, E und H. Aber da es in der Version in S2007 nur zwei Variable gibt (Ts und Q), kann man die eine Gleichung mit den Termen der anderen lösen. Dies gestattet es ihnen, die Entwicklung der Oberflächentemperatur zu berechnen, mit gegebenen Schätzungen von Antriebskräften in der Zukunft… oder, in anderen Worten, das zukünftige Klima zu modellieren.
Da ich nun von Natur au seiner bin, der immer misstrauisch ist, war ich sehr neugierig über diese beiden Substitutionen. Dies vor allem deshalb, weil ihr gesamtes Kartenhaus in sich zusammenfallen würde, falls nur eine der beiden Substitutionen falsch ist. Ihre Behauptung, dass ein Ungleichgewicht der Strahlung nur durch zunehmende Temperatur ausgeglichen wird, kann so nicht stehen bleiben, wenn nicht beide Substitutionen gültig sind.
SUBSTITUTION 1
Lassen Sie mich beginnen mit der Substitution, die in Gleichung (3) beschrieben wird:
dH/dt = C dTs/dt                          (3)
Das erste, was mir auffiel, waren die Worte „der Ansatz des Energiebilanzmodells“ [Im Original steht wirklich das deutsche Wort ‚ Ansatz’.]
Und was”, sagte ich, „ist ein ‚Ansatz’, wenn er zu hause ist?” Ich war ursprünglich ein Cowboy, der sich selbst gebildet hat, das ist wahr, aber ein sehr belesener und reformierter Cowboy. Und ich habe nie etwas von einem ‚Ansatz’ gehört.
Also schaute ich im Internet bei Wolframs Mathe-Welt, die beste Quelle für Mathematik, und fand dies:
Ansatz

Ein Ansatz ist eine angenommene Formel für eine mathematische Feststellung, die nicht auf irgendeinem zugrunde liegenden Prinzip oder einer Theorie basiert.

Nun, das sollte Ihnen ein warmes, sicheres Gefühl geben. Diese kritische Gleichung, diese Substitution durch die Temperaturänderung als Proxie der Änderung im Wärmegehalt der Ozeane, auf der die gesamte Multimilliarden schwere Behauptung basiert, dass eine zunehmende Konzentration von Treibhausgasen unvermeidlich und unerbittlich zu einem Temperaturanstieg führt, wird von enthusiastischen AGW-Anhängern als „nicht basierend auf irgendeine zugrunde liegende Theorie oder ein Prinzip“ beschrieben. Man erinnere sich, wenn nur eine Substitution falsch ist, ist auch die ganze „wenn-sich-der-Antrieb-durch-Treibhausgase-ändert-folgt-dem-die-Temperatur“ – Behauptung hinfällig… und dafür bieten sie nicht einmal eine Rechtfertigung oder einen Bezug an, es ist lediglich ein Ansatz.
Das ist gut zu wissen und hätte eine viel weiter verbreitete Bekanntmachung verdient…
Dies erinnert mich an einen alten Witz: „Wie viele Beine hat eine Kuh, wenn man den Schwanz ein Bein nennt?“

„Vier, weil ein Schwanz kein Bein ist, auch wenn man ihn so nennt.“
Genauso: Wenn man die Änderung des Wärmegehalts der Ozeane eine lineare Transformation der Änderung der Oberflächentemperatur (C dTs/dt) nennt, heißt das noch lange nicht, dass das auch so ist.
Tatsächlich ist die Korrelation zwischen der jährlichen dH/dt und dTs/dt nicht statistisch signifikant (r^2=0.04, p=0.13). Zusätzlich sind die Verteilungen von dH/dt und dTs/dt ziemlich unterschiedlich, sowohl im vierteljährlichen als auch im jährlichen Niveau. In den Anhängen 1 und 4 findet man Details. Das bedeutet: nein, wir haben keinerlei beobachtete Beweise, dass ihre Substitution gültig ist. Viel eher ist das Gegenteil richtig, es gibt kaum eine Korrelation zwischen dH/dt und dTs/dt.
Es gibt noch ein drittes und subtileres Problem, wenn man dH/dt und dTs/dt miteinander vergleicht. Es besteht darin, dass H (der Wärmegehalt der Ozeane) etwas ganz anderes ist als die anderen drei Variablen, als da wären Q (Einstrahlung), E (Ausstrahlung) und Ts (globale mittlere Lufttemperatur am Boden). Der Unterschied besteht darin, dass H eine Quantität ist, während es sich bei Q, E und Ts um Strahlungsflüsse handelt.
Da Ts ein Fluss ist, kann es von der Einheit Kelvin (oder Grad Celsius) zu den Einheiten Watt pro Quadratmeter (W/m2) umgerechnet werden, und zwar unter Verwendung der Schwarzkörperbeziehung sigma x Ts^4.
Und da die zeitliche Ableitung der festen Größe H ein Fluss ist, nämlich dH/dt, kann man (zum Beispiel) E + dH/dt mit Q vergleichen, siehe Abbildung 1. Das kann man machen, weil wir Flüsse mit Flüssen vergleichen. Aber sie wollen einen Fluss (dH/dt) durch eine Änderung eines Flusses (dT/dt) ersetzen. Dies ist jedoch nur unter speziellen Umständen möglich.
Die Änderung des Wärmegehalts kann in einer einzigen speziellen Situation in Relation zur Temperaturänderung gesetzt werden. Und zwar wenn durch eine Temperaturdifferenz zwischen dem Objekt und der umgebenden Luft etwas erwärmt oder gekühlt wird. Zum Beispiel, wenn man etwas in den Kühlschrank legt, kühlt es sich durch den Unterschied der Temperatur zwischen dem Objekt und der Luft im Kühlschrank ab. Irgendwann hat das Objekt im Kühlschrank die allgemein dort herrschende Temperatur angenommen. Ergebnis: Die Temperaturänderung des Objektes ist eine Funktion des Temperaturunterschieds zwischen dem Objekt und der umgebenden Luft. Falls sich die Lufttemperatur im Kühlschrank ändert, hängt in diesem Fall dH/dt mit dT/dt zusammen.
Aber gilt das auch für unsere Situation? Wer der Meinung ist, dass, ähnlich wie im Kühlschrank, die Lufttemperatur über dem Ozean der Treiber des Wärmegehalts der Ozeane ist, der hebe die Hand… weil ich das mit Sicherheit nicht glaube. Ich glaube, dass es zu 100% umgekehrt ist. Allerdings scheint Schwartz das zu glauben, wenn er in einer Diskussion über die Zeitkonstante sagt:

 „…wenn C die Wärmekapazität der Ozeane ist, dann ist dH/dt die Rate, mit der der Wärmegehalt in diesem Reservoir zunimmt, und ?T ist die Temperaturzunahme, die diesen Transfer antreibt.“

Zusätzlich zu dem Umstand, dass es sehr unwahrscheinlich ist, dass Änderungen der Lufttemperatur zu Änderungen des Wärmegehalts der Ozeane führen, spricht auch der Umfang der Änderung dieses Wärmegehaltes dagegen. Von 1955 bis 2005 änderte sich der Wärmegehalt der Ozeane um etwa 90 Zettajoule. Eine gleich große Änderung um 90 Zettajoule ereignete sich aber auch von einem Vierteljahr zum nächsten im Jahre 1983… Daher erscheint der Gedanke, dass Temperaturänderungen (dT/dt) die Änderungen des Wärmegehalts der Ozeane antreiben (und damit begrenzen) als sehr unwahrscheinlich.

Zusammenfassung der Ergebnisse von Substitution 1: dH/dt = C dT/dt

  1. 1. Die Leute, die diese Theorie vertreten, liefern keine theoretische oder praktische Grundlage für die Substitution.
  2. 2. Die jährliche Korrelation von dH/dt und dT/dt ist sehr klein und statistisch nicht signifikant.
  3. 3. Da H für die Quantität und T für einen Fluss steht, gibt es a priori keinen Grund, einen linearen Zusammenhang zwischen den beiden Größen zu vermuten.
  4. 4. Der Unterschied in der Verteilung der beiden Datensätze dH/dt and dT/dt (siehe Appendix 1 und 4) zeigt, dass weder die Erwärmung noch die Abkühlung der Ozeane mit dT/dt zusammenhängen.
  5. 5. Die Substitution schließt ein, dass die Lufttemperatur „diesen Wärmetransport treibt”, nach Schwartz’ Worten. Es scheint unwahrscheinlich, dass die kleine Masse der Atmosphäre [the wisp of atmospheric mass] die gewaltigen ozeanischen Wärmetransporte antreibt.
  6. 6. Die riesige Größe vierteljährlicher Änderungen deutet darauf hin, dass Änderungen des Wärmegehaltes der Ozeane durch korrespondierende Temperaturänderungen begrenzt werden.  

Meine Schlussfolgerungen aus dieser Zusammenfassung? Die Substitution von dH/dt durch C dT/dt ist weder durch Beobachtungen noch durch die Theorie gerechtfertigt. Obwohl man sehr in  Versuchung kommt, es trotzdem zu tun, weil es damit möglich ist, eine Gleichung für die Temperatur zu lösen, kann man diese Substitution allein aus dem Grund, eine Gleichung lösen zu wollen, nicht vornehmen.
SUBSTITUTION 2: E = epsilon x sigma x  Ts^4
Dies ist die Untersubstitution [original: the sub rosa substitution], also diejenige ohne eine Nummer. In diesem Zusammenhang sagt Schwartz:

 „Die globale jährliche langwellige Ausstrahlung kann zu der mittleren globalen Lufttemperatur über der Erdoberfläche GMST Ts in Beziehung gesetzt werden, und zwar durch:

E = epsilon x sigma x Ts^4
wobei  epsilon für das planetarische effektive Emissionsvermögen der langwelligen Ausstrahlung steht, definiert als das Verhältnis zwischen dem globalen mittleren langwelligen Strahlungsfluss an der Obergrenze der Atmosphäre (TOA) und jener berechnet durch die Stefan-Boltzmann-Gleichung zur globalen mittleren Oberflächentemperatur; sigma ist die Stefan-Boltzmann-Konstante.
Das wollen wir einmal näher betrachten und sehen, was sie hier getan haben. Es ist eine verführerische Idee, weil es teilweise aussieht wie eine normale Stefan-Boltzmann-Gleichung… mit Ausnahme davon, dass sie epsilon umdefiniert haben zum „effektiven planetarischen Emissionsvermögen“. Folgen wir mal dieser Logik.
Erstens, in ihrer Gleichung steht E für den langwelligen [Strahlungs]fluss an der Obergrenze der Amtosphäre (TOA), welchen ich mal als Etoa bezeichnen möchte, um es vom Fluss an der Oberfläche Esurf zu unterscheiden. Als nächstens sagen sie, dass epsilon das langzeitliche Mittel dieses Strahlungsflusses an der TAO ist (was ich Avg(Etoa) nennen möchte) dividiert durch die langzeitliche mittlere langwellige Schwarzkörperstrahlung (Avg(Esurf) genannt). Mit anderen Worten:
epsilon = Avg(Etoa) /Avg(Esurf)
Schließlich ergibt der langwellige Fluss der Schwarzkörperstrahlung Esurf nach Stefan-Boltzmann:
Esurf = sigma x Ts^4.
Setzt man dies in ihre unnumerierte Gleichung (?) ein, erhält man
Etoa = Avg(Etoa) / Avg(Esurf) x Esurf
Allerdings führt dies zu
Etoa / Esurf = Avg(Etoa) / Avg(Esurf)
was ganz klar allgemein nicht stimmt für irgendein vorgegebenes Jahr, und was nur für langzeitliche Mittel gilt. Aber für diese langzeitlichen Mittel reduziert sich das zu der bedeutungslosen Gleichung Mittel(x) / Mittel(irgendwas) = Mittel(x) / Mittel(irgendwas).
Zusammenfassung von Substitution 2: E = epsilon x sigma x  Ts^4
Diese Substitution ist nachweislich entweder mathematisch falsch oder bedeutungslos richtig wie eine Identität. Die kalten Gleichungen gestatten diese Art der Substitution nicht, selbst nicht dazu, um das Mädchen davor zu bewahren, hinaus katapultiert zu werden. Die Ausstrahlung an der Obergrenze der Atmosphäre hängt nicht auf die Art und Weise mit den Oberflächentemperaturen zusammen, wie sie behaupten.
Meine Schlussfolgerungen, ohne spezielle Reihenfolge:

  • * Ich denke gezeigt zu haben, dass keine der beiden Substitutionen gerechtfertigt ist, weder durch die Theorie, noch durch die Mathematik noch durch Beobachtungen.  
  • * Die Falsifizierung jeder der beiden Substitutionen in der Originalgleichung hat weitreichende Implikationen.
  • * Zumindest bedeutet die Falsifizierung jeder Substitution, dass zusätzlich zu Q und Ts mindestens eine weitere Variable in der Gleichung steckt. Dies bedeutet, dass die Gleichung für Ts nicht direkt gelöst werden kann. Und dies bedeutet natürlich, dass die künftige Entwicklung der planetarischen Temperatur nicht durch das bloße Forcing berechnet werden kann.
  • * Als Antwort auf meinen Beitrag über die Linearität des Modells von GISS hat Paul K auf die Studie S2007 von Schwartz verwiesen. Er zeigte auch, dass das Klimamodell von GISS sklavisch den einfachen Gleichungen in der Studie S2007 folgt. Daher bedeutet die Falsifizierung der Substitutionen, dass das Klimamodell von GISS (und die Gleichungen in S2007) als Übungen betrachtet werden müssen, die Parameter anzupassen. Ja, sie können eine Approximation der Realität vermitteln… aber nur durch optimierte Anpassung der Parameter und nicht durch eine saubere theoretische Begründung.
  • * Die Falsifizierung jeder der beiden Substitutionen bedeutet, dass die Wiederherstellung der Strahlungsbalance nicht nur eine einfache Funktion der Oberflächentemperatur Ts ist. Dies bedeutet, dass es mehr Möglichkeiten gibt, um die Strahlungsbalance im Himmel und auf Erden wiederherzustellen, als sich manche Schulweisheit dies träumen lässt, Dr. Lacis…

Wie immer lege ich das hier offen vor dem unbestechlichen Auge des Internets, um alle Leute zu ermutigen, mir meine Fehler aufzuzeigen. Das ist Wissenschaft. Bitte tragen Sie mir die Fehler mit Freundlichkeit und Anstand zu  mir und anderen vor, und vermeiden Sie es, über meine und anderer Motive zu spekulieren. Das ist auch Wissenschaft!
Link zum Original: http://wattsupwiththat.com/2011/01/28/the-cold-equations/
Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE
Im Original folgen noch vier Anhänge, die das hier Gesagte noch näher ausführen. Zusätzliche Aspekte stehen dort jedoch nicht, daher werden diese Anhänge hier aus Zeitgründen nicht mit übersetzt. Man bedenke, dass ich zusätzlich zu diesen ehrenamtlichen Übersetzungen einen Vollzeitjob habe und außerdem auch anderweitig noch ehrenamtlich engagiert bin, nämlich in der Kinderbetreuung.
C. F.
* Das "fast gleich" Zeichen (Doppelwelle), dass im Original steht, bildet dieser Editor nicht ab




Anzeichen für eine sich verstärkende globale Abkühlung

Anzeichen der globalen Abkühlung

Seit etwa 2 Dekaden wird uns dringend nahe gelegt, gegen die beispiellose globale Erwärmung vorzugehen, anderenfalls es zu einem heißen und feurigen Ende der Welt kommt. Und doch, das Gegenteil scheint der Fall zu sein.
Der gesamte Planet hat seit 1998 aufgehört, sich zu erwärmen und, noch signifikanter, begann sich seit 2003 abzukühlen. Anstatt die Menschen vor kälterem Wetter während der nächsten 30 Jahre zu warnen, wird immer noch das Märchen hochgehalten, dass man eine beispiellose Erwärmung erwarten müsse. Völker und Regierungen werden gedrängt, total in die falsche Richtung aus den falschen Gründen zu gehen – und zu einem potentiell horrenden Preis.
Man schaue sich nur an, was in Großbritannien los war. Vor zehn Jahren erzählte man den Briten, dass sie ausschließlich mit einer globalen Erwärmung rechnen müssten und Schnee ein Ding der Vergangenheit wäre. Tatsächlich passierte genau das Gegenteil, und zwar gleich während drei aufeinanderfolgenden Wintern. Dieser Winter hat die gesamte Nation für einen ganzen Monat, nämlich Dezember 2010, in seinem eisigen Klammergriff gehalten.

Perioden mit Erwärmung und Abkühlung in der Vergangenheit.

Alternierende Perioden mit wärmerem und kälterem Wetter haben uns seit Beginn von Klimaaufzeichnungen begleitet. Einige der vergangenen kälteren Perioden waren schlimmer als andere, wie das Sporer-, Maunder- und Dalton-Minimum. Professor Don Easterbrook hat das hier dargestellt, siehe Abbildung 1:


Abbildung 1
Easterbrook sagte auch:

  • „Klimaänderungen in geologischen Zeiträumen zeigten während der letzten 500 Jahre eine regelmäßige Verteilung alternierender Erwärmung und Abkühlung mit einer Periode von 25 bis 30 Jahren“.
  • „Es gibt eine starke Korrelation zwischen solaren Veränderungen, der PDO, Gletschervorstößen und –rückzügen, und das globale Klima gestattet uns, eine damit konsistente Verteilung in die Zukunft zu projizieren“.
  • Man erwarte eine globale Abkühlung während der nächsten 2 bis 3 Dekaden, die sich viel schlimmer auswirken wird als jede Erwärmung.“

Abbildung 2 zeigt die Art der Abkühlung, die Professor Easterbrook in Zukunft erwartet:

Abbildung 2
Quelle: http://www.iceagenow.com/Looming_Threat_of_Global_Cooling.htm
oder in Deutsch hier.
Also, warum sind IPCC und AGW so still hinsichtlich der Möglichkeit einer globalen Abkühlung? Weil das IPCC niemals den Auftrag hatte, alle Gründe der Erwärmung zu untersuchen – sondern ausschließlich die anthropogene Komponente davon. Inzwischen kommen andere Wissenschaftler zu dem Ergebnis, dass der anthropogene Anteil an der Erwärmung verschwindend gering im Vergleich zu natürlichen planetarischen Faktoren ist. Das IPCC sagt Folgendes über das in Europa zu erwartende Klima:

 „Die jährlichen Mitteltemperaturen in Europa werden wahrscheinlich schneller steigen als das globale Mittel. Am stärksten wird die Erwärmung in Nordeuropa im Winter, im Mittelmeergebiet im Sommer ausfallen. Die niedrigsten Wintertemperaturen in Nordeuropa werden wahrscheinlich rascher steigen als die Mitteltemperatur des Winters, und die höchsten Sommertemperaturen werden wahrscheinlich schneller steigen als die Mitteltemperatur im Sommer in Zentral- und Südeuropa.“

Die letzten Winter haben gezeigt, dass das Gegenteil zutrifft. Lassen Sie uns einen Blick auf die letzte Periode (von 26 Jahren) kälteren Wetters in Europa werfen (Jahre 1962 bis 1987) sowie auf die häufigsten Klimavariablen während dieser Periode:

Welches waren die allgemeinen Klimafaktoren in der letzten Kaltperiode in Großbritannien und Europa?

Eine Analyse der Temperatur im Winter der letzten Kälteperiode in Zentralengland zeigt, dass die Temperatur in 20 der 26 Winter unter dem Mittelwert von 4,8°C lag. Während dieser 20 Jahre war die AO (Arktische Oszillation) in 90% aller Fälle negativ (18 Jahre), die AMO war negativ in 85% (17 Jahre), die NAO zu 65% (13 Jahre) und die PDO in 45% der Zeit (9 Jahre).
Hieraus kann man folgern, dass das Auftreten negativer oder kalter AO, AMO und NAO signifikant kältere Winter zur Folge hat, und das diese kälteren Winter gehäuft auftreten – etwa in 2 von 3 Fällen während der Kaltperiode. Das Signal der ENSO war ähnlich gut verteilt: 5 Jahre mit La Nina, 8 Jahre mit El Nino und 7 neutrale Jahre. Es scheint, dass Jahre mit einem El Nino häufiger mit einer negativen AO korreliert, was dazu führt, dass kalte Arktikluft südwärts vorstoßen kann (wie im Winter 2009/2010).

Was sagt das Met Office über die globale Abkühlung?

Das Met Office sagt, das seine Dekade der Abkühlung möglich ist, aber nur einmal alle 8 Jahrzehnte. Und so hat es seine Karten bereits verspielt, weil die jüngste Dekade 2001 bis 2010 keinen Temperaturtrend mehr zeigte. Daraus folgt, dass es nach seiner Prognose keine weitere Periode der Abkühlung oder auch nur trendfreie Perioden während der nächsten 8 Jahrzehnte geben wird. Um die vom Met Office prognostizierte Erwärmung um 4°C bis 2060 zu bekommen, müsste die gegenwärtige Erwärmungsrate 18 mal höher sein als heute (unter Nutzung der Daten aus WOOD FOR TREES.)

Was hat es mit dem warmen Jahr 2010 auf sich?

Es ist trivial, dass es während eines starken El Nino wie im Jahr 2010 besonders warm ist. Das Jahr 1998 war ebenfalls ein solches warmes El Nino-Jahr. Es sind natürliche Ursachen, die Temperatur in El Nino-Jahren nach oben treiben. Und doch hat es statistisch keine Erwärmung seit 1995 mehr gegeben. Auch gab es 4 El Nino-Ereignisse während der letzten 9 Jahre. Dies ist häufiger als in der Vergangenheit, als diese Ereignisse nur alle 4 bis 7 Jahre aufgetreten waren. Acht der 10 letzten Jahre wurden durch das natürliche Phänomen El Nino beeinflusst. Daraus folgt, dass der Hauptgrund für die warme Dekade und den milden Winter 2010 in Kanada bei El Nino und der PDO liegt. Dies hat nur sehr wenig mit der globalen Erwärmung oder der Zunahme der Emissionen von Treibhausgasen zu tun.
Für Kanada gilt: wenn man die El Nino-Winter der Jahre 2003, 2005, 2007 und 2010 ausschließt, hat die Temperatur im Winter tatsächlich während der letzten 10 Jahre abgenommen, verglichen  mit dem Mittelwert der Periode 1948 bis 2010, und zwar von 2,5°C im Jahre 2000 bis 0,3°C im Jahre 2009, dem letzten sehr kalten Winter. In einigen Gebieten wie den Prärieprovinzen und den Nordwest-Territorien gab es sogar einen Rückgang der Wintertemperatur von 2006 bis 2009 um 7,1°C.

Was steckt hinter unserem sich ändernden Klima?

Die Antwort scheint in der natürlichen Variabilität der ENSO-Ereignisse zu liegen, ebenso wie in den regelmäßigen Änderungen im Pazifischen Ozean und der Oberflächentemperatur im Nordatlantik, wie sie sich aus PDO und AMO ergeben, Änderungen der Arktischen Oszillation AO, vulkanischer Aktivität und solaren Zyklen. Lassen Sie uns auf die jüngere Geschichte dieser tatsächlichen Klimamacher zurück blicken.


Tabelle 1

Welchen Einfluss haben die ENSO-, PDO- und AMO-Zyklen?

Während der negativen bzw. kalten Phasen von PDO und AMO gibt es mehr La Nina-Ereignisse als während der positiven Phasen. Dies trägt zu mehr kalten Wintern und kälteren Jahren während einer negativen PDO bei.
Während positiver oder warmer Phase von PDO und AMO treten signifikant häufiger El Nino-Ereignisse auf. Dies ist der Grund für eine stärkere Erwärmung, wenn die PDO positiv ist.
Die globale Erwärmung war das Ergebnis eines nahezu simultanen Auftretens der warmen bzw. positiven Phase der PDO und der AMO. Die PDO ist eine Folge von ENSO-Ereignissen im Pazifik. Beide Effekte können ihre Ursache teilweise oder ganz in Zyklen der Wassertemperatur und einer Zirkulation in den Ozeanen haben, die man MOC oder Meridional Overturning Circulation [etwa: Meridionale Umwälzung] nennt und die durch alle großen Ozeane fließt.
Die gegenwärtige negative oder kalte Phase der PDO und das La Nina-Ereignis sind der Grund für all das kalte Wetter in jüngster Zeit. Die La Nina-Ereignisse könnten direkt zu der Überschwemmung am Red River [in den USA] im Jahre 2009 sowie zu den jüngsten Überschwemmungen in Australien und Brasilien beigetragen haben. Die typischen Auswirkungen von AMO und PDO auf das Klima in Nordamerika zeigt diese Studie: http://www.pnas.org/content/101/12/4136.full.pdf+html.
Ein anderer Schlüsselfaktor, der demnächst (in 1 bis 4 Jahren) zur globalen Abkühlung an der kanadischen und US-Ostküste, der Westküste Europas und der Arktis beitragen wird, ist die Abkühlung des Nordatlantik im Zuge der Atlantischen Multidekadischen Oszillation AMO. Diese Abkühlung begann nach dem Jahr 2005. Aber die AMO wird durch ENSO-Zyklen beeinflusst, vor allem El Nino-Ereignissen. Daher kam es zu einer kurzen Warmphase der AMO im Jahr 2010. Die Klimageschichte zeigt, dass die globale Abkühlung am stärksten war, wenn sich sowohl die PDO als auch die AMO beide in ihrer negativen oder kalten Phase befanden, wie von 1964 bis 1976 und dann  wieder von 1916 bis 1923. Die AMO befand sich in ihrer positiven oder warmen Phase seit 1994. Deren Zyklus lässt sich nicht so gut vorhersagen wie der 60-jährige Zyklus der PDO, aber in jüngerer Zeit folgte die AMO der PDO mit einer Verzögerung von etwa 20 Jahren.
Deren Zyklen waren ziemlich variabel. Während des letzten Zyklus‘ befand sie sich für 30 Jahre (von 1964 bis 1994) in ihrer negativen oder kalten Phase, und ihr Zyklus scheint mit der MOC und den Änderungen der Atlantischen Thermohalinen Zirkulation (THC) [?] zusammen zu hängen. Es gibt eine ganze Reihe von Abschätzungen, wann sie wieder negativ wird. Meine beste Schätzung ist etwa das Jahr 2015, basierend auf den am häufigsten in der Vergangenheit aufgetretenen Intervallen von 20 Jahren und dem kälteren Wasser, das die MOC aus den Südlichen Ozeanen unterstützt [?]. Sobald sie tatsächlich negativ wird, dürfte die globale Temperatur bis etwa zum Jahr 2030 weiter zurückgehen, die Arktis wird sich weiter abkühlen und das arktische Meereis sollte wieder zunehmen.

Welches sind die jüngsten Beweise für globale Abkühlung?

·         Die PDO trat im September 2007 in ihre negative und abkühlende Phase (möglicherweise noch für die nächsten 20 bis 30 Jahre)
·         Die AMO hat ihren Höhepunkt überschritten und begann im Juli 2010 abzunehmen. Es wird vermutet, dass diese Abkühlung bis 2015 andauern wird.
·         Der SOI war sehr positiv (um +20) seit dem Juli (was 5 bis 7 Monate später zu kaltem Wetter führt)
·         AO und NAO befinden sich immer häufiger im stark negativen Bereich (die AO hat einen rekordverdächtigen negativen Wert von -4,266 im Februar 2010 und fast -5 im Dezember 2010 erreicht)
·         Die solare Aktivität verharrt nahe dem minimalen Niveau
·         Die meisten globalen Anomalien der Temperatur zeigten 2010 eine Abkühlung
·         Die Wassertemperatur der Ozeane (SST) geht zurück
·         Der Anstieg des Wärmegehalts der Ozeane ist in den letzten 6 Jahren zum Stillstand gekommen (mit einer signifikanten Abnahme des Wärmegehalts im Nordatlantik)

Abkühlung des Weltklimas

·         In Europa und Asien gab es drei kalte Winter hintereinander (neue Kälterekorde gab es 2010 in vielen Gebieten)
·         Die jährlichen Mitteltemperaturen in Europa (Festland) sind seit 2007 zurückgegangen.
·         In Großbritannien sind die Mitteltemperaturen seit 2006 zurückgegangen, also seit 4 Jahren.
·          2010 war das kälteste Jahr in Zentralengland (8,83°C) seit 1986 oder seit 14 Jahren (8,74°C)
·         Die Wintertemperaturen in Großbritannien gingen seit 2007 zurück (4 Jahre). Während der letzten beiden Winter kam es dort zu  einer Rekordkälte. 
·          Die Mitteltemperaturen in Nordamerika begannen seit 2006 abzukühlen.
·         Die Winter in Kanada wurden seit 2001 immer kälter (ausgenommen Jahre mit einem El Nino).
·         In den USA gab es 2010 einen der schlimmsten Winter (an 15. Stelle seit 1895), trotz eines El Nino
·         Rekordschneemengen und neue Kälterekorde gab es im Dezember 2010
·         In Schweden war der kälteste Dezember seit 110 Jahren aufgetreten.
·          In Großbritannien war der Dezember 2010 der kälteste seit 120 Jahren
·         In Deutschland war es der kälteste Dezember seit 41 Jahren
·          In Irland war es der kälteste Dezember seit 129 Jahren, also seit 1881
Ähnliche Kälterekorde gab es im Mittleren Osten, auf der koreanischen Halbinsel, in der Karibik, den USA sowie in Nordwestkanada, China und Indien.

Ausdehnung der Schneedecke

  • Im Jahr 2010 gab es auf der Nordhemisphäre die größte Fläche winterlicher Schneebedeckung seit dem Winter 1978/79 (2008 war es die dritthöchste seit 1967).
  • 2010 gab es die größte winterliche Schneedeckenausdehnung seit 1967, und die Ausdehnung nahm seit 2006 immer mehr zu
  • 5 der 11 ausgedehntesten Schneebedeckungen in Eurasien traten seit 2003 auf (2003 war es die zweithöchste seit 1967) 

Was passiert mit den Abweichungen der globalen Mitteltemperatur?

Betrachten wir einige Fakten zur gegenwärtigen Anomalie der globalen Mitteltemperatur.


Abbildung 3
Die globale Temperaturanomalie nach HADCRUT 3GL GLOBAL in Abbildung 3 ist seit nunmehr zehn Jahren gleich geblieben und hat tatsächlich im letzten Quadrant um 0,0026°C pro Jahr abgenommen [Original: is actually decreasing at least square trend slope of -0.0026 C per year. [Ohne Gewähr, dass diese Übersetzung korrekt ist! A. d. Übers.] Das IPCC prognostizierte eine Zunahme um 0,21°C pro Jahrzehnt (+0,0021°C pro Jahr) für jedes der beiden nächsten Jahrzehnte (seit 2000). Es prognostizierte eine Anomalie von 0,6°C bis 2010. Der tatsächliche Wert liegt bei 0,392°C und zeigt fallende Tendenz.
Irgendetwas scheint in der Wissenschaft des IPCC fundamental falsch zu sein. Seine Prognosen und die tatsächlichen Temperaturen verlaufen entgegen gesetzt, trotz der Änderungen des CO2-Gehaltes, und das schon nach der ersten Dekade dieser seiner Vorhersage.
Hier folgen die globalen Mitteltemperaturen aus 4 verschiedenen Datensätzen (von Januar 2001 bis Oktober 2010, also die letzten 118 Monate – Wood for trees):
HADCRUT 3GL – 0.0026 C pro Jahr
RSS: + 0.0034 C pro Jahr
GISS: + 0.0080 C pro Jahr
UAH: +0.0093 C pro Jahr
Mittel + 0.0044 C pro Jahr
Kann irgendein geistig gesunder Mensch eine Temperaturänderung von vier Tausendstel Grad feststellen und dies auf dem ganzen Globus messen? Dies zeigt, wie absurd der Alarmismus der globalen Erwärmung inzwischen geworden ist! [Hervorhebung dieses Satzes vom Übersetzer!]
Die historische Globale mittlere Temperaturanomalie (GMTA) lässt sich am besten mit einer linearen Komponente eines Anstiegs mit einer mittleren Rate von 0,0059°C pro Jahr seit 1880 oder einer solchen von 0,0045°C pro Jahr, wenn man 150 Jahre zurück geht, verdeutlichen, und zwar nach den Darstellungen des IPCC plus einer OSZILLIERENDEN Komponente, die einen sinusartigen Effekt mit einer Amplitude von 0,3°C hat. Diese beiden Anomalien addieren sich und erzeugen gemeinsam einen Zyklus von 60 Jahren, und zwar alternierend mit einer Abkühlung von 0,42°C und einer Erwärmung um 0,77°C, beides jeweils innerhalb von 30 Jahren.
Diese Verteilung wird verschiedentlich modifiziert durch kurzfristige Temperaturzu- und -abnahmen infolge von ENSO-Zyklen (El Nino wirkt erwärmend und La Nina abkühlend), großen Vulkanausbrüchen (VE 4+) plus jedweder Änderungen der Solaraktivität. Diese kurzfristigen Störungen können signifikant sein (bis zu +/-0,4 bis 0,5°C außerhalb des Gleichungsmodells [?]).

Wie lauten die Vorhersagen der AGW für die Zukunft?

Vorhersage des IPCC: 2,4 bis 6°C bis zum Jahr 2100, oder 0,02 bis 0,6°C pro Jahr, also 4 bis 13 mal so hoch wie die gegenwärtige beobachtete Rate des Anstiegs.
Vorhersage des Met Office: 4°C bis 2060 oder 0,08°C pro Jahr (18 mal so hoch wie die gegenwärtige beobachtete Rate des Anstiegs).

Was projizieren die nicht der AGW-Bewegung angehörenden Wissenschaftler?

Es gibt eine wachsende Zahl von über 30 verschiedenen internationalen Klimawissenschaftlern, Akademikern, Meteorologen, Klimaforschern und Ingenieuren, die auf diesem Gebiet geforscht haben und die nicht den Vorhersagen einer noch nie da gewesenen Erwärmung von AGW und IPCC zustimmen, und die für die nächsten 1 bis 3 Dekaden kälteres Wetter annehmen. Einige sind sogar Unterstützer von AGW, stimmen aber nicht der projizierten Erwärmung für die nächste Dekade zu (siehe http://notrickszone.com/2010/12/28/global-cooling-consensus-is-heating-up-cooling-over-the-next-1-to-3-decades/  – auf Deutsch hier). Jeder Autor begründet hier, warum er von einer bevor stehenden globalen Abkühlung während der nächsten 10 bis 30 Jahre ausgeht. Diese Autoren beschreiben die natürlichen Faktoren, die das zukünftige Klima beeinflussen können, vor allem die Auswirkungen möglicher reduzierter Sonnenzyklen. Damit befasst sich der Autor dieses Beitrags jedoch nicht, weil der Beitrag sonst viel zu lang ausfallen würde.

Welche Schlüsse lassen sich aus planetarischen Zyklen der Vergangenheit ziehen?

Der Höhepunkt der jüngsten Warmphase lag zu Anfang dieses Jahrzehnts. Inzwischen könnte ein 30 Jahre dauernder kalter Zyklus begonnen haben, der zu einer Temperaturabnahme um 0,42°C bis zum Jahre 2030 führen wird. Es wird sicher noch einige warme El Nino-Jahre geben, aber der allgemeine Trend wird kälter sein als während der letzten 30 Jahre. Basierend auf der kälteren Anomalie von 0,06°C bis 2030 werden die Temperaturen ähnlich wie in den späten siebziger und frühen achtziger Jahren des 20. Jahrhunderts sein. Die Temperaturanomalie von Hadcrut3 betrug im September 2010 0,391°C und könnte noch auf 0,16°C bis 2020 zurückgehen bis zu einem Wert von etwa 0,06°C bis 2030. Die Projektion des IPCC lautet dagegen, dass die Temperaturanomalie bis 2020 auf etwa 0,8°C steigen soll. Diese beiden unterschiedlichen Projektionen, also die Vorhersage aufgrund natürlicher planetarer Zyklen und die Vorhersagen des IPCC, laufen rapide immer weiter auseinander.
Abbildung 4 zeigt eine Graphik der globalen Temperaturanomalie sowohl in der Vergangenheit als auch projiziert in die Zukunft. Sie wird präsentiert von Syun-Ichi-Akasofu (Gründungsdirektor und Physikprofessor am International Arctic Research Center, University of Alaska):


Abbildung 4
Die Abbildung 5 unten stammt aus einer Studie mit dem Titel Predictions of Global Man Temperatures & IPCC Projections (etwa: Vorhersagen der globalen mittleren Temperaturen & Projektionen des IPCC) [Achtung! Der Titel scheint im Original einen Schreibfehler zu enthalten! Gemeint ist vermutlich nicht Global Man Temperature, sondern Global Mean Temperature! A. d. Übers.] von Girma Orssengo, die zuvor auf WUWT gepostet worden war. Dabei handelt es sich um ein simples mathematisches Modell, das auf der Global Mean Temperature Anomaly (GMTA) von Hadcrut3 basiert. Die Gleichung oder das Modell ist aus keinen anderen messbaren Parametern abgeleitet als den aktuellen globalen Temperaturanomalien der Vergangenheit. Obwohl es nicht aus irgendeiner Physik abgeleitet worden war und ihr weder Energiemechanismen noch physikalische Gegebenheiten zugrunde liegen, ist es in gewisser Weise doch ein recht informativer Graph. Er basiert auf aktuellen empirischen Daten der Vergangenheit (hadcrut3) seit 1880.
Es gibt keine Garantie, dass irgendeine Zukunftsprojektion dieses Graphen je wirklich eintreten wird (es gibt aber auch keinen Beweis dafür, dass die gegenwärtigen Computermodelle von AGW noch irgendwie glaubwürdig sind). Jedoch kann der unten stehende Graph trotzdem nützlich sein. Er ähnelt dem “poor man’s “global temperature model [?] und besagt Folgendes:

  • Der Graph ist ein allgemeiner Indikator des Klimatrends in der Vergangenheit (geht der Zyklus demnächst abwärts oder aufwärts?)
  • Es gibt einen 60-jährigen Klimazyklus mit jeweils 30 Jahren Erwärmung, der 30 Jahre der Abkühlung folgen, und der sich regelmäßig alle 60 Jahre wiederholt.
  • Vor dem Jahr 2100 könnte es demnach noch zwei Zyklen mit Abkühlung geben, die die Erwärmung durch Treibhausgase marginal erscheinen lassen und deutlich überkompensieren.
  • Wahrscheinlich ist der Graph im Kurzfristzeitraum (die nächsten 10 bis 30 Jahre) nützlicher und genauer.
  • http://noconsensus.files.wordpress.com/2010/04/image2.jpg



Abbildung  5
Abbildung 6 zeigt  einen Graphen mit den möglichen zukünftigen Anomalien der GMTA pro Jahr, indem er die HISTORISCHEN NATÜRLICHEN PLANETARISCHEN ZYKLEN zeigt [Hervorhebung im Original] und das mittlere, vom IPCC projizierte Szenario einer Erwärmung um 3,0°C bis 2100. Einige andere Szenarien des IPCC zeigen einen Temperaturanstieg in der Größenordnung zwischen 2,4 und 5,3°C bis 2100, was eine sogar noch steilere Rate des Temperaturanstiegs [pro Jahr] bedeuten würde.


Abbildung 6
Siehe die Studie von Girma Orssengo für mehr Details des VORHERSAGEMODELLS von GMTA und der zugrunde liegenden Gleichung, und auch besonders die Abbildung 3 auf Seite 4, die den Verlauf der GMTA während der Jahre 1880 bis 2100 zeigt. Viele der Informationen zum GMTA stammen aus dieser Studie, die auf WUWT gepostet wurde: http://wattsupwiththat.files.wordpress.com/2010/04/predictions-of-gmt.pdf.

Warum es im 21. Jahrhundert eine geringere Erwärmung als im vergangenen 20. Jahrhundert geben könnte (Zitat aus dem oben erwähnten Papier von Girma Orssengo)

…das 20. Jahrhundert begann, als sich die oszillierende Anomalie gerade 1910 in ihrem Minimum befand mit einer GMTA von -0,64°C, und endete mit dem Maximum um das Jahr 2000 mit einer GMTA von 0,48°C. Das ergibt eine große globale Erwärmung von 0,48 + 0,64 = 1,12°C. Diese große Erwärmung resultierte aus dem seltenen Vorkommen von zwei Erwärmungsphasen von jeweils 0,77°C, aber nur einer Abkühlungsphase von 0,44°C. Daraus ergibt sich eine globale Erwärmung um 2*0,77-0,42=1,12°C.
Im Gegensatz zum 20. Jahrhundert wird es laut Abbildung 3 nahezu keine Änderung der GMTA im 21. Jahrhundert geben. Der Grund hierfür liegt darin, dass das Jahrhundert zu der Zeit begann, als sich die oszillierende Anomalie gerade im Maximum befand, und zwar um das Jahr 2000 mit einer GMTA von 0,48°C. Es wird im Minimum enden, also um das Jahr 2090 mit einer GMTA von 0,41°C. daraus resultiert eine vernachlässigbare Größenordnung von -0,07°C. Diese vernachlässigbare Änderung ergibt sich aus dem seltenen Ereignis, dass es zwei Abkühlungsphasen mit jeweils 0,42°C und nur einer Erwärmungsphase mit 0,77°C gibt.
Erwähnenswert ist, dass keine der auf planetarischen Zyklen basierenden Vorhersagen eine Temperaturzunahme von 2 bis 4 oder gar 6°C simuliert, wie es die Vorhersagen des Met Office und des IPCC tun. Diese auf planetarischen Zyklen basierenden Vorhersagen von Prof. Easterbrook und Prof. Syun-Ichi Akasofu gehen von einer Erwärmung von weniger als 1°C bis 2100 aus, ähnlich dem, was im vergangenen Jahrhundert geschehen war.
Auch Dr. Roy Spencer von der University of Alabama und Professor R. Lindzen vom MIT [Massachusetts Institute of Technology] glauben, dass der Temperaturanstieg bis zum Ende dieses Jahrhunderts lediglich etwa 1°C ausmacht.

Zusammenfassung

Während der nächsten 10 bis 30 Jahre wird es eher zu kälterem Wetter kommen als zu einer nie da gewesenen Erwärmung. Dies heißt nicht, dass es in allen der nächsten 10 bis 30 Jahre kälter ist, da es nach wie vor einige warme El Nino-Jahre geben wird, aber der generelle Trend der nächsten 2 bis 3 Dekaden dürfte kälter ausfallen und nicht eine nie da gewesene Erwärmung zeigen, wie es AGW behauptet.
Es gibt niemandem auf diesen Planeten, der genau sagen kann, wie das Klima in einem Jahr oder in einem Jahrzehnt und schon gar nicht in 100 Jahren aussehen wird. Dieser Artikel sollte zeigen, dass es andere Möglichkeiten der Entwicklung des Klimas gibt, die nicht notwendigerweise eine größere Reduktion der CO2-Emissionen erforderlich machen. Eine andere Version der Klimavorhersage, die auf natürlichen planetarischen Zyklen basiert, scheint viel wahrscheinlicher, wird die Erde viel mehr betreffen und viel schneller kommen als eine noch nie da gewesene Erwärmung. Einige Winter könnten sehr streng sein, so wie in den späten siebziger Jahren. Die tatsächlich beobachteten Anzeichen aus der realen Welt zeigen, dass die Option der Abkühlung in vielen Teilen der Welt bereits begonnen hat.
 Matt Vooro, P. Eng
Die Option der globalen Abkühlung ist auch Thema dieser Beiträge:
http://www.iceagenow.com/
http://www.appinsys.com/GlobalWarming/GW_TemperatureProjections.htm
http://isthereglobalcooling.com/
http://notrickszone.com/category/cooling/
http://wattsupwiththat.com/

http://thegwpf.org/the-climate-record/2269-freezing-winters-in-europe-could-be-the-norm.html
 von Matt Vooro 
Link: http://notrickszone.com/2011/01/22/signs-of-strengthening-global-cooling/

Übersetzt von Chris Frey für EIKE
Anmerkung des Übersetzers: Einige wenige [gekennzeichnete] Passagen dieses Textes habe ich inhaltlich nicht verstanden und quasi im ‚Blindflug‘ übersetzt. Ich bitte um Nachsicht! Vermutlich haben diese Passagen aber keinen Einfluss auf den Gesamtzusammenhang dieses Beitrags.
Unabhängig davon – selten habe ich einen Text gesehen, der so anschaulich die gesamte Faktenlage auf den Punkt bringt wie dieser Beitrag von Matt Voroo!  Das leuchtet selbst Laien ein!
An zwei Stellen bezieht sich der Beitrag auf Arbeiten von Prof.  Easterbrook, dessen Arbeiten eventuell umstritten sind. Bevor aber sich die Diskussion darauf einschießt, sei hier angemerkt, dass seine Arbeiten hier bestenfalls am Rande eine Rolle spielen und als eine von vielen zitiert werden.




NASA Klima (GISS) Institut findet heraus: Flughäfen werden deutlich wärmer als der Rest der Welt.

Wie im vorherigen Beitrag bemerkt, hat das GISS seine monatliche globale Temperaturzusammenfassung für den Juni 2009 veröffentlicht. Die kolossale Anomalie dieses Monats von 0.63C ist einmal mehr viel höher als die von RSS, UAH, und sogar NOAA, der Quelle der GISS-Temperatur Daten. Nicht nur ist die Anomalie höher als die andere Quellen, sondern sie verläuft entgegengesetzt.

Temperaturdaten von 1079 Stationen trugen weltweit zur Analyse bei, 134 davon in den 50 amerikanischen Staaten angesiedelt. Daten von im Grunde den gleichen wenigen Stationen sind für die vergangenen vierundzwanzig Monate benutzt worden. Viele, viele Hunderte von Stationen, die historisch in die Aufzeichnung einbezogen worden sind, und immer noch Daten sammeln, werden heute weiterhin von GISS bei den globalen Temperaturberechnungen ignoriert.

Und wieder kommt der Großteil der  Temperaturen, der den heutigen weltweiten GISS-Durchschnitt umfaßt, von Flughäfen. In diesem Fall von 554 Flughäfen, laut den NOAA Daten von der V2-Station Bestandsliste. In den U.S. steigt das Verhältnis von Flughäfen zu Stationen insgesamt weiter stark an, mit 121 Flughafen-Stationen von den 134 berichtenden US Stationen.

Wareum müssen wir uns um die Flughafenstationen kümmern? Neben den jüngsten Posts auf der Seite von WWUT, welche die Probleme mit Flughafen-ASOS-Ausrüstung in den U.S. dokumentieren, hat WUWT auch eine Anzahl von Stationen dokumentiert, die problematisch gelegen sind. Besonders auffallend ist die Nähe der Stationen zu beheizten Pisten. Flughäfen können eine Mini-WI (Wäreminseleffekt) Wirkung dort ausüben, wo man sie ansonsten nicht erwartet.

Der NOAA Daten sind nicht völlig aussagekräftig, und mehrere bei Flughäfen gefundene Stationen werden nicht als solche bezeichnet. Einige Beispiele: Londrina und Brasilia in Brasilien, Ely / Yelland in Nevada und Broome in Austrailia. Jene Stationen waren leicht zu finden, weil sie im Stationsnamen den Begriff "Flughafen" oder ähnliches hatten. Ein Scheck der Koordinaten bei Google Earth bestätigte die Flughafenlagen.

Untersuchen wir die Daten über die Stationen etwas näher, sollen wir?

NOAA sagt, dass 345 der Stationen, die sie an GISS weitergeben, ländlich sind, und daher vermutlich frei von UHI-Einfluss. Fünfzehn dieser Stationen befinden sich in den U.S. Aber nur 201 dieser ländlichen Stationen befinden sich nicht bei einem Flughafen, und deshalb vermutlich frei von UHI-Wirkungen (einschließlich Pistenheizung). In den U.S. wird nur eine der fünfzehn Stationen als ländlich und gleichzeitig  nicht bei einem Flughafen gelegen, genannt: Ely / Yelland in Nevada.

So so!!! Wie oben gesagt, liegt diese Station bei einem Flughafen – das bestätigte nicht nur Google Earth, sondern auch die NOAA NCDC-Webseite! Dies bedeutet, dass all die amerikanischen Temperaturen – einschließlich Alaska und Hawaii. – entweder von einem Flughafen (der Großteil der Daten) oder einer städtischen Lage stammt.

Wie für der Rest der Welt wird bei einigen, der als ländlich und nicht bei einem Flughafen liegend angegebenen Stationen, in der Beschreibung vermerkt, dass sie in einem Gebiet mit „gedämpfter“ oder "heller" Beleuchtung liegen. Wenn wir diese herausnehmen, bleibt eine Gesamtsumme von nur 128 Stationen, die ländlich sind, nicht bei einem Flughafen liegen, und "dunkel" sind.

Warum ist "dunkel" so wichtig? Erinnern Sie sich, dass GISS dunkle Stationen verwendet, um den WI-Effekt der städtischen Stationen zu justieren. Bei nur 128 dunklen Stationen, keine davon in den U.S., scheint dies eine unmögliche Aufgabe zu sein.

Glücklicherweise erlauben es die GISS-Justierungs-Regeln, alte Daten zum Justieren von neuen Daten zu verwenden. Die Älteren "nicht-meldenden“ ländlichen Wetterstationen dienen weiter dazu, städtische Stationen zu justieren, obwohl die letzten zwei Jahre Überschneidung fehlen.

Zum Glück sind die Algorithmen robust genug, um Justierungen im Bereich von 100´stel Graden zu berechnen, selbst wenn Daten fehlen.

John Goetz im Juli 2009 den Originalartikel finden Sie hier
Die Übersetzung besorgte CS.
Weiterführende Links: http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/




Wärmstes Jahr 2010, aber nicht in Deutschland, auch nicht in Europa, nicht auf den Weltmeeren, …, wo denn eigentlich?

“2010 ist das wärmste Jahr in der Geschichte“, so die WMO am 20.01.2011 in Genf. Welcher Geschichte? Die Geschichte der manipulierten Temperaturreihen, wie sie Ende 2009 der Welt durch Climategate bekannt und karikativ wie folgt aufgegriffen wurde (Abbildung 1).

 

Abbildung 1 zeigt, wie der Erwärmungstrend aus Sicht des Karikaturisten zustande kommt. Wir wollen uns jedoch nach wissenschaftlichen Belegen ausrichten.

Bereits in meinem EIKE-Artikel http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1 hatte ich aufgezeigt, dass es für die Aussage der WMO keine belastbaren Belege gibt und durch Vergleiche mit dem Hadley-Center und der Satellitenwerte (UAH), die WMO und die GISS-Datenreihe, ich drücke es einmal so aus, erklärungsbedürftig sind. Daher nochmals, die auf Satellitenmessungen basierte globale Temperaturdatenreihe, aus der eindeutig hervorgeht, dass 2010 nicht das wärmste Jahr war.

 

Abbildung 2 zeigt die Globaltemperaturen im Zeitraum 1979 – 2010 (Stand 05. Januar 2011, Quelle: http://www.climate4you.com/GlobalTemperatures.htm). Beide Temperaturspitzen, die zum Jahreswechsel 2009/2010 und 1997/1998 sind El Niño-basiert, wie ich in meinem o.g. Artikel bereits nachwies. In meinem EIKE-Artikel “La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld“ weise ich darüber hinaus nach, durch was sie wann ausgelöst werden.

Das etwas mit der Aussage vom wärmsten Jahr 2010 nicht stimmen kann, wurde uns allen bereits zu Beginn des Jahres klar, als die gesamte nördliche Halbkugel, bis nach Spanien, von einer weithin geschlossenen Schneedecke bedeckt war. Weiter lag die Maitemperatur um 3°C niedriger als der Durchschnitt der letzten 10 Jahre, zumindest in Deutschland. Die Vegetation hinkte um Wochen hinterher, wie Abbildung 3 zeigt.

 

Abbildung 3: In der freien Fläche Deutschlands waren Ende Mai 2010 noch viele Bäume ohne vollen Blattaustrieb. Die Abbildung zeigt die ländliche Gegend um Ellwangen im Ostalbkreis, Ende Mai 2010.  Der Mai 2010 war einer der kältesten in den letzten 100 Jahren, wie Abbildung 4 zeigt.

 

Abbildung 4 zeigt die Maitemperatur in Deutschland von 1881 – 2010 nach Daten des DWD. Die Datenreihe zeigt übrigens auch, dass es in den 1930 und 1940-Jahren wärmer war als zum Ausgang des 20. Jahrhunderts. Der Mai 2010 war einer der kältesten im Betrachtungszeitraum und liegt deutlich unter dem Durchschnitt. Nach Auswertung des DWD (er lieferte uns in den Datenreihen die Temperaturabweichungen gleich mit) war der Mai um 1,7°C im Vergleich zum Mittel zu kalt! Der Mittelwert der Maitemperatur lag in diesem Zeitraum bei 12,1°C, rote, waagerechte Linie. Nur wenige Maimonate waren kälter, als 2010.

Der DWD hat jüngst bestätigt, dass das Jahr 2010 in Deutschland mit einer Mitteltemperatur von 7,9°C kälter war, als im Langzeitmittel, dem sog. Klimatologischen Referenzzeitraum. Wird dazu noch der in unserem EIKE-Beitrag http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/ berechnete Wärmeinseleffekt berücksichtigt, der die heutigen Vergleichsmesswerte zu wärmeren Temperaturen beeinflusst, ist es gegenwärtig so kalt, wie seit 150 Jahren nicht mehr, dem Ende der “Kleinen Eiszeit“, der kältesten Epoche der letzten 2.000 Jahre, oder wie sich der Leiter der Wetterstation Ostalbwetterwarte ausdrückte:

„Zusammenfassend kann man sagen: Das vergangene Frühjahr war ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren.“ Quelle: “Das Wetterglas“ Nr. 49 (http://www.wetterglas.de/Wetterglas/wg_49.PDF

Das Ergebnis der WI-bereinigten und damit korrekten Vergleichsmesswerte zeigt Abbildung 5.

 

Abbildung 5 (rote Zeitreihe) zeigt die WI-unbereinigte Temperaturreihe für Deutschland von 1891 – 2010, wie sie vom DWD veröffentlicht wurde und die WI-bereinigte EIKE-Vergleichszeitreihe, die die tatsächlichen Temperaturvergleichswerte angibt (blaue Datenreihe). Die grüne Trendkurve zeigt den ermittelten Wärmeinseleffekt und den möglichen Fehlerbereich. 2010 war im Betrachtungszeitraum eines der vier-kältesten Jahre und der polynomische Trend (blaue Trendlinie) liegt derzeit bei Werten, wie zu Beginn der Temperaturaufzeichnungen, so dass zusammengefasst gesagt werden kann:

Eine Temperaturerhöhung über die letzten 130 Jahre ist in Deutschland nicht nachweisbar. Der (leichte) Erwärmungstrend bis zum Ende des 20. Jahrhunderts ist aufgebraucht. Es wird (leider) wieder kälter.

Wie sieht es mit den letzten 10 Jahren aus, da die WMO in ihrer eingangs erwähnten Mitteilung weiter ausführte, die 10 wärmsten Jahre lägen alle im Zeitraum seit 1998. Hierzu die Datenreihe für Deutschland, nach Daten des DWD, also WI-unbereinigt.

 

Abbildung 6. Anhand der blauen Trendkurve wird deutlich: Wir haben in Deutschland eine Klimaabkühlung seit dem Jahr 2000.

Auch in Europa kann von einem wärmsten Jahr 2010 keine Rede sein, wie Abbildung 7 belegt.

 

Abbildung 7 (http://planetsave.com/2010/12/15/why-is-it-so-cold-in-europe-does-this-mean-global-warming-isnt-real/) zeigt die Temperaturanomalien für Europa in den Jahren von 1950 – 2010. Die Abbildung spricht für sich.

Da auf die Erde die Meersflächen mit über 70% der Fläche dominieren, geben sie einen Hinweis, ob die Meldung der WMO plausibel ist oder ob nicht.

 

Abbildung 8, Quelle: TRENBERTH, K.E. and FASULLO, J.T.:  Tracking Earth’s Energy, SCIENCE, Vol.328, 16.04.2010, S.316-317 zeigt nach ARGO-Daten die Oberflächentemperaturen (ARGO ist Teil des globalen Ozeanüberwachungssystems und wurde nach der griechische Argo-Sage, dem gleichnamigen Schiff der Argonauten benannt). In der Arbeit von Trenberth ist bestenfalls von einem gleichbleibendem Niveau der Meerestemperaturen, unter dem von 1998 zu sprechen. Im Spiegel vom 20. Mai 2010 (http://www.spiegel.de/wissenschaft/natur/0,1518,694719,00.html) rätseln die Forscher über die Meereskälte. Auch hier also von einem Rekordjahr weit und breit nichts in Sicht.

Wie kommt nun die WMO zu ihrer Aussage? Die Lösung liegt in dem bereits genannten WI, der die Temperaturen künstlich in die Höhe treibt und der Tatsache, dass mittlerweile 51% aller globalen Temperaturmesswerte von Flughäfen stammen. Siehe hierzu unser EIKE-Artikel http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1) oder http://wattsupwiththat.com/2009/07/15/giss-worlds-airports-continue-to-run-warmer-than-row/ . Weiter befinden sich gegenwärtig 80% aller Messstationen in städtischen Gebieten, die aber nur 3% der Landfläche ausmachen. Von einer objektiven und halbwegs gleichmäßigen Verteilung und Gewichtung der Messstationen kann demnach keine Rede sein. Die folgende Abbildung zeigt, wie sich durch geeignete Auswahl von städtischen Messstationen die Temperaturmittelwerte angehoben wurden, obwohl sich in der Realität nichts änderte.

Abbildung 9 (http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf) zeigt, wie parallel durch Auswahl (Weglassen von ländlichen Messstationen) der Stationen die Temperaturen plötzlich zu steigen beginnen.

In 2009 wurde die Anzahl der Messstationen nochmals reduziert, wie die Abbildung 10 am Beispiel der USA zeigt.

 

Abbildung 10, Quelle: Surface Temperature Records: Policy Driven Deception? Joseph D’Aleo and Anthony Watts, zeigt, wie sich die Anzahl der US-Messstationen in 2009 drastisch verringerte, hin zu städtischen Stationen.

Am Beispiel Kanadas, welches in 2010 Rekordtemperaturen verzeichnen haben soll, wird denn deutlich, wie Reduzierung und Gewichtung die Temperaturen in die gewünschte Richtung lenken.

 

Abbildung 11 zeigt die Erde mit den Temperaturabweichungen nach NOAA für 2010. Man beachte, dass Kanada besonders stark hervorgehoben wird und dort besonders stark in den Polargebieten die Temperatur gestiegen sein soll.

Diese Daten, ihre Plausibilität, werden nun mit den vorhandenen Messstationen verglichen. Hier die Liste der WMO-Temperaturmessstationen in Kanada, aufgelistet nach Ländern.

 

Abbildung 12 oben zeigt die Anzahl der Temperaturmessstationen und welches Gebiet diese abdecken und darunter, Kanada mit seinen Ländern und darin eingezeichnet, dass weite Gebiete (grün) mit Messstationen gar nicht erst erfasst werden, Quelle: Surface Temperature Records: Policy Driven Deception? Joseph D’Aleo and Anthony Watts. Werden diese Gebiete mit den Angaben der NOAA für 2010 in Abbildung 11 verglichen, muss festgestellt werden, dass Temperaturen für große Gebiete ausgewiesen werden, obwohl sich dort überhaupt keine Messstation befindet und, wie sollte es anders sein, Rekordtemperaturen dabei herauskommen. Es werden also Temperaturen sozusagen aus der Glaskugel angegeben. Da verwundert es denn nicht, dass 2010 ein Rekordjahr war, fragt sich denn nur, auf was sich der Rekord bezieht (siehe Anfang unseres Artikels in Bezug zu Climategate). Es erübrigt sich fast zu sagen, dass nach Angaben von D’Aleo und Watts die Anzahl der WMO-Messstationen in Kanada 1088 betrug, anhand der obigen Liste aber nur noch 466 vorhanden sind.

Darüber hinaus haben der DWD und die WMO zum 01. April 2001 (kein Aprilscherz) die Datenerfassungsmethode grundlegend geändert. Bis zu dem Datum wurde in Deutschland am Tag dreimal gemessen  (um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr – letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte) und seither stündlich. Wegen der starken Asymmetrie des Temperaturtagesganges können beide Verfahren grundsätzlich keine gleichen Ergebnisse liefern. Durch das neue Verfahren werden die Mitteltemperaturen um mindestens 0,1°C autom. angehoben, obwohl sich an den gemessenen Temperaturen überhaupt nichts ändert.

Die Tabelle zeigt die Temperaturabweichung (nach oben) am Beispiel der DWD-Station in Berlin-Dahlem nach der alten und nach der neuen Erfassungsmethode.

 

Allein diese 0,1°C reichen aus, die WMO-Aussage als Falschaussage zu überführen, da der Rechenwert (bei Temperaturmittelwerten handelt es sich grundsätzlich niemals um gemessene, sondern immer um mathematisch behandelte, also gewichtete Werte und es gibt eine Vielzahl verschiedener Rechenmethoden – Algorithmen) zwischen dem angeblich wärmsten Jahr 2010 und dem Drittplatzierten lediglich 0,05°C beträgt.

Bei einem Zusammentreffen solch ungeeigneter Messumgebungen und statistischer Taschenspielertricks, kann es denn nicht verwundern, dass die Temperaturen WI-bedingt immer mehr steigen, obwohl wir doch längst alle bemerkten, dass es deutlich kälter wird.

Zum Abschluss möchten wir Ihnen die aus Eisbohrkerndaten rekonstruierte Temperaturreihe der letzten 10.000 Jahre zeigen, da die WMO nicht versäumte zu melden, dass das arktische Eis (wieder einmal) einer Rekordschmelze entgegen geht.

 

Abbildung 13 (http://joannenova.com.au/2010/02/the-big-picture-65-million-years-of-temperature-swings/) zeigt den Temperaturgang der letzten 10.000 Jahre. Von einem wärmsten Jahr 2010 oder wenigsten einer wärmsten Epoche der letzten 10 Jahre ist dort nichts zu sehen. In der Vergangenheit gab es deutlich wärmere Jahre mit daraus resultierender geringerer Eisbedeckung.

Insgesamt ist das Resümee zu ziehen, dass es sich bei der Aussage der WMO um eine Falschaussage handelt, die anhand ungeeigneter, weil stark WI-belasteter Messstationen zustande kommt, sowie geänderter statistischer Erfassungsmethoden und statistisch geänderter Gewichtung von Messstationen.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

Weitere Links zum Thema:

http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/