Ende eines Irrtums

Inzwischen zweifelt kein ehrlicher Wissenschaftler mehr daran, dass die offiziellen Schätzungen der Klimasensitivität, auf deren Grundlage die Regierungen Billionen locker machen, Übertreibungen sind. Und doch verstärken die Regierungen – vor allem die hart Linken – noch ihre Bemühungen, die Steuerzahler auszurauben und die Finanziers ihrer politischen Opponenten, der Unternehmen fossiler Treibstoffe, durch unmäßige Vorschriften ihre Existenzgrundlage zu entziehen.
Klima-extremistische Regierungen sind dabei, den Bankrott anzustreben – oder vielmehr Sie und mich bankrott zu machen – weil sie ebenfalls nur zu genau wissen, dass unser Einfluss auf das Klima viel zu gering ist, um es tatsächlich oder potentiell gefährlich werden zu lassen. Aber nach all ihrer widerlichen, weinerlichen Rhetorik hinsichtlich der dringenden Notwendigkeit, den Planeten zu retten [im Original groß geschrieben: to Save The Planet], können sie nicht als vollkommen falsch gesehen werden. Ihre Zaubereien dürfen nie an das Tageslicht kommen. Man ignoriere den Mann hinter dem Vorhang. Man schenke jedwedem Beweis aus der realen Welt keinerlei Aufmerksamkeit!
Die einzige Fluchtmöglichkeit für linke Regierungen und ihre akademischen Kumpane in der wissenschaftlichen Gemeinschaft sowie bei den Medien für die Demütigungen, die sie verbreiten, wäre anderenfalls unvermeidlich die Konfrontation mit Vorwürfen des Betrugs seitens der umschmeichelten nicht-linken Regierungen, die kollektiv weltweit die CO2-Konzentrationen kappen sollen. Dann, wenn sich die Temperatur weigert, weiter zu steigen – und sie wissen inzwischen, dass sie sich weigert – werden sie behaupten, dass ihre Maßnahmen zur CO2-Reduktion den Planeten gerettet haben, obwohl dieser von Anfang an gar nicht in Gefahr war. Es ist eine einfache, aber gefährliche Strategie, die in den marxistischen Main-Stream-Medien* niemals beschrieben, geschweige denn in Frage gestellt wird.
[*Unübersetzbares Wortspiel. Im Original steht statt ‘mainstream-media’ der Begriff ‘Marxstream media]
Sie könnten damit durchkommen. Nächstes Jahr in Paris (falls sie keinen Erfolg damit haben, uns überraschend schon in diesem Jahr zu erreichen), werden sie hoffen, die Regierungen überreden zu können, einen bindenden Klimavertrag zu unterzeichnen, der sich in keiner Hinsicht von dem unterscheidet, was in Kopenhagen gescheitert ist.

Alle Personen, die dies eventuell stoppen könnten, werden in Las Vegas sein. Falls Sie auch darunter sind, werden Sie sofort ein Zimmer im Mandalay Bay Resort and Casino buchen müssen (siehe Bild). Mehr Details bei www.heartland.com.
•••
Anmerkung des Übersetzers: Es folgen noch einige Absätze über die Spielernatur des Tagungsortes Las Vegas. Für die Thematik hier sind diese nicht so relevant, weshalb ich hier auf die Übersetzung verzichte. Anders als normal hat Monckton hier in einem recht einfach zu verstehenden Englisch geschrieben.
Link: http://wattsupwiththat.com/2014/06/06/end-of-an-error/
Übersetzt von Chris Frey EIKE




Teil II Videos von der VII. IKEK Mannheim jetzt verfügbar: heute Prof. Henryk Svensmark und Prof. Nir Shaviv

Prof. Hernryk Svensmark vom Centre for Sun-Climate Research of Danish National Space Centre, berichtet über neue Erkenntnisse über den Einfluss der kosmischen Höhenstrahlung -moduliert durch den Sonnenwind, auf das globale Klima. Seine grundlegende Idee dieser Modulation, letztendlich der Wolkenbildung und durch diese die Lufttemperatur, durch die Höhenstrahlung und den Sonnenwind erfährt immer mehr Unterstützung durch Beobachtungen. 

Für alle Ipad-Iphone Safari Nutzer: Hier die URL zum Direktanwählen: http://www.youtube.com/watch?v=EDTmM74nDcw
Die Frage, die es nun zu klären gilt, ist, wie die Kondensationskerne, die zu Bildung von Wolken unbedingt erforderlich sind, durch Sonnenwind und Höhenstrahlung gebildet werden. Wie auch einige andere ist die Vortragssprache Englisch. Wir bedauern dass wir die deutsche Übersetzung nicht verwenden dürfen.
Auch Prof. Nir Sahviv vom Racah Institute of Physics – The Hebrew University of Jerusalem war schon häufig Gast auf den EIKE Klima- und Energiekonferenzen. Er liefert die astrophysikalische Ergänzung der Theorie von Svensmark zur Steuerung der Entstehung von Wolken durch die Modulation der kosmischen Höhenstrahlung durch den Sonnenwind.

Für alle Ipad-Iphone Safari Nutzer: Hier die URL zum Direktanwählen: https://www.youtube.com/watch?v=bs0UWctZ7hU

Zusätzlich beschreibt er, wie auch die Höhenstrahlung beim Wandern des Sonne durch den äußeren Bereich der Milchstraße selbst moduliert wird und damit massiven Einfluss auf die längerfristige Groß-Klima-Entwicklungen nimmt. 
Auch dieser Vortrag ist in Englisch. Die deutsche Übersetzung steht uns leider nicht zur Verfügung




Was Obama von Deutschlands gescheitertem Experiment mit grüner Energie lernen könnte

Bild rechts: Ein Windpark, wie er auch in Nauen bei Berlin steht. Die Krise in der Ukraine unterstreicht die größte politische Herausforderung nach den ersten 100 Tagen der Amtszeit von Kanzlerin Angela Merkel, nämlich die Mammut-Transformation des Landes von Kernkraft hin zu erneuerbaren Energien auf die Reihe zu bekommen. Die Transformation begann in vollem Umfang, als Merkel nach dem Kernkraftunfall in Fukushima abrupt Deutschlands Ausstieg aus der Kernkraft betrieb. Seitdem hat die „Energiewende“ [das Wort steht so auch im Original mit der beigefügten Übersetzung von Coats mit „Energy turnaround“. Anm. d. Übers.] zunehmend Kopfschmerzen verursacht. Bild: © Harry Hain
Als diese Gesetzgebung im Jahre 2000 in ein Gesetz für erneuerbare Energie [EEG] gegossen worden war, garantierte Deutschland Solar- und Windparkbetreibern 20 Jahre festgesetzte hohe Preise und räumte dieser Energie Vorrang bei der Einspeisung ins Netz ein. Dieses Schema regierungsamtlicher Einmischung, Subventionen und Marktmanipulationen bildete den Rahmen für sogar noch fatalere Entscheidungen der Regierung hinsichtlich Energiepolitik.
Nach dem Kernkraftunfall in Fukushima 2011 hat der deutsche Gesetzgeber eine sogar noch dramatischere Änderung der Politik vollzogen. Reitend auf der Bewegung der grünen Welle haben die politischen Parteien in Deutschland hastig eine Entscheidung getroffen, alle 17 Kernkraftwerke des Landes abzuschalten. Die Führer Deutschlands sorgten für die Eliminierung sauberer Kernenergie, während sie gleichzeitig darauf abzielten, die Kohlenstoffemissionen bis zum Jahr 2050 um 80 bis 95 Prozent zu reduzieren.
Diese übermäßig ambitionierten und scheinbar widersprüchlichen Ziele sollen durch einen extravaganten Plan der Regierung erreicht werden, die Entwicklung und Erzeugung erneuerbarer Energieverfahren zu fördern. Im Zuge dieses Planes – „Energiewende“ [„energy transition“] genannt – sollen Erneuerbare, hauptsächlich Solar- und Windenergie, 80% des deutschen Strombedarfs und 60 Prozent des gesamten Energiebedarfs des Landes decken.
Das sieht unmöglich zu erreichen aus? Nun, es ist unmöglich. Deutschlands fortgesetzte Subvention der Industrie alternativer Energien bedeutet, dass die Deutschen Energiepreise zahlen, die mindestens zwei- bis viermal so hoch sind wie im globalen Mittel.
Normale Haushalte der Mittelklasse tragen bei Weitem den größten Anteil an dieser drückenden Kostenlast, da die Industrie selbst stark subventioniert wird.
Anfang des Jahres hat die deutsche Regierung einräumen müssen, dass 6,9 Millionen Familien in Energiearmut leben, die definitionsgemäß vorliegt, wenn mindestens 10 Prozent des Haushaltseinkommens für Energie aufgewendet werden müssen. Die Einwohner Deutschlands beklagen sich lauthals über diese Zusatzkosten – Kosten, die die Amerikaner und die meisten EU-Länder noch nicht zahlen müssen.
Sigmar Gabriel, Deutschlands Vizekanzler und Umweltminister, hat kürzlich vor einem Treffen der führenden Solartechnologie-Firmen ausgeführt, dass die Energiewende „am Rande des Scheiterns steht“. Er und andere sind zu diesem öffentlichen Bekenntnis gekommen mit der Erklärung, dass massive Regierungs-Subventionen nicht nachhaltig seien.
Inzwischen hat sich die technologische Innovation verlangsamt und ist sogar behindert worden, haben sich doch Unternehmen an die Subventionen der Regierung gewöhnt. Selbst das extravagante Ziel der Reduktion von Kohlenstoffemissionen wurde ins Gegenteil verkehrt, sind doch die Emissionen seit Einführung dieser Politik stetig gestiegen. Deutschland importiert jetzt Energie von Kernkraftwerken jenseits der Grenze aus Frankreich.
Ironischerweise ist der Retter der deutschen Energiewüste – und hier sollte Präsident Obama sehr aufmerksam hinschauen – die Kohle.
Während die Subventionen der Regierung ineffiziente Technologien finanzieren und die Regierung von den Emissionszielen besessen ist, ist der Kohleverbrauch in Deutschland bei der Gesamt-Stromerzeugung auf 45 Prozent gestiegen, das ist der höchste Anteil seit 2007.
Um im Wettbewerb auf dem globalen Markt mithalten zu können, braucht jedes Land – seien es die USA oder Deutschland – eine vernünftige, auf bewiesener Wissenschaft beruhende Energiepolitik, die sich auf dem offenen Markt bewähren muss.
Fehlgeleitete exekutive Übermaßnahmen und regulatorische Angriffe auf die Energieindustrie sind kaum der Weg, eine solche Politik zu erreichen.
Unter der Politik der jetzigen Administration können die amerikanischen Energieerzeuger kaum fassen, dass verwirrende regulatorische Eingriffe unsere gesunde, marktbasierte Energieindustrie in Rotation versetzen.
Ohne Kurskorrektur wird Obamas Krieg gegen die Kohle die gleichen Ergebnisse zeitigen wie Deutschlands Krieg gegen fossile Treibstoffe: höhere Preise und ein echtes Potential für Störungen der Energieversorgung.
Präsident Obama hat Elemente des europäischen Sozialismus’ oftmals als etwas betrachtet, das er den Amerikanern auch gerne verordnen würde. Es ist jetzt an der Zeit, dass er aus den europäischen Fehlern lernen sollte. Der Präsident sollte es vermeiden, die Lage in Deutschland zu duplizieren, indem er einfach sichere Energieerzeuger ihre Arbeit machen lässt, Energie zu erzeugen.
Der Republikaner Dan Coats repräsentiert den Bundestaat Indiana im US-Senat. Er ist Mitglied im Senate Intelligence Committee und war früher US-Botschafter in der Bundesrepublik Deutschland.
Link: http://www.thegwpf.org/what-obama-could-learn-from-germanys-failed-experiment-with-green-energy/
Übersetzt von Chris Frey EIKE
Bemerkung des Übersetzers: Diesen Blick aus US-Sicht auf Deutschland von einem, der sich hier auskennt, fand ich so interessant, dass ich diesen Artikel übersetzt habe.




Der Künstler als Klimamodell-Experte

Wirkliche Klimaleugnung ist das Verleugnen der vom Computer erschaffenen Welt durch Mutter Natur.
Wissenschaft und Kunst sehen die Welt, d. h. die Realität unterschiedlich. Es liegt im Bereich der Bildenden Kunst, dass eine flüchtige Wahrheit der Klimadynamik bereits identifiziert und dokumentiert worden ist. Vor langer Zeit hat ein Künstler das dargestellt, was viele im Bereich Computer-Modellierung des Klimas nicht bemerkt oder abgelehnt haben, es einzuräumen. Und doch wird seine Botschaft oftmals durch den Computer-Modellierer ignoriert, dessen Leidenschaft für sein Programm ihn blind macht gegenüber der von diesem Künstler verkündeten Wahrheit. Begeisterte Klima-Modellierer hängen viel mehr an ihrem Computer-Modell als an der Realität.
Dieses Mahnmal sichtbarer Wahrheit hängt im Los Angeles Museum of Art, ein paar Meilen entfernt von der University of California in Los Angeles (UCLA). Erst vor Kurzem hat eine Gruppe vom UCLA einen Bericht veröffentlicht, in der die Entschärfung des Klimas [climate mitigation] via einer Anzahl Modalitäten erkundet wird. Hätten Mitglieder dieses Berichtes das nahe gelegene County Museum besucht, hätte sich ihr Enthusiasmus für die Ergebnisse des Berichtes vermutlich gemäßigt, die allesamt auf Studien basieren… wobei Studien hier ein Kürzel für Computersimulationen ist.
Ceci n’est pas une pipe“ oder „das ist keine Pfeife“, gemalt von René Magritte im Jahre 1928 zeigt eine perfekte Pfeife eines Rauchers. Man unterdrücke den Drang zu erklären, dass jener Maler den Bezug zur Realität verloren hat. Sein Gemälde ist näher an der Wirklichkeit als einige Klima-Modellierer, zum Beispiel Prof. Chris Folland vom Hadley Centre for Climate Prediction and Research, der eine derartige Leidenschaft für seine vom Computer generierte Welt in die Worte kleidet: „Die Daten spielen keine Rolle. Wir begründen unsere Ratschläge nicht mit den Daten. Wir begründen sie mit Klimamodellen“.
Eine derartige blinde Liebe zu seinem eigenen Erzeugnis ist durch die griechische Mythologie unsterblich gemacht worden, und zwar durch die Sage von Pygmalion. Sich in seine eigene Schöpfung zu verlieben bietet eine Grundlage für interessante philosophische Debatten, wenn es sich um eine Statue handelt; handelt es sich aber um ein Klimamodell, ist es abwegige Wissenschaft. Es ist keine Wissenschaft mehr, sondern eine abstruse Entfernung von der Realität.
Magrittes sichtbare Botschaft lautet, dass eine Kopie oder die Darstellung eines Objektes nicht das Original-Objekt selbst ist. Im Kommentar von David Blakesley und Collin Brooke heißt es dazu:
„Magritte beleuchtet für unsere Betrachtung den Gedanken, dass das Abbild einer Pfeife nicht das Gleiche ist wie die Pfeife selbst (oder die Buchstaben P-f-e-i-f-e). Es ist eine Repräsentation der Pfeife, einmal entfernt von seinem Bezug, nämlich dem Objekt, auf den es sich bezieht. Er zwingt uns auch, unsere eigene Reaktion auf das Gemälde zu überdenken, indem er mit unserem Zwang, das Gemälde eine Pfeife zu nennen, unsere Voreinstellung enthüllt, das Bild mit dem es repräsentierenden Gegenstand zu verwechseln“.
Die Lektion von Magritte für die globalen Klima-Modellierer lautet also folgendermaßen: Das Computermodell ist keine Realität, sondern lediglich der Versuch, die Realität abzubilden. In dem unter der Bezeichnung Klimadynamik bekannten komplexen System sind die Modelle keine Realität auf einem Computerchip. Es sind Szenarien, gleich den drei blinden Männern, die der Fabel nach einen Elefanten beschreiben. Stephen Few hat diese Fabel als Beginn seines Essays über Erkenntnis- und Geschäfts-Intelligenz benutzt. Jeder Modellierer kann ein kleines Stückchen des Klimapuzzles korrekt hinbekommen – oder auch nicht, aber niemand hat das gesamte Bild reduziert auf eine stichhaltige Computer-Repräsentation hinbekommen. Das Klimasystem ist so komplex und chaotisch, dass Computer-Modellierer vereinfachte Konstruktionen erstellen müssen mit offenen Hypothesen (Parametrisierungen). Wie Magrittes Pfeife ist das Endergebnis sogar noch weiter entfernt von der Realität.
Vor Kurzem wurde der National Climate Assessment [etwa: Bericht zum nationalen Zustand des Klimas] veröffentlicht, in dem behauptet wird, dass „Details über die vielfältige Weise, auf die die Klimaänderung bereits jetzt das Leben der Amerikaner beeinflusst und weiter deren Leben zunehmend beeinflussen wird“. Eine institutionalisierte Computer-Vorhersage, die sich als wissenschaftliche Tatsache maskiert, macht daraus noch lange keine Tatsache.
Um die öffentliche Kontrolle nicht nur über uns, sondern auch über das zukünftige globale Klima weiter auszuweiten, hat die EPA einen neuen Slogan: „30 Prozent weniger bis 2030“.
Vielleicht wurden die „30 bis 2030” in einer Gruppendiskussion ausgekocht, weil es so rhythmisch daherkommt, oder vielleicht hat es auch ein Computer projiziert, um die Massen zu erreichen.
Erwartungen realistischer Forschungsergebnisse und Zustände des zukünftigen Klimas aufgrund falscher zugrunde liegender Modelle ist, nun ja, so etwas wie viele fromme Wünsche.
Charles Battig, M.D. , Piedmont Chapter president, VA-Scientists and Engineers for Energy and Environment (VA-SEEE). His website is www.climateis.com
Link: http://wattsupwiththat.com/2014/06/03/the-artist-as-climate-model-expert/
Übersetzt von Chris Frey EIKE




Der Stillstand geht weiter: Immer noch keine globale Erwärmung, nunmehr seit 17 Jahren und 9 Monaten

Bild rechts: Monatliche globale mittlere Temperaturanomalien der unteren Troposphäre nach RSS (dunkelblau) und Trend (dicke hellblaue Linie). Von September 1996 bis Mai 2014 zeigt sich seit 17 Jahren und 9 Monaten kein Trend.
Die Stillstands-Periode von 17 Jahren und 9 Monaten ist der weiteste Schritt zurück, den man bei den RSS-Temperaturdaten gehen kann und immer noch einen Null-Trend findet. Aber die Länge des Stillstands der globalen Erwärmung, so signifikant sie inzwischen auch ist, ist von geringerer Bedeutung als die immer weiter zunehmende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und der beobachteten weniger begeisternden Temperaturänderung in der realen Welt.
Im Ersten Zustandsbericht wurde noch vorhergesagt, dass die globale Temperatur um 1,0 (0,7; 1,5)°C bis zum Jahr 2025 steigen würde, das wäre äquivalent zu einer Rate von 2,8 (1,9; 4,2)°C pro Jahrhundert. In der Executive Summary wurde gefragt: „Wie viel Vertrauen haben wir in unsere Vorhersagen?” Das IPCC wies auf einige Unsicherheiten hin (Wolken, Ozeane usw.), kam aber zu der Schlussfolgerung:
„Nichtsdestotrotz … haben wir substantielles Vertrauen, dass unsere Modelle zumindest die Features der Klimaänderung im groben Rahmen vorhersagen können … Es gibt Ähnlichkeiten zwischen den Ergebnissen gekoppelter Modelle, die einfache  Repräsentationen des Ozeans verwenden und jenen, die kompliziertere Beschreibungen verwenden, und unser Verständnis derartiger Unterschiede gibt uns einiges Vertrauen in die Ergebnisse“.
Jenes „substantielle Vertrauen” war substantielles Über-Vertrauen. Ein Vierteljahrhundert nach 1990 beträgt das Ergebnis bis heute 0,34°C – ausgedrückt als lineare Regression kleinster Quadrate des Mittels nach GISS, HadCRUT4 und NCDC der monatlichen globalen Temperaturanomalien. 0,34°C, das ist äquivalent zu einer Rate von 1,4°C pro Jahrhundert oder genau die Hälfte der zentralen Schätzung des IPCC (1990) und deutlich unter selbst der geringsten Schätzung (Abbildung 2).

Abbildung 2: Mittelfristige globale Temperatur-Projektionen des IPCC (1990) von Januar 1990 bis April 2014 (orangene Fläche und rote Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und Trend (hellblau) als Mittel der monatlichen Temperaturanomalien nach RSS und UAH.

Abbildung 3: Vorhergesagte Temperaturänderung seit 2005 mit einer Rate äquivalent zu 1,7 (1,0; 2,3)°C pro Jahrhundert (orangene Fläche mit dicker roter Trendlinie des Best Estimate), verglichen mit den beobachteten Anomalien (dunkelblau) und Trend (hellblau).
Bemerkenswerterweise liegen auch die jüngsten und erheblich reduzierten kurzfristigen Projektionen der globalen Erwärmung immer noch exzessiv zu hoch (Abbildung 3).
Im Jahre 1990 lag die zentrale Schätzung der kurzfristigen Erwärmung um zwei Drittel höher als heute. Dann war es ein Äquivalent zu 2,8°C pro Jahrhundert. Inzwischen sind es lediglich 1,7°C – und, wie Abbildung 3 zeigt, ist selbst das noch eine substantielle Übertreibung.
Hinsichtlich der RSS-Satellitendaten gab es seit über 26 Jahren keine statistisch signifikante globale Erwärmung. Keines der Modelle hat das vorhergesagt – im Endeffekt ist es ein Vierteljahrhundert ohne jede globale Erwärmung.
Neue Versuche, die ernste und immer noch wachsende Diskrepanz zwischen Vorhersage und Realität hinweg zu erklären, gibt es inzwischen fast jeden Tag. Viel zu wenig Wissenschaftler hinter der Klima-Angst waren bisher gewillt, die offensichtlichste Erklärung anzubieten – dass nämlich die Modelle so programmiert worden sind, dass eine viel stärkere Erwärmung vorhersagen als wahrscheinlich eintritt.
Es kann gut sein, dass der lange Stillstand diesen Winter zu Ende geht. Ein El Niño-Ereignis hat eingesetzt. Die üblichen Verdächtigen haben gesagt, dass es Rekorde brechen wird, aber bislang gibt es viel zu wenig Informationen, um sagen zu können, zu wie viel vorübergehender Erwärmung es dadurch kommen wird. Die Temperaturspitzen der El Niño-Ereignisse von 1998, 2007 und 2010 kommen in den Abbildungen 1 bis 3 klar zum Ausdruck.
Zu einem El Niño kommt es alle drei oder vier Jahre, obwohl noch niemand genau sagen kann, was sie auslöst. Sie verursachen eine temporäre Temperaturspitze, oftmals gefolgt von einem starken Rückgang während der La Niña-Phase, wie man in den Jahren 1999, 2008 und 2011-2012 erkennen kann, als es einen „Doppel-Dip“ La Niña gab.
Das Verhältnis zwischen El Niños und La Niñas tendiert dazu, in die 30-jährige negative oder Abkühlungs-Phase der Pazifischen Dekadischen Oszillation zu fallen, deren jüngste Ende 2001 eingesetzt hat. Obwohl also der Stillstand zum Jahreswechsel einige Monate lang unterbrochen werden könnte, dürfte er Ende 2015 höchstwahrscheinlich wieder einsetzen.
Wie auch immer, es wird immer klarer, dass die globale Erwärmung nicht einmal annähernd mit der von den Klimamodellen vorhergesagten Rate stattgefunden hat, und es ist überhaupt nicht wahrscheinlich, dass sie selbst mit der jetzt vorhergesagten erheblich reduzierten Rate stattfinden wird. Es könnte in diesem Jahrhundert eine globale Erwärmung bis 1°C geben, aber nicht die vom IPVV vorhergesagten 3 bis 4°C.
Zentrale Fakten hinsichtlich der globalen Temperatur
Ø Der RSS-Satellitendatensatz zeigt keinerlei globale Erwärmung seit 213 Monaten, also von September 1996 bis Mai 2014. Das ist über die Hälfte der gesamten, 425 Monate langen Periode mit Satellitenaufzeichnungen.
Ø Die höchste auf ein Jahrhundert umgerechnete Erwärmungsrate war in Mittelengland von 1663 bis 1762 mit einer Rate von 0,9°C aufgetreten – vor der industriellen Revolution. Es kann also nicht unsere Schuld gewesen sein.
Ø Der globale Erwärmungstrend seit 1900 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und wird nicht viel mit uns zu tun haben.
Ø Der höchste Erwärmungstrend über zehn Jahre oder mehr ereignete sich in den 40 Jahren von 1694 bis 1733 in Mittelengland – mit einer Rate äquivalent zu 4,3°C pro Jahrhundert.
Ø Seit 1950, als ein menschlicher Einfluss auf die globale Temperatur zum ersten Mal theoretisch möglich war, lag der globale Erwärmungstrend äquivalent zu 1,2°C pro Jahrhundert.
Ø Die höchste Erwärmungsrate über zehn Jahre oder mehr seit 1950 ereignete sich während der 33 Jahre von 1974 bis 2006. Die Rate war äquivalent zu 2,0°C pro Jahrhundert.
Ø Im Jahre 1990 lautete die mittelfristige Schätzung des Erwärmungstrends äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel über der heutigen IPCC-Vorhersage.
Ø Der globale Erwärmungstrend seit 1990, als das IPCC seinen ersten Bericht geschrieben hatte, ist äquivalent zu einer Rate von 1,4°C pro Jahrhundert – die Hälfte von dem, was das IPCC zu der Zeit vorhergesagt hatte.
Ø Im Jahre 2013 lautete die neue mittelfristige Vorhersage des IPCC auf eine Rate äquivalent zu 1,7°C pro Jahrhundert. Aber auch das ist noch übertrieben.
Ø Obwohl des IPCC seine kurzfristige Erwärmungs-Vorhersage zurückgefahren hat, ist dessen Vorhersage einer Erwärmung von 4,7°C bis zum Jahr 2100 weiterhin Business as Usual.
Ø Diese vom IPCC vorhergesagte Erwärmung von 4,7°C bis zum Jahr 2100 liegt mehr als doppelt so hoch wie der höchste beobachtete Erwärmungstrend in der realen Atmosphäre über zehn Jahre, der seit 1950 gemessen worden ist.
Ø Die IPCC-Vorhersage von 4,7°C bis zum Jahr 2100 liegt fast vier mal so hoch wie der beobachtete Erwärmungstrend in der realen Welt, seit wir theoretisch in der Lage gewesen sein könnten, die Temperatur zu beeinflussen (1950).
Ø Seit dem 1. Januar 2001, dem Beginn des neuen Jahrtausends, ist der Erwärmungstrend im Mittel von 5 Datensätzen Null. Keine Erwärmung seit 13 Jahren und vier Monaten.
Ø Jüngste Extremwetterereignisse können nicht mit der globalen Erwärmung in Verbindung gebracht werden, einfach weil es keine Erwärmung gegeben hat. So einfach ist das.
Technische Anmerkung
Die jüngste Graphik zum Thema zeigt der RSS-Datensatz während der 213 Monate seit September 1996 bis Mai 2014 – über die Hälfte der 425 Monate langen Überwachung per Satellit.
Terrestrische Temperaturen werden mit Thermometern gemessen. Thermometer, die korrekt aufgestellt sind in ländlichen Gebieten und weit weg von menschlichen Wärmequellen zeigen Erwärmungsraten deutlich unter denen, die veröffentlicht werden. Die Satellitendaten basieren auf Messungen durch die genauesten derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, die nicht nur die Temperaturen in verschiedenen Höhen über der Erdoberfläche mittels Mikrowellen-Sounding messen, sondern sich auch ständig selbsttätig kalibrieren durch die Messung der bekannten Temperatur der kosmischen Hintergrundstrahlung via auf das Weltall ausgerichtete Spiegel. Sie macht 1% des Gefrierpunktes von Wasser aus bzw. liegt nur 2,73° über dem absoluten Nullpunkt. Es war die Messung dieser minimalen Variationen der kosmischen Hintergrundstrahlung, durch die die NASA das Alter des Universums bestimmt hat: 13,82 Milliarden Jahre.
Die Graphik ist akkurat. Die Daten stammen monatlich direkt von der RSS-Website. Ein Computer-Algorithmus liest sie aus dem File heraus, mittelt sie und plottet sie automatisch mittels einer ausgereiften Routine. …
Der jüngste monatliche Datenpunkt wird durch Augenschein inspiziert um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue Trendlinie durch die dunkelblaue Kurve der einzelnen Datenpunkte zeigt, dass die aktuellen Daten bestimmt werden durch die Methode der linearen Regression kleinster Quadrate, die den Schnittpunkt mit der y-Achse berechnet sowie die Steigung der Linie mittels zwei etablierten und funktional identischen Gleichungen, die miteinander verglichen werden um sicherzustellen, dass es zwischen ihnen keine Diskrepanz gibt. Das IPCC und die meisten anderen Agenturen berechnen mittels linearer Regression globale Temperaturtrends. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Die Methode ist geeignet, weil die globalen Temperaturaufzeichnungen nur wenig Auto-Regression zeigen.
Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, der den Trend in der Graphik und den Korrelations-Koeffizienten bestimmt. Er ist sehr klein, weil trotz der hoch variablen Daten der Trend flach ist.
Link: http://wattsupwiththat.com/2014/06/04/the-pause-continues-still-no-global-warming-for-17-years-9-months/
Übersetzt von Chris Frey EIKE