Normalerweise habe ich den RSS-Datensatz als meine Hauptquelle herangezogen, weil es der erste war, der seine monatlichen Daten veröffentlichte. Im November 2015 jedoch, nachdem der Datensatz seit 18 Jahren und 9 Monaten keine Erwärmung gezeigt hatte, zeigte Senator Ted Cruz unsere Graphik der RSS-Daten bei einer Anhörung im US-Senat, um eben diesen Stillstand zu erklären. Die Demokraten waren darob sichtlich ungehalten und suchten nichts Geringeres als einen Admiral aus, der – erfolglos – versuchen sollte, die Graphik zu widerlegen. Ich habe bereits damals vorausgesagt, dass Carl Mears, der Betreiber jenes Datensatzes, zur rechten Zeit alle drei längsten terrestrischen Datensätze kopieren – GISS, NOAA und HadCRUT4 – und diese so überarbeiten würde, dass der lange Stillstand daraus verschwinden würde. Damit sollte eine erheblich größere globale Erwärmung suggeriert werden als die ursprünglich veröffentlichten Daten gezeigt hatten.
Wie könnte es anders sein – gleich im nächsten Monat unterwarf Dr. Mears (der die RSS-Website dazu missbraucht, Skeptiker der globalen Erwärmung als „Leugner“ zu verunglimpfen) seinen Datensatz dem Adjustozän, indem er den RSS-Datensatz gebührend bearbeitete, um den Stillstand zu eliminieren. Zweifellos ist er von seinen Klima-extremistischen Gesinnungsgenossen bedrängt worden, etwas zu tun, um die Skeptiker zum Schweigen zu bringen, damit diese nicht mehr auf das auffallende Fehlen jedweder globaler Erwärmung hinweisen während eines Zeitraumes, als ein Drittel des menschlichen Einflusses auf das Klima angefallen war. Und siehe da, auf einmal war der Stillstand weg:
Wie sich herausstellte, hätte sich Dr. sMear* nicht die Mühe machen brauchen, den Stillstand zu beseitigen. Ein großes El Niño-Ereignis machte das sowieso. Allerdings zeigt eine interessante Analyse von Prof. Fritz Vahrenholt und Dr Sebastian Lüning hier, dass dieser Datensatz nicht länger als zuverlässig gelten kann, nachdem man ihn derartig manipuliert hatte. Die Analyse bringt ans Tageslicht, wie der RSS Datensatz bearbeitet worden war. Die zwei Wissenschaftler kommen zu dem Ergebnis, dass die Nachbearbeitung [ex-post-facto post-processing] der Satellitendaten seitens RSS unzureichend gerechtfertigt worden ist:
[*Wieder ein solches Wortspiel. Der Lord verschiebt das ,s‘ im Namen nach vorne, so dass sich ,smear‘ ergibt = Dr. Schmiere. Anm. d. Übers.]
RSS hob die zuvor gemessenen Temperaturen seit dem Jahr 2000 an, was die Erwärmungsrate insgesamt seit 1979 um 0,15 K, nämlich von 0,62 K auf jetzt 0,77 K hat zunehmen lassen:
Im Jahr bevor die RSS-Daten Mannipuliert [in Anspielung auf Prof. Mann, Anm. d. Übers.] worden waren, hatte RSS begonnen, sich ernsthaft für die Länge des Stillstands zu interessieren. Dr. Mears schrieb darüber auf seinem Blog hier. Seine damaligen Ergebnisse sind hier zusammengefasst:
Darauf bekam Dr. Mears einen Temperatur-Wutanfall und schrieb:
„Die Leugner lieben es zu vermuten, dass die Ursache der Diskrepanz zwischen Modellen und Beobachtungen in irgendeinem Problem mit der zugrunde liegenden Modellphysik zu finden ist, und sie verwerfen jede andere Art der Erklärung. Dies verleitet sie zu der – sehr wahrscheinlich falschen – Schlussfolgerung, dass die langfristige Klima-Sensitivität viel geringer ist als gegenwärtig gedacht“.
Dr. Mears räumte die wachsende Diskrepanz zwischen RSS-Daten und Modellen ein, aber er unterstellte uns, dass wir den Startzeitpunkt der globalen Temperatur-Graphik cherry-picked hätten:
„Jüngst ging aus einer Anzahl von Artikeln in der Mainstream-Presse hervor, dass es während der letzten zwei Jahrzehnte kaum eine oder gar keine Änderung der globalen mittleren Temperatur gegeben hat. Deswegen hat man uns viele Fragen gestellt nach dem Motto ,Ich sah diese Graphik auf einer Leugner-Website. Sind das wirklich Ihre Daten?‘ Während die Endpunkte in einigen dieser Berichte cherry-picked worden sind, um den Beweis noch besser aussehen zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als die meisten IPCC AR5-Simulationen des historischen Klimas prophezeit hatten. Damit liegt das starke ENSO-Ereignis am Beginn ihrer Zeitreihe, was zu einer geringen linearen Anpassung mit der geringstmöglichen Steigung führte“.
Tatsächlich wurde die durch den El Nino ausgelöste Wärmespitze 1998 fast vollständig ausgeglichen durch zwei Faktoren: die nicht unähnliche Spitze des El Nino 2010 und der schieren Länge des Stillstands selbst.
Obige Graphik demonstriert, dass die Trends der globalen Temperatur im RSS-Datensatz vor der Manipulation und im GISS-Datensatz genau gleich waren, und zwar vor und nach dem El Nino 1998. Dies zeigt, dass die Länge des Stillstands ausreichend war, um den imaginären Einfluss zu nullifizieren.
Es ist nützlich, die Erwärmung seit 1990, genommen als Mittel der vier Adjustozän-Datensätze (RSS, GISS, NCEI und HadCRUT4: erste Graphik unten) zu vergleichen mit dem UAH-Datensatz, den Lüning und Vahrenholt als zuverlässig einstufen (zweite Graphik unten):
Man sieht, dass der Erwärmungstrend in den Adjustozän-Datensätzen über den Zeitraum fast 50% größer ist als im UAH-Datensatz, welchen Lüning und Vahrenholt zuverlässiger finden.
Nach den Adjustierungen zeigt der RSS-Datensatz seit 1990 jetzt eine stärkere Erwärmung als jeder andere Datensatz, die sogar noch über den vielfach manipulierten GISS-Datensatz hinausgeht:
Man beachte, dass die RSS-Erwärmungsrate seit 1990 nahezu doppelt so hoch ist wie bei UAH, wo man dessen globale Erwärmungsrate vor zwei oder drei Jahren nach unten korrigiert hatte. Und doch beruhen beide Datensätze auf genau den gleichen Satellitendaten. Die Differenz von fast 1 K pro Jahrhundert zeigt, wie stark Temperatur-Datensätze auf subjektive Adjustierungen reagieren anstatt objektive Messungen zu repräsentieren.
Sollen wir einmal zynisch annehmen, dass alle diese Adjustierungen – RSS, GISS, NCEI und HadCRUT4 zum Wärmeren, UAH leicht zum Kälteren – die politische Ausrichtung der jeweiligen Datensatz-Besitzer reflektieren? Lüning und Vahrenholt können keine rationale Rechtfertigung finden für die große und plötzliche Änderung des RSS-Datensatzes so bald, nachdem Ted Cruz unsere den Stillstand zeigende RSS-Graphik für eine Anhörung vor dem Senat herangezogen hatte. Allerdings konnten sie auch nicht feststellen, dass die UAH-Daten fälschlich adjustiert worden waren. Sie empfehlen UAH als in Ordnung.
Die MofB [= Monckton of Brenchley]-Nachhersage basiert auf zwei Fakten: Wir berechnen die Charney-Sensitivität auf lediglich 1,17 K pro CO2-Verdoppelung, und außerdem ist in vielen Modellen die prognostizierte Gleichgewichts-Erwärmung bei einer Verdoppelung der CO2-Konzentration die Charney-Sensitivität in etwa gleich der flüchtigen Erwärmung aus allen anthropogenen Quellen im 21. Jahrhundert. Dies ist daher eine provisorische Prognose, aber sie ist konsistenter mit dem UAH-Datensatz als mit den fragwürdigen Datensätzen des Adjustozäns.
Das Ausmaß der Manipulation in manchen Datensätzen ist enorm. Eine andere erhellende Graphik vom nimmermüden Professor Humlum folgt hier. Er publiziert eine große Vielfalt von Graphiken zur globalen Erwärmung in seinem öffentlich zugänglichen monatlichen Report bei climate4you.com:
Das GISS, dessen Datensatz inzwischen derartig politisiert ist, dass er vollkommen wertlos ist, sMeared die Daten über einen Zeitraum von weniger als sieben Jahren, nämlich von März 2010 bis Dezember 2017, und zwar so erheblich, dass die zutage tretende Erwärmungsrate über das 20. Jahrhundert über ein halb mal so groß ist. Die größte Änderung erfolgte im März 2013, zu einem Zeitpunkt also, an dem der lang dauernde Stillstand bereits zu einer permanenten Peinlichkeit der offiziellen Klimatologie geworden war. Nur einen Monat zuvor hat war jetzt in Ungnade gefallene Chef des IPCC, der Eisenbahn-Ingenieur Pachauri, einer der ersten Sprecher der offiziellen Klimatologie, welcher die Existenz des Stillstandes einräumte. Das tat er auf einem Vortrag in Melbourne, worüber in der Folge nur in einer einzigen Zeitung berichtet worden war, nämlich The Australian. Diese Zeitung steht schon lange unter Verdacht, weil sie immer wieder beide Seiten der Klimadebatte hat zu Wort kommen lässt.
Faszinierend ist, dass selbst nach den erheblichen Datenmanipulationen zum Ende des Stillstandes in vier der fünf langzeitlichen Datensätze, und obwohl der Trend in allen Datensätzen aufgrund des starken El Nino vor ein paar Jahren ebenfalls gestiegen ist, die Original-Prophezeiungen des IPCC aus dem Jahr 1990, welche die Angst erzeugen sollten, ungeheuer exzessiv bleiben.
Inzwischen hat jedoch das IPCC selbst erkannt, wie absurd seine Original-Prophezeiungen waren. Im 5. Zustandsbericht 2013 wurde die Abhängigkeit von Modellen erstmals aufgegeben und ersetzt durch etwas, das als „Experten-Beurteilung“ ihrer überhitzten Resultate bezeichnet wird. Außerdem wurde die mittelfristige Prognose halbiert. Damit inkonsistent hat man jedoch sorgfältig dessen Gleichgewichts-Prophezeiung – 1,5 bis 4,5 K pro CO2-Verdoppelung – beschämend unverändert gelassen.
Die unzähligen Apologeten des IPCC in den Marxstream-Medien haben eine Parteilinie entwickelt, um das erbärmliche prognostische Scheitern der IPCC-Prophezeiungen aus dem Jahr 1990 hinweg zu erklären. Ja sie verstiegen sich absolut fälschlich sogar dazu zu versuchen, dass alles „noch viel, viel schlimmer sei als wir jemals gedacht haben“.
Eine seiner allgemeinsten Entschuldigungen, vorgebracht im Büßer-Tonfall, nämlich die monotone Darbietung und das Zombie-artige Auftreten der unglaublich Gehirngewaschenen ist, dass dank des UN Framework Convention on Global Government Climate Change die CO2-Reduktion so eindrucksvoll war, dass die Emissionen jetzt deutlich unter dem Business-as-Usual-Szenario im IPCC-Bericht 1990 liegen und viel näher dem weniger extremistischen Szenario B.
Mit Verlaub – nein! Obwohl die Aufzeichnung der CO2-Emissionen in das Adjustozän hineingezogen worden ist dergestalt, dass jetzt so getan wird, als ob – per impossibile – die globalen CO2-Emissionen während der letzten fünf Jahre unverändert geblieben waren, zeigt der jüngste Bericht zu diesen Emissionen diese als fast konsistent mit dem usiness-as-Usual-Szenario des IPCC (1990).
Als man mit dieser lügnerischen Ausrede gescheitert war, entwickelte die Partei eine interessante Rückzugslinie mit der Auswirkung, dass obwohl die Emissionen nicht dem IPCC-Szenario B folgten, die resultierenden Strahlungsantriebe viel geringer sind als vom IPCC 1990 prophezeit. Und das sind sie auch. Was jedoch die Parteilinie sorgfältig versteckt, ist der Grund für diesen Umstand.
Die Partei erkannte, dass deren Schätzungen des kumulativen anthropogenen Gesamt-Strahlungsantriebs aus allen Quellen hoch genug waren in Relation zur beobachteten Erwärmung, dass sich eine weit geringere Gleichgewichts-Sensitivität auf Strahlungsantriebe zeigte als ursprünglich verfügt. Dem zufolge reflektierte der 3. Zustandsbericht ordnungsgemäß die adjustierte Parteilinie, indem magische Windungen sowie künstliche und erhebliche Reduktion des gesamt-anthropogenen Antriebs damit verwoben wurden. Man führte nämlich etwas ein, was Prof. Lindzen unverblümt „den Aerosol-Frisier-Faktor“ nannte. Der Einfluss dieses schädlichen Frisier-Faktors wird im 5. Zustandsbericht deutlich:
Die IPCC-Liste der Strahlungsantriebe im Vergleich mit der vorindustriellen Ära zeigt einen gesamt-anthropogenen Strahlungsantrieb von 2,29 W/m² relativ zum Jahr 1750. Allerdings wäre diese Gesamtzahl noch deutlich höher ohne die beiden Aerosol-Frisier-Faktoren, nämlich insgesamt 0,82 W/m². Falls zwei Drittel dieser Gesamtzahl zurück hinzugefügt werden, wie es sein sollte, weil anthropogene Aerosole sich in nichts von natürlichen Aerosolen in den Sahara-Winden unterscheiden, welche bis nach Schottland verfrachtet werden können, wird der gesamt-anthropogene Faktor zu 2,85 W/m². Der Unterschied zur offiziellen Klima-Sensitivität sieht so aus:
Im linken Bild ist die Referenz-Sensitivität (also die anthropogene Temperaturänderung zwischen 1850 und 2010 vor Berücksichtigung von Rückkopplungen) das Produkt des Planck-Parameters 0,3 K pro W/m² und der mittelfristigen IPCC-Schätzung von 2,29 W/m² des gesamt-anthropogenen Strahlungsantriebs in der industriellen Ära 2011: d. h. 0,68 K.
Die Gleichgewichts-Sensitivität ist etwas komplexer, weil es die offizielle Klimatologie liebt sich vorzustellen (vermutlich ohne jede Rechtfertigung), dass bislang noch nicht die ganze anthropogene Erwärmung wirksam geworden ist. Daher haben wir für die Mittelfrist-Schätzung bei Smith (2015) des Gesamt-Strahlungs-Ungleichgewichtes von 0,6 W/m² zugelassen. Dies konvertiert die gemessene Erwärmung von 0,75 K von 1850 bis 2011 zu einer Gleichgewichts-Erwärmung von 1,02 K.
Der Systemerhaltungs-Faktor verwendet den Delta-Wert der Systemerhaltungs-Gleichung, welche derzeit universal bei der offiziellen Klimatologie ist. Der Faktor ist das Verhältnis der Gleichgewichts- zur Referenz-Sensitivität, d. h. 1,5. Da die Referenz-Sensitivität bei CO2-Verdoppelung, abgeleitet aus den CMIP5-Modellen bei Andrews (2012) 1,04 K beträgt, beläuft sich die Charney-Sensitivität auf 1,5 X 1,04 oder 1,55 K.
Im rechten Bild wurden etwas über zwei Drittel des Aerosol-Frisier-Faktors von 0,82 K dem gesamt-anthropogenen Antrieb zurück hinzugefügt, worauf sich 2,85 K ergaben. Warum zurück addiert? Nun, ohne zu viele Geheimnisse zu verraten, die offizielle Klimatologie hat angefangen zu begreifen, dass der Aerosol-Frisier-Faktor viel, viel zu hoch ist. Er ist so unrealistisch, dass er Zweifel weckt hinsichtlich der Glaubwürdigkeit der übrigen Tabelle mit den Antrieben in IPCC 1990 (Abb. SPM.5). Man erwarte signifikante Änderungen im nächsten IPCC-Zustandsbericht, welcher etwa 2020 geplant ist.
Verwendet man den korrigierten Wert des gesamt-anthropogenen Antriebs, fällt der Systemerhaltungs-Faktor auf 1,13. Das führt zu einer Charney-Sensitivität von 1,13 X 1,04 oder 1,17 K.
Wir wollen noch einen anderen Weg einschlagen, das zu testen, und zwar unter Verwendung der Absolutwert-Gleichung, welche durch die fälschlich restriktive Definition einer „Temperatur-Rückkopplung“ der offiziellen Klimatologie ausgeschlossen wird:
Hier zeigt sich ein bedeutender Vorteil, wenn man die Systemerhaltungs-Gleichung mit Absolutwerten anwendet, welche von der offiziellen Klimatologie verworfen wird. Änderungen der Delta-Werte führen zu großen Änderungen des Systemerhaltungs-Faktors, aber nur sehr geringe Änderungen, wenn er mittels der Absolutwert-Gleichung abgeleitet wird. Tatsächlich sind die Systemerhaltungs-Faktoren der Jahre 1850 und 2011, wenn mit der Absolutwert-Gleichung abgeleitet, nahezu identisch mit 1,13. Dies zeigt, dass unter den heutigen Bedingungen Nicht-Linearitäten in Rückkopplungen nur sehr geringen Einfluss auf den Systemerhaltungs-Faktor haben.
Unter dem Strich: Kein noch so großer Wutanfall ob des Temperaturverlaufs kann die Tatsache verändern, dass der Systemerhaltungs-Faktor und damit auch die Gleichgewichts-Temperaturen gering sind – egal ob man die Delta-Wert-Gleichung heranzieht (Charney-Sensitivität 1,55 K) oder die Absolutwert-Gleichung (Charney-Sensitivität 1,17 K).
Link: https://wattsupwiththat.com/2018/08/21/temperature-tampering-temper-tantrums/
Übersetzt von Chris Frey EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten: