Der Blizzard, der keiner war

[*Siehe hierzu die erklärenden Anmerkungen am Ende des Artikels.]
Wenn man der lokalen Radiostation (WABC) zuhört, bei der Anrufer aus dieser Gegend weitaus genauere Berichte über die Lage schildern als die Meteorologen, war das eine Lektion in der Weise, wie jene in Meteorologie Geübten und der Rest von uns darauf getrimmt worden sind, dass etwas mit dem Planeten Erde passiert, dass ganz einfach eben nicht passiert.
Die Meteorologen haben ihre Zeit damit zugebracht, den Unterschied zwischen einem europäischen Computermodell [leider wird nicht gesagt welchem] und einem hier in den USA gerechneten Modell herauszufinden. Ersteres hat viel schlimmere Bedingungen vorhergesagt. Letzteres fiel zusammen mit dem Rest von uns der Prämisse zum Opfer, dass die von den Computermodellen reflektierten Dinge nicht das zeigen, was in Wirklichkeit passiert.
Zu dieser frühen Morgenstunde ist schon klar, dass Long Island, Teile von Connecticut und allgemein die Küsten stärkeren Schneefall verzeichnen. Schon wenige Meilen landeinwärts jedoch sieht es ganz anders aus. Anrufer, die mitten im Sturm draußen waren, beschrieben leichten Pulverschnee und vielleicht zwei bis vier Inches höchstens [ca. 5 bis 10 cm].
Warum, fragten sie, haben die Gouverneure von New York [State] und New Jersey zusammen mit dem Bürgermeister von New York City die Metropolregion geschlossen? Sie spekulierten auf die Millionen verlorenen Einkommens für jeden, der von einem Sturm involviert war, der keine signifikante Gefahr für den Verkehr darstellte oder andere gravierende Probleme mit sich bringen würde, bei dem aber Unternehmen, Schulen, Buslinien und andere öffentliche Einrichtungen geschlossen wurden. Wenn schon eine unrichtige Wetterprognose das alles tut, zeigt dies, wie wichtig es ist, die Daten korrekt zu interpretieren, die von Satelliten angeboten werden – der besten Quelle.
Wenn die NOAA und die NASA Anfang Januar verlauten ließen, dass 2014 „das wärmste Jahr“ gewesen sei, sollte es hinsichtlich der schieren Absurdität eines solchen Berichtes viel mehr Fragen und Aufmerksamkeit in den Medien gegeben haben. Zur Erinnerung, es handelt sich hier um zwei öffentliche Agenturen der Regierung, von denen wir erwarten, dass sie es richtig sagen. Nicht nur, dass das eben nicht der Fall war, sondern auch, dass skeptische Wissenschaftler sehr schnell nachweisen konnten, dass die dieser Behauptung zugrunde liegenden Daten absichtlich verzerrt worden sind.
Das ist der Kern der Sache um die endlosen Behauptungen bzgl. „globale Erwärmung“ oder „Klimawandel“. Der Planet hat sich seit 19 Jahren nicht erwärmt, weil sich die Sonne in einem perfekt natürlichen Zyklus mit geringer Strahlung befunden hat.
Schon vor Jahrhunderten hatte man bemerkt, dass bei einer geringen Anzahl von Sonnenflecken oder magnetischer Stürme es auf der Erde kälter wurde. Folglich ist „Klimawandel“ kein ungewöhnliches Ereignis, sondern vielmehr eine Reflektion der gut bekannten Zyklen von Wärme oder Kälte, den der Planet seit Milliarden von Jahren durchlaufen hat.
Während ich dies schreibe, ist es noch zu früh zu sagen, wie es an der übrigen Ostküste aussieht, aber es gibt starke Hinweise, dass wenn man sich westwärts bewegt der „Blizzard“ weit schwächer war als der Vorhergesagte und vermutlich bald zu einem Standard-Wintersturm herabgestuft wird.
Das sind die guten Nachrichten. Die schlechten Nachrichten waren die Überreaktion der Meteorologen und Politiker. Zweifellos wollten sie auf der sicheren Seite sein [better safe than sorry], aber sie haben uns allen unvermeidlich eine Lektion erteilt über die Art und Weise, mit der uns Umweltorganisationen und eine von einem Präsidenten geführte Regierung sagen, dass der „Klimawandel“ die gefährlichste Herausforderung ist. Dabei haben sie uns absichtlich hinsichtlich der wirklichen meteorologischen Erkenntnisse belogen, um uns alle in eine Zeit zurück zu zwingen, in der wir Holz zum Heizen verbrannten und Pferde für Transporte benutzten.
Die Grünen mögen die Menschen nicht besonders, und darum haben sie hinsichtlich der „vom Menschen verursachten“ Klimaänderung gelogen, wenn doch das Klima mit menschlichen Aktivitäten gar nichts zu tun hat.
Man höre den Skeptikern zu, oftmals bösartig als „Leugner“ verunglimpft, wenn diese die Wahrheit sagen über die meteorologische Wissenschaft, die absichtlich verzerrt worden ist, seit die UN im Jahre 1988 das IPCC ins Leben gerufen haben. Dieses hat uns seitdem ständig belogen.
Abhängig davon, wo Sie in dem Gebiet leben, in dem es geschneit hat und der Wind blies, trauen Sie Ihren Augen. Trauen Sie Ihrem gesunden Menschenverstand. Seien Sie skeptischer, weil der Blizzard, der keiner war, keine Lektion ist, die sie demnächst vergessen werden.
© Alan Caruba, 2015
Link: http://www.nationalanxietycenter.blogspot.de/2015/01/the-blizzard-that-wasnt.html
Übersetzt von Chris Frey EIKE
Erklärende Anmerkung des Übersetzers mit vielen Jahren USA-Erfahrung (in den Neuengland-Staaten):
Offiziell definiert der nationale Wetterdienst einen Blizzard als einen Sturm mit sehr starkem Schneefall ODER verwehendem Schnee, wobei der Wind großräumig stärker wehen muss als knapp 60 km/h und Sichtweiten unter 400 m über einen längeren Zeitraum (mindestens 3 Stunden) auftreten. Werden diese Bedingungen erwartet, wird eine „Blizzard-Warnung“ ausgegeben. Werden diese Bedingungen nicht gleichzeitig erwartet oder nur eine oder zwei davon, wird eine „Wintersturm-Warnung“ ausgegeben.
Eine ausführliche Erklärung und Beschreibung dazu gibt es hier.




Und ewig strahlen die Wälder?

Zweifellos, vor allem die bayrischen. Zunächst enthält jeder Mineralboden radioaktives Kalium, Uran, Thorium, Radium und noch einige andere Isotope mit einer gesamten Aktivität um 800 Becquerel pro kg. Im Humus ist es weniger.
1986 geschah das Reaktorunglück von Tschernobyl, und seither ist in manchen Gegenden Bayerns die Radioaktivität der obersten 10 cm von Waldböden um die Hälfte höher (40.000 Bq/m2), allerdings nicht für ewig. Schuld ist Caesium 137 mit 30 Jahren Halbwertszeit. Im Gegensatz zu Feldern und Wiesen hält sich das Caesium im Waldboden hartnäckig in den obersten 10 cm. 
Pflanzen nehmen das Caesium begierig auf, mehr als die natürlichen Radioisotope. Von Natur aus ist die Aktivität in Pflanzen geringer als im Boden, ebenso in den Pflanzen fressenden Tieren, um 100 Bq/kg. Anders bei der Aufnahme von Caesium 137. Noch 2004 konnte man bei Brombeeren bis 500 Bq/kg messen.
Eine ganz unerklärliche Vorliebe für Caesium hat der Hirschtrüffel. Da wurden über 10.000 Bq/kg gemessen. Uns schmecken diese Trüffel nicht, den Schweinen aber sehr, und vor allem dadurch werden sie selber radioaktiv.
Erlegte Schweine werden ausgemessen und kommen bei mehr als 600 Bq/kg zur Tierkörperbeseitigung. In der Zeitschrift „Bild der Wissenschaft (2, 2015)“ wird berichtet, wie man die Schweine durch Fütterung mit der Chemikalie „Preußisch Blau“ von ihrem hohen Strahlenniveau herunterholen will. Es bindet Caesium.
Die Grünen wird zunächst das Gegenmittel Preußisch Blau beunruhigen. Chemie auf dem Acker ist für sie schon schlimm, und nun noch im Wald, und was für Chemie! Der wesentliche Bestandteil des Salzes ist der Komplex (CN)6. Die Gruppe CN in den Verbindungen HCN (Blausäure) und KCN (Zyankali) ermöglicht die Ermordung unerwünschter Mitmenschen. Zwar sagen die Chemiker, die 6 CN-Gruppen würden so fest zusammenhalten, dass sie sich im Magen nicht auflösen, aber völlig untrennbar sind sie nicht. In einem Industriebetrieb mag das für die Grünen noch angehen. Die Methode wurde schon 1960 in einem amerikanischen Patent beschrieben, aber da ging es um die Extraktion von radioaktivem Caesium aus Lösungen.
Bei realistischer Betrachtung stellt das Salz jedoch nicht einmal für die Schweine eine Gefahr dar.
Aber leiden sie unter der Radioaktivität? Fallen ihnen die Borsten aus, und werden Frischlinge mit 5 Beinen geboren? Natürlich nicht. Das geschieht nicht einmal auf dem Reaktorgelände von Tschernobyl. Die Schweine werden hauptsächlich dadurch radioaktiv, dass sie radioaktive Pilze fressen. Die sind aber auch für Menschen nicht gefährlich, worauf im Anhang zum Artikel hingewiesen wird: Eine Pilzmahlzeit bringt keine höhere Strahlenexposition als ein Flug nach Gran Canaria.
Jedoch gibt es die Ansicht, jede Strahlenexposition wäre gefährlich, und wir leiden bereits unter der natürlichen Strahlung von 2 Millisievert (mSv) pro Jahr. Daher darf am besten nichts dazukommen. So hat die Planung für ein Endlager hochradioaktiver Abfälle das Ziel, niemanden unserer fernsten Nachkommen, oder wer sonst dann in Deutschland lebt, auch unter unwahrscheinlichen Umständen keiner höheren jährlichen Dosis als 0,1 Millisievert auszusetzen. Das ist ein Zwanzigstel der natürlichen Jahresdosis im Flachland. Aber auch die 0,1 Millisievert bringen nach Ansicht unseres Bundesamtes für Strahlenschutz (BfS) noch Menschen um:
„Angenommen, eine Million Menschen wären permanent einer Strahlendosis von 0,1 mSv/a ausgesetzt, dann würden dadurch im statistischen Durchschnitt 5,5 von ihnen pro Jahr zusätzlich an Krebs sterben.“
Unter 100 mSv lässt sich kein Einfluss auf die Gesundheit erkennen. Für 0,1 mSv, einem Tausendstel, glaubt das BfS aber berechnen zu können, mit Komma, dass unter den etwa 250.000 Krebsfällen pro Million 5,5 Tote von der zusätzlichen Strahlung verschuldet werden. Internationale Institutionen sind da seriöser, z.B. UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation). UNSCEAR „empfiehlt nicht, kleine Dosen mit großen Individuenzahlen zu multiplizieren, um strahlenbedingte Gesundheitswirkungen in einer Bevölkerung zu berechnen, die kleinen Dosen ausgesetzt ist, welche im Bereich oder unter dem natürlichen Strahlenpegel liegen“. 
UNSCEAR und WHO (Weltgesundheitsorganisation) sind noch nicht bereit, positive Wirkungen niedriger Dosen anzuerkennen, welche von vielen Wissenschaftlern und den Ärzten der Radonheilbäder behauptet werden. Aber von der LNT-Hypothese (linear no threshold), d.h. lineare Dosis-Wirkungs-Beziehung bis auf Null herunter, rücken sie langsam ab.
Auf jeden Fall sollte man sagen: Was im Bereich der natürlichen Umgebungsstrahlung liegt, muss man nicht fürchten.
Angenommen, ein Reaktorunglück wie Tschernobyl hätte es schon im Altertum gegeben, und Obelix würde jeden Monat ein ganzes Wildschwein an der oberen erlaubten Grenze von 600 Becquerel pro kg verzehren, dann hätte er allerdings seine Strahlenexposition gegenüber Miraculix und anderen normalen Essern verdreifacht. Ein Aufenthalt bei den Helvetiern hätte aber den gleichen oder einen noch höheren Effekt gehabt.
Rational ist also der Grenzwert von 600 Bq/kg nicht zu begründen. Im Norden hat man einen kühleren Kopf behalten, wie die folgende Nachricht vom 22.11.1986 zeigt: 

Oslo (dpa)

In Norwegen werden die zulässigen Höchstwerte für Cäsium in Rentierfleisch von 600 auf 6000 Becquerel pro Kilo angehoben. Diese Entscheidung des Sozial- und des Landwirtschaftsministeriums in Oslo wurde am Freitag unter anderem damit begründet, dass bei Aufrechterhaltung des alten Wertes achtzig Prozent des Rentierfleisches auf der diesjährigen Herbstschlachtung wegen des Unglücks in Tschernobyl vernichtet werden müssten.
Anmerkung der Redaktion: Ein früher Testleser teilte uns dazu seine eigenen Erfahrungen mit:

1987 wohnte ich unweit von Schwetzingen/Baden-Wttbg. (Spargelanbaugebiet). Nach dem Fall-Out dort herrührend von Tschernobyl ging der Spargelpreis in die Knie (so wie heute der EURO). So viel Spargel im Anschluss extrem kostengünstig wie in jenem Jahr habe ich noch nie gegessen.

Anscheinend wurde ich dadurch gestählert, denn nach über 40 Jahre Tätigkeit in Industrie (u.a. bei ABB mit KKW Mülheim-Kläglich und THTR) und Universität (auch heute noch tätig und nicht dahinsiechend) war ich 1 Tag (!!!!) bis heute am Arbeitsplatz fehlend. 

Gutes Gelingen




Studien aus 2014 geben Hoffnung: Erwärmungswirkung des CO2 wohl doch deutlich überschätzt. Offizielle Korrektur steht bevor

Im heutigen Beitrag wollen wir eine kleine Übersicht über die neuen Studien des vergangenen Jahres (2014) geben. Wer ist mit welchem Wert aktuell im Rennen? Bevor wir beginnen, sollte jedoch noch kurz erwähnt sein, dass es zwei verschiedene Typen der Klimasensitivität gibt, die nicht verwechselt werden dürfen, die ECS und die TCR. Hier sollte man peinlichst darauf achten, um welchen Wert es in der entsprechenden Arbeit geht, ansonsten vergleicht man Äpfel mit Birnen. Wikipedia erklärt uns den Unterschied:

ECS und TCR
Aufgrund der thermischen Trägheit der Weltmeere reagiert das globale Klimasystem grundsätzlich nur langsam auf Veränderungen des Strahlungsantriebs. Man unterscheidet daher zwischen der Equilibrium Climate Sensitivity, (ECS) und der Transient Climate Response (TCR). Die ECS beschreibt den Temperaturanstieg, der zu beobachten ist, nachdem das Klimasystem nach einer Veränderung des Strahlungsantriebs den neuen Gleichgewichtszustand erreicht hat, wofür Jahrtausende nötig sind. Um den Einfluss des Menschen auf das Klima zu quantifizieren, ist die Transient Climate Response besser geeignet. Diese ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese pro Jahr um 1% anwächst.

Laut dem fünften Klimazustandsbericht des IPCC (AR5) liegt die ECS irgendwo zwischen 1.5°C bis 4.5°C. Der IPCC hat sich diesmal aus taktischen Gründen geweigert, einen offiziellen Mittelwert anzugeben. Nehmen wir daher einen Wert von 3°C an, den hatte der IPCC in seinem vierten Klimabericht (AR4) verwendet und nach eigenen Angaben habe sich vom vierten auf den fünften Bericht nicht viel geändert. Überhaupt geht der IPCC in allen seinen bisherigen Berichten seit 1990 stets von der gleichen Wertespanne aus (Abbildung 1).
Die kurzfristigere TCR sieht der IPCC in ihrem aktuellen AR5-Bericht zwischen 1,0°C und 2,5°C (siehe Seite 14 hier).

Abbildung 1: Übersicht der in den IPCC-Berichten angegebenen CO2-Klimasensitivitäten. Aus Lewis & Crok (2014).
ECS – Die Equilibrium Climate Sensitivity [Gleichgewichts-Klimasensitivität]
Beginnen wollen wir unseren wissenschaftlichen Streifzug mit Studien zum Langfrist-Wert, der ECS. Dabei arbeiten wir uns von den hohen zu den niedrigen ECS-Werten.
Im April 2014 erschien im Fachblatt Climate Dynamics eine Arbeit von Troy Masters. Er kommt auf eine Wertespanne für die ECS von 1,5-2,9°C, eliminiert also einen Großteil der überhitzten IPCC-Szenarien. Als ECS-Mittelwert gibt Master 2,2° C an, was knapp ein Grad kälter ist, als der IPCC-Wert.
Fünf Monate später, im September 2014, kamen von der Heydt und Kollegen in einer Studie in den Geophysical Research Letters auf einen recht ähnlichen Wert, nämlich 2,26°C. Die Forscher untersuchten hierzu das Paläoklima der letzten 800.000 Jahre. Aus der Kurzfassung:
Wendet man ein neues Verfahren an, um die Abhängigkeit vom Hintergrundzustand [background state dependency] zu berücksichtigen, kommt man zu dem Ergebnis Sa=0.61±0.07 K (W/ m²)-1 (±1σ) unter Verwendung einer Rekonstruktion der Abkühlung zum letzten glazialen Maximum (LGM) um -4,0 K und eine deutlich geringere Klimasensitivität während glazialer Klimate.
(Hinweis: Der dort angegebene Wert von Sa=0,61±0,07 K (W m−2)−1 muss mit 3,7 W/m2 multipliziert werden, um auf die ECS pro CO2-Verdopplung zu gelangen.)
In einer Modellierungsstudie ermittelte Crag Loehle vom US-amerikanischen National Council for Air and Stream Improvement eine ECS von 1,99°C. Die Ergebnisse präsentierte er im März 2014 im begutachteten Fachblatt Ecological Modelling.
Im selben Monat erschien im Fachjournal Earth System Dynamics eine Arbeit von Skeie et al., die auf eine ECS von 1,8°C kommen. Zum exakt gleichen Ergebnis gelangte auch Jeff L. in einem Beitrag auf WUWT , der dort am 13. Februar 2014 gepostet wurde.
Bereits im Juni 2010 beschrieb Roy Spencer auf seiner Webseite eine ECS von 1,7°C:
Unter dem Strich stützt meine Analyse eine Best-Estimate-Klimasensitivität von 1,7°C, was etwas mehr ist als die Hälfte von dem, was Tung & Camp (3,0°C) gefunden haben, und es nähert sich der unteren Grenze dessen, was das IPCC als wahrscheinlich behauptet (1,5°C).
Nur einen Tick niedriger verorteten Nicholas Lewis und Judith Curry die ECS. In ihrer im September 2014 im Fachblatt Climate Dynamics publizierten Arbeit kamen die Autoren auf einen Wert von 1,64°C. Lewis präsentierte in einem Beitrag im Blog Climate Audit zudem eine detaillierte Gesamttabelle mit ECS-Spannen für verschiedene Zeitfenster sowie Vergleichswerte anderer Arbeiten (Abbildung 2):

Abbildung 2: Klimasensitivitäten nach Lewis & Curry (2014) sowie weitere Vergleichswerte aus der Literatur. Quelle: Climate Audit.
Bemerkenswert ist auch eine Arbeit von Spencer & Braswell die im Februar 2014 im Asia-Pacific Journal of Atmospheric Sciences herauskam. Die beiden Autoren integrierten die natürliche ENSO-Variabilität in ihr Modell und kamen auf eine ECS von 1,3°C, was ziemlich genau zwischen den beiden in unserem Buch „Die kalte Sonne“ präsentierten Szenarien liegt.
Einige Autoren sehen sogar die Möglichkeit von ECS-Werten unterhalb von 1,0°C. So stellte im November 2014 Hermann Harde von der Hamburger Helmut-Schmidt-Universität im Journal of Atmospheric and Climate Change ein Modell mit einer ECS von 0,6°C vor.
Und schließlich sei noch eine Arbeit erwähnt, die im Oktober 2014 auf der Webseite der Stockholm-Initiative erschien. Magnus Cederlöf beschreibt dort eine ECS von 0,28°C.
Der generelle Trend in der Wissenschaft hin zu niedrigeren ECS-Klimasensitivitäten ist mittlerweile unübersehbar und stürzt den IPCC und die beteiligten Forscher in ein Dilemma. Viele der Arbeiten erschienen nach Redaktionsschluss des AR5-Klimaberichts und konnten daher nicht mehr in den Bericht eingearbeitet werden. Überhaupt gleichen die IPCC-Klimaberichte einem schweren Supertanker, der etliche Jahre benötigt um seinen Kurs auch nur geringfügig zu ändern. Das Herzstück des AR5 bilden aufwendige Computer-Klimamodellierungen, die noch von einer veralteten, überhöhten ECS ausgingen. Im Prinzip hätte man nun die Modellierungsresultate verwerfen und erneut zu rechnen beginnen müssen. Dafür gab es nun aber keine Zeit mehr und die Veröffentlichung des AR5 wäre um mehrere Jahre verzögert worden. Offenbar entschied man sich für die Methode „Augen zu und durch“, in der Hoffnung, dass die Unzulänglichkeiten hoffentlich keinem auffallen. Da der Großteil der Medienlandschaft die IPCC-Ergebnisse sowieso generell ungeprüft übernimmt, hat dies auch ziemlich gut funktioniert.
Im Februar 2014 thematisierten Nicholas Lewis und Marcel Crok das IPCC-Dilemma bezüglich der Klimasensitivität in einem lesenswerten Bericht, der als GWPF Report 12 erschienen ist:

Auszug aus der Zusammenfassung:
Erst während der letzten Jahre ist es möglich geworden, gute empirische Schätzungen der Klimasensitivität vorzunehmen aus gemessenen Daten wie Temperatur und ozeanischen Wärmerekorden. Diese Schätzungen, publiziert in führenden wissenschaftlichen Journalen, zeigen bei einer Verdoppelung des CO2-Gehaltes zumeist eine Klimasensitivität, die zu einer langfristigen Erwärmung unter 2°C führt und unter 1,5°C während einer Periode von 70 Jahren. Dies zeigt eindeutig, dass die Modelle eine zu hohe Sensitivität bzgl. Kohlendioxid annehmen und in fast allen Fällen die wahrscheinliche globale Erwärmung übertreiben. … Gute empirische Schätzungen sowohl langfristig als auch über Zeiträume von 70 Jahren implizieren jetzt sehr unterschiedliche Erwartungen hinsichtlich einer zukünftigen Erwärmung verglichen mit den Klimamodellen – etwa 40% bis 50% niedriger bis zum Zeitraum 2018 bis 2100. Dies ist fast mit Sicherheit das wichtigste Ergebnis der Klimawissenschaft während der letzten Jahre, vor allem weil es gute Gründe gibt, die Zuverlässigkeit der Klimamodell-Vorhersagen anzuzweifeln. Allerdings geht das IPCC in seinem Bericht auf diesen Punkt nur indirekt ein. Mehr noch, anstatt die Best Estimate der Klimasensitivität im Licht der neuen empirischen Schätzungen zu reduzieren hat es einfach die untere Grenze der Unsicherheits-Bandbreite tiefer gelegt und es versäumt, eine Best Estimate zu geben ohne angemessen zu erklären, warum dies zu tun erforderlich war. Erst in der im Januar 2014 veröffentlichten Endfassung wurde in der Technical Summary ein Absatz mit etwas mehr Erklärung hinzugefügt. Die neue Information zur Klimasensitivität zeigt, dass das Zwei-Grad-Ziel der Regierung selbst bei relativ hohen Emissionen wahrscheinlich erst zum Ende des Jahrhunderts erreicht wird.
Eine gute graphische Übersicht von 14 wichtigen Arbeiten der vergangenen vier Jahre haben Patrick Michaels und Paul Knappenberger am 25. September 2014 auf WUWT zusammengestellt (Abbildung 3):


Abbildung 3: Übersicht der ECS-Klimasensitivität aus bedeutenden Arbeiten der vergangenen vier Jahre. Quelle: Patrick Michaels und Paul Knappenberger, WUWT.
Eine noch umfangreichere Auflistung gibt es auf The Hockeyschtick. Hier werden gleich 40 wissenschaftliche Studien vorgestellt, die eine ECS von 2,0°C oder weniger postulieren.
TCR – kurzlebige Reaktionen des Klimas [Transient Climate Response]
Schauen wir jetzt noch kurz in die kurzfristigere TCR. Der IPCC interpretiert in seinem aktuellen 5. Bericht eine TCR zwischen 1,0°C und 2,5°C. Ein Mittelwert ist erneut nicht angegeben, würde aber 1,75°C entsprechen.
Auch hier kommen neuere Studien auf deutlich niedrigere Werte. So reichten van der Werf und Dolman im Mai 2014 eine Arbeit im Fachblatt Earth System Dynamics ein, in dem sie eine TCR von 1,3°C darstellen. Das hat den IPCC-Torwächtern natürlich gar nicht gefallen. Im Begutachtungsverfahren „überzeugte“ man die Autoren, die TCR auf 1,6°C hochzusetzen, so dass die finale Version des Artikels aus dem Oktober 2014 jetzt diesen Wert enthält.
Da waren Nicholas Lewis und Judith Curry deutlich standfester. In ihrer im September 2014 in Climate Dynamics erschienenen Arbeit berichten sie eine TCR in Höhe von 1,33°C, was am unteren Ende des vom IPCC im AR5 verbreiteten Möglichkeitsspektrums liegt.
Craig Loehle geht mit einer TCR von 1,09°C sogar fast an den untersten Rand der IPCC-Werte. Diese Arbeit erschien wie bereits berichtet im März 2014 im Fachblatt Ecological Modelling.
Ein Forscherteam um Krasting und Kollegen ging im April 2014 in den Geophysical Research Letters sogar von noch niedrigeren TCR-Werten aus, nämlich einem Bereich zwischen 0,76 und 1,04°C.
Weitere neuere Erkenntnisse
Neben den harten ECS/TCR-Werten gab es auch noch andere Erkenntnisgewinne. So räumte Kim Cobb im April 2014 im IPCC-nahen Fachblatt Nature Climate Change ein, dass die Klimasensitivität wohl doch insgesamt niedriger ist als gedacht. Man habe die natürliche Klimavariabilität auf der Südhalbkugel wohl unterschätzt.
Im Dezember 2014 berichteten Winton et al. in den Geophysical Research Letters dass man wohl die AMOC-Ozeanzyklik zu wenig auf der Rechnung hatte und die TCR-Abschätzungen deshalb wohl in der Vergangenheit zu hoch ausgefallen sind.
Einen interessanten Einblick in die Denkweise von IPCC-nahen Wissenschaftlern gab es im April 2014 in den Geophysical Research Letters. Dort gestanden Kummer & Dessler ein, dass die historischen Temperaturdaten des 20. Jahrhunderts lediglich eine ECS von 2,3°C rechtfertigen würden, was krass von den 3°C der theoretischen IPCC-Modelle abweicht. Im Paper fangen sie dann an laut zu denken. Wie konnte dies nur passieren, wie kriegen wir diesen unbequemen Umstand möglichst elegant und leise vom Tisch? In ihrer Verzweiflung fangen sie dann an, Gründen für die zu schwache Erwärmung der letzten 150 Jahre zu ersinnen. Dabei greifen sie letztendlich auf den bereits in unserem Buch „Die kalte Sonne“ ausführlich beschriebenen Trick zurück und erhöhen einfach die kühlende Wirkung der Aerosole, der Schwebteilchen in der Atmosphäre. Zur Linderung der Modellierungsschmerzen muss auch das Ozon seinen Beitrag leisten. Nach Anwendung von Trick 17 und Trick 18 ist dann die reale Welt an die wunderbare Computerwelt angepasst und alle können wieder beruhigt ihrem alarmistischen Tagesgeschäft nachgehen. Im Folgenden die Kurzfassung der Arbeit:
Schätzungen der Gleichgewichts-Klimasensitivität der Erde (ECS) aus Beobachtungen im 20. Jahrhundert sagen eine niedrigere ECS vorher als Schätzungen der Klimamodelle, paläoklimatische Daten und Variabilität von Jahr zu Jahr. Hier zeigen wir, dass Schätzungen der ECS aus Beobachtungen im 20. Jahrhundert hinsichtlich der vermuteten Wirksamkeit von Aerosol- und Ozon-Antrieb sensitiv sind (Wirksamkeit eines Antriebs ist die Größe der Erwärmung pro Einheit globaler mittlerer Antrieb dividiert durch die Erwärmung pro Antriebseinheit aus CO2). Frühere Schätzungen der ECS auf der Grundlage von Beobachtungen im 20. Jahrhundert haben nahe gelegt, dass die Wirksamkeit einheitlich ist, wobei sich in unserer Studie eine ECS von 2,3 K ergibt (5% bis 95% Bandbreite von 1,6 bis 4,1 K), was dicht an der unteren Grenze der vom IPCC angebotenen Bandbreite von 1,5 bis 4,5 K liegt. Eine Zunahme der Aerosol- und Ozon-Wirksamkeit auf 1,33 lässt die ECS steigen auf 3,0 K (1,9 bis 6,8 K), ein Wert, der in ausgezeichneter Übereinstimmung mit anderen Schätzungen steht. Die Wirksamkeit von Antrieben bietet daher einen Weg, den Graben zwischen verschiedenen ECS-Schätzungen zu überbrücken.
Eine mysteriöse Geschichte gab es am 3. Dezember 2014 auf der Webseite von Bild der Wissenschaft zu lesen:

Klima: Schnell aufgeheizt und lange warm
Die Treibhauswirkung von Kohlendioxid ist längst unstrittig: Das Gas hält Wärme in der Atmosphäre fest und trägt damit zum Klimawandel bei. Wie schnell sich aber eine Emission von CO<sub>2</sub> tatsächlich am globalen Thermometer bemerkbar macht, das war bisher unklar. Zwei US-Forscher haben diese Unsicherheit nun beseitigt. Ihre Modellsimulationen zeigen, dass das Klimasystem deutlich schneller auf das CO<sub>2</sub> reagiert als gedacht: Schon zehn Jahre nach einer CO<sub>2</sub>-Emission tritt die dadurch verursachte Erwärmung ein – diese Klimawirkung hält dann allerdings über mehr als ein Jahrhundert an. Für die Klimaverhandlungen in Lima sollte das eine Mahnung sein. […] Das Ergebnis: Es dauert im Mittel 10,1 Jahre, bis eine Dosis freigesetzten Kohlendioxids ihre maximale Treibhauswirkung entfaltet. Der CO<sub>2</sub>-Gehalt der Atmosphäre steigt dabei schon deutlich schneller an. Aber vor allem die thermische Trägheit der Ozeane bremst die dadurch erzeugte Erwärmung ab, so dass sie sich erst nach rund einem Jahrzehnt bemerkbar macht, wie die Forscher erklären. 

Im Prinzip heißt dies nichts anderes, als dass ECS und TCR viel näher aneinander liegen könnten als gedacht. Nach 10 Jahren wäre die volle Wärmewirkung erreicht, lautet das Ergebnis der Modellierung. In der Realität sieht es leider anders aus: Seit nunmehr 16 Jahren verharrt die globale Temperatur auf einem Plateauwert, und das obwohl der CO2-Gehalt in der gleichen Zeit munter weiter angestiegen ist. Nach deutlich mehr als 10,1 Jahren hat es das CO2 offenbar immer noch nicht geschafft, die ihm zugeschriebene starke Erwärmungswirkung zu entfalten. Ist das CO2 vielleicht doch nicht so klimatreibend wie gedacht? Oder ist die natürliche Variabilität viel stärker als vom IPCC vorgeschlagen? Fakt ist, dass die angeblich so schnell auf das CO2 reagierende Atmosphäre noch immer voll und ganz durch die natürlichen Prozesse dominiert wird. Weshalb diskutiert Bild der Wissenschaft diese Fragen nicht?
Angesichts der mageren Temperatursteigerung im 20. Jahrhundert und der fehlenden Erwärmung der letzten 16 Jahre fragen sich die Wissenschaftler, wann wohl genug Daten vorliegen könnten, so dass man die wahre CO2-Klimasensitivität endlich festnageln und genau eingrenzen könnte. Ein Forscherteam um Nathan Urban hat im April 2014 in den Geophysical Research Letters versucht, einen Entscheidungshorizont abzuschätzen. Vermutlich wird es erst 2030 möglich sein, zu erkennen, ob die ECS eher 1,5°C oder 3,0°C beträgt. Im Falle noch höherer ECS-Wert würde dies sogar noch länger dauern. Allerdings sind höhere ECS-Beträge angesichts der neueren Arbeiten eher unwahrscheinlich. Auszug aus der Kurzfassung:
Wir zeigen, dass eine Klimasensitivität von 1,5°C statistisch unterschieden werden kann von 3°C bis 2030, 3°C von 4,5°C bis 2040 und 4,5°C von 6°C bis 2065. Das Erkennen von Raten ist am langsamsten in den größte Bedenken hervorrufenden Szenarien (hohe Sensitivitäten) infolge einer längeren Zeit der ozeanischen Reaktionen bei der Abwägung zwischen Abwarten und vorsorglicher Abschwächungspolitik.
Wer sich noch tiefer in das Thema einarbeiten möchte, dem sei der Climate Dialogue aus dem Mai 2014 „Climate Sensitivity and Transient Climate Response“ mit James Annan, John Fasullo und Nic Lewis empfohlen. Eine gute Übersicht zum Thema gibt es auch von Chip Knappenberger, die am 19. März 2012 auf WUWT erschien. Und schließlich greifen auch Frank Bosse und Fritz Vahrenholt in ihrer monatlichen Sonnenkolumne immer wieder das Thema der CO2-Klimasensitiität auf (z.B. hier, hier, hier).
Link: http://www.kaltesonne.de/studien-aus-2014-geben-hoffnung-erwarmungswirkung-des-co2-wohl-doch-deutlich-uberschatzt-und-muss-nach-unten-korrgiert-werden/
Dieser Artikel ist zuerst bei „Die Kalte Sonne“ erschienen (siehe Link). Übersetzungen der englischen Passagen durch Chris Frey EIKE




Friends of the Earth sind Feinde der Menschheit

Bild rechts: Zurück in die Vergangenheit mit Friends of the Earth [= in Deutschland BUND!]
Ich stehe auf dem E-Mail-Verteiler von FOE, und deren jüngste Mail belehrte mich ebenso wie Tausende andere, die die gleiche Mail erhielten, darüber, dass die „Öl-Lobby und die Führerschaft der Republikaner im Kongress einen vollen Frontalangriff auf unsere Umweltschutz-Bemühungen planen…“. Ich wette Sie haben nicht gewusst, dass die republikanische Partei ein Feind der Umwelt war. Das ist komisch, weil es ein Republikaner war, nämlich Richard R. Nixon, der die Environmental Protection Agency EPA per Anordnung gegründet hatte.
Die FOE waren verärgert über die Finanzierung der US-Regierung mit 1,01 Billionen Dollar für dieses Jahr bis September. „Was noch mehr zählt, es ist eine überraschende Gabe an die Superreichen, und die Zuwendung hob das maximale Beitragslimit von Individuen zu politischen Parteien – was die Tür öffnet für Milliardäre wie die Koch Brothers, noch mehr Sitze in der Regierung zu kaufen“.
Die schiere Heuchelei der FOE sprengt die Vorstellungskraft. Es gab keine Erwähnung des verschwiegenen „Milliardärs-Club“, dessen Existenz im August in einem Bericht der Republikaner an das Environment and Public Works Committee des US-Kongresses enthüllt worden ist. Der Bericht war überschrieben mit [übersetzt] „Die Umwelt-Kommandokette: Wie ein Club von Milliardären und deren Stiftungen die Umweltbewegung kontrollieren sowie Obamas EPA“. Das haben Sie nicht in der Mainstream-Presse gelesen? Nun, es wurde totgeschwiegen.
Vielleicht aber haben Sie von dem in San Francisco ansässigen Milliardär Tom Steyer gehört, der im Februar versprochen hatte, bis zu 100 Millionen Dollar zu spenden. Die Hälfte davon wollte er selbst aufbringen, die andere Hälfte von anderen Milliardärs-Geldgebern. Damit wollten sie für die Zwischenwahlen zum Kongress Kandidaten bekommen, die versprechen, Anti-Erwärmungs-Gesetze passieren zu lassen. Steyer war führender Gegner der Keystone XL-Pipeline, aber aus reiner Scheinheiligkeit machte Steyer sein Vermögen mit Investitionen in fossile Energie-Unternehmen!
Soweit es die FOE betrifft, sind nur konservative Milliardäre böse.
„Bei Friends of the Earth arbeiten wir daran, die Menschen und den Planeten vor Big Oil und deren Profite zu schützen“. Übersetzung: „Wir wollen nicht, dass Ölunternehmen die Energiequelle anbieten, die unsere Autos, Lastwagen und andere Dinge, die unser Leben verbessern, antreiben. Wir mögen keine Profite, weil sie das Ergebnis von Kapitalismus sind“.

Obendrein sagen FOE ihren Unterstützern, dass „die Zukunft für Unternehmen wie Dow, Syngenta und Monsanto großartig sein würde – aber schlimm für Bienen, Schmetterlinge und Menschen wie wir“. Man entferne alle Pestizide, und alles, was übrig bleibt, sind die Pestfliegen, die Krankheiten verbreiten und Ernten schädigen.
Wikipedia zu FOE: „Ursprünglich beheimatet in Nordamerika und Europa beruht seine Mitgliedschaft stark auf Gruppen in der Entwicklungswelt“. Es ist die Entwicklungswelt, die im Mittelpunkt des größten Betrugs der UN steht, nämlich globale Erwärmung, jetzt Klimawandel genannt, als ein Mittel, um Geld von wohlhabenden Nationen an Länder zu transferieren, die weniger gut regiert werden, oftmals weil dort ein Despot oder eine diebische Gruppe am Ruder ist.
Kein Wunder, dass die FOE erbost sind durch die Entscheidung von Millionen Amerikanern, Kandidaten zu wählen, die die Exzesse der EPA zügeln und Schritte zur Verbesserung der Wirtschaft vornehmen wollen. Der Mehrheitsführer im Senat, der Republikaner Mitch McConnell aus Kentucky, wird denunziert als „ein Klimaleugner mit engen Beziehungen zur Kohleindustrie“. Er hatte klargestellt, dass die Genehmigung der Keystone XL-Pipeline seitens des Kongresses Priorität hat.
Die E-Mail der FOE bezeichnete sogar den American Legislative Exchange Council (ALEC) als „eine Politikgruppe, die hilft, Anti-Umwelt-Gesetze im ganzen Land zu entwickeln. Derzeit konzentrieren sie sich auf Pläne, den Clean Power Plan des Präsidenten und die Fähigkeit der EPA zu erodieren, seine Mission fortzusetzen“.
Was in der E-Mail der FOE, die Big Oil und die Republikaner so schlecht macht, nicht erwähnt wird ist, dass neben anderen Dingen die Finanzierung der EPA um 60 Millionen Dollar verringert worden ist. Damit muss sie mit dem kleinsten Budget seit 1989 in Höhe von 8,1 Milliarden Dollar operieren.
Ich würde sehr gerne die EPA als öffentliche Agentur eliminiert sehen, und dass jene Finanzierung als Beihilfe zu EPAs der individuellen US-Staaten gehen, um Probleme anzugehen, die vor der eigenen Tür liegen. Bisher hat die Gesetzgebung den Treibhausgas-Programmen“ der EPA eine Reihe von Grenzen gesetzt, von deinen einige absolut idiotisch daherkommen, nämlich als Erlaubnis für Gasemissionen – Methan von Kühen!
Das Gesetz untersagte es auch Präsident Obama, wie versprochen 3 Milliarden Dollar an den UN-Klimafonds zu zahlen, eine Einrichtung, um uns unser Geld wegzunehmen und es Nationen zu geben für „Umweltprogramme, die sehr wahrscheinlich zu etwas ganz Anderem führen“.
Mit ihrer Antienergie-, Antikapitalismus-Agenda sind die Friends of the Earth in Wirklichkeit Feinde der Menschheit. Sie würden überglücklich den Planeten in das Dunkle Zeitalter zurückstoßen. Darum richten Menschen wie ich sehr helle Scheinwerfer auf sie, damit wir nicht so düpiert wie viel zu viele andere Menschen.
© Alan Caruba, 2015
Link: http://www.nationalanxietycenter.blogspot.de/2015/01/friends-of-earth-are-enemies-of-mankind.html
Übersetzt mit schriftlicher Erlaubnis des Autors von Chris Frey EIKE




James Hansen 2005: Keine Übereinstimmung zur Frage „was ist Lufttemperatur“ … Wenige gemessene Daten werden mit „Schätzungen“ [guesses] gefüllt.

Analyse der Oberflächentemperatur nach GISS

Die schwer fassbare Absolute Oberflächen-Lufttemperatur (SAT)

Bei der GISTEMP-Analyse geht es ausschließlich um Temperaturanomalien und nicht um die absolute Temperatur. Temperaturanomalien werden berechnet auf Grundlage der Referenzperiode 1951 bis 1980. Der Grund für die Arbeit mit Anomalien anstatt mit der absoluten Temperatur ist, dass die absolute Temperatur kurzfristig markant variiert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien bis zu Entfernungen in der Größenordnung von 1000 km stark korrelieren.

Frage: Was genau ist mit SAT gemeint?

Antwort: Ich bezweifle, dass es eine allgemeine Übereinstimmung bzgl. der Antwort auf diese Frage gibt. Selbst an der gleichen Stelle kann die Temperatur nahe dem Boden sehr unterschiedlich sein zur Temperatur in einer Höhe von 5 ft [ca. 1,5 m] und wieder unterschiedlich zur Temperatur in 10 ft oder 50 ft [ca. 3 m bzw. 15 m] über dem Boden. Vor allem bei vorhandener Vegetation (z. B. im Regenwald) kann die Temperatur über der Vegetation sehr unterschiedlich sein zur Temperatur unter der Obergrenze der Vegetation. Ein vernünftiger Vorschlag scheint es mir zu sein, die mittlere Temperatur der ersten 50 ft [ca. 15 m] entweder über dem Erdboden oder über der Obergrenze der Vegetation zu verwenden. Um die SAT zu messen, müssen wir darin übereinstimmen, was das ist, und – soweit ich weiß – wurde bislang kein solcher Standard vorgeschlagen oder allgemein übernommen. Selbst falls man den Standard von 15 ft übernehmen sollte, kann ich mir nicht vorstellen, dass ein 50 ft hoher, an einer Wetterstation aufgestellter Mast in der Lage wäre, die wahre SAT an dieser Stelle zu ermitteln.

Frage: Was meinen wir mit täglichen SAT-Mittelwerten?

Antwort: Noch einmal: es gibt keine universell akzeptierte Antwort. Sollten wir die Temperatur alle 6 Stunden messen und das Mittel bekannt geben; sollten wir das alle 2 Stunden tun, stündlich oder mittels einer Maschine in jeder Sekunde? Oder sollen wir einfach den Mittelwert aus Höchst- und Tiefsttemperatur nehmen? An einigen Tagen können verschiedene Methoden zu drastisch unterschiedlichen Ergebnissen führen.

Frage: Welche SAT berichten die lokalen Medien?

Antwort: Die Medien berichten von einem bestimmten Thermometer einer nahe gelegenen Wetterstation. Diese Temperatur kann sich sehr von SAT unterscheiden, selbst an jener Stelle und hat mit Sicherheit nichts zu tun mit der wahren regionalen SAT. Um die wahre regionale SAT zu messen, müssten wir viele 50 ft hohe Masten mit Thermometern aufstellen, die gleichmäßig über das gesamte Gebiet verteilt werden, eine offensichtliche praktische Unmöglichkeit.

Frage: Falls die SATs, über die berichtet wird, nicht die wahren SATs sind, warum sind sie dennoch nützlich?

Antwort: Die berichtete Temperatur ist nur für eine Person wirklich bedeutsam, die zufällig die Wetterstation besucht genau in dem Moment, wenn die berichtete Temperatur gemessen wird, mit anderen Worten, für niemanden. Allerdings wird zusätzlich zu den berichteten SATs erwähnt, ob es sich gegenwärtig um ungewöhnlich hohe oder niedrige Werte handelt, wie stark sie von der Normaltemperatur abweichen und ob diese Information (die Anomalie) bedeutsam für das ganze Gebiet ist. Außerdem, wenn wir eine bestimmte Temperaturangabe hören (z. B. 70°F [ca. 18°C]), übersetzen wir das instinktiv in warm oder kalt, aber der Schlüssel zur Übersetzung ist abhängig von Jahreszeit und Gebiet. Die gleiche Temperatur kann ,warm‘ im Winter und ,kalt‘ im Juli bedeuten. Wir meinen mit ,warm‘ automatisch ,wärmer als normal‘, d. h. wir übersetzen absolute Temperaturen automatisch in Anomalien, ob uns das nun bewusst ist oder nicht.

Frage: Wenn SATs nicht gemessen werden können, wie werden SAT-Karten konstruiert?

Antwort: Dies kann man nur mit Hilfe von Computermodellen machen, und zwar den gleichen Modellen, mit deren Hilfe man die tägliche Wettervorhersage erstellt. Wir können das Model laufen lassen mit den wenigen gemessenen verfügbaren Daten und den Rest mit Schätzungen (auch Extrapolationen genannt) auffüllen. Dann können wir das Modell lange genug laufen lassen, so dass die ursprünglichen Schätzungen keine Rolle mehr spielen, aber auch nicht zu lange, um zu vermeiden, dass die Ungenauigkeiten des Modells relevant werden. Dies kann gemacht werden, wenn man mit den Bedingungen aus vielen Jahren anfängt, so dass das Mittel (eine ,Klimatologie‘ genannt) hoffentlich eine typische Karte für den bestimmten Monat oder Tag des Jahres repräsentiert.

Frage: Was mache ich, wenn ich absolute SATs brauche und keine Anomalien?

Antwort: In 99,9% aller Fälle wird man sehen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturen. In den verbleibenden Fällen muss man eine der verfügbaren Klimatologien herauspicken und die Anomalien hinzufügen (hinsichtlich der geeigneten Bezugsperiode). Für das globale Mittel erzeugen die Modelle, denen man am meisten vertraut, einen Wert von grob 14°C, aber der Wert kann sich genauso gut auch zwischen ca. 13°C und 15°C bewegen; und im regionalen und noch mehr im lokalen Maßstab ist die Lage noch schlimmer.

Link: http://notrickszone.com/2015/01/17/2005-james-hansen-no-agreement-on-what-is-surface-air-temperature-few-observed-data-filled-in-with-guesses/#sthash.6WSS5pf1.dpbs
Übersetzt von Chris Frey EIKE