Über die Wahrscheinlichkeit der jüngsten Rekordwärme

Vor kurzem in Nature veröffentlich:

The Likelihood of Recent Record Warmth
[Die Wahrscheinlichkeit der jüngsten Rekordwärme]

Autoren: M.E. Mann, S. Rahmstorf, B.A. Steinman, M. Tingley, and S.K. Miller

Zusammenfassung aus Nature, o.g. Link

2014 war nominell das wärmste Jahr der Aufzeichnung sowohl für den Globus als auch der Nordhalbkugel, basierend auf historischen Aufzeichnungen der letzten anderthalb Jahrhunderte (1), (2). Es war der jüngste in einer letzten Serie von Temperaturen Rekorden der letzten fünfzehn Jahre. Die Presse berichtet von Chancen wie eins zu 650 Millionen, dass die beobachteten Temperatur-aufzeichnungen auch in der Abwesenheit der von Menschen verursachten globalen Erwärmung auftreten würden. Ungeachtet der Frage, wie wahrscheinlich die beobachteten Temperaturaufzeichnungen sowohl mit als auch ohne Einfluss des Menschen gewesen sein könnten, ist das als eigene Frage interessant. Hier versuchen wir diese Frage mit einem semi-empirischen Ansatz anzugehen, die die neuesten (CMIP53) Klimamodellsimulationen mit Beobachtungen der globalen und hemisphärischen Temperatur kombiniert. Wir fanden, dass einzelne Rekordjahre und die beobachteten Rekord-Temperaturen in Abwesenheit vom Menschen verursachten Klimawandel extrem unwahrscheinlich stattgefunden haben könnten, wenn auch bei weitem nicht so unwahrscheinlich, wie nach den Presseberichten vorgeschlagen. Dieselben Rekordtemperaturen können im Gegensatz dazu sehr wahrscheinlich in Gegenwart von anthropogenem Klima stattgefunden haben.

Die Abhandlung wird einige mediale Aufmerksamkeit bekommen, hier sind zwei Artikel die die Bandbreite anzeigen:

Die Rekorde von heißen Jahren sind mit ziemlicher Sicherheit durch von Menschen gemachter Erwärmung verursacht

Die neue von Prof. Mann gemachte Studie zur Erderwärmung ist eine „wissenschaftlich wertlose Abhandlung“

Judith Curry: Mein Kommentar wurde für den Examiner Artikel erbeten:

Die Analyse von Mann et al. beschönigt 3 große Streitigkeiten in der Klimaforschung:

a) Fehler und Unsicherheiten in der Temperaturaufzeichnung, um den Rekord der Oberflächentemperaturen in Einklang zu bringen (die eine gewisse Erwärmung in den letzten Jahrzehnten zeigen) gegen den globalen Datensatz der Satelliten (die im Wesentlichen keine Erwärmung für die letzten 18 Jahre zeigen).

b) Die Klimamodelle, die deutlich zu heiß laufen. Für die letzten zehn Jahre waren die globalen durchschnittlichen Oberflächentemperaturen an der Unterseite des Toleranzbandes von Klimamodell – Simulationen gewesen. Selbst das sehr warme Jahr 2015 (anomal warm aufgrund eines sehr starken El Nino) ist kühler als die Vorhersage des Multi-Modell-Ensembles.

c) Wie die vom Menschen verursachte Klimavariabilität aus natürlichen Klimaschwankungen zu trennen ist, bleibt ein herausforderndes und ungelöstes Problem. Mann et al. verwendet die Methode von Steinmann et al. um die Zwangs Variabilität (zB. CO2, Sonne, Vulkane) abzuleiten, als Berechnung der internen Variabilität (zB. von Meereszirkulationen) als Rest. In der Tat, das von Steinmann et al verwendete Multi-Modell-Ensemble geht davon aus, dass alle jüngste Erwärmung durch CO2 angetrieben wurde. Meine Kollegen, angeführt von Sergey Kravtsov, veröffentlichten vor kurzem eine Abhandlung in Science; [siehe auch diesen blog post] und argumentieren, dass die Methode von Steinman et al. fehlerhaft ist und zu einer erheblichen Unterschätzung führt, der internen Variabilität der in großem Maßstab multi-dekadischen Ozean Schwingungen.

Die globalen Temperaturen haben sich insgesamt schon seit mehr als 200 Jahren erhöht. Menschliche verursachte CO2-Emissionen können eine erhebliche Menge dieser Erwärmung vor 1950 nicht erklären. Worauf die jüngsten Schwankungen der globalen Temperatur zu zuschreiben ist, ist weiterhin ein mit erheblichen Unsicherheiten behaftetes Problem. Die Arbeitsberichte des IPCC kommen zu dem Schluss: "mehr als die Hälfte" der Erwärmung seit 1950 wird durch den Menschen verursacht, mehr als die Hälfte Implizieren> 50% [wer weiß, was das tatsächlich bedeutet, siehe meine Meinungsverschiedenheiten mit Gavin]. Diese Einschätzung räumt Unsicherheiten in den Klimamodellen ein, die feststellen, dass seit 1950 alle Erwärmung durch den Menschen verursacht wird. Die Mann et al. Abhandlung geht von der Annahme aus, dass alle Erwärmung durch den Menschen verursacht wurde, nach unserem aktuellen Wissensstand ist das eine ungerechtfertigte Annahme.

Ein weiterer Kommentar, zu technisch, um ihn an den Examiner zu senden:

d) Die Verwendung des Multimodell-Ensemble auf diese Weise ist aus einer statistischen Perspektive einfach unangemessen. Siehe mein früheren Post: Wie sollen wir ein Ensemble von Klimamodelle deuten? Auszüge:

Wie sollen wir Angesichts der Unzulänglichkeiten der gegenwärtigen Klimamodelle, die Multi-Modell-Ensemble-Simulationen des Klimas im 21. Jahrhunderts interpretieren, die in den IPCC-Berichten verwendet werden? Dieses Ensemble-von-Gelegenheiten, besteht aus Modellen mit allgemein ähnlichen Strukturen, aber unterschiedlichen Parametern an Auswahl und Kalibrierung. McWilliams (2007) und Parker (2010) argumentieren, dass die derzeitigen Klimamodell Ensembles nicht darauf ausgelegt sind, gegenständliche Unsicherheit auf gründliche oder strategische Weise darzustellen.

Stainforth et al. (2007) argumentieren, dass Modell Unzulänglichkeiten und eine unzureichende Anzahl von Simulationen im Ensemble sinnvolle Wahrscheinlichkeitsverteilungen von der Frequenz [Häufigkeit / Dichte] der Modellergebnisse des zukünftigen Klimas erzeugen. Bei Stainforth et al. heißt es: "Bei gegebenen, nichtlinearen Modellen, die unter den gegenwärtigen Bedingungen große systematische Fehler haben, wurde keine Verbindung bezüglich der Verteilung der Modellzustände unter veränderten Bedingungen zu entscheidungsrelevanten Wahrscheinlichkeitsverteilungen auch nur annähernd feststellt. . . Darüber hinaus sind sie irreführend, weil die Schlussfolgerungen, in der Regel in Form von PDF-Dateien, viel mehr Vertrauen implizieren als die zugrunde liegenden Annahmen rechtfertigen."

[Hinweis des Übersetzers: Das Thema der Klimasimulationen gehört nicht zu meiner Expertise. Einige unter den Lesern können das bestimmt besser. Hier der Originaltext zu vorstehender Übersetzung:

Given nonlinear models with large systematic errors under current conditions, no connection has been even remotely established for relating the distribution of model states under altered conditions to decision-relevant probability distributions. . . Furthermore, they are liable to be misleading because the conclusions, usually in the form of PDFs, imply much greater confidence than the underlying assumptions justify.”]

Kommentar Nic Lewis:

Ich bat Nic Lewis um seinen Kommentar zu der Abhandlung, er schickte ein paar schnelle Anfangsüberlegungen dazu, die überarbeitete Version ist unten eingearbeitet:

  Hallo Judy, Es ist eine Abhandlung, die sehr wenig wissenschaftlichen Wert hat,   auch wenn sie zu 100% korrekt wäre. Ich habe einige besondere Bemerkungen:

1. Sie sagen: "Es ist angemessen, ein stationäres, stochastisches Zeitreihenmodell zu definieren, mit Parametern aus dem Rest der Serie geschätzt." Dies ist eine nicht unterstützte Behauptung. Im Gegenteil, diese Methode mit Restgrößen zwischen den aufgezeichneten und den im Modell simulierten Temperaturänderungen die interne Variabilität zu schätzen, ist unzureichend; der beobachtete Datensatz ist zu kurz um die interne Variabilität vollständig abzutasten und es gibt nur eine Instanz davon. Darüber hinaus sind die Modellparameter und ihre Antriebskräfte sehr wahrscheinlich aufeinander abgestimmt, so dass Modellsimulationen von historischen Zeiten die beobachteten Temperaturänderungen sehr gut treffen (zB. durch stark negative Einflüsse der Aerosole im dritten Viertel des 20. Jahrhunderts, um eine bessere Übereinstimmung mit dem „großen Pause" zu erreichen). Dadurch werden die Restgrößen künstlich reduziert. Schätzungen, die auf Testläufen über lange Perioden und nicht angetriebenen AOGCM [Atmosphere-Ocean General Circulation Model, gefunden hier] beruhen, routinemäßig zur Erkennung und Zuordnung von Studien durchgeführt, sind ein viel weniger unbefriedigendes Verfahren, allerdings bei weitem nicht perfekt.

2. Der bessere Weg anthropogene Antriebe von natürlichen Klimaänderungen und von internen Variabilitäten zu trennen ist es, einen Nachweis und eine Zuordnungsanalyse der Multimodelle durchzuführen und Rasterdaten zu verwenden und nicht nur globale oder der nördlichen Hemisphäre. Zwei gründlichere neuere Studien, die es so machten, wurden im IPCC AR5 Bericht verwendet, um ihre anthropogenen Aussagen [Zuordnung] zu erreichen. Diese Studie hat keine vergleichbare Komplexität und ermöglicht keine Aussagen stärker als in AR5 [bereits] gemacht wurden.

3. Sie sagen, dass eine Langzeitkorrelation (Langzeitspeicher) des Rauschens [noise process] nicht unterstützt wird: "Einige Forscher haben argumentiert, dass das Klima Rauschen erster Ordnung ein nichtstationäres Verhalten aufweisen könnte, dh. so genannte „Langzeit-Abhängigkeit". Analysen von modernen und Paläoklima Beobachtungen unterstützen jedoch den Schluss, dass es nur das anthropogene Klimawandel Signal ist, das nicht-stationäres Verhalten erster Ordnung zeigt, mit klimatischen Störgrößen am besten durch ein stationary noise model [stationäres Modell der Störgrößen(?); A.D.] beschrieben wird. Wir haben dennoch den zusätzlichen Fall von (3) „des anhaltenden“ roten Rauschens berücksichtigt, wobei das Rauschmodell die Roh – Beobachtungsreihe trifft."

[Rotes Rauschen: Leistungsdichte umgekehrt proportional zum Quadrat der Frequenz (~ 1/f^2)]

Drei Probleme gibt es:

a) Die "Analyse" die sie zitieren, ist ein redaktioneller Kommentar von Michael Mann.

b) Langzeitkorrelation betrifft im Allgemeinen NICHT das nicht-stationäre Verhalten erster Ordnung. Ein klassischer Fall von Langzeit-Abhängigkeit ist ein fraktionelles Differenzmodell, welches nicht-stationärer erster Ordnung ist unter der Bedingung, dass der Differenzparameter kleiner als 0,5 ist.

Ein solches Modell wird als eine physikalisch plausible, einfache Ein-Parameter-adjustierbare Charakterisierung der internen Klimaviariabilität betrachtet, genau wie das autoregressive Modell mit Abhängigkeit im Kurzfrist-Zeitraum, das sie verwenden (AR 1). … Imbers et al. fanden heraus, dass beide Modelle zu der internen Variabilität des Klimas angemessen im GMST über die historische Zeitperiode passten, dass jedoch im Modell mit der langfristigen Abhängigkeit die Unsicherheitsbereiche größer waren.

c) Das „anhaltende“ roten Rauschen Modell hat überhaupt keine Langzeitkorrelation (es ist ein AR (1) -Modell mit einem unterschiedlich geschätzten Autokorrelationsparameter), es bietet es wenig oder gar keine Prüfung der Auswirkungen der wahren internen Variabilität bei Langzeit Beziehungen.

4. Nichts in dieser Studie betrachtet die Wahrscheinlichkeit, dass die hohen, letzten aufgezeichneten Temperaturen den Fall ergeben haben, wo es eine anthropogene Komponente gibt, aber diese ist weniger stark als von den CMIP5 Modellen simuliert, d.h. weil sie zu sensitiv sind. Darüber hinaus haben einfache Modelle eine geringere Empfindlichkeit gegenüber Antrieben von Treibhausgasen, aber auch weniger Aerosol-Kühlung, als in den meisten CMIP5 Modellen und können eine genauso gute oder bessere Übereinstimmung mit den historischen Aufzeichnungen als das CMIP5 Multimodell bieten – besser, wenn bekannte, natürliche Multidekade Variabilität (AMO) berücksichtigt wird. Das ist / diese sind wirklich die Schlüsselfragen – ist die ganze Erwärmung über [den Zeitraum] der historischen Periode anthropogenen; und unter der Annahme, sie ist es auch, kann sie durch Modelle berücksichtigt werden, die weniger empfindlich auf steigende Konzentration von Treibhausgasen reagieren? Nur wenige ernsthafte Menschen behaupten in diesen Tagen, das kein Teil der Erwärmung in der historischen Periode eine anthropogene Ursache hat, was alles ist, was Manns Verfahren versuchen kann auszuschließen.

5. Ich denke, dass ihre Erweiterung der CMIP5 auf historische Simulationen 2005-2014 höchst fragwürdig ist. Sie sagen, "Wir haben die CMIP5 Serie bis 2014 erstreckt, die durch Referenz 13 bereitgestellten Schätzungen genutzt (Hintergrundinformationen)." Das heißt, ich glaube, dass sie die CMIP5 Modell Temperaturtrends nach 2005 reduzieren, um angeblich niedrigere [Temperaturen] als die tatsächlichen zu erzwingen. In der Simulation bezieht er sich stattdessen auf Referenz 12. Weder Ref. 12 noch Ref. 13 scheinen solche Schätzungen zu erzeugen. Ref 14, die in ihrer Referenzliste den Titel eines anderen Berichtes trägt (der korrekte Titel ist "Die Vereinbarkeit von Erwärmungstrends“) ist sehr wahrscheinlich falsch in der Schlussfolgerung, dass die Antriebe in CMIP5 Modellen in den letzten zehn Jahren oder so überschätzt wurden. Sie berücksichtigten nur Antriebe, von denen sie dachten, sie würden in den Modellen positiv geändert. Die Frage wurde in einer neueren Arbeit korrekt untersucht, Outen et al 2015, die alle Antriebe berücksichtigten und feststellten, dass es "keinen Beweis gibt, dass Fehler bei der Erklärung der Pause eine bedeutende Rolle spielen" – sie fanden einen vernachlässigbaren Unterschied, wenn sie die letzten Beobachtungs-Schätzungen substituieren mit diejenigen, die in einem CMIP5 Modell verwendet werden.

6. Sie verwenden modellierte SST (TOS) [Sea surface temperature] [Temperature over surface] eher als Lufttemperatur (TAS) in 2m Höhe über dem Ozean. Im Prinzip ist dies sinnvoll, wenn es mit HadCRUT4 und alte Versionen von GISTEMP verglichen wird, aber nicht mit der neuesten Version von GISTEMP oder mit den neuen NOAA (Karl et al – MLOST?) Aufzeichnungen, da es die SST anpasst um, mit der oberflächennahen Lufttemperatur zu übereinstimmen auf einer dekadischen und multidekadischen Zeitskala.

Ich hoffe das hilft Dir, Nic

Fazit, Judith Curry 

Die Abhandlung von Mann et al. produziert sicherlich eine schlagkräftige Titelzeile und es ist eine Herausforderung, die Probleme mit der Abhandlung an die Öffentlichkeit zu kommunizieren.

Wie ich es sehe, ist diese Arbeit eine riesige Übung im Zirkelschluss:

1. Nehmen Sie an, die globalen Oberflächentemperatur Schätzungen sind zutreffend; dann ignorieren sie die Unterschiede mit den durch atmosphärische Satelliten gemessenen Temperaturen.

2. Nehmen Sie an, dass CMIP5 Multimodell Ensemble kann verwendet werden, um Wahrscheinlichkeiten genau darzustellen.

3. Nehmen Sie an, die CMIP5 Modelle simulieren eine ausreichend interne Variabilität

4. Nehmen Sie an, externe Daten über Antriebe sind ausreichend sicher,

5. Nehmen Sie an, dass die Klimamodelle im Wesentlichen 100% der jüngsten Erwärmung durch CO2 korrekt erklären,

Damit die Mann et al. Analyse funktioniert, muss man ihm jede dieser fünf Annahmen abkaufen; jede davon ist fraglich, in unterschiedlichem Ausmaß.

Erschienen auf Judith Curry am 26. Januar 2016

Übersetzt durch Andreas Demmig

http://judithcurry.com/2016/01/26/on-the-likelihood-of-recent-record-warmth/




Mojib Latif – Predigt oder Wahrheit?

Dabei ist es für die ihm gebannt lauschenden Zuhörer fast nie möglich, zu erkennen, ob das, was da gesagt wird, wahr ist, oder nur die Meinung eines Predigers, der vor keiner Übertreibung, keiner verbogenen Fakten-Interpretation zurückschreckt, um die Menschen, die ihm gläubig zuhören, zur Umkehr in seinem Sinne, Klimaschutz genannt, zu zwingen.

Leider wird den meisten nicht gewahr, dass sich hinter der Maske des Wissenschaftlers ein fanatischer Weltende-Prediger verbirgt.

Video: Das Team vom Klimamanifest von Heiligenroth hat die wildesten Widersprüche und falschen Prophezeiungen der letzten beiden Jahrzehnte des Predigers Latif nachgezeichnet.

Bild 1: Die „Pause“ klar zu erkennen, die El-Nino-Jahre 1998+2015 auch; Bild K-E-Puls 

Disclaimer: Das Team vom Klimamanifest von Heiligenroth bezeichnet Mojib Latif in diesem Video häufiger als Scharlatan. Wir lehnen diese Bezeichnung ab, obwohl auch M. Latif – wie gezeigt wird – einen anderen Wissenschaftler, die nicht seiner Meinung ist – öffentlich und vor laufender Kamera- fälschlich auch schon mal des Betruges bezichtigt. Trotzdem machen wir uns diese Charakterisierung nicht zu eigen, denn es könnte ja sein, dass Latif das glaubt, was er da sagt und lehrt. Wir sehen daher in Herrn Latif eher einen Endzeit-Prediger, denn einen Wissenschaftler, der die Fakten, komme was da wolle, über den Glauben stellen müsste. Und die sehen im großen und Ganzen anders aus, als Herr Latif uns und seinen Zuschauern weismachen will.




Elektroautos: Ein weiteres, nicht eingehaltenes Versprechen der Obama-Kampagne – und das ist gut so!

Nach seiner Amtseinführung legte er im März 2009 nach, und zwar in Gestalt einer executive order, in der er „2,4 Milliarden Dollar Förderung anbot für die nächste Generation von Elektrofahrzeugen (EV)“. Dies sollte helfen, „das Ziel des Präsidenten zu erreichen, bis zum Jahr 2015 eine Million Hybrid-Fahrzeuge auf die Straße zu bringen“. In seiner Rede zur Lage der Nation im Januar 2011 (hier) setzte er seinen Feldzug fort: „Wir können unsere Abhängigkeit von Öl durchbrechen … und zum ersten Land werden, das bis zum Jahr 2015 1 Million Elektroautos auf die Straße bringt“.

Eine im Februar 2011 im Scientific American erschienene Analyse trug den Titel [übersetzt] „Ist Obamas Ziel bzgl. 1 Million Elektroautos auf den US-Autobahnen bis 2015 realistisch?“ In dem Artikel heißt es: „Die Obama-Administration erkennt, dass das Erreichen eines solchen Zieles ohne Hilfen seitens der [US-]Bundesregierung unmöglich sein wird“. Dann skizzierte der Beitrag, wie die Dollarmilliarden aus der öffentlichen Förderung das erreichen sollten, was zugegebenermaßen „immer noch ein Luftschloss“ sein könnte. Der Artikel kommt zu der Schlussfolgerung: „So viel regierungsamtliche Beteiligung hat den Regierungen der US-Staaten und der privaten Industrie geholfen, auch bedeutende Investitionen im EV-Bereich vorzunehmen“.

Im gleichen Monat bezeichnete das Energieministerium DOE in einem Bericht die 1 Million Elektrofahrzeuge bis 2015 als „ambitioniert“ und „erreichbar“. Weiter heißt es darin: „Aus diesem Grunde hat Präsident Obama Schritte vorgeschlagen, die amerikanische Führung bei der Entwicklung von Elektrofahrzeugen auszubauen, einschließlich Verbesserungen der bestehenden Steuervorteile für Verbraucher. Die Programme sollen Städten helfen, sich auf die wachsende Nachfrage nach Elektrofahrzeugen vorzubereiten sowie auf Unterstützung für Forschung und Entwicklung“.

Im Jahre 2013 hat das DOE diese „überspannte [quixotic]“ Objektive „abgeschwächt“, wie es bei Cleantechnica.com bezeichnet wurde. Reuters zufolge sagte das DOE im Januar 2013: „Ob wir jenes Ziel 2015 oder 2016 erreichen, ist nicht so wichtig im Vergleich dazu, dass wir auf dem richtigen Pfad sind, viele Millionen dieser Fahrzeuge auf die Straße zu bekommen“. Dann, vor einem Jahr mit nur noch 11 verbleibenden Monaten bis zur Erfüllung von Obamas Versprechen, stellte sich Energieminister Ernest Moniz der Realität: „Wir hinken dem ambitionierten Ziel von Präsident Obama (Ende 2015) einige Jahre hinterher, aber ich glaube, dass wir dieses Ziel innerhalb weniger Jahre erreichen werden“.

2015 steht jetzt in den Geschichtsbüchern, und nachdem Milliarden Dollar von den US-Steuerzahlern für Subventionen für EV ausgegeben worden waren an Verbraucher und die Industrie berichtet Reuters: „Nur etwa 400.000 Elektroautos sind verkauft worden. Im vorigen Jahr ging der Verkauf um 6% im Vergleich zum Vorjahr auf 115.000 zurück; und dies, obwohl die Industrie etwa 30 Plug-In-Modelle angeboten hat, oftmals mit gewaltigen Rabatten“. Aber obwohl vielleicht 400.000 EVs verkauft worden sein könnten, ist deren tatsächliche Anzahl auf den Straßen wahrscheinlich viel geringer. Die meisten der „Verkäufe“ sind in Wirklichkeit Verpachtungen, und wenn die Pachtzeit abgelaufen ist, rollen die EVs zurück zum Händler und von dort zum Hersteller. Fahrer wollen sie einfach nicht haben, selbst wenn generöse Anreize geboten werden, dass gemietete Modell auch zu kaufen. Dem Wall Street Journal zufolge gibt es kaum eine Nachfrage nach Gebraucht-Elektrofahrzeugen.

Unabhängig von den geringen Verkaufszahlen sagt Reuters: „Die Industrie fährt damit fort, neue Modelle auf den Markt zu bringen als Reaktion auf Aufträge der Regierung und aufgrund des eigenen Wunsches, Marken zu kreieren, die für Umwelt-Innovation stehen“. Und da gibt es die Krux der EV-Bemühungen: „Umwelt-Innovation“ – es gibt ein Gefühl, dass EVs das Richtige für die Umwelt sind. Bei reuters heißt es weiter: „Viele Autobauer machen sich Sorgen, weil die Verbraucher sie als technologisch rückständig betrachten, wenn sie keine elektrischen Autos herstellen – selbst falls sie diese nicht in großer Zahl verkaufen können“. Befürworter grüner Autos sagen: EVs sind ein Standbein der Bemühungen, Treibhausgas-Emissionen zu reduzieren“.

Während der Verkauf enttäuschend war, steigert die Industrie die Herstellung von EVs als Folge „eines Zustromes staatlicher und öffentlicher Gelder sowie damit zusammen hängende Aufträge“. Dies drängt die EVs in den Markt „weit unter den Herstellungskosten“. Nachdem weiterhin gutes Geld schlechtem hinterher geschmissen wurde,  erklärte Moniz vor einem Jahr, dass das Energieministerium „56 Millionen Dollar neue Zuwendungen auslobt für Forschungsprojekte, die zum Ziel haben, die Effizienz von Elektroautos zu reduzieren und zu verbessern“.

All dies, dazu gedacht, CO2-Emissionen zu reduzieren und umweltlich innovativ zu erscheinen, aber das geht am Ziel vorbei.

Im Dezember 2014 wurde eine Studie veröffentlicht, in der behauptet wird, dass Elektroautos „3,6 mal mehr Ruß und Smog erzeugen als mit Benzin betriebene Fahrzeuge“. Der Mitautor der Studie Julian Marshall, Ingenieur-Professor an der University of Minnesota, sagt: „Es ist irgendwie schwierig, Benzin aus dem Feld zu schlagen. … Viele Technologien, die wir als sauber ansehen, sind nicht besser als Benzin“. In Wirklichkeit werden diese Null-Emissions-Fahrzeuge allgemein durch Kohle angetrieben.

Mit der Lektüre der Kommentare zu der Berichterstattung bei CBS verwerfen EV-Befürworter die Schlussfolgerung, dass EVs nicht so grün sind als wir vorgeben.In einem Kommentar heißt es sogar: „Ich bekomme einen Hauch des nicht so schwachen Geruchs von Big Oil in die Nase. Hat man vielleicht die Ergebnisse der Studien adjustiert???“.

Popular Mechanics zufolge „schwärmen Forscher aus, um die Auswirkungen verschiedener Alternativen, ein Auto anzutreiben, auf die menschliche Gesundheit zu studieren“. Überraschenderweise „waren Fahrzeuge mit innerer Verbrennung, die mit Äthanol aus Mais betrieben wurden, sowie mit Kohlestrom betriebene Elektroautos die wirklichen Sünder“.

Während EV-Befürworter behaupten wollen, wie es einer getan hat, dass EVs durch Wind- und Solarenergie angetrieben werden, stützen die Fakten diese Phantasterei nicht.

Im November war in der Washington Post (WP) eine große Story erschienen: „Elektroautos und die Kohle, die sie antreibt“. Darin heißt es: „Parallel zu dem Boom gab es eine rasant steigende Nachfrage nach Energie, um die Fahrzeuge aufzuladen, welche mit einem einzigen Ladevorgang genauso viel Energie verbrauchen können wie ein normaler Kühlschrank während eineinhalb Monate Betriebszeit“.

Die niederländische Stadt Rotterdam verbannt „die ältesten Abgas ausspuckenden Fahrzeuge“ aus der Stadt. „Dank großzügiger Steueranreize, hat der Anteil elektrischer Fahrzeuge in den Niederlanden schneller zugenommen als in fast jedem anderen Land der Welt“. Und wie stillen sie die „rasant steigende Nachfrage nach Energie“? Mit drei neuen Kohlekraftwerken.

Die WP folgert: „Aber trotz all dieser Bemühungen auf lokaler und nationaler Ebene werden die Niederlande ihre Emissionsziele bis 2020 verfehlen – als Folge der neuen Kohlekraftwerke“. Noch mehr Kohlekraftwerke – befeuert mit billiger amerikanischer Kohle – sind wegen der gestiegenen Nachfrage von EVs in Planung.

In China sind die Auswirkungen ähnlich; dort haben sich die EV-Verkaufszahlen vervierfacht. Die WP stellt fest: „Chinesische Führer haben Elektroautos als eine Möglichkeit begrüßt, Städte mit der schlimmsten Luftqualität weltweit sauberer zu machen. Aber der chinesische Energiemarkt hängt sehr stark von Kohle ab; die Verschmutzung wird einfach aus den Zentren der Städte zu deren Außenbezirken verlagert“. Jüngst hat Reuters eine Reihe von Studien der Tsinghua University angesprochen. Die Ergebnisse? „In China aufgeladene Elektroautos erzeugen zwei bis fünf mal so viel Partikel und Chemikalien, die zu Smog beitragen, wie mit Benzinmotoren angetriebene Autos“.

Seit den siebziger Jahren haben Autohersteller dank amerikanischer Innovation und Initiativen Abgase und Schmutz dramatisch eingedämmt. Die globale Flotte von Transportfahrzeugen auf EVs umzurüsten, wie es mit Steueranreizen versucht wurde, machen weder umweltlich noch ökonomisch Sinn. Der ehemalige GM-Vize-Vorsitzende Bob Lutz, der die Entwicklung des originalen Chevy Volt geleitet hatte, erklärt: „Falls Benzin 8 Dollar pro Gallone [ca. 4 Liter] kosten würde, würden sich für die Verbraucher die Kosten von Elektroautos ziemlich schnell amortisieren. Aber bei einem Preis von 1,50 Dollar pro Gallone – wer will da die 8000 oder 10.000 Dollar Aufschlag hinblättern?“

Es zeigt sich, dass Obamas 1 Million EVs bis 2015 ein „Luftschloss“ war. Selbst die [US-]Bundesregierung hat die projizierten Zahlen nie geglaubt. Seine Ideale sind weder mit den Interessen der Verbraucher noch mit der Technologie konsistent.

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column.

Übersetzt von Chris Frey EIKE




300 Wissenschaftler wollen, dass die NASA endlich aufhört, Wahrheit zu verstecken

„Wir, die Unterzeichneten, Wissenschaftler, Ingenieure, Ökonomen und Andere, die sorgfältig die Auswirkungen des durch menschliche Aktivitäten freigesetzten Kohlendioxids untersucht haben, möchten unserer Unterstützung für die Bemühungen des Committee on Science, Space and Technology Ausdruck verleihen sicherzustellen, dass Agenturen der Regierung im Einklang mit den Vorschriften stehen, soweit es den Data Quality Act [etwa: Gesetz zum Erhalt der Qualität von Daten] betrifft“. Dies schrieben etwa 300 Wissenschaftler, Ingenieure und andere Experten dem Vorsitzenden des House Science Committee, dem Republikaner aus Texas Lamar Smith. „Unserer Ansicht nach … hat die NOAA gegen die Vorschriften des OMB (Office of Management and Budget) sowie gegen ihre eigenen Vorschriften verstoßen, die im Zusammenhang mit dem Data Quality Act ausgegeben worden sind“

Das Data Quality Act schreibt öffentlichen Agenturen wie der NOAA vor, „die Qualität, Objektivität, Brauchbarkeit und Integrität von Informationen sicherzustellen, einschließlich statistischer Informationen“.

Smith hat im Sommer des vorigen Jahres ein Ermittlungsverfahren gegen die NOAA angestrengt wegen Bedenken, dass die NOAA-Studie einzig der Unterstützung der politischen Agenda von Präsident Obama dienen soll. Demokraten und die Medien haben in großem Umfang gegen die Ermittlungen gegen NASA-Wissenschaftler und politische Beamte opponiert, aber Smith ist entschlossen, mit der Untersuchung fortzufahren. Im Dezember haben NOAA-Funktionäre E-Mails an Untersucher des Kongresses übergeben.

„Es ist der Kontrollauftrag des Komitees sicherzustellen, dass öffentliche Wissenschaftsagenturen transparent sowie dem Steuerzahler gegenüber Rechenschaft schuldig sind, die deren Forschungen finanzieren“, sagte Smith der Daily Caller News Foundation. „Die Amerikaner sind es leid, dass Forschung hinter geschlossenen Türen betrieben wird, von wo lediglich herausgepickte Schlussfolgerungen nach außen dringen, aber keine Fakten. Dieser Brief zeigt, dass Hunderte angesehener Wissenschaftler und Experten darin übereinstimmen, dass die Bemühungen der NOAA, historische Temperaturdaten zu verändern, sorgfältigste Untersuchungen verdienen“.

Von den 300 Unterzeichnern haben 150 einen Doktorgrad in benachbarten Fachgebieten. Unter ihnen sind auch: 25 Klima- oder Atmosphärenwissenschaftler, 23 Geologen, 18 Meteorologen, 51 Ingenieure, 74 Physiker, 20 Chemiker und 12 Ökonomen. Außerdem findet sich unter den Unterzeichnern ein Physik-Nobelpreisträger und zwei Astronauten.

NOAA-Wissenschaftler haben Temperaturmessungen in Kühlwasser für Schiffsmotoren dazu verwendet, andere Daten nach oben zu adjustieren, um den „Stillstand“ aus den Temperaturaufzeichnungen zu eliminieren.

Die fragliche NOAA-Studie behauptet, dass die Wissenschaftler eine Lösung des 15 Jahre langen „Stillstands“-Problems der globalen Erwärmung gefunden haben. Sie „adjustierten“ den Erwärmungs-Stillstand, indem sie die Temperaturaufzeichnungen von 1998 bis 2012 „adjustierten“ und behaupteten danach, dass die „neue Analyse eine mehr als doppelt so starke Erwärmung zeigte als die alte Analyse im globalen Maßstab“.

Versteckt die NOAA Daten zur globalen Erwärmung, die nicht zu ihrem Narrativ passen?

„Wie zahlreiche Wissenschaftler eingeräumt haben, sind die Messungen des in Schiffe einströmenden Kühlwassers eindeutig kontaminiert durch Wärmeleitung aus den Maschinen. Daher war niemals beabsichtigt, diese Daten für wissenschaftliche Untersuchungen heranzuziehen“, schrieben die Klimawissenschaftler Dr. Patrick J. Michaels und Dr. Richard Lindzen vom CATO Institute auf dem Wissenschaftsblog WUWT. „Das Aufwärts-Adjustieren guter Daten, damit diese zu schlechten Daten passen, scheint sehr fragwürdig“.

Und weiter: „Wenn wir die alten Daten von den neuen Daten subtrahieren, erkennt man sofort, dass die NOAA genau das getan hat“, schrieben der Klimaexperte Bob Tisdale und der Meteorologe Anthony Watts im gleichen Wissenschaftsblog. „Es ist immer wieder das Gleiche: Mit den Adjustierungen wird die Vergangenheit kälter gemacht, was folglich zu einer stärkeren Neigung des Temperaturanstiegs-Trends führt. Ihre Absicht und ihre Verfahren sind so offensichtlich, dass sie lächerlich sind“.

<iframe width="560" height="315" src="https://www.youtube.com/embed/1mlwlFSCb6A" frameborder="0" allowfullscreen></iframe>

See more here.

Link: http://icecap.us/index.php/go/political-climate vom 29.1.2016

Übersetzt von Chris Frey EIKE




Kohlendioxid: Das Elixier des Lebens

Photosynthese ist das, was das atmosphärische CO2 in kohlenstoffhaltige Materialien umwandelt, die Urbaustoffe aller Pflanzen. Als Folge des Umstands wiederum, dass Pflanzen die Nahrungsgrundlage aller höheren Lebensformen auf der Erde sind, enthalten diese auch dieses Element.

CO2 – ein Geschenk Gottes

Wirklich, ohne jenes CO2 wäre keinerlei Leben auf der Erde möglich, zumindest nicht von der Art wie derzeit. Es gibt keinen einzigen Organismus, dessen Körper keinen „Kohlenstoff“ enthält in einer von all seinen Millionen chemischen Formen. Es gibt keinen einzigen – Punkt!

Das Gottesgeschenk CO2 treibt auch den Photosynthese-Prozess an, der es den Lebensformen erlaubt, in Fülle zu blühen. Die Pflanzen brauchen das CO2 für ihr Wachstum und zur Ausbildung von Früchten oder Samen, von denen auch die höheren Lebensformen leben. Im Verlauf dieses Prozesses über viele Millionen Jahre wurde die Erdatmosphäre mit molekularem Sauerstoff angereichert, das für unsere Atmung unabdingbar ist. Dieser Sauerstoff ist, chemisch gesprochen, aus dem CO2 entnommen worden. Einfach gesagt: kein CO2 in der Luft bedeutet auch kein Sauerstoff in der Luft; es gibt keine andere Quelle atmosphärischen Sauerstoffs – Punkt!

Aber das ist nicht alles, die photosynthetische Umwandlung von CO2 in Pflanzenmaterial hat eine weitere Konsequenz. Trotz aller gegenteiligen Behauptungen ist CO2 der EINZIGE Grund, dass die Ozeane und Süßwasser-Systeme alkalisch sind, auch basisch genannt.

Sauer vs. basisch

Der pH-Wert ist eine Maßzahl für den Säuregrad. Liegt dieser unter 7,0, ist das System sauer, liegt er darüber, ist es basisch. In jedem Frühjahr weisen Ozeane und Süßwasser in allen Breiten steigende pH-Werte auf (sie werden basischer) als in den Tiefen des Winters. Dieses Phänomen wird auf der ganzen Welt gleichermaßen beobachtet, auch an der Forschungsstation ALOHA, etwa 150 km nördlich von Hawaii. Dazu wurden schiffsbasierte Messungen durchgeführt, die heute durch verschiedene, mit Kabeln verbundene Bojen und andere Geräte ersetzt wurden.

Obwohl weithin falsch verstanden, ist Leben eine konstante Wechselwirkung zwischen sauren und basischen Bedingungen. Zum Beispiel ist auch die Ausbreitung von Säugetieren davon abhängig. Zum Beispiel hat menschliches Sperma einen pH-Wert um 8,0. Im Gegensatz dazu ist das vaginale Sekret mit einem pH-Wert von 4 sauer. Wenn sonst kein weiteres, so zeigt allein schon dieses Beispiel die Wechselwirkung zwischen sauren und basischen Umgebungen in der Welt. Organismen im Wasser, egal ob Salz- oder Süßwasser, sind in dieser Hinsicht nicht davon unterscheidbar; Leben ist vom richtigen pH-Wert abhängig – überall.

Allerdings gibt es für all das eine große Bedingung: Das Ökosystem muss weiterhin so funktionieren, wie es das seit Millionen Jahren getan hat. Wird das System ernsthaft durch Überbeanspruchung oder durch das Habitat zerstörende Maßnahmen gestört, wird dies rasch zu katastrophalen langfristigen Konsequenzen führen. Ein Beispiel ist der Zusammenbruch der Kabeljau-Population vor der Küste Neufundlands. Nachdem sich der jährliche Fang von etwa 250.000 Tonnen seit Beginn des 20. Jahrhunderts auf etwa 750.000 Tonnen verdreifacht hatte – zumeist durch europäische Fischfangflotten – in den sechziger Jahren, haben die Kabeljau-Bestände drastisch abgenommen und sind bis zum Jahr 1992 praktisch verschwunden. Selbst heute, nach über zwei Jahrzehnten eines Fischerei-Moratoriums, warten die Kabeljau-Bestände immer noch auf ihre Rückkehr zur ursprünglichen Vielfalt.

Obwohl der Kabeljau vor Neufundland ein deutliches Beispiel ist, wurden andere Fischbestände anderswo in der Welt ebenfalls über ihre Kapazität der natürlichen Regeneration hinaus ausgebeutet. Viele Bücher beschreiben diesen Vorgang, z. B. Deserted Ocean von Norman Holy (ISBN-13: 978-1-4389-6494-2) sowie Out of Fishermen’s Hands von Gary Sharp et al.

CO2 – unabdingbar für die Photosynthese

Die oben erwähnte ALOHA-Station ist seit nunmehr über zwei Jahrzehnten in Betrieb, in jüngster Zeit zumeist automatisiert mittels einer Kabelboje. Wie jede Graphik der jährlichen pH-Wert-Variationen im Wasser zeigt, nimmt der pH-Wert des Wassers in jedem Frühjahr und Sommer zu, um im Herbst und Winter wieder abzunehmen. Sowohl jahreszeitliche als auch vieljährige Variationen der Ozean-Chemie werden an allen Forschungsstationen routinemäßig gemessen, einschließlich der fast 4000 autonomen Treibbojen des Argo-Netzwerkes. In großen Süßwassersystemen wie den Großen Seen werden regelmäßig ähnliche Messungen durchgeführt.

Die Daten all dieser Messungen zeigen allesamt das gleiche Bild: nämlich einen Anstieg der pH-Werte (Zunahme der basischen Eigenschaften), wenn die Natur erst einmal nach dem jahreszeitlich bedingten Schlaf erwacht und die primäre Produktion (Photosynthese) wieder in die Gänge kommt. Es ist wirklich ziemlich einfach, das zu erklären: Das CO2 wird vom Wasser aus der Atmosphäre entnommen, und zusammen mit im Wasser gelösten Mineralien und der jahreszeitlich zunehmenden Photosynthese-Aktivität nimmt der pH-Werte des Wassers ZU.

Ohne auch nur eine dieser drei Komponenten – d. h. Kohlendioxid, Mineralien und Sonnenlicht – gäbe es kein Leben auf der Erde, weder an Land noch im Wasser!

Seien wir dankbar für unser glückliches Schicksal, dieses Gottesgeschenk ausreichenden Kohlendioxids in der Atmosphäre zu haben!

Zusatz des Übersetzers: jeder, der das CO2 in der Atmosphäre bekämpfen will, will in Wirklichkeit das Leben auf der Erde bekämpfen! Jeder – auch die Kirche!

Link: http://canadafreepress.com/article/78404

Übersetzt von Chris Frey EIKE