Elektroautos und Microsoft, der Beginn einer Erfolgs­geschichte

Beschreibung der SZ zum BMW i3 Vorgängertyp: … diesem Akku gingen nämlich oft schon knapp jenseits der 100-Kilometer-Marke die Reserven aus. Bei winterlicher Kälte sogar deutlich früher
Doch nun ist alles besser geworden. Der Neue kann inzwischen alles (was man laut der SZ braucht), zumindest sei die Reichweitenanzeige (endlich) verlässlich. Zum Laden benötigt er daheim 9:30 Stunden, an einer öffentlichen Leistungstankstelle 2:45 Stunden und an einer der ganz wenigen Super-Schnelladesäulen 40 Minuten – wobei sich das Letzte ein stolzer Besitzer gut überlegen wird, denn darunter leidet die Batterie-Lebensdauer – und ganz voll wird sie dabei vorsichtshalber auch nicht.
Die Gefahr, dass die in Deutschland seitens unserer Regierung geplanten, eine Millionen Elektroautos liegengeblieben die Standstreifen der Autobahnen oder die Parkflächen der Rastanlagen beim Warten auf Stromzugang belegen, braucht man sich nicht zu machen, denn die Empfehlung lautet: … auf Autobahnen ist der i 3 aber deplatziert. Hohe Geschwindigkeiten strapazieren die Batterie einfach viel zu stark ...
Allerdings darf man auf der Autobahn auch langsam fahren, sofern es einen triftigen Grund dafür gibt. Und „Reichweitenangst“ (siehe EIKE: Reichweitenangst, die neue Volkskrankheit) werden alle Psychologen dazu erklären, womit die Gefahr der Fahrspurbelegung durch in „Traktorengeschwindigkeit“ dahin schleichender Elektroautos nicht ganz gebannt ist und die bald bei uns „fehlenden“ Holländer [1] auf den Autobahnen doch noch pünktlich genug „ersetzen“ kann:
Auto Zeitung: Autobahn-Mindestgeschwindigkeit: Wie langsam ist erlaubt?
Es ist ein weit verbreiteter Irrtum, dass auf Autobahnen eine festgelegte Mindestgeschwindigkeit herrscht. Die Straßenverkehrsordnung schreibt lediglich vor, dass Autobahnen nur von Fahrzeugen benutzt werden dürfen, die baulich in der Lage sind, schneller als 60 km/h zu fahren.
Das bedeutet jedoch nicht, dass man auch mit einem schnelleren Fahrzeug beliebig vor sich hinschleichen darf. Wer nämlich ohne triftigen Grund langsam fährt und dadurch andere Verkehrsteilnehmer behindert, verstößt gegen die Straßenverkehrsordnung.

Eine Zukunftsvision (des Autors) vermutet deshalb, dass mobile (Diesel-betriebene?) Ladestationen bald die omnipräsenten DIXI-Klos im Straßenbild ablösen könnten.
Doch zum eigentlichen Thema
Ältere werden sich noch erinnern, wie man zu Beginn der Microsoft-Zeit mit DOS-Betriebssystem immer sehnsüchtig auf ein neues Update wartete, da immer noch (zu) viele Funktionen fehlten. Elektroautos wiederholen gerade diese einzigartige Erfolgsgeschichte:
SZ: „ … Vernünftiger ist es aber, bis 2018 zu warten. Denn dann, so heißt es jedenfalls, soll ein weiteres Batterie-Update eine Norm-Reichweite von bis zu 450 Kilometern ermöglichen.
Und so, wie man sich damals teils mit Fremdprogrammen zwischenzeitlich behelfen musste, ist es auch beim Elektroauto:
SZ: „Wer seine Sorgen dennoch nicht los wird, ergänzt den i 3 mit einem Range Extender, einem Benzinmotor, der die Batterie auflädt. Dann kostet der BMW allerdings ... „
Man versteht auf einmal, warum Vorstände wie der Daimler-Chef den (zwangs-)Umbruch so enthusiastisch begrüßen:
EIKE: Freunde, wollen wir trinken, auf die schöne kurze Zeit … und auch die Autobauer wollen die Transformation in die CO2-freie Zukunft
Diese Gelegenheit, nicht ausreichende Eigenschaften verkaufen zu dürfen und Kunden dazu zu bringen, ihr Produkt, bevor es regulär unbrauchbar wird, laufend zu erneuern, dies aber als Innovation zu preisen, bot sich bisher nur in der Softwarebranche. Nur da (wenn die SW ein eigenes Produkt ist) sind Mängel nicht nachbesserungspflichtig – sonst wäre Bill Gates schon nach den ersten Wochenenden seiner DOS-Garagenbastelei pleite gewesen.
Jedenfalls ist dank Elektroautos endlich das Autobauer-Paradies in Reichweite: Das Auto-Ende lässt sich vom Hersteller über Updates der Batteriesätze steuern.
Als Lösung wird unserer Regierung aber etwas einfallen: Es könnte zum Beispiel sein, dass Elektroautos als Sperrmüll entsorgt werden dürfen.
Und abwarten, der Softwareanteil im Auto wird auch immer höher – das Spiel mit dem Updatezwang und nicht mehr möglicher Hochrüstung kann sich dann nochmals wiederholen.
Quellen
[1] FOCUS: Ab 2025 nur noch Elektroautos Niederlande wollen Verkauf von Diesel- und Benzinautos verbieten
[2] EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit




Es darf ruhig noch kälter und schlimmer werden – der April war immer noch zu warm

DWD Pressemitteilung: Deutschlandwetter im April 2017
Anfangs für die Jahreszeit zu warm, dann verbreitet Spätfröste
… Die Durchschnittstemperatur im April 2017 entsprach mit 7,5 Grad Celsius (°C) fast genau dem Soll der international gültigen Referenzperiode 1961 bis 1990 von 7,4 °C. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung -0,8 Grad …

Die Konsequenz daraus liest sich wie eine mittelalterliche Unwetterbeschreibung zu Beginn eines Hungerjahres:
DWD Pressemitteilung:
Niedersachsen und Bremen: Hagel verwandelte dabei die Stadt Wunstorf und ihre Umgebung vorübergehend in eine weiße Landschaft.
Sachsen: Gebietsweise große Schäden verursachten Spätfröste in der Nacht zum 20. April in der Landwirtschaft, vor allem an Weinreben und Obstbaumblüten.
Hessen: In der Nacht zum 20. entstanden an Weinreben und Obstbaumblüten erhebliche Frostschäden.
Rheinland-Pfalz: Spätfröste bis -6 °C führten in der Nacht zum 20. zu erheblichen Frostschäden an Weinreben und Obstbaumblüten.
Saarland: Spätfröste bis zu -7 °C führten am 20. zu Frostschäden an Weinreben. Ungewöhnlich: Die Station Perl-Nennig verzeichnete insgesamt 21 Frosttage im April.
Baden-Württemberg: Große Schäden richteten Spätfröste in den Nächten zum 20. und 21. an Weinreben und Obstbaumblüten an. Im Südschwarzwald, so in Singen und Buchenbach, gab es örtlich neue Rekorde bei den April-Tiefstwerten.
Bayern: Spätfröste verursachten in den Nächten zum 20. und zum 21. Schäden am Frankenwein und an Obstbaumblüten.

Andere Meldungen:
Topagrar.com, 22.04.2017: Frostschäden: Ausfallrate bei Weinreben zwischen 10 und 95 Prozent
MDR JUMP 21.04.2017: Obstbauern und Winzer bangen um die Ernte
proplanta: Österreich: Enorme Frostschäden im Obstbau
Klagenfurt – Heftiger Schneefall hat einen «Jahrhundertschaden» für Österreichs Landwirte ausgelöst. Auf rund 100 Millionen Euro schätzte allein das Agrarministerium der Steiermark den Schaden in den Obstplantagen durch Schnee und Frost.
Zum Glück sind Bauern in Deutschland ziemlich überflüssig geworden, außer sie produzieren vorwiegend Mais zur EEG-Biogasanlagen-Fütterung, der nicht so sensibel auf das geforderte, kalte Wetter reagiert. Und die Biobauern, denen ein solches Wetter noch weit schlimmer zusetzt, „ernähren“ sich sowieso vorwiegen über Subventionen [3], deshalb stört es diese (dass unsere Regierung ihnen noch mehr Kälte vorschreibt) wohl nicht so sehr.
Und so darf man konsequent und mit viel, viel Geld weiter daran „arbeiten“, auf dass es noch etwas kälter würde, denn wie Bild 1 zeigt, sind zur Erreichung der „glücklichen“-vorindustriellen Temperaturen noch einige Grad Celsius Luft nach unten.

Bild 1 DWD Märztemperaturen seit 1750. Linke Skala Temperaturen, rechte Skala 30-Jahre Mittel. Grafik vom Autor anhand der DWD-Daten erstellt


Allerdings hatte der gerade vergangene April schon einmal die Temperatur wie um 1750, und war zum „Üben“, was Kälte für die Landwirtschaft bedeutet – und warum damals so viele Hungersnöte waren – ein kleiner Fingerzeig. Es führte damals in der Not zu einer tiefen Volks-Frömmigkeit und das wird heute von unseren „Eliten“ gegenüber der alles wissenden Ökokirche schmerzlich vermisst:
Professor Ernst-Peter Fischer von der Universität Heidelberg (Wissenschaftsgeschichte) fordert: [1] Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.“
Anhand des Aprilverlaufs lässt sich wieder (wie beim Märzrückblick [2]) sehen, dass der Temperaturanstieg entgegen den Verkündigungen unserer „Klimawissenschaftler“ vor der Industrialisierung begann und damit wenig mit dem anthropogenen CO2 zu tun hat. Doch wem erzählt man das immer wieder [4]? So lange es nur für die gegenteilige
„Er-“Kenntnis Fördermittel gibt und dafür sogar das Volk, angeführt von „Intelligenz“, zum Beispiel auch Claudia Kemfert:
Klimaretter.Info: Aufbruchstimmung im Elfenbeinturm,
alternativ EIKE: Betreff: March for Science am 22.4.2017,
auf die Straße geht, wird sich so schnell nichts daran ändern.
Ergänzend, wie bei jedem Monatsrückblich, die dankenswerter Weise beim DWD hinterlegte Vorschau bis zum Jahr 2100. Die Grafik ist zwar noch vom letzten Jahr, hat sich aber nur insoweit verändert, als dass der aktuell April um 0,4 °C kälter wurde. Wenn die Computer richtig rechnen (was sie bisher beim Klimavorhersehen seltenst taten) können zumindest die verbliebenen Bauern etwas aufatmen.

Bild 2 DWD-Klimaatlas Märztemperatur-Verlauf 1881 bis 2016 mit Simulation bis zum Jahr 2100


Etwas längerfristig in die Zukunft geschaut, sieht es dann jedoch kritischer aus, außer der ganz große „Klimahellseher“ und Papstberater, Prof. Schellnhuber behält recht und die zyklisch bereits anstehende, nächste Eiszeit fällt erstmals seit 500.000 Jahren wirklich aus [5] [6].

Bild 3 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt


Quellen
[1] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut
[2] EIKE 07.04.2017: Ist der März in Deutschland endlich wieder so warm wie vor 1000 Jahren?
[3] EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
[4] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
[5] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
[6] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein




Neue Studie: ,Stillstand‘ bestätigt – und das Scheitern der Klimamodelle

Macht nichts, diese heute in Nature Climate Change veröffentlichte Studie von Hedemann et al. bestätigt nicht nur den „Stillstand“ der globalen Temperatur, sondern zeigt auch einen Grund dafür auf: „… der Stillstand könnte auch der internen Variabilität des Energie-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) geschuldet sein“.

Das ist eine wichtige Aussage, zeigt sie doch, dass trotz vieler Behauptungen des Gegenteils ein CO2-getriebener Antrieb der planetarischen Temperatur nicht der Kontrollknopf ist und dass die natürliche Variabilität nach wie vor im Spiel ist.

Beachten sollte man auch den Rückgang, markiert durch die beiden farbigen ,X‘ in Abbildung 1:

Modelle und Beobachtungen fangen nicht einmal an, irgendwelche Übereinstimmungen zu zeigen.

Die spitzfindigen Ursprünge von Erwärmungs-Stillständen

Christopher Hedemann, Thorsten Mauritsen, Johann Jungclaus & Jochem Marotzke
AffiliationsContributionsCorresponding author
Nature Climate Change (2017) doi:10.1038/nclimate3274
Received 12 July 2016 Accepted 17 March 2017 Published online 17 April 2017

Während der ersten Dekade des 21. Jahrhunderts erwärmte sich die Erdoberfläche langsamer als von den Klimamodellen simuliert (1). Dieser Stillstand der Erwärmung wird in manchen Studien Modellfehlern bei den externen Antrieben zugeschrieben (2, 3, 4), während Andere auf Wärme-Umverteilungen in den Ozeanen hinweisen (5, 6, 7, 8, 9, 10), für welche die interne Variabilität ursächlich ist. Das Timing derselben kann von den Modellen nicht vorhergesagt werden (1). Allerdings sind sich Analysen von Beobachtungen nicht einig, welche Region der Ozeane dafür in Frage kommt (11, 12, 13, 14, 15, 16). Hier zeigen wir, dass der Stillstand seine Ursache auch im Energie-Ungleichgewicht an der Obergrenze der Atmosphäre haben könnte. Eine Energie-Budgetierung der Oberflächenschicht der Ozeane mittels eines 100 Member zählenden historischen Ensembles zeigt, dass Stillstände verursacht werden durch Abweichungen der Energieflüsse, die so gering wie 0,08 W/m² sein können. Sie können ihren Ursprung an der Obergrenze der Atmosphäre, im Ozean oder in beidem haben. Die Budgetierung mittels bestehender Beobachtungen kann den Ursprung des gegenwärtigen Stillstandes nicht belegen, weil die Unsicherheit in den Beobachtungen die geringen Abweichungen der Flüsse marginalisiert, welche einen Stillstand verursachen können. Die Sensitivität dieser Fluss-Abweichungen in den Beobachtungs-Datensätzen und im Energiehaushalt helfen zu erklären, warum frühere Studien einander widersprechen, und zeigt, dass der Ursprung des gegenwärtigen Stillstandes vielleicht niemals herausgefunden werden kann.

http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3274.html
(paywalled)

Aus der Introduction:

Die Temperatur der Erde hat sich von 1998 bis 2012 langsamer erwärmt als man aus Untersuchungen der meisten Modell-Projektionen oder des langzeitlichen Erwärmungstrends erwarten konnte. Selbst obwohl einige Studien jetzt die Abweichung vom langzeitlichen Trend Mess-Verzerrungen zuordnen, bleibt die Lücke zwischen Beobachtungen und Modellen bestehen. Die beobachteten Abweichungen des Trends bis zu -0,17°C pro Dekade von den CMIP5-Projektionen sind zwei bis vier mal größer als der beobachtete Trend. Der Stillstand ist daher nach wie vor eine Herausforderung für die Klimawissenschaft.

Die wichtigsten Auszüge aus der Studie:

Der Input des gekoppelten Klimamodells MPI-ESM1.1 besteht aus dem vom CMIP5 vorgegebenen historischen Antrieb von 1850 bis 2005 und wurde erweitert bis 2015 mit dem RCP4.5-Szenario. Liegt die rote Linie über der grauen Linie zeigt mindestens ein Ensemble-Member einen Stillstand, definiert als eine Abweichung von über 0,17°C pro Dekade unter dem Ensemble-Mittel. Diese Abweichung ist die gleiche wie die Lücke zwischen dem Ensemble-Mittel des CMIP5 (schwarzes Kreuz) und den beobachteten GMST-Trends (gelbes Kreuz) für den Zeitraum 1998 bis 2012. Die Linien repräsentieren die Anzahl der Ensemble-Mitglieder in Bündeln von 0,05°C pro Dekade.

Aus unserer Analyse der Beobachtungen sind wir nicht in der Lage, eine TOA-Anomalie als mögliche Ursache des gegenwärtigen Stillstandes auszuschließen. Bezieht man die Beobachtungen auf ein alternatives Energie-Budget (anstatt auf dasjenige des großen Ensembles), könnte sich die absolute Position des grünen und gelben Kreuzes verschieben. Allerdings würde sich der relative Abstand voneinander und die Größe ihrer Fehlerbalken nicht ändern.

Die Rolle der TOA und des Ozeans in jedem Stillstand kann bestimmt werden mittels Vergleich ihrer Relativ-Beiträge zur Anomalie der Fluss-Divergenz. Für Stillstände im großen historischen Ensemble ist die negative (Abkühlungs-) Anomalie in 12% aller Fälle vollständig durch die TOA verursacht und durch den Ozean in 24% aller Fälle. In den verbleibenden Fällen (64%) wird die negative Anomalie verursacht durch TOA und Ozean zusammen (unterer linker Quadrant in der Abbildung). Die Variabilität der TOA ist folglich in 76% aller Fälle von Stillstand involviert.

Wir kommen zu dem Ergebnis, dass die TOA eine Quelle signifikanter interner Variabilität während des Stillstands sein kann. Unsere Ergebnisse sind nicht ein Artefakt der vom Modell erzeugten TOA-Variabilität, erzeugt doch das große Ensemble eine TOA-Variabilität, die den Mess-Aufzeichnungen ähnlich ist. Vielmehr stehen unsere Ergebnisse auf der Grundlage eines einfachen, aber dennoch robusten Prinzips, nämlich dass die Oberflächenschicht der Erde eine geringe Wärmekapazität aufweist. Die Temperatur an der Oberfläche kann daher durch kleine Variationen der großen, sich teilweise gegenseitig aufhebenden Flüsse beeinflusst werden, welche dieses größere Energie-Budget ausmachen. Vergleicht man die geringe Variabilität des TOA-Ungleichgewichtes mit dem Gesamt-Ungleichgewicht der TOA im Zuge der globalen Erwärmung, wird die Bedeutung dieser geringen Variationen bzgl. des Stillstandes verschleiert.

Dies ist das wahre Dilemma im Zentrum der Debatte um den Stillstand: Die Variabilität des ozeanischen Wärmegehaltes kann den Stillstand nicht erklären, und die Messung, die es könnte – die Fluss-Divergenz in der Oberflächen-Schicht – wird durch die Beobachtungs-Unsicherheit marginalisiert. Zwar gibt es Versuche, die Lücken bei den Beobachtungen mit Ozean-Reanalysen aufzufüllen, doch sind die resultierenden Daten während des Stillstandes von fragwürdiger Integrität und – wie wir zeigen – stimmen nicht mit dem auf CERES21 und WOA22 basierenden Budget überein. Selbst wenn diese Nicht-Übereinstimmungen beigelegt werden können, macht es das Verfahren, Satellitenbeobachtungen mit der Wärmeaufnahme der Ozeane zu verbinden, schwierig, die Beiträge von der TOA und vom Ozean zu entflechten, weil deren absolute Differenz unbekannt ist. Solange die Unsicherheit in den beobachteten Schätzungen nicht deutlich reduziert werden kann, kann daher der wahre Grund des jüngsten Stillstandes vielleicht niemals herausgefunden werden.

(Hervorhebung von mir [Watts])

Striche
Code availability.
The MPI-ESM1.1 model version was used to generate the large ensemble and is available at http://www.mpimet.mpg.de/en/science/models/mpi-esm.html. Computer code used in post-processing of raw data has been deposited with the Max Planck Society: http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695.

Data availability.
Raw data from the large ensemble were generated at the Swiss National Computing Centre (CSCS) and Deutsches Klimarechenzentrum (DKRZ) facilities. Derived data have been deposited with the Max Planck Society (http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695). Supplementary Fig. 7 uses TOA flux reconstructions provided by R Allan40 (http://www.met.reading.ac.uk/~sgs01cll/flux) and satellite observations provided by the NASA CERES project31 (http://ceres.larc.nasa.gov). For observational estimates in Fig. 3c, we make use of data provided by the NOAA World Ocean Atlas22(https://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT) and by the ECMWF Ocean Reanalysis System 4 (ref. 9; http://icdc.zmaw.de/projekte/easy-init/easy-init-ocean.html).

PDF files
Supplementary Information (3,616 KB)

Link: https://wattsupwiththat.com/2017/04/17/new-karl-buster-paper-confirms-the-pause-and-models-failure/#comment-2478621
Übersetzt von Chris Frey EIKE




Ehemaliger Obama-Funktionär: Büro­kraten manipu­lieren Klima-Statistiken, um Politik zu beein­flussen

Unterstaatssekretär Steven Koonin im Energieministerium sagte dem Wall Street Journal, dass Funktionäre innerhalb der Regierung von Präsident Barack Obama wissenschaftliche Daten verfälscht haben, um die öffentliche Meinung zu manipulieren.

Was man zu den Presseerklärungen bzgl. Klimadaten und Klima-Analysen sagen kann ist, dass sie irreführend, manchmal einfach falsch waren“, sagte Koonin unter Verweis auf Elemente innerhalb der Obama-Regierung, welche für die Manipulation von Klimadaten verantwortlich waren.

[Ob das jemals in einer Zeitung hierzulande gemeldet wird? Der „Süddeutschen Zeitung“ vielleicht? Anm. d. Übers.]

Er verwies auf eine Nationale Klima-Einschätzung aus dem Jahr 2014, welche eine Zunahme der Hurrikan-Aktivität seit 1980 als Illustration heranzieht, wie öffentliche Agenturen Klimadaten verfälscht haben. Koonin sagte, dass die Einschätzung fachlich falsch war.

Was man Ihnen nicht gesagt hat und was Sie nicht erfahren werden, wenn Sie nicht vollständig das Kleingedruckte lesen ist, dass die Aktivität in den Jahrzehnten zuvor abgenommen hat“, sagte er. Die UN veröffentlichten im Jahre 2014 Berichte, die Koonins Aussagen im Wesentlichen spiegelten.

Das IPCC der UN berichtete:

…es gibt einige Beweise von Änderungen hinsichtlich der Extreme in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts“, und aktuelle Daten zeigen „keine signifikanten beobachteten Trends hinsichtlich der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts“.

Pressefunktionäre arbeiten mit Wissenschaftlern zusammen innerhalb von Organisationen wie NOAA und NASA. Sie sind verantwortlich für irreführende Presseerklärungen über das Thema Klima, fügte er hinzu.

Koonin ist nicht der einzige, der von Fehlverhalten spricht. Das Committee on Science, Space and Technology beispielsweise leitete ein Ermittlungsverfahren gegen die NOAA ein, nachdem ein Whistleblower bekannt gemacht hatte, dass die Wissenschaftler der Agentur mit Hochdruck eine Studie zur globalen Erwärmung verfälscht haben, um politische Entscheidungsträger zu beeinflussen.

Der Abgeordnete der Republikaner Lamar Smith (Texas), der Vorsitzende des Komitees, wird „so bald wie möglich“ anordnen, dass die NOAA Dokumente übergibt, welche in einer Vorladung zu potentiellen Klimadaten-Verfälschungen enthalten waren.

Koonin, der von 2009 bis 2011 unter Obama bedienstet war, fuhr fort, sich über die Politisierung der Wissenschaft zu beklagen und sagte, dass es der Ethos gebiete, „zu sagen, wie es ist. Sie sind ein Wissenschaftler, und es liegt in Ihrer Verantwortung, die Fakten auf den Tisch zu legen“.

Die Aktivitäten von NASA und NOAA, sagte er, sind problematisch, weil „sich die öffentliche Meinung mittels der Daten bildet, welche diese Organisationen zusammenstellen und welche in den Zeitungen erscheinen“.

Keine der Agenturen war vom Daily Caller für eine Stellungnahme erreichbar.
Mehr: http://dailycaller.com/2017/04/24/former-obama-official-says-climate-data-was-often-misleading-and-wrong/#ixzz4fGS3GICc
Link: https://wattsupwiththat.com/2017/04/25/former-obama-official-bureaucrats-manipulate-climate-stats-to-influence-policy/
Übersetzt von Chris Frey EIKE




Bedeutung und Nutzen von Mittel­werten bei der Anwen­dung auf Klima

[Bemerkung: Im folgenden Beitrag hat der Autor bei allen Temperaturangaben (in °F) die Zehntel-Ziffer unterstrichen. Ich habe sämtliche Angaben in Grad Celsius umgerechnet, aber auf die Unterstreichung der Zehntel-Ziffern verzichtet. Aus dem Beitrag geht eindeutig hervor, was der Autor damit hervorheben will. Anm. d. Übers.]

Mittelwerte

Mittelwerte sind vielfach nützlich. Ein allgemeiner Nutzen ist es, die Berechnung einer fest vorgegebenen Beschaffenheit genauer und präziser zu machen, wie etwa eine physikalische Dimension. Dies wird erreicht durch die Eingrenzung aller zufälligen Fehler beim Prozess der Messung. Unter geeigneten Umständen wie etwa der Berechnung des Durchmessers eines Balles mittels einer Schublehre können multiple Messungen einen präziseren mittleren Durchmesser ergeben. Grund hierfür ist, dass sich die Zufallsfehler bei der Ablesung auf der Schublehre gegenseitig herausmitteln und die Präzision durch die Standardabweichung gegeben wird, welche invers abhängig ist von der Quadratwurzel der Anzahl der Messungen.

Ein anderer allgemeiner Zweck ist es, die Eigenschaften einer Variablen zu charakterisieren, indem man multiple repräsentative Messungen durchführt und die Häufigkeitsverteilung der Messungen beschreibt. Dies kann graphisch erfolgen oder mittels statistischer Parameter wie Mittelwert, Standardabweichung und Asymmetrie/Wölbung [skewness/kurtosis]. Da jedoch die gemessenen Eigenschaften variieren, wird es problematisch, die Fehler bei den Messungen von der Variabilität der Eigenschaften zu trennen. Folglich erfahren wir mehr darüber, wie die Eigenschaft variiert, als über die Verteilung des zentralen Wertes. Und doch konzentrieren sich Klimatologen auf die arithmetischen Mittel sowie die daraus errechneten Anomalien. Mittelwerte können Informationen verschleiern, sowohl absichtlich als auch unabsichtlich.

Damit im Hinterkopf müssen wir untersuchen, ob zahlreiche Messungen der Temperaturen auf dem Festland, den Ozeanen und der Luft uns wirklich einen präzisen Wert für die „Temperatur“ der Erde vermitteln können.

Die „Temperatur“ der Erde

Der Konvention zufolge ist das Klima üblicherweise definiert als das Mittel meteorologischer Parameter über einen Zeitraum von 30 Jahren. Wie können wir die verfügbaren Temperaturdaten verwenden, welche zum Zwecke der Wetterüberwachung und -vorhersage ermittelt werden, um das Klima zu charakterisieren? Das gegenwärtig angewendete Verfahren ist die Berechnung eines arithmetischen Mittels für eine willkürliche Referenzperiode und dann die Subtraktion tatsächlicher Temperaturmessungen (entweder individuelle Werte oder Mittelwerte) von dieser Referenzperiode, um etwas zu erhalten, was man Anomalie nennt. Was jedoch bedeutet es, alle Temperaturdaten zu sammeln und das Mittel zu berechnen?

Befände sich die Erde im thermodynamischen Gleichgewicht, würde es nur eine Temperatur geben, die zu messen recht einfach wäre. Die Erde hat aber nicht nur eine Temperatur, sondern eine unendliche Vielfalt von Temperaturen. Tatsächlich variiert die Temperatur ununterbrochen horizontal, vertikal und mit der Zeit, was eine unendliche Anzahl von Temperaturen ergibt. Die offensichtliche Rekord-Tiefsttemperatur beträgt -135,8°F [ca. -93,2°C] und die aufgezeichnete Höchsttemperatur 159,3°F [ca. 70,7°C]. Die maximale Bandbreite beträgt also 295,1°F, die geschätzte Standardabweichung etwa 74°F, dem Empirischen Gesetz zufolge. Änderungen von weniger als einem Jahr sind sowohl zufällig als auch saisonal, längere Zeitreihen enthalten periodische Änderungen. Die Frage lautet, ob das Sammeln [von Daten an] einigen tausend Stellen über eine Periode von Jahren uns einen Mittelwert geben kann, welcher einen vertretbaren Wert beim Aufzeigen einer geringen Änderungsrate liefert?

Eines der Probleme ist, dass Wassertemperaturen dazu neigen, geschichtet aufzutreten. Die Wassertemperatur an der Oberfläche neigt dazu, die wärmste Schicht zu sein, darunter nimmt die Temperatur mit der Tiefe ab. Oftmals gibt es eine abrupte Änderung der Temperatur, Thermokline genannt. Außerdem kann aufwallendes Tiefenwasser kaltes Wasser an die Oberfläche bringen, vor allem entlang von Küsten. Daher ist die Lokalisierung und Tiefe der Datenproben entscheidend bei der Berechnung so genannter Meeresoberflächen-Temperaturen (SST). Des Weiteren muss berücksichtigt werden, dass – weil Wasser eine um 2 bis 5 mal höhere spezifische Wärme aufweist als normale Flüssigkeiten und eine vier mal höhere als Luft – es sich viel langsamer erwärmt als das Festland! Es ist unangebracht, SSTs mit Festlandstemperaturen zu mitteln. Das ist ein klassischer Fall eines Vergleiches von Äpfeln und Birnen. Falls jemand Trends der sich ändernden Temperatur erkennen will, können sie auf dem Festland offensichtlicher hervortreten als über den Ozeanen, obwohl Wassertemperaturen dazu neigen, Zufalls-Fluktuationen zu unterdrücken. Es ist vermutlich am besten, SSTs mit einer Skala zu plotten, die vier mal so groß ist wie bei den Festlandstemperaturen und beide in die gleiche Graphik einzutragen zum Vergleich.

Bei Temperaturen auf dem Festland ergibt sich oftmals das ähnlich gelagerte Problem von Temperatur-Inversionen, das heißt, es ist in den bodennahen Luftschichten kälter als in größerer Höhe darüber. Dies ist das Gegenteil dessen, was die Adiabate vorgibt, dass nämlich die Temperatur in der Troposphäre mit der Höhe abzunehmen hat. Aber dies stellt uns vor ein weiteres Problem. Temperaturen werden in Höhen aufgezeichnet, die in einem Bereich von unter dem Meeresspiegel (Death Valley) bis über 3000 Metern Seehöhe liegen. Anders als es die Allgemeine Gasgleichung vorgibt, welche die Eigenschaften eines Gases bei Standard-Temperatur und -Druck festlegt, werden alle Wetter-Temperaturmessungen bei der Mittelung in einen Topf geworfen, um ein arithmetisches Mittel der globalen Temperatur zu erhalten ohne Berücksichtigung der Standard-Drücke. Dies ist wichtig, weil die Allgemeine Gasgleichung vorgibt, dass die Temperatur eines Luftpaketes mit abnehmenden Druck abnimmt, was das Temperaturgefälle steigen lässt.

Historische Aufzeichnungen (vor dem 20.Jahrhundert) sind besonders problematisch, weil Temperaturen nur auf das nächste ganze Grad Fahrenheit abgelesen wurden – von Freiwilligen, die keine professionellen Meteorologen waren. Außerdem war die Technologie von Temperaturmessungen nicht ausgereift, besonders hinsichtlich standardisierter Thermometer.

Klimatologen haben versucht, die oben beschriebenen zusammengewürfelten Faktoren zu umschreiben mit der Überlegung, dass Genauigkeit und damit Präzision verbessert werden kann durch Mittelbildung. Als Grundlage ziehen sie 30-Jahres-Mittel jährlicher Mittel monatlicher Mittel heran, womit sie die Daten glätten und Informationen verlieren! Tatsächlich besagt das ,Gesetz über Große Zahlen‘, dass die Genauigkeit gesammelter Stichproben verbessert werden kann (falls keine systematischen Verzerrungen präsent sind!). Dies gilt besonders für probabilistische Ereignisse wie etwa das Werfen einer Münze. Falls jedoch jährliche Mittelwerte aus monatlichen Mittelwerten abgeleitet werden anstatt aus täglichen Mittelwerten, dann sollten die Monate gewichtet werden der Anzahl der Tage in jenem Monat gemäß. Es ist unklar, ob dies gemacht wird. Allerdings werden selbst tägliche Mittelwerte extrem hohe und tiefe Temperaturen glätten und somit die vorhandene Standardabweichung reduzieren.

Jedoch selbst wenn man die oben beschriebenen Probleme nur vorübergehend ignoriert, gibt es das fundamentale Problem zu versuchen, Lufttemperaturen an der Erdoberfläche präziser und genauer zu erfassen. Anders als der Ball mit im Wesentlichen einem Durchmesser (mit minimaler Exzentrizität) ändert sich die Temperatur an jedem Punkt der Erdoberfläche ständig. Es gibt keine einheitliche Temperatur für irgendeine Stelle zu irgendeinem Zeitpunkt. Und man hat nur eine Gelegenheit, jene vergängliche Temperatur zu messen. Man kann nicht multiple Messungen durchführen, um die Präzision einer bestimmten Messung der Lufttemperatur präziser machen!

Temperatur-Messungen

Höhlen sind dafür bekannt, stabile Temperaturen aufzuweisen. Viele variieren um weniger als ±0,5°F jährlich. Allgemein wird angenommen, dass die Temperatur der Höhle eine mittlere jährliche Lufttemperatur an der Oberfläche reflektieren, jedenfalls an der Stelle, an der sich die Höhle befindet. Während die Lage ein wenig komplexer ist, ist es doch eine gute Approximation erster Ordnung. (Zufälligerweise gibt es einen interessanten Beitrag von Perrier et al. (2005) über einige sehr frühe Arbeiten in Frankreich hinsichtlich Temperaturen im Untergrund. Zur Illustration wollen wir einmal annehmen, dass ein Forscher die Notwendigkeit sieht, die Temperatur einer Höhle während einer bestimmten Jahreszeit zu bestimmen. Der Forscher möchte diese Temperatur mit größerer Präzision ermitteln als es ein durch die Gänge getragenes Thermometer vermag. Der Wert sollte nahe dem nächsten Zehntelgrad Fahrenheit liegen. Diese Situation ist ein ziemlich guter Kandidat für multiple Messungen zur Verbesserung der Präzision, weil es über einen Zeitraum von zwei oder drei Monaten kaum Temperaturänderungen geben dürfte und die Wahrscheinlichkeit hoch ist, dass die gemessenen Werte normalverteilt sind. Die bekannte jährliche Bandbreite gibt an, dass die Standardabweichung unter (50,5 – 49,5)/4 oder etwa 0,3°F liegen sollte. Daher ist die Standardabweichung der jährlichen Temperaturänderung von gleicher Größenordnung wie die Auflösung des Thermometers. Weiter wollen wir annehmen, dass an jedem Tag, wenn die Stelle aufgesucht wird, der Forscher als Erstes und als Letztes die Temperatur abliest. Nach 100 Temperaturmessungen werden die Standardabweichung und der Standardfehler des Mittelwertes berechnet. Unter der Voraussetzung, dass es keine Ausreißer gibt und das alle Messungen um wenige Zehntelgrad um den Mittelwert verteilt sind, ist der Forscher zuversichtlich, dass es gerechtfertigt ist, den Mittelwert bekanntzugeben mit einer signifikanten Zahl mehr als das Thermometer direkt zu messen in der Lage war.

Jetzt wollen wir dies mit der allgemeinen Praxis im Bereich Klimatologie kontrastieren. Klimatologen verwenden meteorologische Temperaturen, die vielleicht von Individuen abgelesen werden mit geringerem Interesse an gewissenhaften Beobachtungen als die einschlägige Forscher haben. Oder Temperaturen wie etwa von den automatisierten ASOS können zum nächsten ganzen Grad Fahrenheit gerundet und zusammen gebracht werden mit Temperaturwerten, die zum nächsten Zehntelgrad Fahrenheit gerundet sind. (Zu allermindest sollten die Einzelwerte invers zu ihrer Präzision gewichtet werden). Weil die Daten eine Mittelung (Glättung) durchlaufen, bevor das 30-Jahre-Referenzmittel berechnet wird, scheint die Datenverteilung zusätzlich weniger verzerrt und mehr normalverteilt, und die berechnete Standardabweichung ist kleiner als sie es bei Verwendung der Rohdaten wäre. Es ist nicht nur die Mitteltemperatur, die sich jährlich ändert. Die Standardabweichung und Verzerrung ändert sich mit Sicherheit ebenfalls, aber dazu werden keine Angaben gemacht. Sind die Änderungen der Standardabweichung und der Verzerrung zufälliger Natur oder gibt es einen Trend? Falls es einen Trend gibt, was ist dafür die Ursache? Was bedeutet das, falls es überhaupt etwas bedeutet? Da sind Informationen, die nicht untersucht und bekannt gegeben werden, obwohl sie Einsichten in die Dynamik des Systems vermitteln können.

Man gewinnt sofort den Eindruck, dass die bekannten höchsten und tiefsten Temperaturen (siehe oben) zeigen, dass die Datensammlung eine Bandbreite bis zu 300°F haben kann, wenngleich auch näher bei 250°F. Wendet man zur Schätzung der Standardabweichung die Empirische Regel an, würde man einen Wert über 70°F dafür vorhersagen. Geht man konservativer vor und zieht man das Tschbycheff’sche Theorem heran und teilt durch 8 anstatt durch 4, ergibt sich immer noch eine Schätzung über 31°F. Außerdem gibt es gute Gründe für die Annahme, dass die Häufigkeitsverteilung der Temperaturen verzerrt ist mit einem langen Schwanz auf der kalten Seite. Im Kern dieses Arguments steht die Offensichtlichkeit, dass Temperaturen unter 50°F unter Null normaler sind als Temperaturen über 150°F, während das bekannt gemachte Mittel der globalen Festlands-Temperaturen nahe 50°F liegt.

Im Folgenden wird gezeigt, wie meiner Ansicht nach die typischen jährlichen Rohdaten aussehen sollten, wenn sie als Häufigkeitsverteilung geplottet werden, wobei man die bekannte Bandbreite, die geschätzte Standardabweichung und das veröffentlichte Mittel berücksichtigt:

Die dicke, rote Linie repräsentiert die typischen Temperaturen eines Jahres, die kurze grüne Säule (in der Skala eingeordnet) repräsentiert die Temperatur in einer Höhle bei obigem Temperatur-Szenario. Ich bin zuversichtlich, dass das Mittel der Höhlentemperatur bis zu einem Hundertstel Grad Fahrenheit präzise ist, aber trotz der gewaltigen Anzahl von Messungen der Temperatur auf der Erde bringe ich Gestalt und Verteilung der globalen Daten längst nicht die gleiche Zuversicht für die globalen Temperaturen auf! Es ist offensichtlich, dass die Verteilung eine erheblich größere Standardabweichung aufweist als die Höhlentemperatur, und die Rationalisierung mittels Teilung der Quadratwurzel der Anzahl kann nicht gerechtfertigt sein, um Zufallsfehler zu eliminieren, wenn der gemessene Parameter niemals zweimal den gleichen Wert aufweist. Die multiplen Schritte der Mittelung der Daten reduziert Extremwerte und die Standardabweichung. Die Frage lautet: „Ist die behauptete Präzision ein Artefakt der Glättung, oder ergibt das Glättungsverfahren einen präziseren Wert?“ Darauf weiß ich keine Antwort. Es ist jedoch mit Sicherheit etwas, das diejenigen beantworten und rechtfertigen sollten, die die Temperatur-Datenbasis erstellen!

Zusammenfassung

Die Theorie der anthropogenen globalen Erwärmung prophezeit, dass man die stärksten Auswirkungen nachts und im Winter sehen wird. Das heißt, der kalte Schwanz in der Kurve der Häufigkeitsverteilung sollte sich verkürzen und die Verteilung symmetrischer werden. Dies würde die berechnete globale Mitteltemperatur zunehmen lassen, selbst wenn sich die Temperaturen im hohen und mittleren Bereich gar nicht ändern. Die Prophezeiungen zukünftiger katastrophaler Hitzewellen basieren auf der unausgesprochenen Hypothese, dass mit der Zunahme des globalen Mittels sich die gesamte Kurve der Häufigkeitsverteilung hin zu höheren Temperaturwerten verschieben würde. Das ist keine gewünschte Hypothese, weil die Differenz zwischen täglichen Höchst- und Tiefsttemperaturen während des 20. Jahrhunderts nicht konstant war. Sie bewegen sich nicht in Stufen, möglicherweise weil es unterschiedliche Faktoren gibt, welche die Höchst- und Tiefstwerte beeinflussen. Tatsächlich waren einige der tiefsten Tiefsttemperaturen in der Gegenwart gemessen worden! In jedem Falle ist eine globale Mitteltemperatur keine gute Maßzahl für das, was mit den globalen Temperaturen passiert. Wir sollten die Trends der täglichen Höchst- und Tiefsttemperaturen in allen Klimazonen betrachten, wie sie durch physikalische Geographen definiert worden sind. Wir sollten auch die Form der Häufigkeits-Verteilungskurven für verschiedene Zeiträume analysieren. Der Versuch, das Verhalten des ,Klimas‘ der Erde mit einer einzelnen Zahl zu charakterisieren, ist keine gute Wissenschaft, ob man nun an Wissenschaft glaubt oder nicht.

Link: https://wattsupwiththat.com/2017/04/23/the-meaning-and-utility-of-averages-as-it-applies-to-climate/

Übersetzt von Chris Frey EIKE