Vorhersage zukünftiger CO2-Niveaus

Natürlich lautet ein alternativer Standpunkt, dass während der letzten 30 Jahre während eines um 14% gestiegenen CO2-Niveaus die Erde signifikant grüner geworden ist, d. h. unser Planet ist jetzt von mehr Vegetation überzogen als vor 30 Jahren. Ernteerträge haben sich deutlich verbessert, wofür der steigende CO2-Gehalt zumindest teilweise ursächlich ist. Anstatt den Untergang zu prophezeien sollten wir vielleicht davon ausgehen, dass die Welt ein immer besserer Ort zum Leben wird.

Einen Aspekt, der kaum einmal von den Befürwortern einer Kontrolle des CO2-Gehaltes angeführt wird ist, welche Auswirkungen Maßnahmen wie der Übergang zu erneuerbarer Energie wahrscheinlich haben wird. Wird dies überhaupt irgendwelche Auswirkungen auf das CO2-Niveau haben? Gibt es irgendetwas, das wir tun können, um den weiteren Anstieg des CO2 aufzuhalten, falls dies etwas ist, was wir überhaupt tun wollen? Welche CO2-Niveaus sind wahrscheinlich in Zukunft zu erwarten? Dieser Beitrag versucht, einige dieser Fragen zu beantworten.

CO2 und Bevölkerung

Abbildung 1 zeigt das atmosphärische CO2-Niveau als Funktion der Weltbevölkerung im Zeitraum von 1960 bis 2015. Die Angaben zum CO2-Niveau stammen von der NOAA, die Angaben zur Bevölkerung stammen aus Veröffentlichungen der UN Population Division. Man beachte, dass obwohl jeder Datenpunkt ein individuelles Jahr in fortlaufender Folge repräsentiert, die Zeit nicht explizit in dieser Graphik auftaucht, zeigt diese doch lediglich, wie der CO2-Gehalt mit der Gesamt-Weltbevölkerung korreliert ist.

Man erkennt in Abbildung 1, dass CO2 und Bevölkerung im Gleichschritt voranschreiten. (Diese Korrelation wurde zum ersten Mal von Newell and Marcus im Jahre 1987 beschrieben). Es gibt keine Anzeichen irgendeines signifikanten Rückgangs der Rate der CO2-Zunahme vom Beginn bis zum Ende der Kurve. Daraus können wir folgern, dass keine der bisher von den industrialisierten Ländern ergriffene Maßnahme zur Reduktion des CO2-Ausstoßes irgendwelche erkennbaren Auswirkung hat, zumindest nicht bis zum Jahr 2015

Ob nun Bevölkerung CO2 verursacht oder CO2 Bevölkerung steht auf einem anderen Blatt, aber falls wir davon ausgehen, dass sich dieser Gleichschritt in absehbarer Zukunft fortsetzen wird, dann wird mit steigender Bevölkerungszahl auch der CO2-Gehalt steigen. Da die Bevölkerungszunahme ziemlich sicher zu erwarten ist, zumindest kurzfristig, wird das CO2-Niveau vermutlich ebenfalls zunehmen.

Da CO2 und Bevölkerungszahl in Relation zu stehen scheinen, lautet die sich jetzt erhebende Frage, ob die Bevölkerungszahl das CO2-Niveau treibt oder das CO2-Niveau die Bevölkerung.

1. Es gibt keine Verbindung zwischen beidem, Bevölkerung und CO2 sind vollkommen unabhängig voneinander und der offensichtliche Gleichschritt ist lediglich ein Zufall. Möglich, aber unwahrscheinlich. Während es sicher richtig ist, dass Korrelation nicht notwendigerweise Kausalität bedeutet, stimmt aber auch, dass je besser eine Korrelation ist, umso mehr irgendeine Art Kausalität im Spiel ist. Wie unten gezeigt, ist die Korrelation in diesem Fall so gut, dass man die Möglichkeit, es gebe keine kausale Verbindung, getrost ignorieren kann.

2. Bevölkerung treibt CO2. Dies ist die ,offensichtliche‘ Erklärung, welche die meisten Menschen anführen würden. Je mehr Menschen es auf unserem Planeten gibt, umso mehr CO2 erzeugende Aktivitäten wird es geben wie etwa Stromerzeugung, industrielle Aktivitäten, Verkehrswesen, Heizung und so weiter.

3. CO2 treibt Bevölkerung. Zu einem großen Teil dürfte der Bevölkerungszuwachs in absehbarer Zukunft auf die Entwicklung in Afrika südlich der Sahara zurückzuführen sein. Die Bevölkerungszunahme in diesen Gebieten ist zu einem großen Teil abhängig von der Versorgung mit Nahrungsmitteln, und wie wir wissen, macht mehr CO2 in der Luft die Welt zu einem grüneren Ort mit höheren Ernteerträgen. Je höher das Nahrungsangebot, umso mehr Kinder werden das Erwachsenenalter erreichen.

4. Die Verbindung zwischen CO2 und Bevölkerung ergibt sich aus einer Wechselwirkung der Punkte 2 und 3. Je mehr Menschen es gibt, umso mehr CO2 erzeugen sie, und je mehr CO2 es gibt, umso mehr Nahrungsmittel können erzeugt werden, was wiederum dazu führt, dass mehr Kinder erwachsen werden.

5. Sowohl CO2 als auch Bevölkerung werden getrieben von einer dritten, jedoch bislang unbekannten Kraft. Während dies nicht einfach so vom Tisch gewischt werden kann, muss man es doch als eine rein theoretische Möglichkeit ansehen, solange diese unbekannte Kraft nicht erkannt wird.

Nach meiner persönlichen Einschätzung, die ich durch nichts belegen kann, ist Möglichkeit 4 am wahrscheinlichsten. Höhere Bevölkerung erzeugt mehr CO2, und mehr CO2 führt zu höherer Bevölkerung.

Aber wie wird das in Zukunft sein? Können wir guten Gewissens prophezeien, wie der CO2-Gehalt in zehn, zwanzig oder dreißig Jahren aussieht?

Wir können das tun mittels der Einführung einer Trendlinie in Abbildung 1, welche einfach eine zu den Daten passende mathematische Funktion ist. Die Trendlinie kann dann fortgeführt werden, um Vorhersagen bzgl. des zukünftigen CO2-Niveaus zu erstellen auf der Grundlage der zukünftigen Bevölkerungszahl unter der Annahme, dass die Relation zwischen CO2 und Bevölkerung konstant bleibt.

Auswahl der Trendlinie

Man kann leicht zeigen, dass eine Polynom-Funktion am besten zu den Daten passt. Die verbleibende Frage lautet, welche Größenordnung des Polynoms man anwendet (ax³+ bx² + cx + d beispielsweise ist ein Polynom dritter Ordnung). Abbildung 2 zeigt die Daten zu Bevölkerung/CO2 von Abbildung 1 (mit erweiterten Achsen) sowie Trendlinien von Polynomen 2. bis 6. Größenordnung. Alle fünf Trendlinien haben einen R²-Wert nicht unter 0,999, d. h. die Trendlinie korreliert mit den Daten bis auf eine Genauigkeit von mindestens 99,9%.


Vorhersagen der Bevölkerung

Das United Nations Department of Economic and Social Affairs, Population Division, veröffentlicht eine Serie von Vorhersagen der Weltbevölkerung bis zum Jahr 2100. Drei verschiedene Schätzungen werden angeboten – hoch, mittel und niedrig – wie in Abbildung 3 gezeigt. (Die Quelle der Daten ist hier, dann kann man dort das Tabellenblatt mit der Bezeichnung Total Population – Both Sexes herunterladen.

CO2-Vorhersagen

Das zukünftige CO2-Niveau kann mittels der Trendlinie CO2/Bevölkerung aus Abbildung 2 zusammen mit den Vorhersagen bzgl. Bevölkerung aus Abbildung 3 vorhergesagt werden.

Die Trendlinien 5. und 6. Größenordnung in Abbildung 2 wurden zurückgewiesen, weil es keinen nachvollziehbaren physikalischen Mechanismus gibt, wodurch der CO2-Gehalt bei einer Bevölkerung von 8 oder 9 Milliarden steil abfällt.

Der vorhergesagte zukünftige CO2-Gehalt der verbleibenden drei Trendlinien 2., 3. und 4. Größenordnung werden jeweils in den Abbildung 4, 5 und 6* gezeigt. Jede Abbildung zeigt drei separate CO2-Vorhersagen auf der Grundlage der Bevölkerungs-Schätzung hoch-mittel-niedrig in Abbildung 3. Während die UN-Vorhersagen bzgl. Bevölkerung bis zum Jahr 2100 ausgeweitet sind, wird davon ausgegangen, dass es unwahrscheinlich ist, dass CO2-Trendlinien so weit in die Zukunft ein zuverlässiger Anhaltspunkt sind. Darum laufen die CO2-Vorhersagen willkürlich nur bis zum Jahr 2050.

[*Im Original sind nur zwei Abbildungen. Möglicherweise liegt hier ein Versehen des Autors vor. Anm. d. Übers.]



Die Ergebnisse dieser Vorhersagen des CO2-Niveaus im Jahre 2050 zeigt die folgende Tabelle:

Tabelle 1: Vorhergesagtes CO2-Niveau (ppm) im Jahre 2050.

Die gezeigten Ergebnisse weisen eine große Spanne auf, von 439 bis 659 ppm. Allerdings kann diese Spannbreite eingeengt werden. Die Polynom-Trendlinie 4. Ordnung in Abbildung 2 wird als irgendwie verdächtig angesehen, weil anders als in den Trends 2. und 3. Größenordnung die Rate der CO2-Zunahme jenseits der historischen Daten signifikant größer ist als die der historischen Daten selbst. Zwar ist dies nicht unmöglich, doch würde dadurch eine Änderung der CO2/Bevölkerung-Relation eingeführt, für welche es derzeit keinerlei Rechtfertigung gibt. Als Konsequenz wird die Trendlinie 4. Ordnung provisorisch ignoriert. Falls man danach annimmt, dass die UN-Schätzung ,mittel‘ bzgl. der Bevölkerungszahl am wahrscheinlichsten ist, verengt sich die Spanne des CO2-Gehaltes im Jahre 2050 auf 471 bis 487 ppm innerhalb einer Gesamt-Wahrscheinlichkeits-Spannbreite von 439 bis 540 ppm.

Diese Ergebnisse sind abhängig von zwei fundamentalen Hypothesen:

1. Es gibt eine kausale Relation zwischen CO2 und Weltbevölkerung, welche durch eine der oben besprochenen Trendlinien repräsentiert wird, und diese Relation wird bis mindestens zur Mitte dieses Jahrhunderts fortsetzen.

2. Bemühungen zur CO2-Reduktion werden bis dahin kaum irgendwelche oder gar keine Auswirkungen haben, vermutlich auch noch darüber hinaus nicht.

Die zweite Hypothese ist einer weiteren Überlegung wert. Natürlich wurden in der westlichen Welt signifikante Bemühungen unternommen, um CO2-Emissionen zu reduzieren, doch lässt sich darüber streiten, wie effektiv diese Bemühungen sind oder sein werden. Ein großer Teil der offensichtlichen Reduktion in Europa beispielsweise resultierte aus der Schließung kohlenintensiver Operationen wie Stahl kochen, aber dies hat lediglich dazu geführt, diese Operationen in andere Teile der Welt zu verlagern wie etwa nach China und Indien. Damit hat sich die Kapazität zur Stahlerzeugung in der Welt nicht geändert. Und außerdem: Während die Einführung erneuerbarer Energie in der westlichen Welt Kohlenstoff-Emissionen bis zu einem bestimmten Ausmaß reduziert hat [?], (jedoch in weit geringerem Ausmaß als allgemein erwartet), ist der Verbrauch fossiler Treibstoffe in anderen Teilen der Welt keineswegs rückläufig, sondern nimmt sogar zu.

Zusammenfassung

Die Weltbevölkerung wächst. Während das tatsächliche Ausmaß des Bevölkerungswachstums während der nächsten Jahrzehnte Gegenstand von Diskussionen ist, ist es die Tatsache, dass es ein solches Wachstum geben wird, nicht. Unter der Annahme, dass die Relation CO2/Bevölkerung nach wie vor gilt, dann können wir auf der Grundlage von Schätzungen der UN bzgl. Bevölkerung ein CO2-Gehalt vorhersagen, der bis Mitte dieses Jahrhunderts zwischen 471 und 487 ppm liegen wird, innerhalb einer gesamtmöglichen Bandbreite von 439 bis 540 ppm, unabhängig von allem, was wir wissen. Ob die menschliche Rasse dann in einer Sintflut von Klimawandel-Katastrophen untergeht oder die Welt in ein goldenes Zeitalter unübertroffener Ernteerträge, bleibt abzuwarten.

[Die Meinung des Übersetzers: natürlich Letzteres, wie die Erfahrungen im Mittelalterlichen Klimaoptimum gezeigt haben!]

Link: https://wattsupwiththat.com/2017/10/05/predicting-future-CO2-levels/
Übersetzt von Chris Frey EIKE




Keine Ausgewo­genheit: IPCC-Berichte werden von einer kleinen Clique Wissen­schaftler und Institu­tionen dominiert

Hier lohnt ein Blick auf die Autorenlisten. Wie wird man eigentlich in den illustren Kreis der IPCC-Autoren aufgenommen? In der Planungphase der jeweiligen Berichte kann sich Jedermann über die nationalen IPCC-Verwaltungen bewerben. In der Regel gehen sehr viel mehr Bewerbungen ein, als Autorenplätze zur Verfügung stehen. Die letztendliche Nominierung geschieht dann durch den inneren Zirkel des nationalen IPCC, ein Prozess dem es entscheidend an Transparenz mangelt. Während man offiziell vorgibt, an einer ausgewogenen Zusammensetzung der Autorenschaft interessiert zu sein, schafft es in der Regel kein IPCC-kritischer Wissenschaftler in die Erstellergruppe aufgenommen zu werden. Ein gewichtiger Anteil der Autoren rekrutiert sich aus Klimahardlinern und Aktivisten. Vor einigen Jahren analysierte Donna Laframboise die Autorenlisten und fand eine große Anzahl an Autoren mit WWF und Greenpeace Hintergund. Auch Institute wie das Potsdamer PIK sind eng mit den Aktivisten verflochten, mit fragwürdigen personellen Überschneidungen und Finanzierung.
Am 31. August 2017 erschien im Fachblatt Review of Policy Research eine bemerkenswerte Arbeit, in der sich Hannah Rachel Hughes von der Cardiff University und Matthew Paterson von der University of Manchester mit der Zusammensetzung der Autoren der IPCC-Arbeitsgruppe III beschäftigen. Das Resultat der Analyse ist erschreckend: Offenbar kontrolliert eine kleine Gruppe von Autoren und Institutionen den Inhalt der Berichte. Wie robust sind die Klima-Zusammenfassungen also wirklich, wenn eine kleine Clique das Zepter fest in der Hand hält? Hughes und Paterson sehen hier die inhaltliche Ausgewogenheit in Gefahr und stellen die Glaubwürdigkeit der Organisation in Frage. Sie befürchten eine Politisierung der Klimawissenschaften, wobei die nüchterne und ergebnisoffene Darstellung auf der Strecke bleibt. Hier der Abstract der Arbeit:
Einengung des Bereiches Klima: Die symbolische Macht der Autoren bei der Abschätzung des IPCC bzgl. Abschwächung

Dieser Artikel ist eine kritische Analyse des IPCC als eine Randorganisation, welche die Konzepte von Bourdieu bzgl. Bereich, Habitus und symbolischer Macht verwendet. Der Artikel kombiniert quantitative, Netzwerk- und Übersichts-Daten, um die Autorenschaft des Beitrages der Arbeitsgruppe III zum 5. Zustandsbericht des IPCC (AR 5) zu erkunden. Diese Daten enthüllen die Dominanz einer kleinen Gruppe von Autoren und Institutionen bei der Zusammenstellung der Erkenntnisse, welche im AR 5 dargestellt werden, und er beleuchtet die zentrale Lage des IPCC im Bereich Klimapolitik bei der Gestaltung der Forschungs- und Veröffentlichungs-Strategien der Forscher in diesem Bereich. Als Folge ist die Studie in der Lage, die organisatorischen Straßen zur Vertiefung der Beteiligung und die symbolische Macht der Autoren aus dem globalen Süden in den IPCC-Berichten zur Abschätzung des Klimawandels zu identifizieren. Obgleich empirisch, führen uns die Ergebnisse dieser Studie dazu, das IPCC als Wissensvermittler in Frage zu stellen. Theoretisch zeigt sie, dass vor allem in der internationalen Sphäre bei der Verwendung eines Konzeptes der Randorganisation das Risiko besteht, dass man mächtige Netzwerke wissenschaftlicher Akteure und Institutionen sowie deren breit gefasste Einwirkung bzgl. der Politisierung der Wissenschaft übersieht.

Bereits vor zwei Jahren hatten die Autoren eine ähnliche Kritik in Nature Climate Change publiziert (Corbera et al. 2016, online im September 2015 erschienen). Dabei schauten sie auch auf das Instituts-Hopping und erfassten damit den “Stallgeruch” und institutionelle Denkrichtungen, die sich dann im Laufe der Karriere fortpflanzen. Im Fall der WG3 wird der Prozess von wenigen Forschern aus den USA und Großbritannien dominiert, wie ein Abgleich der Publikationstätigkeit und IPCC-Autorenschaft zeigte. Hier der Abstract:

Kungeleien der Autorenschaft im Bericht der IPCC-Arbeitsgruppe III

Das IPCC hat seinen 5. Zustandsbericht abgeschlossen. Hier erkunden wir die sozialen wissenschaftlichen Netzwerke, welche die Grundlage sind für die Abschätzung der WG III der Abschwächung für den AR 5. Indem wir den institutionellen Weg der Autoren aufzeigen, beleuchten wir die Persistenz und das Ausmaß der Nord-Süd-Ungleichheiten hinsichtlich der Autoren des Reports. Dabei enthüllt sich die Dominanz von Institutionen in den USA und UK als Informationsplattformen für die WG III-Autoren. Untersucht man das Netz der Ko-Autorenschaften zwischen den WG III-Autoren, identifizieren wir die Ungleichheit der Relationen zwischen den Autoren, wobei eine geringe Anzahl von Autoren regelmäßig und bezeichnend an einem epistemischen Einfluss der Gemeinschaft auf die Definition des IPCC bzgl. Abschwächung mitwirkt. Diese Netzwerke der Mitautoren folgen regionalen Verteilungen, wobei Autoren der EU und aus den BRIC-Staaten sowie den USA den Hauptanteil stellen. Aus disziplinarischer Perspektive sind Ökonomen, Ingenieure, Physiker und Naturwissenschaftler unverändert zentral an diesem Prozess beteiligt mit unbedeutenden Anteilen von Gelehrten aus den Humanwissenschaften. Die gemeinsamen begangenen Wege, die durch unsere Analyse aufgedeckt wurden, zeigen, dass der Gedanke einer breiter angelegten geographischen Beteiligung zu einer umfassenderen Darstellung von Standpunkten und kulturellem Verständnis der Abschwächung des Klimawandels nicht so solide ist wie ursprünglich gedacht.

Wir wollen das Thema am Fall des IPCC Special Report zum 1,5-Gradziel beleuchten, der sich momentan in der Begutachtungephase befindet. Die Autorenlisten gibt es auf der IPCC-Webseite. Wir schauen uns die Autorenzusammensetzung des Einführungskapitels “Framing und Context” an. Insgesamt sind 16 Autoren aufgeführt. Mit Verlaub, es ist relativ unwahrscheinlich, dass die gelisteten Forscher aus dem Sudan, den Phillippinen, Botswana und den Solomon Inseln Entscheidendes zum Kapitel beigetragen haben. Bleiben also 12.
Es fallen zwei deutsch klingende Namen auf: Wolfgang Cramer tritt unter französischer Flagge an, assoziiert mit dem Mediterranean Institute for Biodiversity and Ecology (IMBE), CNRS. Außerdem ist Kirsten Zickfeld für Kanada und die Simon Fraser University mit dabei. Schauen wir nun auf den “institutional pathway” der beiden: Cramer war bis 2011 in leitender Funktion am Potsdam Institut für Klimafolgenforschung (PIK) tätig, Zickfeld forschte 2004 ebenfalls am PIK zu ihrer Doktoarbeit. Es ist nicht auszuschließen, dass sich die beiden noch aus PIK-Zeiten kennen. Auf diese Weise behält das oft am alarmistischen Klimarand agierende PIK-Institut auch bei diesem Kapitel die Fäden in der Hand, obwohl der Name „PIK” in der Liste offiziell gar nicht auftaucht. Ein schönes Beispiel, wie eine kleine Gruppe an Institutionen das Geschehen kontrolliert.
Ein weiterer Klima-Hardliner in der Autorenliste des Kapitels ist Andreas Fischlin, dessen alarmistische Argumentation bereits Thema in diesem Blog war (siehe “Attacke von IPCC Leitautor Andreas Fischlin gegen Fred Singer: Ein überfälliger Faktencheck“). Bewusst gemäßigte oder gar skeptische Forscher sucht man in dem Kapitel übrigens vergeblich. Die angebliche Ausgewogenheit der Autorenschaft existiert nicht. In Kapitel 2 des Spezialberichts findet sich unter den Autoren ein aktueller PIK’ler, Elmar Kriegler. Man könnte noch weiter durch die Liste forsten. Interessanterweise sind aber auch Vertreter von ExxonMobil und Saudi Aramco mit dabei, letzterer aus dem Sudan, obwohl doch Saudi Aramco in Saudi Arabien residiert.
Link: http://www.kaltesonne.de/sorge-um-ausgewogenheit-ipcc-berichte-werden-von-einer-kleinen-clique-wissenschaftler-und-institutionen-dominiert/
Dieser Beitrag war zuerst auf dem Blog „Die Kalte Sonne“ erschienen. Übersetzung der englischsprachigen Abschnitte (kursiv) von Chris Frey EIKE




Katastro­phales Feuer-Manage­ment stürzt Kali­fornien ins Chaos

Ohne Vorwarnung begannen die Brände, sich am Sonntag Abend, 8. Oktober, rapide auszubreiten, und bis zum Ende der Woche gab es 31 bestätigte Todesopfer, über 400 Menschen werden noch vermisst und 350 Bauten wurden zerstört. In Santa Rosa, das lange als sicher vor Waldbränden galt, gingen ganze Wohnkomplexe innerhalb von Minuten in Flammen auf. Geschätzt 60.000 Menschen waren gezwungen zu fliehen oder wurden aus den Feuergebieten evakuiert.

Alles in allem zerstörten 22 separate Brände etwa 300 Quadratmeilen Land [ca. 780 km²]. Es ist das zweittödlichste Feuer in Kalifornien seit 1923. Launen von Mutter Natur sorgten für eine Verschlimmerung der Misere. Der Diablo-Wind, ein starker, böiger und häufig im Norden Kaliforniens auftretender Wind half bei der Ausbreitung der Flächenbrände. Und während sich die Region jüngst aus einer schweren, Jahre langen Dürre erholt hat, haben die Gräser, die dank des dringend benötigten Niederschlags wieder gewachsen sind, dem Feuer geholfen, sich noch rascher zu verbreiten.

Flächenbrände und die Umwelt

Zusätzlich zu den verheerenden Verlusten von Menschenleben haben die Brände, welche wohl noch einige weitere Wochen wüten werden, auch ihren Zoll von der Wildnis und der Luftqualität gefordert. Satellitenbilder zeigen eine riesige Rauchwolke, welche sich vom zentralen Kalifornien über den Nordwesten von Nevada bis ins südliche Oregon und Idaho erstreckt. Sean Reffuse, ein Fachmann bzgl. Luftgüte an der University von California in Davis sagte, dass die Feuer 10.000 Tonnen Partikel in die Luft geblasen haben, eine führende Ursache von Dunst. Ist man einem höheren Niveau dieser Partikel in der Luft ausgesetzt, führt dies zu Atem- und Herz-Kreislauf-Problemen.

Die Ursachen für die Brände bleiben aber zunächst unbekannt. Flächenbrände waren seit jeher eine Geißel in Kalifornien und anderen Gebieten des ariden Westens. Das trockene Klima Kaliforniens ist zusammen mit starken Winden – Diablo im Norden und Santa Ana im Süden – der beste Freund eines Flächenbrandes.

Konsequenzen einer schlechten Politik

Die Region ist bewachsen mit riesigen nationalen Wäldern, welche Jahrzehnte lang mittels einer verheerenden Politik der Feuer-Unterdrückung verwaltet worden sind. In Wäldern können Waldbrände, normalerweise verursacht durch Blitze, der Weg der Natur sein, wucherndes Unterholz zu beseitigen, bevor es sich in gefährlicher Weise ausbreitet. Wenn diese relativ kleinen Brände unterdrückt werden, können Wälder zu veritablen Brandbeschleunigern werden. Selbst nach Implementierung der Healthy Forest Initiative im vorigen Jahrzehnt, also einem Gesetz, welches dem US Forest Service erlaubt, tote und kranke Bäume aus den Wäldern zu entfernen, enthalten viele von der Forstverwaltung bewirtschaftete Gebiete immer noch das Risiko, einen Flächenbrand auszulösen.

Was aber noch mehr zählt: Restriktive Flächennutzungs-Vorschriften in Städten wie San Francisco und San Jose haben die Preise für Menschen der oberen Mittelklasse, mit mittlerem oder geringerem Einkommen das Wohnen in den Nobel-Gebieten unerschwinglich gemacht. Weil sie nicht mehr in der Lage sind, die Preise in Nobel-Stadtgebieten aufzubringen, sind viele Menschen gezwungen, in entfernten Vororten zu leben, was sie näher an die Gebiete treibt, die für den Ausbruch von Bränden anfällig sind.

Flächenbrände wird es bei uns immer geben. Das hängt vom Territorium ab. Aber bei einer Politik, welche Bedingungen schafft, die Wälder einem Brand wie reife Früchte in den Schoß fallen lässt, oder wenn man Menschen zwingt, in Hochrisiko-Gebieten zu leben, dann sollte man sich nicht wundern, wenn die Katastrophe auf dem Fuße folgt.

Link: http://www.cfact.org/2017/10/16/disastrous-fire-management-wreaks-havoc-on-california/?mc_cid=3f2b47fe6c&mc_eid=1ad97dafa6

Hierzu gab es auch einen Mail-Austausch zwischen dem Vizepräsidenten des EIKE Michael Limburg und Craig Rucker von CFACT. Ruckers Antwort folgt hier als Anhang:

Im vorigen Jahrhundert gab es viel schlimmere Brände

Craig Rucker
Die in Kalifornien wütenden Brände haben zu einer herzzerreißenden Verheerung geführt. 41 Menschen verloren bislang ihr Leben, und der Schaden wird mit 3 Milliarden Dollar geschätzt.

Grüne Aktivistengruppen, die niemals eine Gelegenheit auslassen, eine „ernste Krise links liegen zu lassen“, schieben die Brände schamlos der globalen Erwärmung in die Schuhe und behaupten, dass die Brände in diesem Jahr die größten Flächen jemals verheert hätten. [Natürlich war auch die „Süddeutsche Zeitung“ sofort zur Stelle, um diesen Unsinn zu schreiben. Anm. d. Übers.]

Aber das liegt ausschließlich daran, dass das National Interagency Fire Center merkwürdigerweise – und irgendwie bequemerweise – die jährlich verbrannte Fläche nur zurück bis zum Jahr 1960 listet“, erklärt Bjørn Lomborg, Präsident des Copenhagen Consensus Center.

Aber die offiziellen historischen Daten der USA sagen etwas ganz Anderes. Man betrachte die Historische Statistik der USA – von der Kolonialzeit bis 1970. Das ergibt eine Statistik der Fläche der verbrannten Gebiete seit dem Jahr 1926 bis 1970. Um sicherzugehen, überlappen sich die Jahre von 1960 bis 1970. Es zeigt sich die gleiche Datenreihe“, kommentierte Prof. Lomborg obige Graphik.

Die Protagonisten der globalen Erwärmung wollen uns glauben machen, dass die Historie erst gestern angefangen hat. Das macht es ihnen leichter, hinsichtlich des Beginns einer Datenreihe „Rosinenpickerei“ zu betreiben, um den falschen Eindruck zu erzeugen, dass natürliche Phänomene heutzutage schlimmer sind als während der Vergangenheit. Ihre Behauptungen halten nicht einmal einer Schnell-Überprüfung stand.

Der leitende politische Analyst Bonner Cohen erinnert uns daran [siehe seinen Beitrag oben, Anm. d. Übers.], dass die Menschen in der Tat ihre Hand im Spiel hatten, als die Brände in Kalifornien schlimmer wurden, aber nicht mit dem Fahren von Autos oder den Verbrauch von Strom. Während der jüngsten Jahre gab es ein ganz mieses Wald-Management. Das Verbot, den Wäldern Brennholz zu entnehmen, hat dazu geführt, dass Wälder überwuchert sind durch tote Bäume und vertrocknetes Unterholz. Feuerschneisen sind unzureichend und die Politik der Brandbekämpfung ist unangemessen.

Stehen wir den Menschen in Kalifornien mit Wort und Tat zur Seite. Setzen wir uns ein für ein besseres Wald-Management, und sorgen wir dafür, dass wir all jene bloßstellen, welche diese Tragödie ausschlachten, nur um das Narrativ der globalen Erwärmung voranzutreiben.

Übersetzt von Chris Frey EIKE




Die junge Klimagarde mit der Weltrettungs­bibel von Frau Hendricks auf dem Weg zum Train to Bonn

(Klima-)Jugendbotschafterinnen und Jugendbotschafter

Video nicht mehr verfügbarBild 1 Video der Begrüßung der Teilnehmer*innen durch Frau Hendricks.Eine solche Rekrutierungsmaßnahme wurde von Frau Hendricks veranlasst und von ihrem Ministerium unter dem Titel
[1] Welche Ideen haben junge Menschen, um den Folgen des Klimawandels zu begegnen? Was fordern sie von der Politik zum Thema Klimaschutz? Was kann jeder selbst tun?
Diese Fragen wurden am 29. September 2017 sehr lebhaft auf den drei zeitgleich stattfindenden Jugenddialogen in Bochum, Eberswalde und Nürnberg diskutiert, zu denen das Bundesumweltministerium im Vorfeld der Weltklimakonferenz eingeladen hatte. Rund 200 Teilnehmende im Alter zwischen 16 und 25 Jahren entwickelten ihre Ideen und Lösungsansätze in vier thematischen Runden zum Thema Klimawandel und Klimaschutz: Wie werden sich Klimawandel und Klimaschutzmaßnahmen auf unser zukünftiges Leben auswirken? Was sollte in Deutschland getan werden, um die internationalen Klimaziele zu erreichen und was sind wir selbst bereit dafür zu tun? Und wie können insbesondere junge Menschen stärker in die Klimapolitik einbezogen werden?
Die auf den drei Dialogveranstaltungen ausgelosten Jugendbotschafterinnen und Jugendbotschafter haben auf einem Workshop am 14. Oktober aus den Ergebnissen der drei Jugenddialoge die wichtigsten Ergebnisse und Empfehlungen herausgearbeitet, die in einem Jugendreport zusammengestellt werden.
Der Jugendreport wird am 4. November 2017 Bundesumweltministerin Barbara Hendricks überreicht und auch auf dem Weltklimagipfel in Bonn vorgestellt.

In Nürnberg, Bochum und Eberswalde haben sich junge Leute Rezepte gegen den Klimawandel überlegt

Bild 2 [1] Barbara Hendricks begrüßt die Jugendlichen per Videobotschaft

In der Lokalzeitung des Autors hieß der große (unkritische) Redaktionsbeitrag dazu: „100 Jugendliche und die Rettung der Welt“. Nachdem darin eine teilnehmende Jungredakteurin über den Ablauf einer dieser Rekrutierungsmaßnahmen berichtete, daraus zur Information.

Welchen Beitrag Sie auch immer bereit sind zu leisten: Kein Beitrag ist zu klein“

Teilnehmende Jungredakteurin: [2] Voller Spannung, aber ohne eine konkrete Vorstellung davon, was mich genau erwartet, betrete ich den Aufseßsaal im Germanischen Nationalmuseum. „Unser Klima! Unsere Zukunft! Jugenddialog zur 23. Weltklimakonferenz“.
… mit dem Thema Klimawandel ist die 21-jährige aus Freiburg bestens vertraut. Sie studiert Waldwirtschaft und engagiert sich im studentischen Netzwerk „sneep“ für mehr Nachhaltigkeit. „Ich beschäftige mich sehr mit Suffizienz. Dabei geht es darum, mit weniger auszukommen und trotzdem glücklich zu sein …. „
heißt uns Bundesumweltministerin Barbara Hendricks per Videobotschaft willkommen … am Ende betont sie: „Welchen Beitrag Sie auch immer bereit sind zu leisten: Kein Beitrag ist zu klein“.
Dann gehen wir zur Tagesordnung über. Die sieht vier Themenblöcke vor: „Der Klimawandel und seine Folgen“. „Der Beitrag Deutschlands zur Erreichung der internationalen Klimaziele“. „Globale Gemeinschaft, globale Verantwortung“ und „Vision 2050“. Zum Einstieg in jedes Thema gibt es einen kurzen, informativen Vortrag, anschließend haben die 100 Jungen Leute 30 Minuten Zeit, an jedem Tisch darüber zu diskutieren. Dann geht`s ans Abstimmen.
Beim Input wird klargemacht: Der Klimawandel selbst ist nicht zu stoppen – es geht darum, ihn zu verlangsamen.
… Nach der Diskussionsrunde beantwortet jeder elf Fragen über sein Handy. Daraus ergibt sich ein Stimmungsbild … :
64 % würden, um das Klima zu verbessern, mehr auf ihre Ernährung achten. Dagegen sind 61 Prozent nicht bereits, ihre Urlaubsansprüche zum Schutz der Umwelt zu senken … jeder Zweite ist Vegetarier oder Veganer …

Was geschieht mit den Ergebnissen

Bild 3 Screenshot von der Homepage des Umweltministeriums


[2] Kurz vor Beginn des Weltklimagipfels wird der Jugendreport im sogenannten „Train to Bonn“ der Umweltministerin übergeben … die erarbeiteten Ergebnisse sollen …. direkt an die Entscheidungsträger weitergegeben werden. Diese werden versuchen, sie in ihre Arbeiten einzubeziehen.

Arbeitsbeispiele aus den Stadtveranstaltungen

Wenn Jugendliche im Alter von 16 … 25 Jahren, also beginnend mit maximal zehn Schuljahren, andere dagegen fast schon mit einem fertigen Hochulstudium [3], miteinander über ein Fachthema diskutieren (sollen), kann das keine fruchtbare Diskussion werden, schon gar nicht in der kurzen Zeit von 30 Minuten. Das war ganz bestimmt auch nicht der Sinn, denn der Ablauf sollte ja auf gar keinen Fall Zweifel, sondern ein sicheres – vorgegebenes – Ergebnis liefern.
Wie solche aussehen, anbei ohne Kommentierung. Oder doch eine Kleine vorweg: Der Autor stellt sich vor, als wirklicher Fachmann oder (kompetenter) Regierungschef würde er diese Vorschläge von der Umweltministerin eines (noch) Hochtechnologielandes als ausgesuchtes „Diskussionsergebnis und Lösungsideen“ der „Jugendelite“ des Landes bis zum Alter von bereits 25 Jahren mit fast abgeschlossenem Studium bekommen. Er würde sich für dieses Land schämen (nun schämt er sich dafür als Bürger). Als Vertreter eines der vielen Länder, welche nur noch um das „ihnen zustehende“ Klimaschutzgeld pokern, würde er denken: So lange die zuständige Ministerin und die Jugend des Geberlandes auf diesem niedrigen, unreflektierendem Niveau mit dem Thema umgehen, besteht keine Gefahr, dass die vielen Falschdarstellungen unserer gemeldeten Klimabedrohungen wahrgenommen und die versprochenen Zahlungen gestrichen werden.
Noch eine Anmerkung: Bei manchen Vorschlägen hat man den Eindruck, dass das Thema von Teilnehmer*ìnnen nicht so richtig ernst genommen wurde. Vielleicht war es sogar Ausdruck von geheimem Protest? Warum so etwas dann allerdings noch übersetzt und auf eine Regierungs-Homepage gepinnt wird, erschließt sich dem Autor nicht.
Der Autor erinnert sich jedoch an solche Workshops bei seinem ehemaligen Arbeitgeber. Wenn diese (und das war immer bei vom Vorstand angeordneten „Globalmaßnahmen“ der Fall, wenn dazu die gesamte Belegschaft auf „begeisterte Zustimmung“ gebürstet wurde) Soziologen und Psychologen solcher Veranstaltungsfirmen moderierten, ging es immer nur um Masse, das Niveau war dabei vollkommen nebensächlich.

Bild 4 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 5 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 6 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 7 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 8 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 9 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 10 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 11 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 12 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 13 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Arbeitsbeispiele aus dem Sammelworkshop der Botschafter*innen in Berlin

Die Einstimmung: Parteipolitik und Ideologie in Reinstform (Bild 14). Erkennbar war auch bei der Abschlussveranstaltung von den Botschafter*ìnnen keine neutrale Diskussion zum (angeblichen) Klimawandel erwünscht. Sieht man sich die folgenden Ausarbeitungen an, wagt man auch Zweifel, ob dies Sinn gemacht hätte. Verständlich: Kämpfer dürfen bei Befehlen nicht zu Denken anfangen, sondern müssen bedingungslos umsetzten.

Frau Hendricks Grüne Brigaden, versorgt mit der Klimabibel

Jedenfalls ist das Experiment gelungen: Grüne Brigaden lassen sich bei uns auch außerhalb der Parteijugend problemlos aufbauen – Proteste dagegen finden sich nicht.

Bild 14 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 15 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 16 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 17 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 18 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Quellen
[1] Bundesministerium für Umwelt Naturschutz und Reaktorsicherheit: Jugenddialog zur 23. Weltklimakonferenz
[2] Lokalausgabe der Nordbayerischen Nachrichten, 14. Oktober 2017: 100 Jugendliche und die Rettung der Welt
[3] Universität Hildesheim Green Office




Permanente Unsicherheit in Original-Messungen

In den Kommentaren zu meinen letzten Beiträgen über Tidenmessgeräte erhob sich die Frage der Beständigkeit der Unsicherheit in den Original-Messungen. Hier folgen die Fragen, die zu beantworten ich mit diesem Beitrag versuchen möchte:

Falls Originalmessungen bis auf eine Unsicherheit von +/- X (irgendein Wert in irgendeiner Einheit) durchgeführt werden, überträgt sich dann die Unsicherheit der Originalmessung auf einen oder alle Mittelwerte dieser Messungen?

Sorgt die Durchführung weiterer Messungen bis auf den gleichen Grad Unsicherheit genau die Berechnung noch genauerer Mittelwerte?

Meine Haltung in diesem Beitrag ist Folgende:

Falls jede Messung nur auf ± 2 cm genau ist, dann kann das monatliche Mittel nicht NOCH genauer sein – es muss die gleiche Bandbreite von Fehlern/Unsicherheiten enthalten wie die Originalmessungen, aus denen das Mittel gebildet worden ist. Die Mittelung bringt keine Erhöhung der Genauigkeit.

Es wäre untertrieben zu sagen, dass es sehr viel Uneinigkeit von einigen Statistikern und jenen mit einer klassischen statistischen Ausbildung gab.

Ich werde mich nicht über das Thema Präzision oder Präzision von Mittelwerten auslassen. Es gibt dazu eine gute Diskussion bei Wikipedia: Accuracy and precision.

Gegenstand meiner Bedenken hier ist diese reine Trivial-Genauigkeit [vanilla accuracy]: „Genauigkeit einer Messung ist der Grad, wie nahe Messungen von bestimmter Anzahl an dem wahren Wert jener Quantität liegt“. (,Wahrer Wert‘ bedeutet hier den tatsächlichen Wert in der realen Welt – nicht irgendein kognitives Konstrukt desselben).

Der allgemeine Standpunkt der Statistiker wird in diesem Kommentar zusammengefasst:

Die Aussage, dass die Genauigkeit des mittleren Meeresspiegels an einer Stelle nicht verbessert wird durch die Durchführung vieler Messungen über einen verlängerten Zeitraum ist lachhaft und legt ein fundamentales Fehlen von Verständnis der physikalischen Wissenschaft an den Tag“.

Ich gebe zu, dass ich frisch von der Universität einmal diesem Standpunkt zugestimmt habe. Und zwar bis ich einem berühmten Statistiker die gleiche Frage vorlegte. Sofort und gründlich wurde ich mit einer Reihe von Hausaufgaben konfrontiert, womit ich mir selbst beweisen sollte, dass der Gedanke in vielfacher Hinsicht unrichtig ist.

Erstes Beispiel:

Beginnen wir mit einem einfachen Beispiel über Temperaturen. Temperaturen in den USA werden in ganzen Grad Fahrenheit gemessen und aufgezeichnet. (Fragen Sie mich nicht, warum wir nicht den wissenschaftlichen Standard benutzen. Ich weiß es nämlich nicht). Diese Aufzeichnungen in ganzen Grad Fahrenheit werden dann mittels eines Rechners in Grad Celsius konvertiert, und zwar bis zur ersten Dezimalstelle, also beispielsweise 15,6°C.

Dies bedeutet, dass jede und alle Temperaturen zwischen beispielsweise 72,5°F und 71,5°F als 72°F aufgezeichnet werden. (In der Praxis wird die eine oder andere Messung mit X,5 ausgesondert und die anderen ab- oder aufgerundet). Folglich bedeutet eine amtliche Temperaturaufzeichnung vom Battery Park um 12 Uhr mittags von „72°F“ in der realen Welt, dass die Temperatur mittels Messung in der Bandbreite zwischen 71,5°F und 72,5°F liegt – mit anderen Worten, die präsentierte Zahl repräsentiert eine Bandbreite von 1°F.

In der wissenschaftlichen Literatur könnten wir diesen Umstand in der Schreibweise 72 +/- 0.5 °F wiederfinden. Oftmals wird dies dann als eine Art „Vertrauensintervall“, „Fehlerbalken“ oder Standardabweichung missverstanden.

In diesem spezifischen Beispiel einer Temperaturmessung ist es nichts von diesen Dingen. Es ist einfach eine Form von Stenogramm für das tatsächliche Messverfahren, welches jedes Grad Bandbreite von Temperatur als eine einzelne ganze Zahl repräsentiert – wenn die Bedeutung in der realen Welt lautet „eine Temperatur mit einer Bandbreite von 0,5 Grad über oder unter der präsentierten ganzen Zahl“.

Jede Differenz zur tatsächlichen Temperatur über oder unter der präsentierten ganzen Zahl ist kein Fehler. Diese Abweichungen sind keine „Zufallsfehler“ und sind nicht „normalverteilt“.

Noch einmal zur Betonung: Die ganze Zahl einer präsentierten Temperatur an irgendeiner Stelle zu irgendeiner Zeit ist ein Kürzel für eine ein Grad große Bandbreite tatsächlicher Temperaturen, die obwohl laut Messung unterschiedlich in Gestalt der gleichen ganzen Zahl gemeldet werden. Visuell:

Obwohl in der Praxis die Temperaturen nur in ganzen Zahlen gemeldet werden, ändern sich die Temperaturen in der realen Welt nicht in Schritten von einem ganzen Grad – 72, 73, 74, 72, 71 usw. Temperatur ist eine kontinuierliche Variable. Und nicht nur das, sie ist eine sich ständig ändernde Variable. Wenn man Temperatur einmal um 11:00 und dann um 11:01 misst, misst man zwei unterschiedliche Quantitäten; die Messungen erfolgen unabhängig voneinander. Außerdem ist einer und sind alle Werte innerhalb der Bandbreite gleich wahrscheinlich – die Natur „bevorzugt“ keine Temperaturen, welche näher an der ganzen Zahl liegen.

(Anmerkung: In den USA werden ganze Grad Fahrenheit in Grad Celsius bis zur ersten Stelle nach dem Komma gerundet. 72°F werden konvertiert und ebenfalls aufgezeichnet als 22,2°C. Die Natur bevorzugt auch nicht Temperaturen, die näher an einem Zehntelgrad Celsius liegen).

Während es gegenwärtig Praxis ist, eine ganze Zahl zu melden, um die Bandbreite von ,ganzer Zahl plus ein halbes Grad und ganzer Zahl minus ein halbes Grad‘ zu repräsentieren, könnte diese Praxis auch irgendeine andere Notation sein. Es könnte auch einfach sein, dass die gemeldete ganze Zahl alle Temperaturen von der ganzen Zahl bis zur nächsten ganzen Zahl repräsentieren soll, dass also 71 bedeutet „irgendeine Temperatur von 71 bis 72“. Das gegenwärtige System der Verwendung der ganzen Zahl in der Mitte ist besser, weil die gemeldete ganze Zahl in der Mitte der sie repräsentierenden Bandbreite liegt. Allerdings ist dies einfach misszuverstehen, wenn es als 72 +/- 0.5 daherkommt.

Weil Temperatur eine kontinuierliche Variable ist, sind Abweichungen von der ganzen Zahl nicht einmal „Abweichungen“ – sie sind einfach die in Grad Fahrenheit gemessenen Temperatur, welche normalerweise durch den Dezimalanteil repräsentiert wird, welcher der Notation der ganzen Gradzahl folgen würde – der „x.4999“te Teil von 72,4999°F. Diese Dezimalanteile sind keine Fehler, sie sind nicht gemeldete und nicht aufgezeichnete Anteile der Messung, und weil Temperatur eine kontinuierliche Variable ist, muss sie als gleichmäßig verteilt über die gesamte Skala betrachtet werden – mit anderen Worten, es sind keine, keine, keine „normalverteilten Zufallsfehler“. Der einzige Grund, warum sie unsicher sind ist, dass sie selbst bei einer Messung nicht aufgezeichnet werden.

Was passiert also jetzt, nachdem wir herausgefunden haben, dass die Mittelwerte dieser Aufzeichnungen, welche – man erinnere sich – Kürzel von Temperatur-Bandbreiten sind?

Um diese Frage zu beantworten, wollen wir ein Schulexperiment durchführen…

Wir werden das Mittel von drei ganzen Grad Temperatur finden, und zwar erhalten wir diese Temperaturen in meinem Wohnzimmer:

Wie oben diskutiert, repräsentieren diese Temperaturwerte irgendwelche der unbegrenzt variablen Temperaturen, dennoch möchte ich diese kleine Graphik erstellen:

Hier erkennen wir, dass die Temperatur von jeder Stunde den höchsten Wert in der Bandbreite repräsentiert, den mittleren Wert in der Bandbreite (die gemeldete ganze Zahl) und als tiefsten Wert der Bandbreite. (Anmerkung: Wir dürfen nicht vergessen, dass es zwischen den Werten in jeder Spalte eine unendliche Anzahl von Bruchwerten gibt, die wir jetzt nur nicht zeigen). Diese Werte werden dann gemittelt – das Mittel berechnet – von links nach rechts: die höchsten Werte der drei Stunden ergeben ein Mittel von 72,5, der mittlere Wert ein Mittel von 72 und der niedrigste Wert ein Mittel von 71,5.

Das resultierende Mittel kann geschrieben werden in der Form 72 +/- 0.5, was ein Kürzel ist dafür, dass die Bandbreite von 71,5 bis 72,5 repräsentiert wird.

Die Genauigkeit des Mittels, repräsentiert in der Schreibweise +/- 0,5 ist identisch mit der Genauigkeit der Original-Messungen – sie repräsentieren beide eine Bandbreite möglicher Werte.

Anmerkung: Diese Unsicherheit stammt nicht aus der tatsächlichen instrumentellen Genauigkeit der Original-Messungen. Das ist etwas ganz anderes und muss zusätzlich zu der hier beschriebenen Genauigkeit betrachtet werden. Diese resultiert allein aus der Tatsache, dass gemessene Temperaturen als Ein-Grad-Bandbreiten dargestellt werden, wobei die Bruchteil-Informationen außen vor bleiben und für immer verloren sind, was uns mit der Unsicherheit zurücklässt – fehlendem Wissen – was die tatsächliche Messung selbst eigentlich war.

Natürlich kann die um 11:00 gemessene Temperatur 71,5; die um 12:00 gemessene 72 und die um 13:00 gemessene 72,5 betragen haben. Oder es könnte auch 70,5; 72; 73,5 gewesen sein.

Die Berechnung des Mittels zwischen den diagonal gegenüber liegenden Ecken ergibt 72 von Ecke zu Ecke. Über die Mittelpunkte ergibt sich immer noch 72.

Jedwede Kombination von höchsten, mittigen und niedrigsten Werten von jeder Stunde ergibt ein Mittel, welches zwischen 72,5 und 71,5 liegt – innerhalb der Unsicherheits-Bandbreite des Mittels.

Selbst für diese vereinfachten Netze gibt es viele mögliche Kombinationen von einem Wert aus jeder Spalte. Das Mittel jedweder Kombination liegt zwischen den Werten 72,5 und 71,5.

Es gibt buchstäblich eine unendliche Anzahl potentieller Werte zwischen 72,5 und 71,5, da Temperatur eine kontinuierliche Variable für jede Stunde ist. Das Auftreten aller möglichen Werte für jede stündliche Temperatur ist gleich wahrscheinlich – folglich sind alle möglichen Werte und alle möglichen Kombinationen eines Wertes für jede Stunde in Betracht zu ziehen. Nimmt man irgendeinen möglichen Wert aus jeder Spalte mit stündlichen Messungen und mittelt diese drei, ergibt sich immer das gleiche Ergebnis – alle Mittel haben einen Wert zwischen 72,5 und 71,5, was eine Bandbreite der gleichen Größenordnung repräsentiert wie die der Original-Messungen, eine Bandbreite von einem Grad Fahrenheit.

Die Genauigkeit des Mittels entspricht genau der Genauigkeit aus den Original-Messungen – es ist in beiden Fällen eine Ein-Grad-Bandbreite. Sie wurde um keinen Deut reduziert durch das Mittelungs-Verfahren. Das kann es auch nicht.

Anmerkung: Eine mehr technische Diskussion zu diesem Thema gibt es hier und hier.

Und die Daten der Tiden-Messgeräte?

Es ist klar, dass sich die Unsicherheit bzgl. der Genauigkeit der Original-Messungen der Temperatur aus dem Umstand ergibt, dass nur ganze Grad Fahrenheit bzw. Grad Celsius bis zur ersten Dezimalstelle angegeben werden. Das ergibt folglich keine Messungen mit einem Einzelwert, sondern stattdessen Bandbreiten.

Aber was ist mit den Daten der Tide-Messgeräte? Unterscheidet sich ein einzelner gemessener Wert bis zur Präzision von Millimetern also von obigem Beispiel? Die kurze Antwort lautet NEIN, aber ich nehme nicht an, dass das allgemein akzeptiert wird.

Welche Daten werden denn nun von Tiden-Messgeräten in den USA (und in den meisten anderen entwickelten Ländern) gemessen?

Die Geschätzte Genauigkeit wird als +/- 2 cm für individuelle Messungen angegeben, und es wird behauptet, dass diese für monatliche Mittelwerte 5 mm beträgt. Betrachten wir die Daten vom Battery-Park in New York, sehen wir etwas wie das hier:

Man beachte, dass wir laut diesem Datenblatt alle sechs Minuten (1 Zehntel-Stunde) eine Messung haben, und zwar den Wasserstand in Meter bis zum Niveau von Millimetern (4,639 m), und das „Sigma“ wird angegeben. Die Sechs-Minuten-Zahl wird folgendermaßen berechnet:

181 Eine-Sekunde-Wasserstandsmessungen zentriert um jedes Zehntel einer Stunde werden gemittelt, ein three standard deviation outlier rejection test [?] angewendet, dann werden Mittel und Standardabweichung erneut berechnet und gemeldet zusammen mit der Anzahl der Ausreißer. (3 Minuten-Wasserstandsmittel).

Um sicherzustellen, dass wir dieses Verfahren verstehen, stellte ich in einer E-Mail an @ co-ops.userservices@noaa.gov die folgende Frage:

Wenn sagen, bis zu einer Genauigkeit von +/- 2 cm meinen wir spezifisch, dass jede Messung zum tatsächlichen augenblicklichen Wasserstand außerhalb des Mess-Schachtes passt und innerhalb dieser +/- 2-cm-Bandbreite liegt.

Antwort:

Das ist korrekt! Die Genauigkeit jedes 6-minütigen Datenwertes beträgt +/- 2 cm des Wasserstandes zu jener Zeit.

(Anmerkung: In einer separaten E-Mail wurde klargestellt, dass „Sigma die Standardabweichung ist, essentiell die statistische Varianz zwischen diesen 181 1-Sekunde-Messungen“).

Frage und Antwort verifizieren, dass sowohl die 1-Sekunde-Messungen als auch der 6-Minuten-Datenwert eine Bandbreite des Wasserstandes von 4 cm, 2 cm plus oder minus vom gemeldeten Wasserstand repräsentiert.

Diese scheinbar vage Genauigkeit – jede Messung mit einer tatsächlichen Bandbreite von 4 cm – ist das Ergebnis des mechanischen Verfahrens der Mess-Apparatur, trotz der Auflösung von 1 Millimeter. Wie kommt das?

Die Illustration der NOAA des modernen Tiden-Messapparates am Battery Park zeigt den Grund. Die Blase oben links zeigt eindeutig, was während des 1-Sekunde-Intervalls der Messung passiert: Der augenblickliche Wasserstand innerhalb des Mess-Schachtes unterscheidet sich von dem außerhalb dieses Schachtes.

Diese 1-Sekunde-Ablesung wird in der „Primary data collection Platform“ gespeichert und später als Teil der 181 Messungen herangezogen, die für den gemeldeten 6-Minuten Wert gemittelt werden. Er unterscheidet sich wie illustriert von dem tatsächlichen Wasserstand außerhalb des Mess-Schachtes. Manchmal wird er niedriger, manchmal höher liegen. Der Apparat als Ganzes ist darauf ausgelegt, diese Differenz in den meisten Fällen während des 1-Sekunde-Zeitmaßstabes auf eine Bandbreite von 2 cm über oder unter dem Wasserstand im Mess-Schacht zu begrenzen – obwohl einige Ablesungen weit außerhalb dieser Bandbreite liegen und als „Ausreißer“ gelistet werden (die Regel lautet, alle 3-Sigma-Ausreißer auszusondern – aus dem Satz der 181 Ablesungen – bevor man das Mittel berechnet, welches als der 6-Minuten-Wert gemeldet wird).

Wir können nicht jede individuelle Messung als eine Messung des Wasserstandes außerhalb des Mess-Schachtes betrachten – es wird der Wasserstand innerhalb des Mess-Schachtes gemessen. Diese Im-Schacht-Messungen sind sehr genau und präzise – bis auf 1 Millimeter. Allerdings ist jede 2-Sekunde-Aufzeichnung eine mechanische Approximation des Wasserstandes außerhalb des Schachtes – also dem tatsächlichen Wasserstand im Hafen, welcher eine fortwährend sich ändernde Variable ist – spezifiziert zu der Genauigkeits-Bandbreite von +/- 2 Zentimeter. Die aufgezeichneten Messungen repräsentieren Bandbreiten von Werten. Diese Messungen enthalten keine „Fehler“ (zufällige oder andere), wenn sie sich vom tatsächlichen Wasserstand im Hafen unterscheiden. Der Wasserstand im Hafen oder im Fluss oder in der Bucht selbst ist niemals wirklich gemessen worden.

Die als „Wasserstand“ aufgezeichneten Daten sind abgeleitete Werte – und keineswegs direkte Messungen. Das Tiden-Messgerät als Messinstrument wurde so ausgerichtet, dass es Messungen innerhalb des Schachtes mit einer Genauigkeit von 2 cm, plus oder minus durchführt, welche den tatsächlichen augenblicklichen Wasserstandes außerhalb des Schachtes repräsentieren – was ja das ist, das wir messen wollen. Nach 181 Messungen innerhalb des Schachtes und dem Aussortieren jedweder Daten, die zu abwegig sind, wird der Rest der 181 Messungen gemittelt und der 6-Minuten-Wert gemeldet mit der korrekten Genauigkeits-Angabe von +/- 2 cm – der gleichen Genauigkeit also wie bei den individuellen 1-Sekunde-Messungen.

Der gemeldete Wert bezeichnet eine Werte-Bandbreite – welche immer angemessen mit jedem Wert angegeben werden muss – im Falle von Wasserständen der NOAA-Tiden-Messgeräte +/- 2 cm.

Die NOAA behauptet zu recht nicht, dass die sechs-Minuten-Aufzeichnungen, welche das Mittel von 181 1-Sekunde-Messungen sind, eine größere Genauigkeit aufweisen als die individuellen Original-Messungen.

Warum behauptet die NOAA aber dann, dass monatliche Mittelwerte bis auf +/- 5 mm genau sind? In diesen Berechnungen wird die Genauigkeit der Original-Messungen einfach komplett ignoriert, und nur die gemeldeten/aufgezeichneten Sechs-Minuten-Mittelwerte werden betrachtet (vom Autor bestätigt) – das ist der gleiche Fehler, wie er auch bei Berechnungen fast aller anderen großen Datensätze gemacht wird, indem das nicht anwendbare Gesetz Großer Zahlen [Law of Large Numbers] angewendet wird.

Genauigkeit jedoch wird, wie hier gezeigt, bestimmt durch die Genauigkeit der Original-Messungen, wenn man eine nicht statische, sich immer ändernde und kontinuierlich variable Quantität misst und dann als eine Bandbreite möglicher Werte aufzeichnet – die Bandbreite der Genauigkeit spezifiziert für das Messsystem – und die nicht durch Berechnungen von Mittelwerten verbessert werden kann.

 

Unter dem Strich:

1. Wenn numerische Werte Bandbreiten sind anstatt wahrer diskreter Werte, dann bestimmt die Größe der Bandbreite des Originalwertes (in unserem Falle die Messung) die Größe der Bandbreite jedweden nachfolgenden Mittelwertes dieser numerischen Werte.

2. Von ASOS-Stationen berechnete Temperaturen jedoch werden aufgezeichnet und als Temperaturen gemeldet mit einer Bandbreite von 1°F (0,55°C), und diese Temperaturen werden korrekt als „ganze Zahlen +/- 0,5°F“ aufgezeichnet. Die Mittelwerte dieser aufgezeichneten Temperaturen können nicht genauer sein als die Originalmessungen – weil die Aufzeichnungen der Originalmessungen selbst Bandbreiten sind. Die Mittelwerte müssen mit den gleichen +/- 0,5°F angegeben werden.

3. Gleiches gilt für die Daten von Tiden-Messapparaten, wie sie gegenwärtig gesammelt und aufgezeichnet werden. Die primäre Aufzeichnung von 6-Minuten-Werten sind trotz auf Millimeter-Genauigkeit aufgezeichneter Präzision ebenfalls Bandbreiten mit einer Original-Genauigkeit von +/- 2 Zentimetern. Dies ist die Folge des Designs und der Spezifikation des Messinstrumentes, welches das einer Art mechanisch mittelnden Systems ist. Die Mittel von Werten von Tiden-Messgeräten können nicht genauer gemacht werden als die +/- 2 cm – was weit genauer ist als notwendig zur Messung von Gezeiten und der Bestimmung eines sicheren Wasserstandes für Schiffe.

4. Wenn Original-Messungen Bandbreiten sind, sind deren Mittelwerte ebenfalls Bandbreiten von gleicher Größenordnung. Diese Tatsache darf nicht ignoriert oder missachtet werden.Tut man dies doch, erzeugt man einen falschen Eindruck von der Genauigkeit unseres numerischen Wissens. Oftmals überschattet die mathematische Präzision eines berechneten Mittels dessen reale Welt, eine weit verschwommenere Genauigkeit, was zu einer unrichtigen Signifikanz führt, welche Änderungen sehr geringer Größenordnung dieser Mittelwerte beigemessen wird.

Link: https://wattsupwiththat.com/2017/10/14/durable-original-measurement-uncertainty/
Übersetzt von Chris Frey EIKE