Was die Monopolkommission unterlässt!

Auf Wissenschaftler und Experten mit Scheuklappen sollte man sich lieber nicht verlassen. Nur Scheuklappen für Pferde haben ihre Berechtigung: Die Vierbeiner sollen nur das von Reiter oder Kutscher vorgegebene Ziel antraben, Scheuklappen sie bekanntlich davon nicht ablenken. Aber Wissenschaftler und Experten sind keine Pferde, sondern wichtige Ratgeber. Wenn nämlich Sie ein Ziel ansteuern, sollten sie über den Horizont ihres begrenzten Fachgebietes hinausblicken können, auch andere wissenschaftliche Disziplinen im Blick haben und bedenken, ob das Ziel, das sie als Ratgeber anzusteuern beauftragt sind, auch wirklich sinnvoll ist. So zu verfahren, ist umso wichtiger, je mehr die Spezialisierung auch in den Wissenschaften immer weiter ausufert und Detail-Wissen wichtiges Allgemein-Wissen zurückdrängt. Blicke über den Zaun ihres verengten Fachgebietes zu werfen, wäre auch der deutschen Monopolkommission anzuraten. 
Den Kernpunkt der Kritik an der Energiewende lässt die Monopolkommission aus
Neulich hat diese Kommission*) der staatlichen Energiewende-Politik ein schlechtes Zeugnis ausgestellt. Sie tut das in ihrem Sondergutachten zur Energiepolitik, das  sie alle zwei Jahre vorlegt.**) Dabei beanstandet sie die Energiewende allerdings nicht grundsätzlich, obwohl diese Politik staatliche Intervention pur ist: Die Energiewende-Politik schaltet in der Stromerzeugung den Wettbewerb zwischen den Energieträgern aus und beglückt die Erzeuger von Wind-, Solar- und Biogasstrom mit hohen Subventionen, diktiert auf diese Weise die Strompreise und treibt sie nach oben. Subventionen und Preisdiktat sind nicht Wettbewerb. Sie fördern den Wettbewerb nicht, sie zerstören ihn. Eben in diese Wunde der Energiewende müsste die Monopolkommission den Finger legen. Das aber tut sie nicht.
Verfangen im interventionistischem Klein-Klein – Funktionsfähiger Wettbewerb sieht anders aus
Stattdessen befasst sie sich damit, wie der Staat mit seiner Intervention die Energiewende effizienter hinbekommt. Sie kritisiert herum an der Ausführung, bemängelt die Ausschreibungen der Kommunen für Gas- und Stromleitungen, kritisiert die Menge an Regulierungen, Zielen und Steuerungswirkungen als nur noch schwer überschaubar, mahnt das konsequente Vermeiden von CO2-Emissionen an, wirft dem Gesetzgeber Stückwerk vor, hantiert an allen möglichen Stellschrauben, gibt überaus zahlreiche Handlungsempfehlungen. Kurzum, so, wie sich der Staat mit seiner unsäglichen Energiewende-Bürokratie im Regelungsdickicht verfangen hat, das immer neuen Höhepunkten zustrebt – wie das bei staatlichen Interventionen üblicherweise der Fall ist und es der Wirtschaftswissenschaftler Ludwig von Mises schon in den 1930er Jahren dargestellt hat – so verliert sich in diesem interventionistischem Klein-Klein auch die Monopolkommission. Funktionsfähiger Wettbewerb, für den sie eintreten soll, sieht anders aus. Von der Monopolkommission muss der Bürger erwarten, dass sie wettbewerbspolitisch verfehlte Gesetzgebung nicht mit Ratschlägen zur besseren Anwendung unterstützt, sondern sagt, dass sie wettbewerbspolitisch verfehlt ist.
 
Was die Monopolkommission fahrlässig versäumt
Die Klimaschutzpolitik, mit der die Wende zum „Ökostrom“ offiziell politisch begründet wird, stellt die Monopolkommission nicht infrage, nimmt sie (fahrlässig) als gegeben hin. Man mag einwenden, es sei doch auch nicht ihre Aufgabe, darüber zu befinden, ob das anthropogene CO2zu höheren Temperaturen auf der Erde führt und daher das gegenwärtige Klima zu „schützen“ ist. Gewiss, das soll sie nicht und kann sie nicht. Aber andere können das: Naturwissenschaftler. Das Wenigste aber, was auch die Mitglieder der Monopolkommission in den vielen Jahren mitbekommen haben müssen, ist, dass diese CO2-Erwärmungsthese wissenschaftlich alles andere als einhellig geteilt wird, nicht bewiesen und damit zumindest umstritten ist.***)  Was bestritten ist, ist nicht unumstößlich belegt. Was nicht belegt ist, darf nicht zu einer Politik werden, die ruinöse Folgen hat.
Worauf die Monopolkommission wenigstens hinweisen müsste
Wenn sie das also wissen und sich zusätzlich kundig machen können, dann müssen sie sich – gerade weil sie  Ökonomen und Unternehmensführer sind – klarmachen können, dass man auf unbewiesene, umstrittene Thesen keine so leichtsinnige, folgenschwere und super-teure Politik wie die der Energiewende aufbauen darf. Und würden sie sich zusätzlich kundig machen, dann würden sie sogar darauf stoßen, dass dieses Ökostrom-Trara sehr wahrscheinlich aus ganz anderen Gründen stattfindet, als die Erde vor (vorgeblich) anthropogener Erwärmung zu schützen. Die Monopolkommission hätte also Grund und Verpflichtung genug, auf diesen Leichtsinn und diese Folgenschwere wenigstens hinzuweisen und so die Fragwürdigkeit der Energiewende öffentlich zu machen. Auf gute und unwiderlegliche Gründe gegen den Strom aus „erneuerbaren“ Energien (EE-Strom) kann sie sich dabei berufen, vor allem auf diese:
Die fünf naturgesetzlich bedingten Hauptmängel der Energiewende
1. Wind und Sonnenlicht haben eine viel zu geringe Energiedichte. Das heißt: Um sie zu nutzen, ist zwangsläufig ein riesiger Flächenbedarf nötig mit zigtausenden Windkraft- und Fotovoltaik-Anlagen. Das gilt ebenso für den Energiepflanzenanbau zur Herstellung von „Biogas“.  (Näheres zur Energie- oder Leistungsdichte hier).
2. EE-Strom ist unzuverlässig. Denn Wind und Sonne scheinen, wann sie wollen, und nicht, wann sie sollen. Sie erzeugen daher nur wetterabhängigen Zufallsstrom, auch Wackelstrom genannt. Daran ändert sich auch dann nichts, wenn immer mehr EE-Anlagen in Betrieb gehen. Sie sind ebenso unsicher sind wie weniger Anlagen Denn es gibt Wetterlagen, in denen alle Anlagen überhaupt keinen Strom erzeugen, unabhängig davon, wieviele es sind. Denn 26 500 Anlagen liefern bei Windstille genauso wenig Strom wie 170 000, nämlich Null. Das Gleiche gilt für Solaranlagen mit ihrem Strom aus Sonnenschein. Wasserkraft lieferte  2016 nur 3,3 Prozent des Bruttostroms, und ein weiterer Ausbau ist in Deutschland nicht möglich.
3. Wetterabhängiger Zufallsstrom bedeutet schlechte Regelbarkeit. Dadurch kann man mit ihm die erforderliche Netzstabilität nicht sicherstellen – im Gegensatz zu Kohle-, Gas- und Kernkraftwerken. Nur diese drei Letztgenannten vermögen es, die Soll-Netzfrequenz von 50 Hertz stabil zu halten. Schon bei einer Abweichung von 0,2 Hertz von der Sollfrequenz besteht die Stromausfall-Gefahr, kann es zappenduster werden. Daher ist Zufallsstrom nicht grundlastfähig, also nicht in der Lage, den jeweiligen Strombedarf jederzeit sicherzustellen.
4. Der Nutzungsgrad von EE-Strom ist zu gering. Bei Windkraftanlagen liegt er bei knapp 20 Prozent ihrer Nennleistung, bei Solaranlagen (Fotovoltaik) um 10 Prozent. Das heißt: Diese „Stromfabriken“ stehen zwischen 80  und 90 Prozent der Zeit eines Jahres still. Das ist Verschwendung pur.
5. Strom ist in der nötigen Größenordnung nicht direkt speicherbar. Was die Verbraucher an Strom gerade abfordern, muss sekundengenau in der gleichen Menge auch erzeugt werden. Oder umgekehrt formuliert: Strom muss, sowie erzeugt, auch sofort verbraucht werden – innerhalb einer Zehntel Sekunde. Wenn Wind und Sonne mehr Strom erzeugen, als gerade benötigt wird und der Überschuss nicht im Ausland unterzubringen ist, müssen die EE-Anlagen abgestellt werden. Technische Tricks, diesen Strom indirekt zu speichern, indem man die elektrische Energie zum Beispiel in gasförmige Energie (Methan) umwandelt (Power-to-Gas-Verfahren), haben einen extrem schlechten Wirkungsgrad, bei dem drei Viertel der Energie verloren gehen. Sie sind daher unglaublich teuer, also sehr unwirtschaftlich. Rein technisch ist zwar vieles möglich, aber nicht alles technisch Mögliche ist auch sinnvoll und bezahlbar.
Für die Stromverbraucher ist das Gutachten letztlich so gut wie wertlos
Diese fünf Mängel sind naturgesetzlich bedingt. Sie hängen dem EE-Strom unausweichlich und unwiderleglich an wie ein schwerer Klotz. Es sind daher inhärente Mängel. Schon sie allein genügen, um von der Stromerzeugung mittels Wind und Sonne  die Finger zu lassen. Trotzdem tun Bundesregierung, Politiker aller Altparteien und die Profiteure der Energiewende-Politik so, als gäbe es diese Naturgesetzlichkeit nicht. An dieser Missachtung wird die Energiewende letztlich auch scheitern. Aber erst nach horrenden Kosten für Bürger, Unternehmen und Volkswirtschaft. Da dies die Folge des zerstörten Wettbewerbs in der Stromerzeugung ist, ist das Sondergutachten für Stromverbraucher letztlich so gut wie nichts wert.
____________________________________________________________________________
*) „Die Monopolkommission besteht aus fünf Mitgliedern, die über besondere volkswirtschaftliche, betriebswirtschaftliche, sozialpolitische, technologische oder wirtschaftsrechtliche Kenntnisse und Erfahrungen verfügen müssen.“ (hier). Beraten soll sie Bundesregierung und Gesetzgeber zur  Wettbewerbspolitik, zum Wettbewerbsrecht und zur staatlichen Regulierung. Im Wesentlichen geht es darum zu beobachten und zu untersuchen, wie es um den Wettbewerb bestellt ist, und zur Wettbewerbsentwicklung Stellung zu nehmen.
**) Sondergutachten 77: Energie 2017: Gezielt vorgehen, Stückwerk vermeiden (hier). Es ist das sechste zum Energiemarkt und 154 Seiten lang. Der volle Text des Sondergutachtens hier. Die gesetzliche Grundlage ist Paragraph 62 des Energiewirtschaftsgesetzes.
***) Kritisch zur Energiewende und Klimaschutzpolitik Stellung bezogen hat als einzige deutsche Partei die AfD: „Die Untersuchungen einiger Institute zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet, teilweise widerlegt und beruhen nur auf Computer-Modellen. Das Klima hat sich in der Erdgeschichte stets, also auch vor der Industrialisierung und ohne menschlichen Einfluss verändert. Die AfD tritt dafür ein, die Klimaforschung, soweit sie lediglich auf Computer-Modellen basiert und nicht ergebnisoffen betrieben wird, nicht weiter zu fördern und die einseitige Darstellung des anthropogenen CO2 als vermeintliche Ursache von befürchteter Klimaerwärmung aufzugeben.“ (Aus dem Wahlprogramm der AfD Schleswig-Holstein). Ähnlich formuliert ist es im Grundsatz- und Wahlprogramm der AfD-Bundespartei.
Übernommen vom Blog des Autors hier




Katastro­phales Feuer-Manage­ment stürzt Kali­fornien ins Chaos

Ohne Vorwarnung begannen die Brände, sich am Sonntag Abend, 8. Oktober, rapide auszubreiten, und bis zum Ende der Woche gab es 31 bestätigte Todesopfer, über 400 Menschen werden noch vermisst und 350 Bauten wurden zerstört. In Santa Rosa, das lange als sicher vor Waldbränden galt, gingen ganze Wohnkomplexe innerhalb von Minuten in Flammen auf. Geschätzt 60.000 Menschen waren gezwungen zu fliehen oder wurden aus den Feuergebieten evakuiert.

Alles in allem zerstörten 22 separate Brände etwa 300 Quadratmeilen Land [ca. 780 km²]. Es ist das zweittödlichste Feuer in Kalifornien seit 1923. Launen von Mutter Natur sorgten für eine Verschlimmerung der Misere. Der Diablo-Wind, ein starker, böiger und häufig im Norden Kaliforniens auftretender Wind half bei der Ausbreitung der Flächenbrände. Und während sich die Region jüngst aus einer schweren, Jahre langen Dürre erholt hat, haben die Gräser, die dank des dringend benötigten Niederschlags wieder gewachsen sind, dem Feuer geholfen, sich noch rascher zu verbreiten.

Flächenbrände und die Umwelt

Zusätzlich zu den verheerenden Verlusten von Menschenleben haben die Brände, welche wohl noch einige weitere Wochen wüten werden, auch ihren Zoll von der Wildnis und der Luftqualität gefordert. Satellitenbilder zeigen eine riesige Rauchwolke, welche sich vom zentralen Kalifornien über den Nordwesten von Nevada bis ins südliche Oregon und Idaho erstreckt. Sean Reffuse, ein Fachmann bzgl. Luftgüte an der University von California in Davis sagte, dass die Feuer 10.000 Tonnen Partikel in die Luft geblasen haben, eine führende Ursache von Dunst. Ist man einem höheren Niveau dieser Partikel in der Luft ausgesetzt, führt dies zu Atem- und Herz-Kreislauf-Problemen.

Die Ursachen für die Brände bleiben aber zunächst unbekannt. Flächenbrände waren seit jeher eine Geißel in Kalifornien und anderen Gebieten des ariden Westens. Das trockene Klima Kaliforniens ist zusammen mit starken Winden – Diablo im Norden und Santa Ana im Süden – der beste Freund eines Flächenbrandes.

Konsequenzen einer schlechten Politik

Die Region ist bewachsen mit riesigen nationalen Wäldern, welche Jahrzehnte lang mittels einer verheerenden Politik der Feuer-Unterdrückung verwaltet worden sind. In Wäldern können Waldbrände, normalerweise verursacht durch Blitze, der Weg der Natur sein, wucherndes Unterholz zu beseitigen, bevor es sich in gefährlicher Weise ausbreitet. Wenn diese relativ kleinen Brände unterdrückt werden, können Wälder zu veritablen Brandbeschleunigern werden. Selbst nach Implementierung der Healthy Forest Initiative im vorigen Jahrzehnt, also einem Gesetz, welches dem US Forest Service erlaubt, tote und kranke Bäume aus den Wäldern zu entfernen, enthalten viele von der Forstverwaltung bewirtschaftete Gebiete immer noch das Risiko, einen Flächenbrand auszulösen.

Was aber noch mehr zählt: Restriktive Flächennutzungs-Vorschriften in Städten wie San Francisco und San Jose haben die Preise für Menschen der oberen Mittelklasse, mit mittlerem oder geringerem Einkommen das Wohnen in den Nobel-Gebieten unerschwinglich gemacht. Weil sie nicht mehr in der Lage sind, die Preise in Nobel-Stadtgebieten aufzubringen, sind viele Menschen gezwungen, in entfernten Vororten zu leben, was sie näher an die Gebiete treibt, die für den Ausbruch von Bränden anfällig sind.

Flächenbrände wird es bei uns immer geben. Das hängt vom Territorium ab. Aber bei einer Politik, welche Bedingungen schafft, die Wälder einem Brand wie reife Früchte in den Schoß fallen lässt, oder wenn man Menschen zwingt, in Hochrisiko-Gebieten zu leben, dann sollte man sich nicht wundern, wenn die Katastrophe auf dem Fuße folgt.

Link: http://www.cfact.org/2017/10/16/disastrous-fire-management-wreaks-havoc-on-california/?mc_cid=3f2b47fe6c&mc_eid=1ad97dafa6

Hierzu gab es auch einen Mail-Austausch zwischen dem Vizepräsidenten des EIKE Michael Limburg und Craig Rucker von CFACT. Ruckers Antwort folgt hier als Anhang:

Im vorigen Jahrhundert gab es viel schlimmere Brände

Craig Rucker
Die in Kalifornien wütenden Brände haben zu einer herzzerreißenden Verheerung geführt. 41 Menschen verloren bislang ihr Leben, und der Schaden wird mit 3 Milliarden Dollar geschätzt.

Grüne Aktivistengruppen, die niemals eine Gelegenheit auslassen, eine „ernste Krise links liegen zu lassen“, schieben die Brände schamlos der globalen Erwärmung in die Schuhe und behaupten, dass die Brände in diesem Jahr die größten Flächen jemals verheert hätten. [Natürlich war auch die „Süddeutsche Zeitung“ sofort zur Stelle, um diesen Unsinn zu schreiben. Anm. d. Übers.]

Aber das liegt ausschließlich daran, dass das National Interagency Fire Center merkwürdigerweise – und irgendwie bequemerweise – die jährlich verbrannte Fläche nur zurück bis zum Jahr 1960 listet“, erklärt Bjørn Lomborg, Präsident des Copenhagen Consensus Center.

Aber die offiziellen historischen Daten der USA sagen etwas ganz Anderes. Man betrachte die Historische Statistik der USA – von der Kolonialzeit bis 1970. Das ergibt eine Statistik der Fläche der verbrannten Gebiete seit dem Jahr 1926 bis 1970. Um sicherzugehen, überlappen sich die Jahre von 1960 bis 1970. Es zeigt sich die gleiche Datenreihe“, kommentierte Prof. Lomborg obige Graphik.

Die Protagonisten der globalen Erwärmung wollen uns glauben machen, dass die Historie erst gestern angefangen hat. Das macht es ihnen leichter, hinsichtlich des Beginns einer Datenreihe „Rosinenpickerei“ zu betreiben, um den falschen Eindruck zu erzeugen, dass natürliche Phänomene heutzutage schlimmer sind als während der Vergangenheit. Ihre Behauptungen halten nicht einmal einer Schnell-Überprüfung stand.

Der leitende politische Analyst Bonner Cohen erinnert uns daran [siehe seinen Beitrag oben, Anm. d. Übers.], dass die Menschen in der Tat ihre Hand im Spiel hatten, als die Brände in Kalifornien schlimmer wurden, aber nicht mit dem Fahren von Autos oder den Verbrauch von Strom. Während der jüngsten Jahre gab es ein ganz mieses Wald-Management. Das Verbot, den Wäldern Brennholz zu entnehmen, hat dazu geführt, dass Wälder überwuchert sind durch tote Bäume und vertrocknetes Unterholz. Feuerschneisen sind unzureichend und die Politik der Brandbekämpfung ist unangemessen.

Stehen wir den Menschen in Kalifornien mit Wort und Tat zur Seite. Setzen wir uns ein für ein besseres Wald-Management, und sorgen wir dafür, dass wir all jene bloßstellen, welche diese Tragödie ausschlachten, nur um das Narrativ der globalen Erwärmung voranzutreiben.

Übersetzt von Chris Frey EIKE




Die junge Klimagarde mit der Weltrettungs­bibel von Frau Hendricks auf dem Weg zum Train to Bonn

(Klima-)Jugendbotschafterinnen und Jugendbotschafter

Video nicht mehr verfügbarBild 1 Video der Begrüßung der Teilnehmer*innen durch Frau Hendricks.Eine solche Rekrutierungsmaßnahme wurde von Frau Hendricks veranlasst und von ihrem Ministerium unter dem Titel
[1] Welche Ideen haben junge Menschen, um den Folgen des Klimawandels zu begegnen? Was fordern sie von der Politik zum Thema Klimaschutz? Was kann jeder selbst tun?
Diese Fragen wurden am 29. September 2017 sehr lebhaft auf den drei zeitgleich stattfindenden Jugenddialogen in Bochum, Eberswalde und Nürnberg diskutiert, zu denen das Bundesumweltministerium im Vorfeld der Weltklimakonferenz eingeladen hatte. Rund 200 Teilnehmende im Alter zwischen 16 und 25 Jahren entwickelten ihre Ideen und Lösungsansätze in vier thematischen Runden zum Thema Klimawandel und Klimaschutz: Wie werden sich Klimawandel und Klimaschutzmaßnahmen auf unser zukünftiges Leben auswirken? Was sollte in Deutschland getan werden, um die internationalen Klimaziele zu erreichen und was sind wir selbst bereit dafür zu tun? Und wie können insbesondere junge Menschen stärker in die Klimapolitik einbezogen werden?
Die auf den drei Dialogveranstaltungen ausgelosten Jugendbotschafterinnen und Jugendbotschafter haben auf einem Workshop am 14. Oktober aus den Ergebnissen der drei Jugenddialoge die wichtigsten Ergebnisse und Empfehlungen herausgearbeitet, die in einem Jugendreport zusammengestellt werden.
Der Jugendreport wird am 4. November 2017 Bundesumweltministerin Barbara Hendricks überreicht und auch auf dem Weltklimagipfel in Bonn vorgestellt.

In Nürnberg, Bochum und Eberswalde haben sich junge Leute Rezepte gegen den Klimawandel überlegt

Bild 2 [1] Barbara Hendricks begrüßt die Jugendlichen per Videobotschaft

In der Lokalzeitung des Autors hieß der große (unkritische) Redaktionsbeitrag dazu: „100 Jugendliche und die Rettung der Welt“. Nachdem darin eine teilnehmende Jungredakteurin über den Ablauf einer dieser Rekrutierungsmaßnahmen berichtete, daraus zur Information.

Welchen Beitrag Sie auch immer bereit sind zu leisten: Kein Beitrag ist zu klein“

Teilnehmende Jungredakteurin: [2] Voller Spannung, aber ohne eine konkrete Vorstellung davon, was mich genau erwartet, betrete ich den Aufseßsaal im Germanischen Nationalmuseum. „Unser Klima! Unsere Zukunft! Jugenddialog zur 23. Weltklimakonferenz“.
… mit dem Thema Klimawandel ist die 21-jährige aus Freiburg bestens vertraut. Sie studiert Waldwirtschaft und engagiert sich im studentischen Netzwerk „sneep“ für mehr Nachhaltigkeit. „Ich beschäftige mich sehr mit Suffizienz. Dabei geht es darum, mit weniger auszukommen und trotzdem glücklich zu sein …. „
heißt uns Bundesumweltministerin Barbara Hendricks per Videobotschaft willkommen … am Ende betont sie: „Welchen Beitrag Sie auch immer bereit sind zu leisten: Kein Beitrag ist zu klein“.
Dann gehen wir zur Tagesordnung über. Die sieht vier Themenblöcke vor: „Der Klimawandel und seine Folgen“. „Der Beitrag Deutschlands zur Erreichung der internationalen Klimaziele“. „Globale Gemeinschaft, globale Verantwortung“ und „Vision 2050“. Zum Einstieg in jedes Thema gibt es einen kurzen, informativen Vortrag, anschließend haben die 100 Jungen Leute 30 Minuten Zeit, an jedem Tisch darüber zu diskutieren. Dann geht`s ans Abstimmen.
Beim Input wird klargemacht: Der Klimawandel selbst ist nicht zu stoppen – es geht darum, ihn zu verlangsamen.
… Nach der Diskussionsrunde beantwortet jeder elf Fragen über sein Handy. Daraus ergibt sich ein Stimmungsbild … :
64 % würden, um das Klima zu verbessern, mehr auf ihre Ernährung achten. Dagegen sind 61 Prozent nicht bereits, ihre Urlaubsansprüche zum Schutz der Umwelt zu senken … jeder Zweite ist Vegetarier oder Veganer …

Was geschieht mit den Ergebnissen

Bild 3 Screenshot von der Homepage des Umweltministeriums


[2] Kurz vor Beginn des Weltklimagipfels wird der Jugendreport im sogenannten „Train to Bonn“ der Umweltministerin übergeben … die erarbeiteten Ergebnisse sollen …. direkt an die Entscheidungsträger weitergegeben werden. Diese werden versuchen, sie in ihre Arbeiten einzubeziehen.

Arbeitsbeispiele aus den Stadtveranstaltungen

Wenn Jugendliche im Alter von 16 … 25 Jahren, also beginnend mit maximal zehn Schuljahren, andere dagegen fast schon mit einem fertigen Hochulstudium [3], miteinander über ein Fachthema diskutieren (sollen), kann das keine fruchtbare Diskussion werden, schon gar nicht in der kurzen Zeit von 30 Minuten. Das war ganz bestimmt auch nicht der Sinn, denn der Ablauf sollte ja auf gar keinen Fall Zweifel, sondern ein sicheres – vorgegebenes – Ergebnis liefern.
Wie solche aussehen, anbei ohne Kommentierung. Oder doch eine Kleine vorweg: Der Autor stellt sich vor, als wirklicher Fachmann oder (kompetenter) Regierungschef würde er diese Vorschläge von der Umweltministerin eines (noch) Hochtechnologielandes als ausgesuchtes „Diskussionsergebnis und Lösungsideen“ der „Jugendelite“ des Landes bis zum Alter von bereits 25 Jahren mit fast abgeschlossenem Studium bekommen. Er würde sich für dieses Land schämen (nun schämt er sich dafür als Bürger). Als Vertreter eines der vielen Länder, welche nur noch um das „ihnen zustehende“ Klimaschutzgeld pokern, würde er denken: So lange die zuständige Ministerin und die Jugend des Geberlandes auf diesem niedrigen, unreflektierendem Niveau mit dem Thema umgehen, besteht keine Gefahr, dass die vielen Falschdarstellungen unserer gemeldeten Klimabedrohungen wahrgenommen und die versprochenen Zahlungen gestrichen werden.
Noch eine Anmerkung: Bei manchen Vorschlägen hat man den Eindruck, dass das Thema von Teilnehmer*ìnnen nicht so richtig ernst genommen wurde. Vielleicht war es sogar Ausdruck von geheimem Protest? Warum so etwas dann allerdings noch übersetzt und auf eine Regierungs-Homepage gepinnt wird, erschließt sich dem Autor nicht.
Der Autor erinnert sich jedoch an solche Workshops bei seinem ehemaligen Arbeitgeber. Wenn diese (und das war immer bei vom Vorstand angeordneten „Globalmaßnahmen“ der Fall, wenn dazu die gesamte Belegschaft auf „begeisterte Zustimmung“ gebürstet wurde) Soziologen und Psychologen solcher Veranstaltungsfirmen moderierten, ging es immer nur um Masse, das Niveau war dabei vollkommen nebensächlich.

Bild 4 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 5 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 6 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 7 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 8 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 9 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 10 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 11 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 12 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 13 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Arbeitsbeispiele aus dem Sammelworkshop der Botschafter*innen in Berlin

Die Einstimmung: Parteipolitik und Ideologie in Reinstform (Bild 14). Erkennbar war auch bei der Abschlussveranstaltung von den Botschafter*ìnnen keine neutrale Diskussion zum (angeblichen) Klimawandel erwünscht. Sieht man sich die folgenden Ausarbeitungen an, wagt man auch Zweifel, ob dies Sinn gemacht hätte. Verständlich: Kämpfer dürfen bei Befehlen nicht zu Denken anfangen, sondern müssen bedingungslos umsetzten.

Frau Hendricks Grüne Brigaden, versorgt mit der Klimabibel

Jedenfalls ist das Experiment gelungen: Grüne Brigaden lassen sich bei uns auch außerhalb der Parteijugend problemlos aufbauen – Proteste dagegen finden sich nicht.

Bild 14 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 15 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 16 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 17 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 18 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Quellen
[1] Bundesministerium für Umwelt Naturschutz und Reaktorsicherheit: Jugenddialog zur 23. Weltklimakonferenz
[2] Lokalausgabe der Nordbayerischen Nachrichten, 14. Oktober 2017: 100 Jugendliche und die Rettung der Welt
[3] Universität Hildesheim Green Office




Permanente Unsicherheit in Original-Messungen

In den Kommentaren zu meinen letzten Beiträgen über Tidenmessgeräte erhob sich die Frage der Beständigkeit der Unsicherheit in den Original-Messungen. Hier folgen die Fragen, die zu beantworten ich mit diesem Beitrag versuchen möchte:

Falls Originalmessungen bis auf eine Unsicherheit von +/- X (irgendein Wert in irgendeiner Einheit) durchgeführt werden, überträgt sich dann die Unsicherheit der Originalmessung auf einen oder alle Mittelwerte dieser Messungen?

Sorgt die Durchführung weiterer Messungen bis auf den gleichen Grad Unsicherheit genau die Berechnung noch genauerer Mittelwerte?

Meine Haltung in diesem Beitrag ist Folgende:

Falls jede Messung nur auf ± 2 cm genau ist, dann kann das monatliche Mittel nicht NOCH genauer sein – es muss die gleiche Bandbreite von Fehlern/Unsicherheiten enthalten wie die Originalmessungen, aus denen das Mittel gebildet worden ist. Die Mittelung bringt keine Erhöhung der Genauigkeit.

Es wäre untertrieben zu sagen, dass es sehr viel Uneinigkeit von einigen Statistikern und jenen mit einer klassischen statistischen Ausbildung gab.

Ich werde mich nicht über das Thema Präzision oder Präzision von Mittelwerten auslassen. Es gibt dazu eine gute Diskussion bei Wikipedia: Accuracy and precision.

Gegenstand meiner Bedenken hier ist diese reine Trivial-Genauigkeit [vanilla accuracy]: „Genauigkeit einer Messung ist der Grad, wie nahe Messungen von bestimmter Anzahl an dem wahren Wert jener Quantität liegt“. (,Wahrer Wert‘ bedeutet hier den tatsächlichen Wert in der realen Welt – nicht irgendein kognitives Konstrukt desselben).

Der allgemeine Standpunkt der Statistiker wird in diesem Kommentar zusammengefasst:

Die Aussage, dass die Genauigkeit des mittleren Meeresspiegels an einer Stelle nicht verbessert wird durch die Durchführung vieler Messungen über einen verlängerten Zeitraum ist lachhaft und legt ein fundamentales Fehlen von Verständnis der physikalischen Wissenschaft an den Tag“.

Ich gebe zu, dass ich frisch von der Universität einmal diesem Standpunkt zugestimmt habe. Und zwar bis ich einem berühmten Statistiker die gleiche Frage vorlegte. Sofort und gründlich wurde ich mit einer Reihe von Hausaufgaben konfrontiert, womit ich mir selbst beweisen sollte, dass der Gedanke in vielfacher Hinsicht unrichtig ist.

Erstes Beispiel:

Beginnen wir mit einem einfachen Beispiel über Temperaturen. Temperaturen in den USA werden in ganzen Grad Fahrenheit gemessen und aufgezeichnet. (Fragen Sie mich nicht, warum wir nicht den wissenschaftlichen Standard benutzen. Ich weiß es nämlich nicht). Diese Aufzeichnungen in ganzen Grad Fahrenheit werden dann mittels eines Rechners in Grad Celsius konvertiert, und zwar bis zur ersten Dezimalstelle, also beispielsweise 15,6°C.

Dies bedeutet, dass jede und alle Temperaturen zwischen beispielsweise 72,5°F und 71,5°F als 72°F aufgezeichnet werden. (In der Praxis wird die eine oder andere Messung mit X,5 ausgesondert und die anderen ab- oder aufgerundet). Folglich bedeutet eine amtliche Temperaturaufzeichnung vom Battery Park um 12 Uhr mittags von „72°F“ in der realen Welt, dass die Temperatur mittels Messung in der Bandbreite zwischen 71,5°F und 72,5°F liegt – mit anderen Worten, die präsentierte Zahl repräsentiert eine Bandbreite von 1°F.

In der wissenschaftlichen Literatur könnten wir diesen Umstand in der Schreibweise 72 +/- 0.5 °F wiederfinden. Oftmals wird dies dann als eine Art „Vertrauensintervall“, „Fehlerbalken“ oder Standardabweichung missverstanden.

In diesem spezifischen Beispiel einer Temperaturmessung ist es nichts von diesen Dingen. Es ist einfach eine Form von Stenogramm für das tatsächliche Messverfahren, welches jedes Grad Bandbreite von Temperatur als eine einzelne ganze Zahl repräsentiert – wenn die Bedeutung in der realen Welt lautet „eine Temperatur mit einer Bandbreite von 0,5 Grad über oder unter der präsentierten ganzen Zahl“.

Jede Differenz zur tatsächlichen Temperatur über oder unter der präsentierten ganzen Zahl ist kein Fehler. Diese Abweichungen sind keine „Zufallsfehler“ und sind nicht „normalverteilt“.

Noch einmal zur Betonung: Die ganze Zahl einer präsentierten Temperatur an irgendeiner Stelle zu irgendeiner Zeit ist ein Kürzel für eine ein Grad große Bandbreite tatsächlicher Temperaturen, die obwohl laut Messung unterschiedlich in Gestalt der gleichen ganzen Zahl gemeldet werden. Visuell:

Obwohl in der Praxis die Temperaturen nur in ganzen Zahlen gemeldet werden, ändern sich die Temperaturen in der realen Welt nicht in Schritten von einem ganzen Grad – 72, 73, 74, 72, 71 usw. Temperatur ist eine kontinuierliche Variable. Und nicht nur das, sie ist eine sich ständig ändernde Variable. Wenn man Temperatur einmal um 11:00 und dann um 11:01 misst, misst man zwei unterschiedliche Quantitäten; die Messungen erfolgen unabhängig voneinander. Außerdem ist einer und sind alle Werte innerhalb der Bandbreite gleich wahrscheinlich – die Natur „bevorzugt“ keine Temperaturen, welche näher an der ganzen Zahl liegen.

(Anmerkung: In den USA werden ganze Grad Fahrenheit in Grad Celsius bis zur ersten Stelle nach dem Komma gerundet. 72°F werden konvertiert und ebenfalls aufgezeichnet als 22,2°C. Die Natur bevorzugt auch nicht Temperaturen, die näher an einem Zehntelgrad Celsius liegen).

Während es gegenwärtig Praxis ist, eine ganze Zahl zu melden, um die Bandbreite von ,ganzer Zahl plus ein halbes Grad und ganzer Zahl minus ein halbes Grad‘ zu repräsentieren, könnte diese Praxis auch irgendeine andere Notation sein. Es könnte auch einfach sein, dass die gemeldete ganze Zahl alle Temperaturen von der ganzen Zahl bis zur nächsten ganzen Zahl repräsentieren soll, dass also 71 bedeutet „irgendeine Temperatur von 71 bis 72“. Das gegenwärtige System der Verwendung der ganzen Zahl in der Mitte ist besser, weil die gemeldete ganze Zahl in der Mitte der sie repräsentierenden Bandbreite liegt. Allerdings ist dies einfach misszuverstehen, wenn es als 72 +/- 0.5 daherkommt.

Weil Temperatur eine kontinuierliche Variable ist, sind Abweichungen von der ganzen Zahl nicht einmal „Abweichungen“ – sie sind einfach die in Grad Fahrenheit gemessenen Temperatur, welche normalerweise durch den Dezimalanteil repräsentiert wird, welcher der Notation der ganzen Gradzahl folgen würde – der „x.4999“te Teil von 72,4999°F. Diese Dezimalanteile sind keine Fehler, sie sind nicht gemeldete und nicht aufgezeichnete Anteile der Messung, und weil Temperatur eine kontinuierliche Variable ist, muss sie als gleichmäßig verteilt über die gesamte Skala betrachtet werden – mit anderen Worten, es sind keine, keine, keine „normalverteilten Zufallsfehler“. Der einzige Grund, warum sie unsicher sind ist, dass sie selbst bei einer Messung nicht aufgezeichnet werden.

Was passiert also jetzt, nachdem wir herausgefunden haben, dass die Mittelwerte dieser Aufzeichnungen, welche – man erinnere sich – Kürzel von Temperatur-Bandbreiten sind?

Um diese Frage zu beantworten, wollen wir ein Schulexperiment durchführen…

Wir werden das Mittel von drei ganzen Grad Temperatur finden, und zwar erhalten wir diese Temperaturen in meinem Wohnzimmer:

Wie oben diskutiert, repräsentieren diese Temperaturwerte irgendwelche der unbegrenzt variablen Temperaturen, dennoch möchte ich diese kleine Graphik erstellen:

Hier erkennen wir, dass die Temperatur von jeder Stunde den höchsten Wert in der Bandbreite repräsentiert, den mittleren Wert in der Bandbreite (die gemeldete ganze Zahl) und als tiefsten Wert der Bandbreite. (Anmerkung: Wir dürfen nicht vergessen, dass es zwischen den Werten in jeder Spalte eine unendliche Anzahl von Bruchwerten gibt, die wir jetzt nur nicht zeigen). Diese Werte werden dann gemittelt – das Mittel berechnet – von links nach rechts: die höchsten Werte der drei Stunden ergeben ein Mittel von 72,5, der mittlere Wert ein Mittel von 72 und der niedrigste Wert ein Mittel von 71,5.

Das resultierende Mittel kann geschrieben werden in der Form 72 +/- 0.5, was ein Kürzel ist dafür, dass die Bandbreite von 71,5 bis 72,5 repräsentiert wird.

Die Genauigkeit des Mittels, repräsentiert in der Schreibweise +/- 0,5 ist identisch mit der Genauigkeit der Original-Messungen – sie repräsentieren beide eine Bandbreite möglicher Werte.

Anmerkung: Diese Unsicherheit stammt nicht aus der tatsächlichen instrumentellen Genauigkeit der Original-Messungen. Das ist etwas ganz anderes und muss zusätzlich zu der hier beschriebenen Genauigkeit betrachtet werden. Diese resultiert allein aus der Tatsache, dass gemessene Temperaturen als Ein-Grad-Bandbreiten dargestellt werden, wobei die Bruchteil-Informationen außen vor bleiben und für immer verloren sind, was uns mit der Unsicherheit zurücklässt – fehlendem Wissen – was die tatsächliche Messung selbst eigentlich war.

Natürlich kann die um 11:00 gemessene Temperatur 71,5; die um 12:00 gemessene 72 und die um 13:00 gemessene 72,5 betragen haben. Oder es könnte auch 70,5; 72; 73,5 gewesen sein.

Die Berechnung des Mittels zwischen den diagonal gegenüber liegenden Ecken ergibt 72 von Ecke zu Ecke. Über die Mittelpunkte ergibt sich immer noch 72.

Jedwede Kombination von höchsten, mittigen und niedrigsten Werten von jeder Stunde ergibt ein Mittel, welches zwischen 72,5 und 71,5 liegt – innerhalb der Unsicherheits-Bandbreite des Mittels.

Selbst für diese vereinfachten Netze gibt es viele mögliche Kombinationen von einem Wert aus jeder Spalte. Das Mittel jedweder Kombination liegt zwischen den Werten 72,5 und 71,5.

Es gibt buchstäblich eine unendliche Anzahl potentieller Werte zwischen 72,5 und 71,5, da Temperatur eine kontinuierliche Variable für jede Stunde ist. Das Auftreten aller möglichen Werte für jede stündliche Temperatur ist gleich wahrscheinlich – folglich sind alle möglichen Werte und alle möglichen Kombinationen eines Wertes für jede Stunde in Betracht zu ziehen. Nimmt man irgendeinen möglichen Wert aus jeder Spalte mit stündlichen Messungen und mittelt diese drei, ergibt sich immer das gleiche Ergebnis – alle Mittel haben einen Wert zwischen 72,5 und 71,5, was eine Bandbreite der gleichen Größenordnung repräsentiert wie die der Original-Messungen, eine Bandbreite von einem Grad Fahrenheit.

Die Genauigkeit des Mittels entspricht genau der Genauigkeit aus den Original-Messungen – es ist in beiden Fällen eine Ein-Grad-Bandbreite. Sie wurde um keinen Deut reduziert durch das Mittelungs-Verfahren. Das kann es auch nicht.

Anmerkung: Eine mehr technische Diskussion zu diesem Thema gibt es hier und hier.

Und die Daten der Tiden-Messgeräte?

Es ist klar, dass sich die Unsicherheit bzgl. der Genauigkeit der Original-Messungen der Temperatur aus dem Umstand ergibt, dass nur ganze Grad Fahrenheit bzw. Grad Celsius bis zur ersten Dezimalstelle angegeben werden. Das ergibt folglich keine Messungen mit einem Einzelwert, sondern stattdessen Bandbreiten.

Aber was ist mit den Daten der Tide-Messgeräte? Unterscheidet sich ein einzelner gemessener Wert bis zur Präzision von Millimetern also von obigem Beispiel? Die kurze Antwort lautet NEIN, aber ich nehme nicht an, dass das allgemein akzeptiert wird.

Welche Daten werden denn nun von Tiden-Messgeräten in den USA (und in den meisten anderen entwickelten Ländern) gemessen?

Die Geschätzte Genauigkeit wird als +/- 2 cm für individuelle Messungen angegeben, und es wird behauptet, dass diese für monatliche Mittelwerte 5 mm beträgt. Betrachten wir die Daten vom Battery-Park in New York, sehen wir etwas wie das hier:

Man beachte, dass wir laut diesem Datenblatt alle sechs Minuten (1 Zehntel-Stunde) eine Messung haben, und zwar den Wasserstand in Meter bis zum Niveau von Millimetern (4,639 m), und das „Sigma“ wird angegeben. Die Sechs-Minuten-Zahl wird folgendermaßen berechnet:

181 Eine-Sekunde-Wasserstandsmessungen zentriert um jedes Zehntel einer Stunde werden gemittelt, ein three standard deviation outlier rejection test [?] angewendet, dann werden Mittel und Standardabweichung erneut berechnet und gemeldet zusammen mit der Anzahl der Ausreißer. (3 Minuten-Wasserstandsmittel).

Um sicherzustellen, dass wir dieses Verfahren verstehen, stellte ich in einer E-Mail an @ co-ops.userservices@noaa.gov die folgende Frage:

Wenn sagen, bis zu einer Genauigkeit von +/- 2 cm meinen wir spezifisch, dass jede Messung zum tatsächlichen augenblicklichen Wasserstand außerhalb des Mess-Schachtes passt und innerhalb dieser +/- 2-cm-Bandbreite liegt.

Antwort:

Das ist korrekt! Die Genauigkeit jedes 6-minütigen Datenwertes beträgt +/- 2 cm des Wasserstandes zu jener Zeit.

(Anmerkung: In einer separaten E-Mail wurde klargestellt, dass „Sigma die Standardabweichung ist, essentiell die statistische Varianz zwischen diesen 181 1-Sekunde-Messungen“).

Frage und Antwort verifizieren, dass sowohl die 1-Sekunde-Messungen als auch der 6-Minuten-Datenwert eine Bandbreite des Wasserstandes von 4 cm, 2 cm plus oder minus vom gemeldeten Wasserstand repräsentiert.

Diese scheinbar vage Genauigkeit – jede Messung mit einer tatsächlichen Bandbreite von 4 cm – ist das Ergebnis des mechanischen Verfahrens der Mess-Apparatur, trotz der Auflösung von 1 Millimeter. Wie kommt das?

Die Illustration der NOAA des modernen Tiden-Messapparates am Battery Park zeigt den Grund. Die Blase oben links zeigt eindeutig, was während des 1-Sekunde-Intervalls der Messung passiert: Der augenblickliche Wasserstand innerhalb des Mess-Schachtes unterscheidet sich von dem außerhalb dieses Schachtes.

Diese 1-Sekunde-Ablesung wird in der „Primary data collection Platform“ gespeichert und später als Teil der 181 Messungen herangezogen, die für den gemeldeten 6-Minuten Wert gemittelt werden. Er unterscheidet sich wie illustriert von dem tatsächlichen Wasserstand außerhalb des Mess-Schachtes. Manchmal wird er niedriger, manchmal höher liegen. Der Apparat als Ganzes ist darauf ausgelegt, diese Differenz in den meisten Fällen während des 1-Sekunde-Zeitmaßstabes auf eine Bandbreite von 2 cm über oder unter dem Wasserstand im Mess-Schacht zu begrenzen – obwohl einige Ablesungen weit außerhalb dieser Bandbreite liegen und als „Ausreißer“ gelistet werden (die Regel lautet, alle 3-Sigma-Ausreißer auszusondern – aus dem Satz der 181 Ablesungen – bevor man das Mittel berechnet, welches als der 6-Minuten-Wert gemeldet wird).

Wir können nicht jede individuelle Messung als eine Messung des Wasserstandes außerhalb des Mess-Schachtes betrachten – es wird der Wasserstand innerhalb des Mess-Schachtes gemessen. Diese Im-Schacht-Messungen sind sehr genau und präzise – bis auf 1 Millimeter. Allerdings ist jede 2-Sekunde-Aufzeichnung eine mechanische Approximation des Wasserstandes außerhalb des Schachtes – also dem tatsächlichen Wasserstand im Hafen, welcher eine fortwährend sich ändernde Variable ist – spezifiziert zu der Genauigkeits-Bandbreite von +/- 2 Zentimeter. Die aufgezeichneten Messungen repräsentieren Bandbreiten von Werten. Diese Messungen enthalten keine „Fehler“ (zufällige oder andere), wenn sie sich vom tatsächlichen Wasserstand im Hafen unterscheiden. Der Wasserstand im Hafen oder im Fluss oder in der Bucht selbst ist niemals wirklich gemessen worden.

Die als „Wasserstand“ aufgezeichneten Daten sind abgeleitete Werte – und keineswegs direkte Messungen. Das Tiden-Messgerät als Messinstrument wurde so ausgerichtet, dass es Messungen innerhalb des Schachtes mit einer Genauigkeit von 2 cm, plus oder minus durchführt, welche den tatsächlichen augenblicklichen Wasserstandes außerhalb des Schachtes repräsentieren – was ja das ist, das wir messen wollen. Nach 181 Messungen innerhalb des Schachtes und dem Aussortieren jedweder Daten, die zu abwegig sind, wird der Rest der 181 Messungen gemittelt und der 6-Minuten-Wert gemeldet mit der korrekten Genauigkeits-Angabe von +/- 2 cm – der gleichen Genauigkeit also wie bei den individuellen 1-Sekunde-Messungen.

Der gemeldete Wert bezeichnet eine Werte-Bandbreite – welche immer angemessen mit jedem Wert angegeben werden muss – im Falle von Wasserständen der NOAA-Tiden-Messgeräte +/- 2 cm.

Die NOAA behauptet zu recht nicht, dass die sechs-Minuten-Aufzeichnungen, welche das Mittel von 181 1-Sekunde-Messungen sind, eine größere Genauigkeit aufweisen als die individuellen Original-Messungen.

Warum behauptet die NOAA aber dann, dass monatliche Mittelwerte bis auf +/- 5 mm genau sind? In diesen Berechnungen wird die Genauigkeit der Original-Messungen einfach komplett ignoriert, und nur die gemeldeten/aufgezeichneten Sechs-Minuten-Mittelwerte werden betrachtet (vom Autor bestätigt) – das ist der gleiche Fehler, wie er auch bei Berechnungen fast aller anderen großen Datensätze gemacht wird, indem das nicht anwendbare Gesetz Großer Zahlen [Law of Large Numbers] angewendet wird.

Genauigkeit jedoch wird, wie hier gezeigt, bestimmt durch die Genauigkeit der Original-Messungen, wenn man eine nicht statische, sich immer ändernde und kontinuierlich variable Quantität misst und dann als eine Bandbreite möglicher Werte aufzeichnet – die Bandbreite der Genauigkeit spezifiziert für das Messsystem – und die nicht durch Berechnungen von Mittelwerten verbessert werden kann.

 

Unter dem Strich:

1. Wenn numerische Werte Bandbreiten sind anstatt wahrer diskreter Werte, dann bestimmt die Größe der Bandbreite des Originalwertes (in unserem Falle die Messung) die Größe der Bandbreite jedweden nachfolgenden Mittelwertes dieser numerischen Werte.

2. Von ASOS-Stationen berechnete Temperaturen jedoch werden aufgezeichnet und als Temperaturen gemeldet mit einer Bandbreite von 1°F (0,55°C), und diese Temperaturen werden korrekt als „ganze Zahlen +/- 0,5°F“ aufgezeichnet. Die Mittelwerte dieser aufgezeichneten Temperaturen können nicht genauer sein als die Originalmessungen – weil die Aufzeichnungen der Originalmessungen selbst Bandbreiten sind. Die Mittelwerte müssen mit den gleichen +/- 0,5°F angegeben werden.

3. Gleiches gilt für die Daten von Tiden-Messapparaten, wie sie gegenwärtig gesammelt und aufgezeichnet werden. Die primäre Aufzeichnung von 6-Minuten-Werten sind trotz auf Millimeter-Genauigkeit aufgezeichneter Präzision ebenfalls Bandbreiten mit einer Original-Genauigkeit von +/- 2 Zentimetern. Dies ist die Folge des Designs und der Spezifikation des Messinstrumentes, welches das einer Art mechanisch mittelnden Systems ist. Die Mittel von Werten von Tiden-Messgeräten können nicht genauer gemacht werden als die +/- 2 cm – was weit genauer ist als notwendig zur Messung von Gezeiten und der Bestimmung eines sicheren Wasserstandes für Schiffe.

4. Wenn Original-Messungen Bandbreiten sind, sind deren Mittelwerte ebenfalls Bandbreiten von gleicher Größenordnung. Diese Tatsache darf nicht ignoriert oder missachtet werden.Tut man dies doch, erzeugt man einen falschen Eindruck von der Genauigkeit unseres numerischen Wissens. Oftmals überschattet die mathematische Präzision eines berechneten Mittels dessen reale Welt, eine weit verschwommenere Genauigkeit, was zu einer unrichtigen Signifikanz führt, welche Änderungen sehr geringer Größenordnung dieser Mittelwerte beigemessen wird.

Link: https://wattsupwiththat.com/2017/10/14/durable-original-measurement-uncertainty/
Übersetzt von Chris Frey EIKE




Hurrikan Ophelia: vom Wirbelsturm zum Sturmwirbel

Zunächst muss geklärt werden, worin der Hauptunterschied zwischen einem tropischen [oder auch arktischen!] Wirbelsturm und einem Sturmwirbel der Westwindzone besteht. Ersterer bezieht seine Energie aus dem vertikalen Temperaturgradienten zwischen Boden und Höhe. Nimmt die Temperatur besonders stark mit der Höhe ab, sprechen die Meteorologen von einer labil geschichteten Atmosphäre. Sind gleichzeitig auch hohe Mengen an Feuchtigkeit in der Luft, bilden sich dabei große Gewittercluster, die sich u. U. Zu einem Wirbelsturm entwickeln. Horizontal befindet sich das Gebilde dann in einem ausgeglichenen Temperaturfeld ohne Gegensätze. Man spricht von einem „Labilitätswirbel“. Ausschließlich von Bedeutung ist dabei aber der vertikale Temperaturgegensatz. Dieser kann im Winter aber auch über eisfreien Meeresgebieten der Arktis sehr groß werden, wenn nämlich ein Kaltluftkörper aus dem Inneren der Arktis auf das offene Wasser zieht. Dann gibt es auch dort Labilitätswirbel, die man „Polartief“ nennt. Die viel treffendere Bezeichnung „arktischer Wirbelsturm“ hat sich bisher aber nicht durchgesetzt. Wer mehr dazu wissen will, kann nach dem Suchbegriff „Polartief“ googeln. Es ist jedenfalls ein nicht auszurottendes Ammenmärchen, dass die „Wassertemperatur mindestens 26°C betragen muss“.

Ein Sturm- oder Orkanwirbel der gemäßigten Breiten bezieht seine Energie aus dem horizontalen Temperaturgegensatz zwischen niedrigen und hohen Breiten. Sie weisen eine warme Vorder- und kalte Rückseite auf. Deren Zentrum ist mit hochreichend kalter Luft angefüllt, während ein Wirbelsturm durch die Massen an freiwerdender latenter Wärme einen warmen Kern aufweist.

Nun zurück zum Hurrikan Ophelia. Seine Zugbahn nach Norden bis Nordosten ist in der Tat sehr ungewöhnlich. Häufiger kommt es vor, dass ein Hurrikan, wenn er sich in dem erwähnten Seegebiet gebildet hat, nach Westen Richtung Nordamerika zieht, dann nach Norden einbiegt und sich bei günstiger Lage relativ zu den Wetterphänomenen der Westwindzone in eine außertropische Zyklone umwandelt. Der Hurrikan Ophelia hat aber, salopp gesagt, die Abkürzung genommen und ist gleich nach Norden gezogen und hat sich dabei ebenfalls umgewandelt. Was aber heißt „umwandeln“?

Es heißt, dass sich aus einem Wirbelsturm, also einem Zyklon mit einem warmen Kern in einem ausgeglichenen horizontalen Temperaturfeld ein Sturmwirbel, also eine Zyklone mit kaltem Kern entwickelt. Eine sehr gute theoretische Beschreibung, auch mit praktischen Beispielen, findet sich hier.

Der Hurrikan Ophelia nun hat diese Entwicklung ebenfalls durchlaufen. Hier folgt eine Reihe von Abbildungen, die diesen Übergang dokumentieren.

Die Satellitenbilder zeigen den Ablauf alle 6 Stunden. Die Karten zeigen 12-stündig die Lage im 850-hPa-Niveau (Mitte) und im 500-hPa-Niveau (rechts).

[Hinweis: Alle Zeitangaben erfolgen hier in UTC. Dabei gilt MESZ = UTC plus 2 Stunden. Die Quelle aller Satellitenbilder ist der Verein Berliner Wetterkarte e. V. Quelle der Grafiken ist die Wetterzentrale.de.]

Abb. 1 vom 15. 10. 2017, 00/01.30 UTC: Im Satellitenbild ist am linken Bildrand Ophelia noch eindeutig als Hurrikan erkennbar, vor allem dank des ausgeprägten ,Auges‘ (ganz links im Bild). Im 850-hPa-Niveau zeigt sich der horizontale Temperaturgegensatz eines Kurzwellentroges der Westwindzone weit nordwestlich des Wirbels.

Abb. 2: Auch um 06 UTC zeigt sich im Satellitenbild die Wirbelsturm-Struktur, doch kommt der Sturm jetzt in Kontakt mit der Bewölkung vorderseitig des Kurzwellentroges.

Abb. 3 vom 15. 10. 2017, 12 UTC: Der Beginn der Umwandlung (Transition) in eine außertropische Zyklone ist jetzt im Gange: rudimentär ist das Auge noch erkennbar, aber die Wolkenformation ist bereits integraler Bestandteil des Wolkenbandes der Westwindzone. Im 850-hPa-Niveau zeigt sich der Sturm bereits im Bereich des horizontalen Temperaturgegensatzes der Westwindzone.

Abb. 4: Das Satellitenbild von 18 UTC zeigt, dass Ophelia seine tropischen Eigenschaften immer mehr verliert. Die Kaltluft macht sich auf den Weg in das Zentrum von Ophelia. Ein Auge ist dabei nicht mehr zu erkennen.

Abb. 5 vom 16. 10. 2017, 00 UTC: Der Übergang in eine außertropische Zyklone ist abgeschlossen. Das Satellitenbild zeigt die eindeutige Struktur einer außertropischen Sturmzyklone. Im 850-hPa-Niveau weist diese jetzt einen kalten Kern auf, auch im 500 hPa-Niveau hat sich das Geopotential im Bereich von Ophelia deutlich erniedrigt. Der Sturm müsste jetzt korrekt als ,Ex-Hurrikan Ophelia‘ bezeichnet werden.

WICHTIG: Bereits zu diesem Zeitpunkt, also vor dem Übergreifen auf Irland, war Ophelia kein Hurrikan mehr! Natürlich hört man es in den Medien ganz anders – sonst wäre es ja keine Sensation!

Der Vollständigkeit halber hier noch die folgende Abbildung:

Abb. 6: Die Struktur unterscheidet sich in nichts mehr von einem ,normalen‘ außertropischen Orkantief. Die mitgeführte Warmluft ist zu diesem Zeitpunkt ,verbraucht‘, d. h. fast vollständig dynamisch gehoben, so dass sich der Wirbel nun stark abschwächt.

Die höchsten aufgetretenen Windgeschwindigkeiten in den Böen (km/h) zeigt diese Grafik:

Fazit: Der Sturm Ophelia ist lediglich hinsichtlich des Verlaufes seiner Entwicklung recht ungewöhnlich, in keiner Weise aber hinsichtlich seiner Auswirkungen. Winterliche Orkane sind in ganz West- und Mitteleuropa an der Jahresordnung, und es wäre schon sehr ungewöhnlich, wenn im kommenden Winter kein solches Gebilde mehr auftreten würde.

Der Weihnachtsorkan Lothar im Jahre 1999 wies in Süddeutschland deutlich höhere Windgeschwindigkeiten auf, vor allem auf den Bergen. Und die Windspitzen der Hurrikane Irma und Maria in der Karibik dürfte nochmals erheblich stärker, vielleicht sogar doppelt so hoch ausgefallen sein.

Aber auch wenn Ophelia beim Auftreffen auf Irland ein durch und durch baroklines [d. h. im Bereich eines horizontalen Temperaturgegensatzes liegendes] Gebilde war, so kam der Sturm doch immer noch mit außerordentlich hohem Luftdruckgradient daher. Die Ursache für diese starke Entwicklung ist Folgende:

Auf der Vorderseite eines progressiv (= sich nach Osten verlagernden) Kurzwellentroges wird die dort liegende Warmluft dynamisch gehoben. Dieser Vorgang passiert täglich mehrmals das ganze Jahr über. Entscheidend für die Stärke der Entwicklung ist u. A. der Temperaturgegensatz zwischen Warm- und Kaltluft. Hierbei ist aber zu beachten, dass nicht nur die fühlbare, sondern auch die latente Temperatur der Warmluft eine Rolle spielt. Um beide Größen zu kombinieren, fasst man sie zur sog. ,pseudopotentiellen Temperatur‘ zusammen. Diese gibt einen viel besseren Einblick in den tatsächlichen Temperaturgegensatz.

Ein tropisches Wettersystem nun setzt viel mehr latente Wärme um als ein ,normaler‘ Warmluftkörper auf einer Trogvorderseite. Die pseudopotentielle Temperatur in einem Hurrikan ist also deutlich höher und stellt einen massiven zusätzlichen Energieimpuls dar. Gelangt ein solcher ,Super-Warmluftkörper‘ auf die Vorderseite eines Kurzwellentroges, sind die Hebungsvorgänge ungleich intensiver als bei einem ,normalen‘ Warmluftkörper.

Genau dies war hier auch der Fall. Irland ist also von einem besonders starken, wenn auch kleinräumigem Orkantief heimgesucht worden, aber nicht von einem Hurrikan!

Zu befürchten ist, dass bei weiterer Erdabkühlung und dem damit verbundenen steigenden horizontalen Temperaturgegensatz zwischen niedrigen und hohen Breiten die Anzahl und Stärke winterlicher Orkanwirbel sukzessive zunimmt.

Zum Schluss: Eine gute Zusammenfassung der Entwicklung des Sturmes Ophelia gibt es in der ,Übersicht‘ zur Berliner Wetterkarte vom 16.10.2017:

Der Hurrikan OPHELIA, der gestern früh mit maximalen mittleren Windgeschwindigkeiten von 100 Knoten als sogenannter Major-Hurrikan in die Kategorie 3 eingestuft wurde und südöstlich der Inselgruppe der Azoren lag, wandelte sich bis heute früh auf seinem Weg nach Norden in ein außertropisches Tief um. Damit war OPHELIA der östlichste Hurrikan auf dem Nordatlantik seit 1851, der in die Kategorie 3 eingestuft wurde. Im gestrigen Tagesverlauf stieg der Kerndruck vorübergehend etwas an, ehe sich heute Morgen wieder eine Verstärkung ergab. Um 06 UTC lag ex-OPHELIA mit seinem Kern direkt südwestlich von Irland und einem Kerndruck von 958 hPa. Das zugehörige Orkanfeld griff ab dem späteren Vormittag auf Irland über. Um 10 UTC wurden am Roches Point südlich von Cork mittlere Windgeschwindigkeiten von 93 km/h (Windstärke 10) und maximale Böen bis 130 km/h gemessen. In Cork gab es zu diesem Zeitpunkt Orkanböen bis 122 km/h. Bis 11 UTC legte der Wind noch weiter zu, so dass am Roches Point nun Spitzenböen bis 156 km/h auftraten. Entsprechend wurde von den Wetterdiensten in Irland die höchste Warnstufe ausgerufen.

© Hans-Dieter Schmidt, Oktober 2017