Die junge Klimagarde mit der Weltrettungs­bibel von Frau Hendricks auf dem Weg zum Train to Bonn

(Klima-)Jugendbotschafterinnen und Jugendbotschafter

Video nicht mehr verfügbar
Bild 1 Video der Begrüßung der Teilnehmer*innen durch Frau Hendricks.Eine solche Rekrutierungsmaßnahme wurde von Frau Hendricks veranlasst und von ihrem Ministerium unter dem Titel
[1] Welche Ideen haben junge Menschen, um den Folgen des Klimawandels zu begegnen? Was fordern sie von der Politik zum Thema Klimaschutz? Was kann jeder selbst tun?
Diese Fragen wurden am 29. September 2017 sehr lebhaft auf den drei zeitgleich stattfindenden Jugenddialogen in Bochum, Eberswalde und Nürnberg diskutiert, zu denen das Bundesumweltministerium im Vorfeld der Weltklimakonferenz eingeladen hatte. Rund 200 Teilnehmende im Alter zwischen 16 und 25 Jahren entwickelten ihre Ideen und Lösungsansätze in vier thematischen Runden zum Thema Klimawandel und Klimaschutz: Wie werden sich Klimawandel und Klimaschutzmaßnahmen auf unser zukünftiges Leben auswirken? Was sollte in Deutschland getan werden, um die internationalen Klimaziele zu erreichen und was sind wir selbst bereit dafür zu tun? Und wie können insbesondere junge Menschen stärker in die Klimapolitik einbezogen werden?
Die auf den drei Dialogveranstaltungen ausgelosten Jugendbotschafterinnen und Jugendbotschafter haben auf einem Workshop am 14. Oktober aus den Ergebnissen der drei Jugenddialoge die wichtigsten Ergebnisse und Empfehlungen herausgearbeitet, die in einem Jugendreport zusammengestellt werden.
Der Jugendreport wird am 4. November 2017 Bundesumweltministerin Barbara Hendricks überreicht und auch auf dem Weltklimagipfel in Bonn vorgestellt.

In Nürnberg, Bochum und Eberswalde haben sich junge Leute Rezepte gegen den Klimawandel überlegt

Bild 2 [1] Barbara Hendricks begrüßt die Jugendlichen per Videobotschaft

In der Lokalzeitung des Autors hieß der große (unkritische) Redaktionsbeitrag dazu: „100 Jugendliche und die Rettung der Welt“. Nachdem darin eine teilnehmende Jungredakteurin über den Ablauf einer dieser Rekrutierungsmaßnahmen berichtete, daraus zur Information.

Welchen Beitrag Sie auch immer bereit sind zu leisten: Kein Beitrag ist zu klein“

Teilnehmende Jungredakteurin: [2] Voller Spannung, aber ohne eine konkrete Vorstellung davon, was mich genau erwartet, betrete ich den Aufseßsaal im Germanischen Nationalmuseum. „Unser Klima! Unsere Zukunft! Jugenddialog zur 23. Weltklimakonferenz“.
… mit dem Thema Klimawandel ist die 21-jährige aus Freiburg bestens vertraut. Sie studiert Waldwirtschaft und engagiert sich im studentischen Netzwerk „sneep“ für mehr Nachhaltigkeit. „Ich beschäftige mich sehr mit Suffizienz. Dabei geht es darum, mit weniger auszukommen und trotzdem glücklich zu sein …. „
heißt uns Bundesumweltministerin Barbara Hendricks per Videobotschaft willkommen … am Ende betont sie: „Welchen Beitrag Sie auch immer bereit sind zu leisten: Kein Beitrag ist zu klein“.
Dann gehen wir zur Tagesordnung über. Die sieht vier Themenblöcke vor: „Der Klimawandel und seine Folgen“. „Der Beitrag Deutschlands zur Erreichung der internationalen Klimaziele“. „Globale Gemeinschaft, globale Verantwortung“ und „Vision 2050“. Zum Einstieg in jedes Thema gibt es einen kurzen, informativen Vortrag, anschließend haben die 100 Jungen Leute 30 Minuten Zeit, an jedem Tisch darüber zu diskutieren. Dann geht`s ans Abstimmen.
Beim Input wird klargemacht: Der Klimawandel selbst ist nicht zu stoppen – es geht darum, ihn zu verlangsamen.
… Nach der Diskussionsrunde beantwortet jeder elf Fragen über sein Handy. Daraus ergibt sich ein Stimmungsbild … :
64 % würden, um das Klima zu verbessern, mehr auf ihre Ernährung achten. Dagegen sind 61 Prozent nicht bereits, ihre Urlaubsansprüche zum Schutz der Umwelt zu senken … jeder Zweite ist Vegetarier oder Veganer …

Was geschieht mit den Ergebnissen

Bild 3 Screenshot von der Homepage des Umweltministeriums


[2] Kurz vor Beginn des Weltklimagipfels wird der Jugendreport im sogenannten „Train to Bonn“ der Umweltministerin übergeben … die erarbeiteten Ergebnisse sollen …. direkt an die Entscheidungsträger weitergegeben werden. Diese werden versuchen, sie in ihre Arbeiten einzubeziehen.

Arbeitsbeispiele aus den Stadtveranstaltungen

Wenn Jugendliche im Alter von 16 … 25 Jahren, also beginnend mit maximal zehn Schuljahren, andere dagegen fast schon mit einem fertigen Hochulstudium [3], miteinander über ein Fachthema diskutieren (sollen), kann das keine fruchtbare Diskussion werden, schon gar nicht in der kurzen Zeit von 30 Minuten. Das war ganz bestimmt auch nicht der Sinn, denn der Ablauf sollte ja auf gar keinen Fall Zweifel, sondern ein sicheres – vorgegebenes – Ergebnis liefern.
Wie solche aussehen, anbei ohne Kommentierung. Oder doch eine Kleine vorweg: Der Autor stellt sich vor, als wirklicher Fachmann oder (kompetenter) Regierungschef würde er diese Vorschläge von der Umweltministerin eines (noch) Hochtechnologielandes als ausgesuchtes „Diskussionsergebnis und Lösungsideen“ der „Jugendelite“ des Landes bis zum Alter von bereits 25 Jahren mit fast abgeschlossenem Studium bekommen. Er würde sich für dieses Land schämen (nun schämt er sich dafür als Bürger). Als Vertreter eines der vielen Länder, welche nur noch um das „ihnen zustehende“ Klimaschutzgeld pokern, würde er denken: So lange die zuständige Ministerin und die Jugend des Geberlandes auf diesem niedrigen, unreflektierendem Niveau mit dem Thema umgehen, besteht keine Gefahr, dass die vielen Falschdarstellungen unserer gemeldeten Klimabedrohungen wahrgenommen und die versprochenen Zahlungen gestrichen werden.
Noch eine Anmerkung: Bei manchen Vorschlägen hat man den Eindruck, dass das Thema von Teilnehmer*ìnnen nicht so richtig ernst genommen wurde. Vielleicht war es sogar Ausdruck von geheimem Protest? Warum so etwas dann allerdings noch übersetzt und auf eine Regierungs-Homepage gepinnt wird, erschließt sich dem Autor nicht.
Der Autor erinnert sich jedoch an solche Workshops bei seinem ehemaligen Arbeitgeber. Wenn diese (und das war immer bei vom Vorstand angeordneten „Globalmaßnahmen“ der Fall, wenn dazu die gesamte Belegschaft auf „begeisterte Zustimmung“ gebürstet wurde) Soziologen und Psychologen solcher Veranstaltungsfirmen moderierten, ging es immer nur um Masse, das Niveau war dabei vollkommen nebensächlich.

Bild 4 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 5 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 6 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 7 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 8 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 9 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 10 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 11 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 12 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 13 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Arbeitsbeispiele aus dem Sammelworkshop der Botschafter*innen in Berlin

Die Einstimmung: Parteipolitik und Ideologie in Reinstform (Bild 14). Erkennbar war auch bei der Abschlussveranstaltung von den Botschafter*ìnnen keine neutrale Diskussion zum (angeblichen) Klimawandel erwünscht. Sieht man sich die folgenden Ausarbeitungen an, wagt man auch Zweifel, ob dies Sinn gemacht hätte. Verständlich: Kämpfer dürfen bei Befehlen nicht zu Denken anfangen, sondern müssen bedingungslos umsetzten.

Frau Hendricks Grüne Brigaden, versorgt mit der Klimabibel

Jedenfalls ist das Experiment gelungen: Grüne Brigaden lassen sich bei uns auch außerhalb der Parteijugend problemlos aufbauen – Proteste dagegen finden sich nicht.

Bild 14 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 15 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 16 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 17 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Bild 18 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]

Quellen
[1] Bundesministerium für Umwelt Naturschutz und Reaktorsicherheit: Jugenddialog zur 23. Weltklimakonferenz
[2] Lokalausgabe der Nordbayerischen Nachrichten, 14. Oktober 2017: 100 Jugendliche und die Rettung der Welt
[3] Universität Hildesheim Green Office




Permanente Unsicherheit in Original-Messungen

In den Kommentaren zu meinen letzten Beiträgen über Tidenmessgeräte erhob sich die Frage der Beständigkeit der Unsicherheit in den Original-Messungen. Hier folgen die Fragen, die zu beantworten ich mit diesem Beitrag versuchen möchte:

Falls Originalmessungen bis auf eine Unsicherheit von +/- X (irgendein Wert in irgendeiner Einheit) durchgeführt werden, überträgt sich dann die Unsicherheit der Originalmessung auf einen oder alle Mittelwerte dieser Messungen?

Sorgt die Durchführung weiterer Messungen bis auf den gleichen Grad Unsicherheit genau die Berechnung noch genauerer Mittelwerte?

Meine Haltung in diesem Beitrag ist Folgende:

Falls jede Messung nur auf ± 2 cm genau ist, dann kann das monatliche Mittel nicht NOCH genauer sein – es muss die gleiche Bandbreite von Fehlern/Unsicherheiten enthalten wie die Originalmessungen, aus denen das Mittel gebildet worden ist. Die Mittelung bringt keine Erhöhung der Genauigkeit.

Es wäre untertrieben zu sagen, dass es sehr viel Uneinigkeit von einigen Statistikern und jenen mit einer klassischen statistischen Ausbildung gab.

Ich werde mich nicht über das Thema Präzision oder Präzision von Mittelwerten auslassen. Es gibt dazu eine gute Diskussion bei Wikipedia: Accuracy and precision.

Gegenstand meiner Bedenken hier ist diese reine Trivial-Genauigkeit [vanilla accuracy]: „Genauigkeit einer Messung ist der Grad, wie nahe Messungen von bestimmter Anzahl an dem wahren Wert jener Quantität liegt“. (,Wahrer Wert‘ bedeutet hier den tatsächlichen Wert in der realen Welt – nicht irgendein kognitives Konstrukt desselben).

Der allgemeine Standpunkt der Statistiker wird in diesem Kommentar zusammengefasst:

Die Aussage, dass die Genauigkeit des mittleren Meeresspiegels an einer Stelle nicht verbessert wird durch die Durchführung vieler Messungen über einen verlängerten Zeitraum ist lachhaft und legt ein fundamentales Fehlen von Verständnis der physikalischen Wissenschaft an den Tag“.

Ich gebe zu, dass ich frisch von der Universität einmal diesem Standpunkt zugestimmt habe. Und zwar bis ich einem berühmten Statistiker die gleiche Frage vorlegte. Sofort und gründlich wurde ich mit einer Reihe von Hausaufgaben konfrontiert, womit ich mir selbst beweisen sollte, dass der Gedanke in vielfacher Hinsicht unrichtig ist.

Erstes Beispiel:

Beginnen wir mit einem einfachen Beispiel über Temperaturen. Temperaturen in den USA werden in ganzen Grad Fahrenheit gemessen und aufgezeichnet. (Fragen Sie mich nicht, warum wir nicht den wissenschaftlichen Standard benutzen. Ich weiß es nämlich nicht). Diese Aufzeichnungen in ganzen Grad Fahrenheit werden dann mittels eines Rechners in Grad Celsius konvertiert, und zwar bis zur ersten Dezimalstelle, also beispielsweise 15,6°C.

Dies bedeutet, dass jede und alle Temperaturen zwischen beispielsweise 72,5°F und 71,5°F als 72°F aufgezeichnet werden. (In der Praxis wird die eine oder andere Messung mit X,5 ausgesondert und die anderen ab- oder aufgerundet). Folglich bedeutet eine amtliche Temperaturaufzeichnung vom Battery Park um 12 Uhr mittags von „72°F“ in der realen Welt, dass die Temperatur mittels Messung in der Bandbreite zwischen 71,5°F und 72,5°F liegt – mit anderen Worten, die präsentierte Zahl repräsentiert eine Bandbreite von 1°F.

In der wissenschaftlichen Literatur könnten wir diesen Umstand in der Schreibweise 72 +/- 0.5 °F wiederfinden. Oftmals wird dies dann als eine Art „Vertrauensintervall“, „Fehlerbalken“ oder Standardabweichung missverstanden.

In diesem spezifischen Beispiel einer Temperaturmessung ist es nichts von diesen Dingen. Es ist einfach eine Form von Stenogramm für das tatsächliche Messverfahren, welches jedes Grad Bandbreite von Temperatur als eine einzelne ganze Zahl repräsentiert – wenn die Bedeutung in der realen Welt lautet „eine Temperatur mit einer Bandbreite von 0,5 Grad über oder unter der präsentierten ganzen Zahl“.

Jede Differenz zur tatsächlichen Temperatur über oder unter der präsentierten ganzen Zahl ist kein Fehler. Diese Abweichungen sind keine „Zufallsfehler“ und sind nicht „normalverteilt“.

Noch einmal zur Betonung: Die ganze Zahl einer präsentierten Temperatur an irgendeiner Stelle zu irgendeiner Zeit ist ein Kürzel für eine ein Grad große Bandbreite tatsächlicher Temperaturen, die obwohl laut Messung unterschiedlich in Gestalt der gleichen ganzen Zahl gemeldet werden. Visuell:

Obwohl in der Praxis die Temperaturen nur in ganzen Zahlen gemeldet werden, ändern sich die Temperaturen in der realen Welt nicht in Schritten von einem ganzen Grad – 72, 73, 74, 72, 71 usw. Temperatur ist eine kontinuierliche Variable. Und nicht nur das, sie ist eine sich ständig ändernde Variable. Wenn man Temperatur einmal um 11:00 und dann um 11:01 misst, misst man zwei unterschiedliche Quantitäten; die Messungen erfolgen unabhängig voneinander. Außerdem ist einer und sind alle Werte innerhalb der Bandbreite gleich wahrscheinlich – die Natur „bevorzugt“ keine Temperaturen, welche näher an der ganzen Zahl liegen.

(Anmerkung: In den USA werden ganze Grad Fahrenheit in Grad Celsius bis zur ersten Stelle nach dem Komma gerundet. 72°F werden konvertiert und ebenfalls aufgezeichnet als 22,2°C. Die Natur bevorzugt auch nicht Temperaturen, die näher an einem Zehntelgrad Celsius liegen).

Während es gegenwärtig Praxis ist, eine ganze Zahl zu melden, um die Bandbreite von ,ganzer Zahl plus ein halbes Grad und ganzer Zahl minus ein halbes Grad‘ zu repräsentieren, könnte diese Praxis auch irgendeine andere Notation sein. Es könnte auch einfach sein, dass die gemeldete ganze Zahl alle Temperaturen von der ganzen Zahl bis zur nächsten ganzen Zahl repräsentieren soll, dass also 71 bedeutet „irgendeine Temperatur von 71 bis 72“. Das gegenwärtige System der Verwendung der ganzen Zahl in der Mitte ist besser, weil die gemeldete ganze Zahl in der Mitte der sie repräsentierenden Bandbreite liegt. Allerdings ist dies einfach misszuverstehen, wenn es als 72 +/- 0.5 daherkommt.

Weil Temperatur eine kontinuierliche Variable ist, sind Abweichungen von der ganzen Zahl nicht einmal „Abweichungen“ – sie sind einfach die in Grad Fahrenheit gemessenen Temperatur, welche normalerweise durch den Dezimalanteil repräsentiert wird, welcher der Notation der ganzen Gradzahl folgen würde – der „x.4999“te Teil von 72,4999°F. Diese Dezimalanteile sind keine Fehler, sie sind nicht gemeldete und nicht aufgezeichnete Anteile der Messung, und weil Temperatur eine kontinuierliche Variable ist, muss sie als gleichmäßig verteilt über die gesamte Skala betrachtet werden – mit anderen Worten, es sind keine, keine, keine „normalverteilten Zufallsfehler“. Der einzige Grund, warum sie unsicher sind ist, dass sie selbst bei einer Messung nicht aufgezeichnet werden.

Was passiert also jetzt, nachdem wir herausgefunden haben, dass die Mittelwerte dieser Aufzeichnungen, welche – man erinnere sich – Kürzel von Temperatur-Bandbreiten sind?

Um diese Frage zu beantworten, wollen wir ein Schulexperiment durchführen…

Wir werden das Mittel von drei ganzen Grad Temperatur finden, und zwar erhalten wir diese Temperaturen in meinem Wohnzimmer:

Wie oben diskutiert, repräsentieren diese Temperaturwerte irgendwelche der unbegrenzt variablen Temperaturen, dennoch möchte ich diese kleine Graphik erstellen:

Hier erkennen wir, dass die Temperatur von jeder Stunde den höchsten Wert in der Bandbreite repräsentiert, den mittleren Wert in der Bandbreite (die gemeldete ganze Zahl) und als tiefsten Wert der Bandbreite. (Anmerkung: Wir dürfen nicht vergessen, dass es zwischen den Werten in jeder Spalte eine unendliche Anzahl von Bruchwerten gibt, die wir jetzt nur nicht zeigen). Diese Werte werden dann gemittelt – das Mittel berechnet – von links nach rechts: die höchsten Werte der drei Stunden ergeben ein Mittel von 72,5, der mittlere Wert ein Mittel von 72 und der niedrigste Wert ein Mittel von 71,5.

Das resultierende Mittel kann geschrieben werden in der Form 72 +/- 0.5, was ein Kürzel ist dafür, dass die Bandbreite von 71,5 bis 72,5 repräsentiert wird.

Die Genauigkeit des Mittels, repräsentiert in der Schreibweise +/- 0,5 ist identisch mit der Genauigkeit der Original-Messungen – sie repräsentieren beide eine Bandbreite möglicher Werte.

Anmerkung: Diese Unsicherheit stammt nicht aus der tatsächlichen instrumentellen Genauigkeit der Original-Messungen. Das ist etwas ganz anderes und muss zusätzlich zu der hier beschriebenen Genauigkeit betrachtet werden. Diese resultiert allein aus der Tatsache, dass gemessene Temperaturen als Ein-Grad-Bandbreiten dargestellt werden, wobei die Bruchteil-Informationen außen vor bleiben und für immer verloren sind, was uns mit der Unsicherheit zurücklässt – fehlendem Wissen – was die tatsächliche Messung selbst eigentlich war.

Natürlich kann die um 11:00 gemessene Temperatur 71,5; die um 12:00 gemessene 72 und die um 13:00 gemessene 72,5 betragen haben. Oder es könnte auch 70,5; 72; 73,5 gewesen sein.

Die Berechnung des Mittels zwischen den diagonal gegenüber liegenden Ecken ergibt 72 von Ecke zu Ecke. Über die Mittelpunkte ergibt sich immer noch 72.

Jedwede Kombination von höchsten, mittigen und niedrigsten Werten von jeder Stunde ergibt ein Mittel, welches zwischen 72,5 und 71,5 liegt – innerhalb der Unsicherheits-Bandbreite des Mittels.

Selbst für diese vereinfachten Netze gibt es viele mögliche Kombinationen von einem Wert aus jeder Spalte. Das Mittel jedweder Kombination liegt zwischen den Werten 72,5 und 71,5.

Es gibt buchstäblich eine unendliche Anzahl potentieller Werte zwischen 72,5 und 71,5, da Temperatur eine kontinuierliche Variable für jede Stunde ist. Das Auftreten aller möglichen Werte für jede stündliche Temperatur ist gleich wahrscheinlich – folglich sind alle möglichen Werte und alle möglichen Kombinationen eines Wertes für jede Stunde in Betracht zu ziehen. Nimmt man irgendeinen möglichen Wert aus jeder Spalte mit stündlichen Messungen und mittelt diese drei, ergibt sich immer das gleiche Ergebnis – alle Mittel haben einen Wert zwischen 72,5 und 71,5, was eine Bandbreite der gleichen Größenordnung repräsentiert wie die der Original-Messungen, eine Bandbreite von einem Grad Fahrenheit.

Die Genauigkeit des Mittels entspricht genau der Genauigkeit aus den Original-Messungen – es ist in beiden Fällen eine Ein-Grad-Bandbreite. Sie wurde um keinen Deut reduziert durch das Mittelungs-Verfahren. Das kann es auch nicht.

Anmerkung: Eine mehr technische Diskussion zu diesem Thema gibt es hier und hier.

Und die Daten der Tiden-Messgeräte?

Es ist klar, dass sich die Unsicherheit bzgl. der Genauigkeit der Original-Messungen der Temperatur aus dem Umstand ergibt, dass nur ganze Grad Fahrenheit bzw. Grad Celsius bis zur ersten Dezimalstelle angegeben werden. Das ergibt folglich keine Messungen mit einem Einzelwert, sondern stattdessen Bandbreiten.

Aber was ist mit den Daten der Tide-Messgeräte? Unterscheidet sich ein einzelner gemessener Wert bis zur Präzision von Millimetern also von obigem Beispiel? Die kurze Antwort lautet NEIN, aber ich nehme nicht an, dass das allgemein akzeptiert wird.

Welche Daten werden denn nun von Tiden-Messgeräten in den USA (und in den meisten anderen entwickelten Ländern) gemessen?

Die Geschätzte Genauigkeit wird als +/- 2 cm für individuelle Messungen angegeben, und es wird behauptet, dass diese für monatliche Mittelwerte 5 mm beträgt. Betrachten wir die Daten vom Battery-Park in New York, sehen wir etwas wie das hier:

Man beachte, dass wir laut diesem Datenblatt alle sechs Minuten (1 Zehntel-Stunde) eine Messung haben, und zwar den Wasserstand in Meter bis zum Niveau von Millimetern (4,639 m), und das „Sigma“ wird angegeben. Die Sechs-Minuten-Zahl wird folgendermaßen berechnet:

181 Eine-Sekunde-Wasserstandsmessungen zentriert um jedes Zehntel einer Stunde werden gemittelt, ein three standard deviation outlier rejection test [?] angewendet, dann werden Mittel und Standardabweichung erneut berechnet und gemeldet zusammen mit der Anzahl der Ausreißer. (3 Minuten-Wasserstandsmittel).

Um sicherzustellen, dass wir dieses Verfahren verstehen, stellte ich in einer E-Mail an @ co-ops.userservices@noaa.gov die folgende Frage:

Wenn sagen, bis zu einer Genauigkeit von +/- 2 cm meinen wir spezifisch, dass jede Messung zum tatsächlichen augenblicklichen Wasserstand außerhalb des Mess-Schachtes passt und innerhalb dieser +/- 2-cm-Bandbreite liegt.

Antwort:

Das ist korrekt! Die Genauigkeit jedes 6-minütigen Datenwertes beträgt +/- 2 cm des Wasserstandes zu jener Zeit.

(Anmerkung: In einer separaten E-Mail wurde klargestellt, dass „Sigma die Standardabweichung ist, essentiell die statistische Varianz zwischen diesen 181 1-Sekunde-Messungen“).

Frage und Antwort verifizieren, dass sowohl die 1-Sekunde-Messungen als auch der 6-Minuten-Datenwert eine Bandbreite des Wasserstandes von 4 cm, 2 cm plus oder minus vom gemeldeten Wasserstand repräsentiert.

Diese scheinbar vage Genauigkeit – jede Messung mit einer tatsächlichen Bandbreite von 4 cm – ist das Ergebnis des mechanischen Verfahrens der Mess-Apparatur, trotz der Auflösung von 1 Millimeter. Wie kommt das?

Die Illustration der NOAA des modernen Tiden-Messapparates am Battery Park zeigt den Grund. Die Blase oben links zeigt eindeutig, was während des 1-Sekunde-Intervalls der Messung passiert: Der augenblickliche Wasserstand innerhalb des Mess-Schachtes unterscheidet sich von dem außerhalb dieses Schachtes.

Diese 1-Sekunde-Ablesung wird in der „Primary data collection Platform“ gespeichert und später als Teil der 181 Messungen herangezogen, die für den gemeldeten 6-Minuten Wert gemittelt werden. Er unterscheidet sich wie illustriert von dem tatsächlichen Wasserstand außerhalb des Mess-Schachtes. Manchmal wird er niedriger, manchmal höher liegen. Der Apparat als Ganzes ist darauf ausgelegt, diese Differenz in den meisten Fällen während des 1-Sekunde-Zeitmaßstabes auf eine Bandbreite von 2 cm über oder unter dem Wasserstand im Mess-Schacht zu begrenzen – obwohl einige Ablesungen weit außerhalb dieser Bandbreite liegen und als „Ausreißer“ gelistet werden (die Regel lautet, alle 3-Sigma-Ausreißer auszusondern – aus dem Satz der 181 Ablesungen – bevor man das Mittel berechnet, welches als der 6-Minuten-Wert gemeldet wird).

Wir können nicht jede individuelle Messung als eine Messung des Wasserstandes außerhalb des Mess-Schachtes betrachten – es wird der Wasserstand innerhalb des Mess-Schachtes gemessen. Diese Im-Schacht-Messungen sind sehr genau und präzise – bis auf 1 Millimeter. Allerdings ist jede 2-Sekunde-Aufzeichnung eine mechanische Approximation des Wasserstandes außerhalb des Schachtes – also dem tatsächlichen Wasserstand im Hafen, welcher eine fortwährend sich ändernde Variable ist – spezifiziert zu der Genauigkeits-Bandbreite von +/- 2 Zentimeter. Die aufgezeichneten Messungen repräsentieren Bandbreiten von Werten. Diese Messungen enthalten keine „Fehler“ (zufällige oder andere), wenn sie sich vom tatsächlichen Wasserstand im Hafen unterscheiden. Der Wasserstand im Hafen oder im Fluss oder in der Bucht selbst ist niemals wirklich gemessen worden.

Die als „Wasserstand“ aufgezeichneten Daten sind abgeleitete Werte – und keineswegs direkte Messungen. Das Tiden-Messgerät als Messinstrument wurde so ausgerichtet, dass es Messungen innerhalb des Schachtes mit einer Genauigkeit von 2 cm, plus oder minus durchführt, welche den tatsächlichen augenblicklichen Wasserstandes außerhalb des Schachtes repräsentieren – was ja das ist, das wir messen wollen. Nach 181 Messungen innerhalb des Schachtes und dem Aussortieren jedweder Daten, die zu abwegig sind, wird der Rest der 181 Messungen gemittelt und der 6-Minuten-Wert gemeldet mit der korrekten Genauigkeits-Angabe von +/- 2 cm – der gleichen Genauigkeit also wie bei den individuellen 1-Sekunde-Messungen.

Der gemeldete Wert bezeichnet eine Werte-Bandbreite – welche immer angemessen mit jedem Wert angegeben werden muss – im Falle von Wasserständen der NOAA-Tiden-Messgeräte +/- 2 cm.

Die NOAA behauptet zu recht nicht, dass die sechs-Minuten-Aufzeichnungen, welche das Mittel von 181 1-Sekunde-Messungen sind, eine größere Genauigkeit aufweisen als die individuellen Original-Messungen.

Warum behauptet die NOAA aber dann, dass monatliche Mittelwerte bis auf +/- 5 mm genau sind? In diesen Berechnungen wird die Genauigkeit der Original-Messungen einfach komplett ignoriert, und nur die gemeldeten/aufgezeichneten Sechs-Minuten-Mittelwerte werden betrachtet (vom Autor bestätigt) – das ist der gleiche Fehler, wie er auch bei Berechnungen fast aller anderen großen Datensätze gemacht wird, indem das nicht anwendbare Gesetz Großer Zahlen [Law of Large Numbers] angewendet wird.

Genauigkeit jedoch wird, wie hier gezeigt, bestimmt durch die Genauigkeit der Original-Messungen, wenn man eine nicht statische, sich immer ändernde und kontinuierlich variable Quantität misst und dann als eine Bandbreite möglicher Werte aufzeichnet – die Bandbreite der Genauigkeit spezifiziert für das Messsystem – und die nicht durch Berechnungen von Mittelwerten verbessert werden kann.

 

Unter dem Strich:

1. Wenn numerische Werte Bandbreiten sind anstatt wahrer diskreter Werte, dann bestimmt die Größe der Bandbreite des Originalwertes (in unserem Falle die Messung) die Größe der Bandbreite jedweden nachfolgenden Mittelwertes dieser numerischen Werte.

2. Von ASOS-Stationen berechnete Temperaturen jedoch werden aufgezeichnet und als Temperaturen gemeldet mit einer Bandbreite von 1°F (0,55°C), und diese Temperaturen werden korrekt als „ganze Zahlen +/- 0,5°F“ aufgezeichnet. Die Mittelwerte dieser aufgezeichneten Temperaturen können nicht genauer sein als die Originalmessungen – weil die Aufzeichnungen der Originalmessungen selbst Bandbreiten sind. Die Mittelwerte müssen mit den gleichen +/- 0,5°F angegeben werden.

3. Gleiches gilt für die Daten von Tiden-Messapparaten, wie sie gegenwärtig gesammelt und aufgezeichnet werden. Die primäre Aufzeichnung von 6-Minuten-Werten sind trotz auf Millimeter-Genauigkeit aufgezeichneter Präzision ebenfalls Bandbreiten mit einer Original-Genauigkeit von +/- 2 Zentimetern. Dies ist die Folge des Designs und der Spezifikation des Messinstrumentes, welches das einer Art mechanisch mittelnden Systems ist. Die Mittel von Werten von Tiden-Messgeräten können nicht genauer gemacht werden als die +/- 2 cm – was weit genauer ist als notwendig zur Messung von Gezeiten und der Bestimmung eines sicheren Wasserstandes für Schiffe.

4. Wenn Original-Messungen Bandbreiten sind, sind deren Mittelwerte ebenfalls Bandbreiten von gleicher Größenordnung. Diese Tatsache darf nicht ignoriert oder missachtet werden.Tut man dies doch, erzeugt man einen falschen Eindruck von der Genauigkeit unseres numerischen Wissens. Oftmals überschattet die mathematische Präzision eines berechneten Mittels dessen reale Welt, eine weit verschwommenere Genauigkeit, was zu einer unrichtigen Signifikanz führt, welche Änderungen sehr geringer Größenordnung dieser Mittelwerte beigemessen wird.

Link: https://wattsupwiththat.com/2017/10/14/durable-original-measurement-uncertainty/
Übersetzt von Chris Frey EIKE




Hurrikan Ophelia: vom Wirbelsturm zum Sturmwirbel

Zunächst muss geklärt werden, worin der Hauptunterschied zwischen einem tropischen [oder auch arktischen!] Wirbelsturm und einem Sturmwirbel der Westwindzone besteht. Ersterer bezieht seine Energie aus dem vertikalen Temperaturgradienten zwischen Boden und Höhe. Nimmt die Temperatur besonders stark mit der Höhe ab, sprechen die Meteorologen von einer labil geschichteten Atmosphäre. Sind gleichzeitig auch hohe Mengen an Feuchtigkeit in der Luft, bilden sich dabei große Gewittercluster, die sich u. U. Zu einem Wirbelsturm entwickeln. Horizontal befindet sich das Gebilde dann in einem ausgeglichenen Temperaturfeld ohne Gegensätze. Man spricht von einem „Labilitätswirbel“. Ausschließlich von Bedeutung ist dabei aber der vertikale Temperaturgegensatz. Dieser kann im Winter aber auch über eisfreien Meeresgebieten der Arktis sehr groß werden, wenn nämlich ein Kaltluftkörper aus dem Inneren der Arktis auf das offene Wasser zieht. Dann gibt es auch dort Labilitätswirbel, die man „Polartief“ nennt. Die viel treffendere Bezeichnung „arktischer Wirbelsturm“ hat sich bisher aber nicht durchgesetzt. Wer mehr dazu wissen will, kann nach dem Suchbegriff „Polartief“ googeln. Es ist jedenfalls ein nicht auszurottendes Ammenmärchen, dass die „Wassertemperatur mindestens 26°C betragen muss“.

Ein Sturm- oder Orkanwirbel der gemäßigten Breiten bezieht seine Energie aus dem horizontalen Temperaturgegensatz zwischen niedrigen und hohen Breiten. Sie weisen eine warme Vorder- und kalte Rückseite auf. Deren Zentrum ist mit hochreichend kalter Luft angefüllt, während ein Wirbelsturm durch die Massen an freiwerdender latenter Wärme einen warmen Kern aufweist.

Nun zurück zum Hurrikan Ophelia. Seine Zugbahn nach Norden bis Nordosten ist in der Tat sehr ungewöhnlich. Häufiger kommt es vor, dass ein Hurrikan, wenn er sich in dem erwähnten Seegebiet gebildet hat, nach Westen Richtung Nordamerika zieht, dann nach Norden einbiegt und sich bei günstiger Lage relativ zu den Wetterphänomenen der Westwindzone in eine außertropische Zyklone umwandelt. Der Hurrikan Ophelia hat aber, salopp gesagt, die Abkürzung genommen und ist gleich nach Norden gezogen und hat sich dabei ebenfalls umgewandelt. Was aber heißt „umwandeln“?

Es heißt, dass sich aus einem Wirbelsturm, also einem Zyklon mit einem warmen Kern in einem ausgeglichenen horizontalen Temperaturfeld ein Sturmwirbel, also eine Zyklone mit kaltem Kern entwickelt. Eine sehr gute theoretische Beschreibung, auch mit praktischen Beispielen, findet sich hier.

Der Hurrikan Ophelia nun hat diese Entwicklung ebenfalls durchlaufen. Hier folgt eine Reihe von Abbildungen, die diesen Übergang dokumentieren.

Die Satellitenbilder zeigen den Ablauf alle 6 Stunden. Die Karten zeigen 12-stündig die Lage im 850-hPa-Niveau (Mitte) und im 500-hPa-Niveau (rechts).

[Hinweis: Alle Zeitangaben erfolgen hier in UTC. Dabei gilt MESZ = UTC plus 2 Stunden. Die Quelle aller Satellitenbilder ist der Verein Berliner Wetterkarte e. V. Quelle der Grafiken ist die Wetterzentrale.de.]

Abb. 1 vom 15. 10. 2017, 00/01.30 UTC: Im Satellitenbild ist am linken Bildrand Ophelia noch eindeutig als Hurrikan erkennbar, vor allem dank des ausgeprägten ,Auges‘ (ganz links im Bild). Im 850-hPa-Niveau zeigt sich der horizontale Temperaturgegensatz eines Kurzwellentroges der Westwindzone weit nordwestlich des Wirbels.

Abb. 2: Auch um 06 UTC zeigt sich im Satellitenbild die Wirbelsturm-Struktur, doch kommt der Sturm jetzt in Kontakt mit der Bewölkung vorderseitig des Kurzwellentroges.

Abb. 3 vom 15. 10. 2017, 12 UTC: Der Beginn der Umwandlung (Transition) in eine außertropische Zyklone ist jetzt im Gange: rudimentär ist das Auge noch erkennbar, aber die Wolkenformation ist bereits integraler Bestandteil des Wolkenbandes der Westwindzone. Im 850-hPa-Niveau zeigt sich der Sturm bereits im Bereich des horizontalen Temperaturgegensatzes der Westwindzone.

Abb. 4: Das Satellitenbild von 18 UTC zeigt, dass Ophelia seine tropischen Eigenschaften immer mehr verliert. Die Kaltluft macht sich auf den Weg in das Zentrum von Ophelia. Ein Auge ist dabei nicht mehr zu erkennen.

Abb. 5 vom 16. 10. 2017, 00 UTC: Der Übergang in eine außertropische Zyklone ist abgeschlossen. Das Satellitenbild zeigt die eindeutige Struktur einer außertropischen Sturmzyklone. Im 850-hPa-Niveau weist diese jetzt einen kalten Kern auf, auch im 500 hPa-Niveau hat sich das Geopotential im Bereich von Ophelia deutlich erniedrigt. Der Sturm müsste jetzt korrekt als ,Ex-Hurrikan Ophelia‘ bezeichnet werden.

WICHTIG: Bereits zu diesem Zeitpunkt, also vor dem Übergreifen auf Irland, war Ophelia kein Hurrikan mehr! Natürlich hört man es in den Medien ganz anders – sonst wäre es ja keine Sensation!

Der Vollständigkeit halber hier noch die folgende Abbildung:

Abb. 6: Die Struktur unterscheidet sich in nichts mehr von einem ,normalen‘ außertropischen Orkantief. Die mitgeführte Warmluft ist zu diesem Zeitpunkt ,verbraucht‘, d. h. fast vollständig dynamisch gehoben, so dass sich der Wirbel nun stark abschwächt.

Die höchsten aufgetretenen Windgeschwindigkeiten in den Böen (km/h) zeigt diese Grafik:

Fazit: Der Sturm Ophelia ist lediglich hinsichtlich des Verlaufes seiner Entwicklung recht ungewöhnlich, in keiner Weise aber hinsichtlich seiner Auswirkungen. Winterliche Orkane sind in ganz West- und Mitteleuropa an der Jahresordnung, und es wäre schon sehr ungewöhnlich, wenn im kommenden Winter kein solches Gebilde mehr auftreten würde.

Der Weihnachtsorkan Lothar im Jahre 1999 wies in Süddeutschland deutlich höhere Windgeschwindigkeiten auf, vor allem auf den Bergen. Und die Windspitzen der Hurrikane Irma und Maria in der Karibik dürfte nochmals erheblich stärker, vielleicht sogar doppelt so hoch ausgefallen sein.

Aber auch wenn Ophelia beim Auftreffen auf Irland ein durch und durch baroklines [d. h. im Bereich eines horizontalen Temperaturgegensatzes liegendes] Gebilde war, so kam der Sturm doch immer noch mit außerordentlich hohem Luftdruckgradient daher. Die Ursache für diese starke Entwicklung ist Folgende:

Auf der Vorderseite eines progressiv (= sich nach Osten verlagernden) Kurzwellentroges wird die dort liegende Warmluft dynamisch gehoben. Dieser Vorgang passiert täglich mehrmals das ganze Jahr über. Entscheidend für die Stärke der Entwicklung ist u. A. der Temperaturgegensatz zwischen Warm- und Kaltluft. Hierbei ist aber zu beachten, dass nicht nur die fühlbare, sondern auch die latente Temperatur der Warmluft eine Rolle spielt. Um beide Größen zu kombinieren, fasst man sie zur sog. ,pseudopotentiellen Temperatur‘ zusammen. Diese gibt einen viel besseren Einblick in den tatsächlichen Temperaturgegensatz.

Ein tropisches Wettersystem nun setzt viel mehr latente Wärme um als ein ,normaler‘ Warmluftkörper auf einer Trogvorderseite. Die pseudopotentielle Temperatur in einem Hurrikan ist also deutlich höher und stellt einen massiven zusätzlichen Energieimpuls dar. Gelangt ein solcher ,Super-Warmluftkörper‘ auf die Vorderseite eines Kurzwellentroges, sind die Hebungsvorgänge ungleich intensiver als bei einem ,normalen‘ Warmluftkörper.

Genau dies war hier auch der Fall. Irland ist also von einem besonders starken, wenn auch kleinräumigem Orkantief heimgesucht worden, aber nicht von einem Hurrikan!

Zu befürchten ist, dass bei weiterer Erdabkühlung und dem damit verbundenen steigenden horizontalen Temperaturgegensatz zwischen niedrigen und hohen Breiten die Anzahl und Stärke winterlicher Orkanwirbel sukzessive zunimmt.

Zum Schluss: Eine gute Zusammenfassung der Entwicklung des Sturmes Ophelia gibt es in der ,Übersicht‘ zur Berliner Wetterkarte vom 16.10.2017:

Der Hurrikan OPHELIA, der gestern früh mit maximalen mittleren Windgeschwindigkeiten von 100 Knoten als sogenannter Major-Hurrikan in die Kategorie 3 eingestuft wurde und südöstlich der Inselgruppe der Azoren lag, wandelte sich bis heute früh auf seinem Weg nach Norden in ein außertropisches Tief um. Damit war OPHELIA der östlichste Hurrikan auf dem Nordatlantik seit 1851, der in die Kategorie 3 eingestuft wurde. Im gestrigen Tagesverlauf stieg der Kerndruck vorübergehend etwas an, ehe sich heute Morgen wieder eine Verstärkung ergab. Um 06 UTC lag ex-OPHELIA mit seinem Kern direkt südwestlich von Irland und einem Kerndruck von 958 hPa. Das zugehörige Orkanfeld griff ab dem späteren Vormittag auf Irland über. Um 10 UTC wurden am Roches Point südlich von Cork mittlere Windgeschwindigkeiten von 93 km/h (Windstärke 10) und maximale Böen bis 130 km/h gemessen. In Cork gab es zu diesem Zeitpunkt Orkanböen bis 122 km/h. Bis 11 UTC legte der Wind noch weiter zu, so dass am Roches Point nun Spitzenböen bis 156 km/h auftraten. Entsprechend wurde von den Wetterdiensten in Irland die höchste Warnstufe ausgerufen.

© Hans-Dieter Schmidt, Oktober 2017




Der Frankenwein wird teurer, weil sich das Klima zurückwandelt

Süddeutsche Zeitung 12. Oktober 2017: Frankenwein wird teurer
Ernte fällt besser aus als gedacht, doch Winzer müssen investieren
Trockene Winter, frühe Blüte, Spätfröste und nasse Sommer – auf diese Wetterbedingungen müssten sich Frankens Winzer auch in Zukunft einstellen. Deshalb seien vermehrt Investitionen in den Frostschutz, die Kellertechnik und die landwirtschaftlichen Geräte nötig, sagte Artur Steinmann, Präsident des Fränkischen Weinbauverbandes. „Das wird sich auf die Preise niederschlagen müssen.“
Die dpa nahm diese neue Klimainformation ebenfalls auf und meldete es so auch der Tageszeitung des Autors, in welcher laut Eigenwerbung „jedes Wort wahr ist“.

So steht es „im Klimawandel“

Wer beim Klimawandel aufgepasst hat, „weiss“, dass die Winter nasser und die Sommer trockener werden sollen. Belege dazu:
Umweltbundesamt: Globale Klimaänderungen bis 2100
Allgemein nehmen die jährlichen Niederschläge in Nordeuropa zu und in Südeuropa ab. Jahreszeitlich werden insbesondere
im Winter zunehmende Niederschläge für Mittel- und Nordeuropa projiziert, während die Projektionen für viele Teile Europas trockenere Sommer zeigen.
wiki Bildungsserver Klimaprojektionen Deutschland
Bei den Niederschlägen ergibt sich im Jahresmittel kein deutlicher Trend. Bei den Jahreszeiten zeigen jedoch besonders die Sommer- und Wintermonate deutliche Veränderungen. Die Sommer werden in Zukunft deutlich trockener, die Winter feuchter. Im Sommer können die Niederschlagsmengen bis zu 20 % ab- und im Winter bis zu 20 % zunehmen (REMO).

… und galt es auch für Weinfranken

Franken ist zwar ein etwas eigenes Völkchen, hat aber kein eigenes, sondern nur ein recht unterschiedliches Klima. Dass sich dieses auch dort in der (simulierten) Zukunft ähnlich verhalten soll, zeigt eine Folie des in Würzburg lehrenden „Weinklima-Simulations-Papstes“:

Prof. Dr. Heiko Paeth Institut für Geographie Universität Würzburg, Festvortrag am 25.07.2008: Von der Klimaforschung zum Klimaschutz (Auszug)

Das Klima wandelte sich (schon immer), allerdings nicht wie es die Simulationen vorhersagen

Man kann es nachvollziehen. Beim (AGW-)Klimawandel kann man sich wirklich auf nichts verlassen. Kaum wird die Überhitzung simuliert und daraufhin teuer investiert:
EIKE 01.08.2015: [1] Schlägt der Klimawandel auch in Franken zu? Bewässerungstechnik aus der Wüste muss Frankens Bauern helfen,
wird das Wetter schon wieder fast so schlecht wie es früher einmal war. Das schlägt sich dann nicht nur auf die Stimmung, sondern eben auch auf die Preise nieder.
Schön, wenn man darüber schon einmal berichtet hat [1] und es gleich zeigen kann. Seit 1990 hat sich bei der DWD-Messstation Würzburg – mitten in Mainfranken -, am Niederschlag nichts verändert. Betrachtet man die extreme Spanne des Sommerniederschlags, kann man direkt ablesen, wann welche Hiobsbotschaft – mal ist es zu nass, dann ist es zu trocken – in unseren Medien berichtet wird, nur nicht, dass sich in Summe seit ca. 1900 daran gar nichts verändert hat.

Bild1 [1] Jahreszeitliche Niederschläge Würzburg 1990-2015

Wer es nicht glaubt, dem sei es anbei anhand des langfristigen Verlaufs gezeigt (Bild 2). Der trockenste Sommer war vor 1950 und anhand der Minimas meint man eher eine Zyklik, als einen Klimawandel zu erkennen, uaf jeden Fall aber keine Veränderung.

Bild 2 Gebietsniederschlag Mainfranken Sommerhalbjahr 1930 – 2010. Quelle: KLIWA-Untersuchungsgebiet M1 „Main bis oh. Regnitz“.


Bild 3 Deutschland Niederschlag Winter 1881 – 2017. Quelle: DWD Klimaatlas


Bild 4 Deutschland Niederschlag Sommer 1881 – 2017. Quelle: DWD Klimaatlas


Fazit
Der Weinbauverbandspräsident sieht in Zukunft nassere Sommer und trockenere Winter, also das Gegenteil des durch den Klimawandel vorhergesagten, auf die Winzer zukommen.

Frühe Blüte“, oder der Vegetationsbeginn

In der Verbandsmeldung steht auch, die „frühe Blüte“ wäre ein Problem. EIKE Leser kennen dazu die „immerwährenden“ Berichte des Duos Kowatsch/ Kämpfe, welche immer neu zeigen, dass der Blühbeginn sich in der freien Natur bei Weitem nicht so „verfrüht“, wie es der DWD berichtet.

Bild 5 [2] Grafik 9: Trotz der relativ zeitigen Apfelblüte 2017 ist deren Verfrühungstrend – ebenso wie der der Haselblüte, welche diesmal eher spät einsetzte – nicht signifikant.

Im DWD Klimaatlas findet sich ein globales Bild über einen noch längeren Zeitraum (Bild 6). Dieses Jahr war der Blühbeginn der Apfelbäume sehr früh, was wegen der diesjährigen Spätfröste vor allem den Apfelbauern extrem zugesetzt hat.
Nur: Betrachtet man den Trendkanal, dann war das seit Beginn der Messreihe im Jahr 1961 schon oft so und eine Spanne von 30 Tagen Unterschied von einem Jahr zum nächsten schon immer „normal“. Der Mittelwert sagt nichts aus, da sein rechnerischer Beginn unklar ist. Doch zeigt er wieder, wie hoffnungslos ungenau die entsprechenden Projektionen bereits aktuell sind.

Bild 6 Deutschland Vegetationsbeginn 1961 – 2017. Quelle: DWD Klimaatlas


Fazit
Der Weinbauverbandspräsident sieht in Zukunft die frühe Blüte als Problem. Dabei hat das sich bisher wandelnde Klima zumindest seit Beginn der DWD-Grafik im Jahr 1961 noch keinen wirklich signifikanten, früheren Vegetationsbeginn zur Folge.

Frühe Blüte und Spätfröste

Spätfröste alleine stören wenig. Ein Problem ist es nur, wenn diese während der Blüte auftreten. Während die Obstbauern in Südtirol des Problem durch Bespritzen mit Wasser lösen, ist dies im Hoch-Technologieland Deutschland weitgehend unbekannt. Es erscheint zuerst einmal logisch, dass ein verfrühter Blühbeginn verstärkt durch Spätfröste gefährdet ist. Wie Studien zeigen, ist es jedoch umgekehrt. Seit dem etwas wärmer gewordenen Klima hat diese Gefahr erheblich abgenommen.
Leider fand der Autor keine historische Information zu Spätfrösten in Weinfranken. Er erinnert sich nur an einen Reportagefilm im Fernsehen, in dem so um 1950 die fränkischen Weinbauern verzweifelt mit Feuern dagegen ankämpften. Die Gefahr war demnach schon vor dem Beginn des „schlimmen“ Klimawandels akut.
Das bestätigt sich auch in einem Bericht über den Weinanbau an der oberen Mosel:
Dr. Daniel Molitor, Dr. Jürgen Junk, Centre de Recherche Public, Gabriel Lippmann Abteilung Umwelt und Agro-biotechnologien (EVA) in Belvaux Luxemburg: Spätfrostschäden im Weinbau
Ein Blick in alte Weinchroniken zeigt, dass in unseren Breiten Frühjahrs- oder Spätfröste seit jeher eine existenzielle Bedrohung für den Weinbau und die von ihm lebenden Winzer darstellen.
Insgesamt hat sich demnach die Wahrscheinlichkeit von Frostschäden in den letzten Jahrzehnten eher reduziert
… bis zum Ende des 21. Jahrhunderts ist in den Weinbergen des oberen Moseltals mit einer geringeren Wahrscheinlichkeit für Frostereignisse nach dem Austrieb, im Vergleich zum Referenzzeitraum 1961 bis1990, zu rechnendie Wahrscheinlichkeit von Frostereignissen nach dem Austrieb nimmt ab …
Auch die Daten der Obstbauern geben Entwarnung
[3] Hessisches Ministerium für Umwelt, Landwirtschaft und Verbraucherschutz: Abschlussbericht zum Forschungsvorhaben Auswirkungen von Klimaveränderungen auf den Obstanbau in Hessen
Die Möglichkeiten zur Aussage, welche Veränderungen auf den Obstanbau in Zukunft zukommen, sind also nur sehr schwer und zurzeit nur sehr begrenzt möglich. Das mittlere Blühdatum wird sich aber vermutlich bis zum bearbeiteten Zeitraum 2031-2060 im Verhältnis zu den letzten zwei Jahrzehnten nur noch wenig nach vorne verschieben. Bei der Gefahr von Spätfrösten zur Blüte ist für diesen Zeitraum im Vergleich zu den letzten 50 Jahren keine große Veränderung zu erkennen.

Das folgende Bild daraus zeigt, dass die kritischen Frosttage nach dem Blühbeginn (welche dieses Jahr die Apfelbauern fast schon extrem erwischt hat), in Zukunft an fünf von sechs Standorten, also sehr signifikant, abnehmen sollen.

Bild 7 [3] Abb. 7: Häufigkeiten des Auftretens von Frosttagen im 10-Jahres-Mittel. Vergleich des Durchschnitts der Perioden 1958-2001 (blauer Balken) und 2031-2060 (roter Balken). Die Farben der Geländekarte stellen die Höhe über NN dar.

Fazit
Der Weinbauverbandspräsident sieht in Zukunft ein Problem durch Spätfröste. Dabei hat das sich bisher wandelnde Klima zu weniger Spätfrostbelastung geführt und die Simulationen sagen sogar eine weitere Verringerung voraus.

Alle genannten Probleme hat das sich bisher positiv wandelnde Klima verringert

Nach Sichtung der Daten stellt man fest, dass alle vom Verbandspräsidenten berichteten Probleme dank des sich von einer Zwischeneiszeit aus wieder erwärmenden Klimas – genannt anthropogener Klimawandel – geringer geworden sind und sich sogar weiter positiv fortschreiben sollen.
Wenn dieser Präsident mit seiner Prognose trotzdem recht hat – und dass sollte so sein, denn die zu Klima und Energie als „hochkompetent“ geltende SZ berichtete es ohne Widerspruch, wie auch die darin ebenfalls geübte dpa, lässt dies nur einen Schluss zu:
Der zum Klimawandel besonders kenntnisreiche Verbandspräsident geht davon aus, dass sich der (angebliche) Klimawandel nicht wie simuliert weiter fortsetzt, sondern vorher reißaus zum „alten“ Wetter nimmt.
Verklausuliert gibt er damit zu, selbst nicht mehr an den (AGW-)Klimawandel zu glauben. Würde er es nämlich trotzdem, wäre es ein Beleg, dass er von dessen „Fakten“ keine Ahnung hat – und das wäre bei einem Winzer-Verbandspräsidenten doch kaum vorstellbar.
Die (In-)Kompetenz und unverhohlene Parteipolitik der Zeitung aus Süddeutschland belegt sich immer neu in den Darstellungen ihres Redaktionsteams.
SZ, Joachim Käppner (Studium Geschichte und politische Wissenschaften): [5]„ … Als die Grünen nur den Gedanken anzuregen wagten, herkömmliche Motoren herkömmliche Motoren bis 2030 zu verbannen, wurden sie als Spinner und Volkserzieher geschmäht ... Dabei spricht die Wissenschaft eine klare Sprache: Die Menschheit hat keine Jahrzehnte mehr zu verschwenden. Und zumindest was den Beitrag des Autos zu diesem Desaster angeht, gäbe es mit den E-Fahrzeugen und öffentlichen Transportmitteln realistische Alternativen zu einer fast buchstäblichen Politik, die „Nach mir die Sintflut“ ruft.

Das heute herbeigesehnte, „vorindustrielle“ Klima war ein Jammertal

Nachdem die Jammerei über das Wetter, bei dem man „täglich den Klimawandel spüren kann“, wie es die (zum Glück) ausscheidende Umwelt(hysterie)ministerin Hendricks erzählte, oder nach der in Bayern (leider noch länger) dafür zuständigen, die ihn erweitert sogar [4] mit den Händen greifen kann“, wieder aufflammt, zur Erinnerung etwas über die Klimaprobleme unserer Altvorderen, die diese – heute so ersehnten Wetterbedingungen – zu überleben versuchten.
Wie heute, wurde auch damals von den „Fachpersonen“ der Mensch dafür verantwortlich gemacht und wie heute, waren Zweifel an den Aussagen der „Fachpersonen“ nicht erlaubt.
Rüdiger Glaser 2012-09-19: Historische Klimatologie Mitteleuropas
Die Jahrestemperaturentwicklung zeigt für Mitteleuropa ab Mitte des 14. Jahrhunderts einen übergreifenden negativen Trend. Überlagert wird dieser von mittelfristigen Schwankungen in der Größenordnung von Dekaden, die zum Teil zyklisch verlaufen. Einige dieser Schwankungen erfolgen in vergleichsweise kurzen Phasen und fallen ab Mitte des 15. Jahrhunderts mitunter recht drastisch aus. Fast jede Generation erlebte in dieser Phase einen Zyklus wärmerer Klimaverhältnisse, gefolgt von einem dramatischen Temperatureinbruch. Bis 1600 wird eine der tiefsten Temperaturphasen der tausendjährigen Reihe erreicht.
In der saisonalen Analyse wirkte sich zwischen 1400 und 1500 vor allem die Abkühlung der Frühjahrswitterung prägend aus. Die Sommertemperaturen sanken mit einigen Dekaden Verzögerung, ebenso die im Herbst.
Besonders dramatisch ist der Einbruch der Sommertemperaturen gegen Ende des 16. Jahrhunderts. In dieser Phase häufen sich auch gesellschaftliche Exzesse wie Hexenverfolgungen. Auch wenn es verschiedene Definitionen und zeitliche Einordnungen gibt, setzte sich spätestens ab 1550 die klimatische Struktur der Kleinen Eiszeit durch.
Im weiteren Verlauf bleibt der langfristige Temperaturverlauf auf einem niedrigeren Niveau, ein Umstand, der 1939 zum ersten Mal als „little ice age“ bezeichnet wurde. Die zunächst eher beiläufige Namensgebung erklärt sich aus dem markanten Vorrücken der Alpengletscher in diesem Zeitraum. In den Mittelgebirgen verschlechterten sich die Anbaubedingungen signifikant durch die Verkürzung der Vegetationsperiode. Öfters kam es in dieser Phase zum Auswintern (also zu einer frostbedingten Beschädigung) der Winterfrucht. Hungersnöte, Seuchen, die Aufgabe von Siedlungen und Abwanderungen waren die Folge. An den Küsten traten vermehrt schwere Sturmfluten auf, die teilweise zu großen Menschen- und Landverlusten führten. Tiefpunkt dieser Entwicklung war das sogenannte Maunder Minimum, das zwischen 1675 und 1700 auftrat und nach einem Sonnenfleckenminimum benannt ist.
Neben den langfristigen Änderungen können aus den historischen Daten auch extreme Einzelereignisse ausgewiesen werden, die oft noch lange im Gedächtnis der Menschen verhaftet blieben. Zu erwähnen sind die Hochwasserkatastrophen von 1595, 1608, 1682, 1784 und 1845. Die wohl schwerwiegendste, historisch belegbare Überschwemmungskatastrophe traf Mitteleuropa im Sommer des Jahres 1342.
Vor allem mit der zunehmenden Klimaverschlechterung der Kleinen Eiszeit ab Mitte des 14. Jahrhunderts begann eine Phase, in der nach klimatischen Extremen, insbesondere Unwettern, welche Teile der Ernte vernichteten, religiöse Minoritäten und gesellschaftliche Randgruppen verantwortlich gemacht wurden und schließlich massiver Verfolgung ausgesetzt waren. In der Forschung vermutet man eine enge Korrelation zwischen der Kleinen Eiszeit und der Herausbildung von Hexenverfolgungen als kollektivem Verbrechen. Die letzte vermeintliche Hexe wurde Ende des 18. Jahrhunderts in der Schweiz hingerichtet. Hochwasserphänomene erschließen ein facettenreiches Bild gesellschaftlicher Konzeptualisierungen: In Wasserpredigten wurde menschliches Fehlverhalten als Ursache für die Hochwässer genannt, wie es in der Metapher der Sündflut oder der Zornrute Gottes zum Ausdruck kam. Interessanterweise bezeichnete Martin Luther (1483–1546) in seinen Predigten die Hochwasser der Elbe als Werk des Teufels.
Quellen
[1] EIKE 01.08.2015: Schlägt der Klimawandel auch in Franken zu? Bewässerungstechnik aus der Wüste muss Frankens Bauern helfen
[2] EIKE 27. April 2017: Schnee statt Frühlingswärme- geht der Klimaerwärmung nun auch im April die Puste aus? Teil 1
[3] Hessischen Ministerium für Umwelt, Landwirtschaft und Verbraucherschutz: Abschlussbericht zum Forschungsvorhaben Auswirkungen von Klimaveränderungen auf den Obstanbau in Hessen
[4] Bayerisches Umweltministerium, Pressemitteilung Nr. 240/15 vom 07.12.2015, Scharf: Erderwärmung unter der Lupe / Neuer Klima-Report zeigt Folgen des Klimawandels in Bayern
[5] Süddeutsche Zeitung 14. / 15. Oktober: Klimaschutz Die Kühnen von Paris




Klimawissen­schaftler demon­strieren ihre Ignoranz hinsichtlich CO2-Emissi­onen und Abschwä­chung

(Offensichtlich geistert in den Denkapparaten der Klimawissenschaftler herum, dass die in erneuerbaren Strom zwischen 2000 und 2016 investierten 4 Billionen Dollar sowie hunderte Milliarden investiert in nicht elektrische erneuerbare Energie als nichts anzusehen sind).

Während Einige dieses Fehlen von Details als ein Zeichen dafür interpretieren, dass sie die Angelegenheit nicht politisieren wollen, wissen all jene von uns, welche der Debatte folgen, dass viele Klimawissenschaftler sich nicht wirklich Mühe geben, apolitisch zu sein. Folglich entwickle ich in diesem Artikel eine andere Hypothese: Wissenschaftler haben keine Ahnung von Energie und Ökonomie. Sie wissen wenig bis nichts darüber, was getan wurde und getan werden könnte, und sie wissen nicht einmal, wie man Fortschritte bei der Reduktion von Emissionen messen kann. Dennoch bleiben ihre Mahnrufe und Unfehlbarkeitsansprüche genauso vage wie irgendwelche motivierenden Zitate, die man zuhauf im Internet findet.

Es geht den Klimawissenschaftlern nicht darum, eine Debatte darüber zu steuern, was bzgl. Klimawandel getan werden sollte, weil eine solche Debatte augenblicklich das kolossale Scheitern der Klimapolitik während der letzten 20 Jahre offensichtlich machen würde. Es geht ihnen darum, die ,skeptische‘ Seite lächerlich zu machen und sich selbst als Märtyrer darzustellen.

Klimawissenschaftler verstehen nicht, dass Emissionen von ökonomischem Wachstum getrieben werden.

Das mag hart klingen, aber wie sonst soll man Tweets wie die Folgenden (hier und hier) bewerten?

Inschrift: „Und natürlich sind die Gelegenheiten, mit der Reduktion von Emissionen zu beginnen, um Jahre zurück geworfen worden“

Schauen wir mal. Gavin Schmidt betrachtet die Graphik, sieht die Emissionen bis zum Jahr 2008 oder so steigen und dann sinken. Auf dieser Grundlage folgert er, dass der Rückzug aus Kyoto die Gelegenheiten für die Reduktion von Emissionen verzögerte, d. h. dass die Emissionen schon früher angefangen hätten zu sinken, falls man sich nicht aus Kyoto zurück gezogen hätte. Aber er ignoriert vollkommen die Rolle des BIP.

Ein Rückgang von Emissionen bedeutet nicht, dass ,Klimawissenschaft wirkt‘: es kann einfach sein, dass die Wirtschaft kollabiert ist (siehe Syrien und Griechenland). Andererseits bedeutet eine Zunahme von Emissionen nicht, dass Klimapolitik gescheitert ist: es kann einfach sein, dass die Wirtschaft boomt. Was man tun muss: Man muss die Effizienz des BIP pro Einheit emittierten CO2 betrachten sowie die Rate mit welcher diese Effizienz zunimmt – was ich die Dekarbonisierungs-Rate nenne.

Tatsächlich ist es so, wie ich in diesem Artikel beschrieben habe, dass nämlich die Dekarbonisierungs-Rate der USA nach Buschs Rückzug aus Kyoto nicht abgenommen hat. Falls überhaupt, begann sich die Wirtschaft schneller zu dekarbonisieren! (Die Graphik zeigt ein gleitendes 5-Jahre-Mittel):

Betrachtet man das BIP wird offensichtlich, dass der Rückzug aus Kyoto ein Nicht-Ereignis war. Logisch, war doch Kyoto selbst ebenfalls ein Nicht-Ereignis. Übrigens war die Dekarbonisierungs-Rate der USA ein wenig höher als die der Europäischen Union im gleichen Zeitraum!

Die Mutter aller Rosinenpickerei: die letzten drei Jahre beweisen, dass die Klimapolitik erfolgreich war, aber die fünfzig Jahre zuvor zählen nicht!

Die ,Neuigkeit‘, dass die CO2-Emissionen im Jahre 2016 mehr oder weniger flach verlaufen waren (was tatsächlich vor mindestens vier Monaten bekannt war), bot den Wissenschaftlern eine neue Gelegenheit, sich über ihre gemeinsame Ahnungslosigkeit über Twitter auszutauschen.

Siehe z. B. Jon Foley:


Oder Scott Denning:

Oder Victor Venema:

Inschrift: Viel passiert bereits. Während der letzten drei Jahre waren die Emissionen durch Industrie und fossile Treibstoffe stabil. Dies ist normalerweise nur während einer weltweiten Rezession der Fall. Dies ist ein Zeichen, dass Politik bzgl. erneuerbarer Energie und Energieeffizienz zu greifen beginnt. Die meiste globale neue Energie-Erzeugungs-Kapazität und Investitionen sind bereits kohlenstofffrei. Der nächste Schritt ist, dass auch die meiste neue Erzeugung erneuerbar ist. Dann müssen wir die übrige Wirtschaft elektrifizieren sowie den Markt und die Technologie dazu nutzen. Angebot und Nachfrage zusammenzubringen. Es ist immer noch ein langer Weg, aber ich habe das Gefühl, es bewegt sich.

Oder Stefan Rahmstorf:

Inschrift [Rückübersetzung]: Während der letzten drei Jahre sind die globalen CO2-Emissionen aus der Verbrennung fossiler Treibstoffe nach Jahrzehnten des Anstiegs flach verlaufen. Dies ist ein Zeichen, dass Politik und Investitionen in die Klimaabschwächung sich auszuzahlen beginnen. Die USA, China und andere Nationen ersetzen Kohle durch Erdgas und rasant zunehmend durch erneuerbare Energiequellen. Es gibt eine fast einstimmige internationale Zustimmung, dass die Risiken, den Planeten dem Klimawandel auszusetzen, zu groß sind, um sie zu ignorieren.

Noch einmal: Die Wissenschaftler ignorieren vollständig die Rolle der Ökonomie. Haben sie noch nie etwas von dem Terminus Störfaktor [confounder*] gehört? Nun, es stellt sich heraus, dass die globale Wirtschaft während der letzten drei Jahre etwas langsamer gewachsen ist als die meiste Zeit in der Historie. Darum nehmen die Emissionen natürlich auch langsamer zu.

[*confounder: Der Übersetzer LEO bietet keine eindeutige Übersetzung an. In Kommentaren taucht dort der Begriff ,Störfaktor‘ auf. Mit diesem werde ich den Begriff also übersetzen. Anm. d. Übers.]

In diesem Artikel beschrieb ich die Dekarbonisierung des globalen BIP seit Beginn von Aufzeichnungen im Jahre 1951. Ich konnte mich nicht dazu durchringen, die Graphik mit Einschluss des Jahres 2016 zu aktualisieren, aber die Rate war ähnlich der des Jahres 2015, d. h. etwas über 2%.

Während die Dekarbonisierungs-Rate der letzten 3 Jahre höher ist als das historische Mittel, ist sie in keiner Weise ein Ausreißer. Öl und Gas nahmen 2017 stark zu und Kohle in den drei wichtigsten Märkten ebenfalls. Da ist es fast gesetzmäßig, dass die CO2-Emissionen in diesem Jahr um mindestens 1% zunehmen werden – was die Dekarbonisierungs-Rate erneut unter 2% drückt.

Am wichtigsten: Die implementierte vermischte Rate seit Beginn der Klimapolitik liegt deutlich unter dem historischen Mittel! Dabei spielt es keine Rolle, welches Jahr man wählt, 1997, 2000 usw. Meinen Berechnungen zufolge beträgt die Rate von 2000 bis 2017 0,7% – das ist etwa halb so hoch wie das Niveau vor der Jahrtausendwende. Anders gesagt: Die heutigen Emissionen sind höher als sie es wären, wenn sie einfach den Trend vor Kyoto beibehalten hätten.

Falls die typische Dekarbonisierungs-Rate 1,4% beträgt und man über 17 Jahre ein Mittel von 0,5% erhält, dann würde man natürlich erwarten, dass die Rate wieder steigt – und vielleicht das historische Mittel für einige Jahre übertreffen wird. Dies passiert in allen Arten von Zeitreihen-Daten. Nach den Verheerungen des 2. Weltkrieges beispielsweise wuchsen die Europäischen Ökonomien schneller denn je. Hohe ökonomische Wachstumsraten sind keine Überraschung nach einer Periode mit schlimmen (in diesem Falle negativen) Raten.

Niemand, der auch eine Spur Ahnung hinsichtlich historischer Emissionen hat, würde sagen, dass die letzten drei Jahre einen ,Wendepunkt‘ darstellen oder ein Beweis für das Wirken von Klimapolitik sind. Man braucht viele weitere Jahre mit einer schnelleren Dekarbonisierung als im Mittel, um zu folgern, dass die Politik greift.

Zum Schluss dieses Abschnitts ein weiteres Tweet von Mr Denning:

Niemand mit auch nur einem Schimmer Ahnung von Emissionen und Ökonomie würde den Ausdruck ,Entkopplung‘ verwenden. Die Wirtschaft wächst fast immer schneller als CO2-Emissionen, und falls sie langsam wächst, können CO2-Emissionen sinken. Es gibt darum herum keine ,Entkopplung‘ – es ist das, was immer passiert ist, obwohl normalerweise westliche Ökonomien zu schnell wachsen, um Emissionen sinken zu lassen.

Sagen wir mal, dass das BIP um 0,1% wächst und die Emissionen um 0,1% sinken. Würde man hier sagen, dass diese beiden Dinge sich entkoppelt haben?

Keine bedeutsamen Maßnahmen wurden ergriffen“

Nun gut, ich erwähnte diesen von vielen Wissenschaftlern gehätschelten Irrtum am Beginn des Artikels. Aber ich konnte nicht der Versuchung widerstehen, den folgenden geistesgestörten Twittersturm zu posten:


Falls keine bedeutsamen Maßnahmen ergriffen worden sind, was war dann der Sinn der 22 COP-Treffen? Sollen wir glauben gemacht werden, dass Fox News und die Koch Brothers Klimamaßnahmen in Bulgarien, Äthiopien, Bangladesh… blockiert haben?

Republikaner schlecht, Demokraten gut

Die vermeintlich apolitischen Wissenschaftler scheinen eine ziemlich starke politische Präferenz für eine bestimmte Seite zu haben. Früher erlebten wir, wie die USA unter Bush sich tatsächlich schneller dekarbonisierten als die EU während der gleichen Zeit. Dennoch war Bush immer als so etwas wie ein Klima-Antichrist verleumdet worden (siehe die Tweets von Gavin Schmidt zu Beginn). Man beachte bitte, dass ich nicht sage, dass Bush die Dekarboniserungs-Rate verursacht hat – es war sicher nur ein Zufall.

Falls ein Staat von Demokraten regiert wird und behauptet, viel zum ,Kampf gegen den Klimawandel zu tun‘, dann muss er offensichtlich etwas tun, was ,besser für das Klima‘ ist. Dieser Artikel ist schon ziemlich lang, so dass hier nur ein Tweet als Beispiel angeführt wird:

Nun sind die meisten der Städte, die behaupten, ,führend im Kampf gegen den Klimawandel‘ zu sein, in der glücklichen Lage, dass es keine guten Daten über CO2-Emissionen von Städten gibt. Aber es gibt Daten über Emissionen auf staatlichem Niveau. Hier ist Kalifornien, Mr. Foley zufolge der Klima-Führer:

Die Graphik zeigt zwischen 2000 und 2014 eine Abnahme der Treibhausgas-Emissionen pro Einheit BIP von 26%. Das ist gleich einer Zunahme der Treibhausgas-Effizienz des BIP um 35% (1/0,74). 14 Jahre lang ist das eine gemischte Dekarbonisierungs-Rate von 2,3% … was ziemlich genau der gleichen Rate wie der USA als Ganzes entspricht.

Also erging es dem Klima-Führer Kalifornien genauso schlecht (oder gut) wie dem Rest des Landes. Hoppla!

Hätten wir doch nur zugehört…“

Falls jemand nicht weiß, wie schnell man realistischerweise Emissionen zurückfahren kann, und sich stattdessen auf Fantasie-Szenarien stützt, dann kann dieser Jemand nicht wissen, was geschehen wäre, falls wir auf die Klimawissenschaftler gehört und mit der Reduktion von Emissionen vor Jahren begonnen hätten. Ich weiß nicht mehr, wie oft ich schon eine Version von ;wir hätten hören sollen‘ oder ,uns läuft die Zeit davon‘ gehört habe. Zum Kuckuck, man betrachte die Tweets von Jon Foley oben: ,der Rest von uns wird den Preis für diese Verzögerung zahlen‘.

Aber wie teuer war die Verzögerung denn nun? Man hört niemals, wie viel Erwärmung wir hätten vermeiden können – obwohl jener Datenpunkt sehr viel ausmacht! Also habe ich das mal geschätzt: falls eine stärkere (höhere) Dekarbonisierung schon im Jahre 1979 begonnen hätte, würde der Unterschied zu den derzeitigen Temperaturen etwa 0,05°C betragen – kein Witz!

Die Dekarbonisierungs-Rate betrug historisch etwa 1,4%, d. h. das BIP wuchs im Mittel um 1,4% schneller als die CO2-Emissionen; es sind etwa 1,1%, wenn wir den Zeitraum nach dem Jahr 2000 mit einbeziehen. Falls wir die Dekarbonisierungs-Rate um ein weiteres Prozent anheben, betrüge die Auswirkung bis zum Ende dieses Jahrhunderts weniger als 0,5°C! Offensichtlich ist es nahezu irrelevant, ob dieses höhere Niveau der Dekarbonisierung im Jahre 1979, 2000 oder 2030 begonnen hätte. Der Unterschied macht höchstens 0,1 bis 0,2°C aus.

Wissenschaftler behaupten unverdrossen, dass Abschwächung eine massive Auswirkung auf Temperaturen haben kann durch:

a) Sie verlassen sich auf Computermodelle anstatt auf Werte der Klimasensitivität berechnet aus historischen Temperaturdaten. Während die Gleichgewichts-Klimasensitivität unsicher bleibt, gibt es eine größere Übereinstimmung hinsichtlich der kurzlebigen Klima-Reaktion, und nur diese spielt hinsichtlich der Erwärmung in diesem Jahrhundert eine Rolle.

b) Sie beziehen eine Menge ,vermiedener Erwärmung‘ durch Reduktionen von Emissionen ein, welche nicht von fossilen Treibstoffen stammen. Das ist Unsinn, da diese Emissionen nicht verifizierbar sind – genauso wie jedwede ,Reduktionen‘. Außerdem stammen über 80% des menschlichen Klima-Antriebs während der letzten Jahre aus CO2, und 80% bis 90% davon gehen auf fossile Treibstoffe zurück.

c) Sie nehmen ein absurd hohes ,grundlegendes‘ Szenario an, welches sie irreführend ,Business as Usual‘ nennen. Mann, bei ,Business as Usual‘ würde ich große Mengen Kohle in meinem Hinterhof verbrennen; da ich das tatsächlich aber nicht mache, muss ich Emissionen stark reduziert haben!

Falls ein Schwachkopf wie ich die Berechnungen durchführen kann, kann das jemand mit einem Ph.D. mit Sicherheit auch. Aber erstens müsste der Typ mit Ph.D. ein wenig Neugier zu diesem Thema zeigen, zweitens Daten bzgl. des ökonomischen Wachstums herunterladen und drittens andere Websites anklicken, um Daten über Emissionen usw. zu erhalten. Und warum sollte man an einem Thema forschen, wenn man Unsinn twittern kann?

Schlussfolgerung

Man beachte bitte, dass ich nicht behaupte, ein Experte zu sein, wenn ich auf die Ignoranz der Wissenschaftler hinweise. Der Themenbereich Energie, Wirtschaft und CO2-Emissionen ist sehr umfangreich und mein eigenes Verständnis davon rudimentär. Aber es ist immer noch besser als das der von mir in diesem Artikel zitierten Wissenschaftler.

Klimawissenschaftler, zumindest sehr viele von ihnen, scheinen vollständig ahnungslos hinsichtlich der meisten Klimadinge, welche tatsächlich für den Rest von uns von Bedeutung sind. Sie wissen nicht, wie viele Emissionen zu- oder abnehmen, den Zusammenhang zwischen Emissionen und Ökonomie und ob unterschiedliche Länder erfolgreich bzgl. Emissionsreduktion sind oder nicht. Sie erwähnen niemals , was es kosten würde, die Freisetzung einer Tonne CO2 zu verhindern (hier). Sie reden kaum einmal über Dekarbonisierungs-Raten. Und so weiter, und so weiter

Sie sind ignorant. Aber die Welt sollte nicht zur Geisel ihrer Ignoranz werden.

Nachtrag: Natürlich wird auch gegen Skeptiker der Vorwurf ,aber sie fordern nichts‘ erhoben. Hier also eine spezifische Forderung von mir zum Kampf gegen den Klimawandel: nichts tun!

Link: https://wattsupwiththat.com/2017/10/10/climate-scientists-reveal-their-ignorance-about-co2-emissions-and-mitigation/
Übersetzt von Chris Frey EIKE