Der „Trick“ anomaler Temperatur-Anomalien

In den meisten Fällen ist die Anomalie sehr gering, und die Änderung wird aufgemotzt, indem die Y-Achse so gestreckt wird, bis diese geringe Änderung daherkommt wie ein steiler Anstieg (oder Fall). Die vermeintliche Aussagekraft der Graphiken wird durch die behauptete Genauigkeit der Anomalie verstärkt – bei der globalen mittleren Temperatur werden oftmals Zehntel- oder sogar Hundertstel Grad Celsius angegeben. Verschlimmert wird das Ganze, indem die Anomalien ohne oder nur mit sehr geringen „Fehler“-Bandbreiten gezeigt werden. Sollte das doch einmal der Fall sein, sind es nicht Fehler- oder Unsicherheits-Balken, sondern tatsächlich die statistische Standardabweichung (und nur selten wird das so angegeben).

Vor vielen Wochen habe ich dazu einen Beitrag geschrieben mit dem Titel [übersetzt] „Fast wie die Erde. Wir sind sicher!“ [Almost Earth-like, We’re Certain]. In dem Beitrag, der vom Weekly News Roundup des Science and Environmental Policy Project als „leicht lesbar“ charakterisiert worden ist, verlieh ich meiner Meinung Ausdruck, dass man Anomalien verwendet und so tut, als ob die Unsicherheit verringert worden wäre. Es ist nichts als Vortäuschung. Es ist ein Trick, um bekannte große Unsicherheiten zu verdecken.

Mit dem Eingeständnis, dass sich diese meine Meinung bis heute nicht geändert hat, denke ich, dass es gut ist, genauer zu erklären, wie ich zu dieser Ansicht gekommen ist – und was für einen umfangreichen Bereich in der Welt der Klimawissenschaft ziemlich kränkend sein wird. Zwei Dinge müssen wir betrachten:

1.Warum nenne ich das einen „Trick“?

2.Wer wird da ausgetrickst?

Zu Punkt 1: Warum nenne ich die Verwendung von Anomalien einen „Trick“?

Was genau ist das „Auffinden einer Anomalie“? Nun, nicht das, was man allgemein denkt. Die vereinfachte Antwort lautet, dass man die jährlich gemittelte Temperatur heranzieht und diese von jenem 30-Jahre-Klimamittel subtrahiert. Was übrig bleibt, ist „Die Anomalie“.

Das ist das, was sie sagen, aber nicht wirklich das, was sie tun. Sie fangen mit dem Auffinden von Anomalien auf einem niedrigen Niveau an und arbeiten sich empor bis zur Globalen Anomalie. Selbst wenn Gavin Schmidt den Gebrauch von Anomalien erklärt (hier), erkennen sorgfältige Leser, dass er sich rückwärts bewegen muss zu Absoluten Globalen Mittelwerten in Grad – indem die allgemein vereinbarte Anomalie dem 30-Jahre-Mittel hinzugefügt wird:

„… wenn wir versuchen, die absolute globale Mitteltemperatur für, sagen wir, das Jahr 2016 abzuschätzen. Die Klimatologie gibt im Zeitraum 1981 bis 2010 einen Wert von 287,4 ± 0,5K, und die Anomalie für 2016 (nach der GISTEMP-Grundlage) beträgt 0,56 ± 0,05°C. Folglich ist unsere Schätzung des absoluten Wertes 287,96 ±0,502 K, und bei Heranziehen des zweiten reduziert sich das zu 288,0 ± 0,5 K“.

Aber hier wollen wir einfach nur betrachten, dass die Anomalie einfach das von der berechneten GAST* subtrahierte 30-Jahre-Mittel in Grad ist.

Wie Schmidt freundlicherweise erklärt, ist die korrekte Angabe einer GAST in Grad irgendetwas auf der Linie 288,0 ± 0,5 K – das ist die Gradzahl bis auf ein Zehntel Grad genau mit einer Unsicherheits-Bandbreite von ± 0,5 K. Wenn eine Zahl auf diese Art und Weise angegeben wird, bedeutet das, dass der tatsächliche Wert nicht genau bekannt ist, aber es ist bekannt, dass er innerhalb der Bandbreite der Plus/Minus-Angabe liegt.

[*GAST = Global Averaged Surface Temperature]

Die Abbildung zeigt dies als aktuelle Praxis mit den Temperaturaufzeichnungen … die gemessenen Temperaturen sind auf ganze Grad Fahrenheit gerundet – eine Angabe, welche IRGENDEINE der unendlichen Zahl kontinuierlicher Werte zwischen 71,5 und 72,499999… repräsentiert.

Es ist kein Messfehler, es ist die gemessene Temperatur dargestellt als eine Bandbreite von Werten 72 +/– 0,5. Es ist eine Unsicherheits-Bandbreite – hinsichtlich der tatsächlichen Temperatur sitzen wir immer noch im Dunklen – wir kennen lediglich die Bandbreite.

Nun ist die Ein-Grad-Bandbreite für normale Menschen als Information ausreichend. Knifflig wird es in manchen Fällen, wenn sich die Temperatur dem Gefrierpunkt nähert – Temperaturen über oder unter dem Gefrierpunkt sind klimatisch bedeutsam für Landwirte, bei der Straßenausbesserung und Wartung von Flugzeugen.

Egal was wir mit Temperaturaufzeichnungen machen, müssen wir uns mit der Tatsache befassen, dass die tatsächliche Temperatur nicht aufgezeichnet worden ist – wir haben lediglich Bandbreiten aufgezeichnet, innerhalb derer die tatsächliche Temperatur lag.

Dies bedeutet, dass wenn diese Temperaturen für Berechnungen herangezogen werden, müssen sie Bandbreiten bleiben und als solche behandelt werden. Was nicht ausgesondert werden kann ist die Bandbreite des Wertes. Die Mittelung eliminiert die Bandbreite nicht – der Wert hat immer die gleiche Bandbreite. (Siehe Durable Original Measurement Uncertainty).

Auf der Grundlage einfacher Logik, wenn wir schließlich zur Globalen Mittleren Temperatur kommen, ist immer noch die originale Unsicherheit vorhanden – wie Dr. Schmidt korrekt illustriert, wenn er die Absolute Temperatur für das Jahr 2016 mit 288,0 ± 0,5 K angibt.

Der Trick kommt dort ins Spiel, wo die tatsächliche berechnete Temperatur zu einer Anomalie von Mittelwerten konvertiert. Wenn man ein Mittel berechnet (ein arithmetisches Mittel – Summe aller Werte geteilt durch die Anzahl der Werte), bekommt man eine sehr genaue Antwort. Wenn man das Mittel von Werten heranzieht, welche Bandbreiten sind, wie etwa 71 +/- 0,5, dann ist das Ergebnis eine sehr präzise Zahl mit einer hohen Wahrscheinlichkeit, dass das Mittel nahe dieser präzisen Zahl liegt. Während also das Mittel ziemlich genau ist, sind die tatsächlichen Temperaturen der Vergangenheit immer noch unsicher bis +/-0,5.

Drückt man das Mittel mit der gebräuchlichen „+/-2 Standardabweichung“ aus, sagt uns das nur, welchen Mittelwert wir erwarten können – wir können ziemlich sicher sein, dass das Mittel innerhalb jener Bandbreite liegt. Die tatsächliche Temperatur, wenn wir sie ehrlicherweise in Grad darstellen wie in der folgenden Graphik, immer noch behaftet sein mit der Messungenauigkeit: +/-0,5 Grad.

Diese Graphik wurde (ohne meine Anmerkungen) von Dr. Schmidt in seinem Beitrag über Anomalien (hier) gezeigt. Ich habe die erforderlichen I-Balken für +/-0,5 Grad hinzugefügt. Man beachte, dass die Ergebnisse der verschiedenen Re-Analysen selbst einen Spread von 0,4 Grad aufweisen – man könnte darüber sprechen, die Gesamtzahl von 0,9 Grad als die Unsicherheit der Globalen Mittleren Temperatur zu verwenden auf der Grundlage der Unsicherheiten oben (siehe die beiden grünen Unsicherheits-Balken, einer über dem anderen).

Dies illustriert die wahre Unsicherheit der Globalen Mittleren Temperatur – Schmidts eingeräumte +/-0,5 und die Unsicherheits-Bandbreite zwischen den Re-Analyse-Produkten.

Im Sinne der realen Welt sollte die oben dargestellte Unsicherheit als die Minimum-Unsicherheit betrachtet werden – die Unsicherheit der Originalmessungen plus die Unsicherheit der Re-Analyse. Es gibt noch viele andere Unsicherheiten, die man eigentlich hinzufügen müsste – wie sie etwa auftreten, wenn man Lücken in den Messungen mit berechneten Temperaturwerten füllt.

Der Trick besteht nun darin, dass der gleiche Datensatz als Anomalien präsentiert und behauptet wird, dass die Unsicherheit folglich auf 0,1 Grad reduziert ist (wenn sie überhaupt angegeben wird) – BEST halbiert diesen Wert nochmals und proklamiert 0,05 Grad!

Die Herabstufung des Datensatzes zu einem statistischen Produkt, Anomalie genannt, informiert uns nicht über die wahre Unsicherheit im tatsächlichen Parameter selbst – die Globale Mittlere Temperatur – jedenfalls nicht mehr als der Blick rückwärts auf eine Bergkette mittels eines speziellen Fernglases, das die Berge kleiner erscheinen lässt, wie stark das Auge auch immer getäuscht wird.

Hier folgt eine Stichprobe der Daten, welche dier Graphik ganz oben in diesem Beitrag ausmachen. Die Spalten bedeuten: Jahr – GAST-Anomalie – Glättung nach dem Lowess-Verfahren:

2010  0.7    0.62
2011  0.57  0.63
2012  0.61  0.67
2013  0.64  0.71
2014  0.73  0.77
2015  0.86  0.83
2016  0.99  0.89
2017  0.9    0.95

Die Vergrößerung der Graphik im Bereich 2000 bis 2017 sieht so aus:

7

Wir sehen globale Anomalien, dargestellt bis zu einer Genauigkeit von Hundertstel Grad Celsius. Unsicherheit wird nicht gezeigt – keine einzige ist erwähnt auf der NASA-Website, auf der die Graphik zu finden ist (hier). Auf dieser NASA-Website, zu finden im Abschnitt Vital Signs – Global Climate Change, heißt es weiter, dass „diese Forschungen im Wesentlichen konsistent sind mit ähnlichen Konstruktionen durch die Climatic Research Unit und die National Oceanic and Atmospheric Administration.” Schauen wir mal:

Von der CRU:

Hier sehen wir die Globale Temperatur nach CRU (Referenz-Zeitraum 1961 bis 1990) – ärgerlicherweise also mit einem anderen Referenz-Zeitraum als bei der NASA 1951 bis 1980. Die Differenz bietet ein paar Einblicke in den Umstand, welche gewaltigen Unterschiede diese verschiedenen Referenz-Zeiträume bzgl. der Ergebnisse ausmachen.

2010   0.56 0.512
2011 0.425 0.528
2012   0.47 0.547
2013 0.514 0.569
2014   0.579  0.59
2015 0.763 0.608
2016   0.797 0.62
2017 0.675 0.625

Die offizielle CRU-Anomalie für das Jahr 2017 beträgt 0,675°C – präzise bis zu einem Tausendstel Grad. Sie zeichnen das dann mit 0,68°C in die Graphik ein. CRU bringt es fertig, die gleiche Präzision in ihren geglätteten Werten zu zeigen – 2015 = 0,608.

Und der Vollständigkeit halber, die NOAA bietet folgende Werte an, präzise bis auf ein Hundertstel Grad:

2010,   0.70
2011,   0.58
2012,   0.62
2013,   0.67
2014,  0.74
2015,  0.91
2016,  0.95
2017,  0.85

Wir sehen, dass diese Anomalien anders als absolute globale Temperaturen wie jene von Gavin Schmidt bei RealClimate gezeigten (hier) mit überhaupt keiner Unsicherheit gezeigt werden. Keine SDs [Standard-Abweichungen], keine 95% CIs, keine Fehlerbalken, nichts. Und das präzise bis zu einem Hundertstel eines Grades Celsius.

Zusammengefasst: Die großen Klima-Institutionen der Welt informieren uns über den Zustand des Klimas, indem sie uns Graphiken der Anomalien der Globalen Mittleren Temperatur [GAST] anbieten. Diese zeigen einen stetigen und alarmierenden starken Anstieg seit etwa 1980. Dieser alarmierende Anstieg besteht aus einer globalen Änderung von etwa 0,6°C. Nur das GISS liefert irgendeine Art Unsicherheits-Schätzung, und auch das nur in der Graphik mit dem grünen 0,1°C-Balken wie oben gezeigt. Betrachten wir ein einfaches Beispiel: Wir folgen Gavin Schmidt gemäß diesem seinem Beitrag vom August 2017 und verwenden GAST-Absolutwerte in Grad Celsius mit seiner angenommenen Unsicherheit von 0,5°C.

Wie sieht das Mittel der beiden GAST-Werte aus, eine für die Nord- und eine für die Südhemisphäre? Um ein wirklich einfaches Beispiel zu geben, wollen wir einmal jeder Hemisphäre den gleichen Wert zuordnen von 20 +/-0,5 Grad Celsius. Unsere Rechnung: 20 +/- 0,5 plus 20 +/- 0,5 geteilt durch 2 ergibt … Das Mittel ist genau 20. (Nun, das nennt man Präzision…).

Was ist mit der Bandbreite? Sie beträgt +/- 0,5 – ist also 1 Grad breit. Das Mittel mit der Bandbreite beträgt 20 +/- 0,5.

Aber was ist mit der Unsicherheit? Nun, die Bandbreite legt die Unsicherheit fest: wir sind sicher, dass das Mittel zwischen 20,5 und 19,5 liegt.

Schauen wir die Wahrscheinlichkeiten – hier gleiten wir in den Bereich „Statistik“.

Hier folgen einige der Werte für die Nord- und Südhemisphäre aus einer unendlichen Anzahl von Möglichkeiten, die sich aus 20 +/- 0,5 ergeben. Wenn wir gleiche Werte heranziehen, ist das Mittel natürlich das gleiche. Aber wir wollen Wahrscheinlichkeiten haben – wie viele Wege gibt es also, dass das Ergebnis 20,5 oder 19,5 beträgt? Jeweils einen Weg.

NH           SH
20.5 —— 20.5 = 20.5 einzig mögliche Kombination
20.4         20.4
20.3         20.3
20.2         20.2
20.1         20.1
20.0         20.0
19.9         19.9
19.8         19.8
19.7         19.7
19.6         19.6
19.5 —— 19.5 = 19.5 einzig mögliche Kombination

Aber wie ist das mit 20,4? Es können 20,4-20,4 oder 20,5-20,3 oder 20,3-20,5 sein – drei mögliche Kombinationen. 20,3? 5 Kombinationen. 20,2? 7 Kombinationen. 20,1? 9 Kombinationen. 20,0? 11 Kombinationen. Jetzt sind wir über den Buckel gesprungen: 19,9? 9 Kombinationen. 19,8? 7 Kombinationen. 19,7? 5 Kombinationen. 19,6? 3 Kombinationen und 19,5? 1 Kombination.

Man erkennt, wie die Verteilung aussieht:

Da wir lediglich 11 Werte für jede der gemittelten Temperaturen verwendet haben, bekommen wir eine wenig pointierte Kurve. Es gibt zwei Kleine Graphiken … die zweite (unten) zeigt, was passieren würde, falls wir das Mittel von zwei identischen Zahlen gefunden hätten, jede mit einer Unsicherheits-Bandbreite von +/-0,5, falls sie gerundet worden wären auf das nächste halbe Grad anstatt auf das normale ganze Grad. Das Ergebnis ist intuitiv – Das Mittel besitzt immer die höchst mögliche Wahrscheinlichkeit, dass es der zentrale Werte ist.

Nun, dass scheint so offensichtlich, dass es selbst Dummies einsehen. Schließlich sollte ein Mittel mathematisch immer der zentrale Wert sein. Der Punkt ist aber: mit unseren gleich verteilten Werten um das Mittel – und wir erinnern uns, wenn wir einen Temperaturrekord sehen, angegeben als XX +/- 0,5, sprechen wir über eine Bandbreite von gleichmäßig verteilten möglichen Werten – wird das Mittel immer der zentrale Wert sein, ob wir nun das Mittel einer einzelnen Temperatur oder das von tausend Temperaturwerten mit dem gleichen Wert finden. Die Unsicherheits-Bandbreite ist jedoch immer die Gleiche! Natürlich! Muss doch so sein.

Hierin liegt der Trick – wenn sie die Anomalie des Mittels heranziehen, lassen sie die Unsicherheits-Bandbreite insgesamt fallen und konzentrieren sich einzig auf die zentrale Zahl, das Mittel, welches immer präzise ist und nahe dieser zentralen Zahl liegt. Wenn überhaupt einmal eine Unsicherheit genannt wird, wird sie als die Wahrscheinlichkeit angegeben, wie nahe das Mittel der zentralen Zahl liegt – und ist getrennt von der tatsächlichen Unsicherheits-Bandbreite der Originaldaten.

William Briggs sagt dazu: „Diese Ergebnisse sind keine Statements bzgl. der tatsächlichen Temperaturen in der Vergangenheit, die wir bis auf die Messgenauigkeit bereits kennen“.

Wir kennen bereits die berechneten GAST (siehe die Re-Analysen oben). Aber wir wissen nur, dass sie irgendwo innerhalb deren bekannten Unsicherheits-Bandbreiten liegt, welche laut Dr. Schmidt +/- 0,5 Grad betragen. Berechnungen der Anomalien der verschiedenen Mittelwerte sagen uns nichts über die tatsächlichen Temperaturen der Vergangenheit – die kannten wir bereits – und wir wissen, wie unsicher das war.

Es ist ein TRICK zu behaupten, dass mittels der Überleitung jährlicher Globaler Mittlerer Temperaturwerte zu Anomalien wir die bekannte Unsicherheit UNBEKANNT machen können.

Zu Punkt 2: Wer wird ausgetrickst?

Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Sie kennen bereits die GAST so genau wie sie dieselben mit ihren gegenwärtigen Verfahren zu berechnen in der Lage sind. Sie kennen die involvierte Unsicherheit – Dr. Schmidt räumt ein, dass sie um 0,5 K liegt. Folglich ist ihre Verwendung von Anomalien (oder die Mittelwerte von Anomalien…) einfach ein Weg, sich selbst zum Narren zu halten, indem die bekannte Unsicherheit irgendwie auf magische Weise einfach verschwindet, äquivalent zu „falls wir auf diese Weise blinzeln und unseren Kopf nach einer Seite neigen…“.

Viel Glück dabei!

——————————-

Schlussbemerkungen des Autors:

Dieser Beitrag wird einem gewissen Segment der Leserschaft hier nicht gefallen, aber das verringert nicht dessen Validität. Jene, die sich selbst zum Narren halten wollen mit dem Verschwinden lassen der bekannten Unsicherheit der Globalen Mittleren Temperatur werden den einfachen, hier dargestellten Argumenten widersprechen. Das ist deren Minus.

Ich verstehe das Argument der Statistiker, welche darauf bestehen, dass das Mittel wirklich viel genauer ist als die Originaldaten. Aber sie lassen zu, dass jene Tatsache ihnen die Erlaubnis gibt, die Unsicherheits-Bandbreite der Originaldaten aus der realen Welt zu ignorieren. Man verstehe mich nicht falsch, sie versuchen nicht, uns auszutricksen. Sie sind sicher, dass dies wissenschaftlich und statistisch korrekt ist. Sie halten sich jedoch selbst zum Narren, weil im Endeffekt alles, was sie tun, die Veränderung der Werte auf der Y-Achse ist (von ,absolute GAST in K‘ zu ,absolute GAST in K minus dem Klimamittel in K‘) und die Unsicherheit fallen lassen – mit viel Rechtfertigung aus der Statistik-/Wahrscheinlichkeits-Theorie.

Link: https://wattsupwiththat.com/2018/09/25/the-trick-of-anomalous-temperature-anomalies/

Übersetzt von Chris Frey EIKE




Das Sommer­halbjahr 2018 machte seinem Namen alle Ehre Teil II – Ein Nachruf

Abbildung 1: Kaum verfrühte Apfelblüte 2018 – Schuld war der kalte Spätwinter. Auch langfristig (seit 1990) verfrühte sich die Apfelblüte nur um etwa 3 Tage.

2018 geht als „Jahr ohne Frühling“ in die Klimageschichte ein, denn die Baumblüte fand bei hochsommerlichen 24 bis 28 Grad statt, weshalb die meisten Gehölze nur 2 bis 4 Tage blühten:

Abbildung 2: Baumblüte am 20. April bei 28 Grad – nach wenigen Tagen war alles verblüht und ergrünt. Foto: Stefan Kämpfe

Abbildung 3: Reiche Blüte des Kleinen Knabenkrauts Anfang Mai 2018 auf einem Steppenrasen etwa 50 Km nördlich von Erfurt. Foto: Stefan Kämpfe

Am 7. Mai begann der Frühsommer mit den ersten blühenden Holunderdolden vorzeitig, aber nicht extrem früh:

Abbildung 4: Leichte Verfrühung der Holunderblüte seit 1990 um 5 Tage; 2018 begann sie mittelfrüh.

Abbildung 5: Blühender Trupp Frauenschuhe südlich von Weimar am 11. Mai 2018. Foto: Stefan Kämpfe

Abbildung 6: Trockener Glatthafer – Wiese bei Weimar-Schöndorf mit Margeriten am 21. Mai 2018. Foto: Stefan Kämpfe

Abbildung 7: Völlig entlaubter und eingesponnener Strauch bei Kölleda. Foto: Stefan Kämpfe

Abbildung 8: Sehr reicher Blühaspekt des Aufrechten Ziest auf einem Gipshügel bei Erfurt am 31. Mai 2018. Foto: Stefan Kämpfe

Im Juni startete mit den ersten Winterlindenblüten der phänologische Hochsommer merklich verfrüht, und bei leicht wechselhaftem, mäßig warmem Nordwetter konnte man sich über eine gute Kirschernte freuen:

Abbildung 9: Geringe Verfrühung der Winterlinden-Blüte (Beobachtungsdaten leider erst seit 1998 vorliegend). Zusammen mit 2011, war 2018 der zeitigste Blühbeginn.

Abbildung 10: Gute Kirschernte 2018, aber die Früchte reiften sehr schnell. Foto: Stefan Kämpfe

Abbildung 11: Fruchtendes Wollgras in einem Quellmoor südlich von Weimar am 7. Juni 2018. Seit 1990 sind dort viele geschützte Pflanzenarten deutlich häufiger geworden – Dank sachgerechter Pflege, doch könnten auch mehr Wärme und mehr CO2 positiv gewirkt haben. Foto: Stefan Kämpfe

Abbildung 12: Ausgebrannter Kurzgrasrasen am Weimarplatz – sieht schlimm aus, aber nach ein paar Regentagen war das alles wieder grün. Foto: Stefan Kämpfe

Trotzdem blühten noch einige Wiesenblumen, und man konnte, wie schon in den Vorjahren, sehr viele Schmetterlinge beobachten:

Abbildung 13: Bläuling auf einer viel zu früh erblühten Wiesen-Flockenblume. Foto: Stefan Kämpfe

Abbildung 14: Die Holunderreife verfrühte sich langfristig um etwa eine Woche. Aber ihr bislang zeitigster Beginn war nicht 2018, sondern 2007.

Abbildung 15: Keine gute Winterweizenernte 2018 in Thüringen – doch eine Missernte wäre viel geringer ausgefallen. Langfristig werden die Erträge weiter steigen – Dank besserer Anbaumethoden und Sorten, aber auch, weil der Grundnährstoff CO2 reichhaltiger verfügbar ist.

Abbildung 16: Viel wurde 2018 über die oft lästigen Wespen geschimpft. Doch sie gehören zur Natur und sind wichtige Bio-Indikatoren – wo es sie gibt, geht es der Umwelt gut. Foto: Stefan Kämpfe

Abbildungen 17 und 18: Massenhaft Fallobst, massenhaft Eicheln, so sah es vielerorts im September 2018 aus. Fotos: Stefan Kämpfe

Mit einem markanten Temperatursturz von 27 auf 13 Grad endete die Hitze am Nachmittag des 21. September. Ein schönes Abendrot konnte nicht darüber hinwegtäuschen, dass die schöne Jahreszeit nun größtenteils vorbei war:

Abbildung 19: Abendrot hinter der abziehenden Kaltfront am 21.09., welche die Septemberwärme abrupt beendet hatte. Foto: Stefan Kämpfe

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Das Sommer­halbjahr 2018 machte seinem Namen alle Ehre – Ein Nachruf

Das Sommerhalbjahr 2018 – eine klimatologische Einordnung

(AMO = Atlantische Mehrzehnjährige Oszillation, ein Index für die gemittelten Meeresoberflächentemperaturen im zentralen Nordatlantik), zeigt folgende Grafik:

Abbildung 1: Deutliche Erwärmung des Sommerhalbjahres in Deutschland. Die Reihe beginnt mit dem Jahr 1856, weil ab da die AMO-Werte vorliegen. In den AMO-Warmphasen, speziell an deren Ende, traten warme Sommerhalbjahre gehäuft auf, so auch gegenwärtig. Die 2018er Werte sind geschätzt.

Abbildung 2: Temperaturentwicklung des Sommerhalbjahres in Zentralengland (CET). Im Gegensatz zu Deutschland erwärmte sich dort das Sommerhalbjahr nur wenig; zumal, wenn man bedenkt, dass die Reihe mit den sehr kühlen Bedingungen der „Kleinen Eiszeit“ startet.

Abgesehen vom kalendarischen Sommerhalbjahr (1. April bis 30. September) gibt es keine exakte Definition für die Dauer eines Sommerhalbjahres. Im meteorologischen Sinne ist es praktikabel, darunter einen einigermaßen zusammenhängenden Zeitraum warmer Tage (solche mit einem Tagesmaximum von mindestens 20,0°C) zu verstehen. Um das zu gewährleisten, sollte aber nur dann der erste und der letzte warme Tag registriert werden, wenn zwischen diesen höchstens eine Zeitspanne von 4 Wochen (28 Tage) ohne warme Tage liegt, denn einzelne „Ausreißer“ schon im März und noch Ende Oktober/Anfang November eröffnen oder schließen keine warme Jahreshälfte, wenn ihnen eine zu lange, kühle Periode folgt beziehungsweise vorausgeht. Was 2018 am Beispiel der Flugwetterwarte Erfurt/Weimar betrifft, so startete das zusammenhängende Sommerhalbjahr am 4. April sehr zeitig und dauerte (vorerst) bis zum 21. September – sollte es bis spätestens Mitte Oktober weitere warme Tage geben, was gar nicht so selten ist, wäre eine Verlängerung möglich. Die gab es 1989. Damals begann das Sommerhalbjahr bereits am 27. März und endete erst am 28. Oktober – das Sommerhalbjahr 2018 war also das wärmste, aber nicht unbedingt das längste. Die folgenden zwei Grafiken zeigen zur besseren Veranschaulichung zuerst ein sehr kurzes Sommerhalbjahr (1996), dann das sehr lange von 1989:

Abbildungen 3a und 3b: Sehr kurzes Sommerhalbjahr 1996 (oben); zwar wurde es damals schon um den 22. April über 20 Grad warm, doch dann folgten mehr als 28 Tage Kälte; und schon nach dem 4. September gab es keine warmen Tage mehr; auch keine späten „Ausreißer“ im Oktober. 1989 (unten) startete das Sommerhalbjahr am 27. März und währte bis zum 28. Oktober. Der bisherige Verlauf für 2018 fehlt noch, er wird aber aller Voraussicht nach die enorme Länge des Sommerhalbjahres von 1989 nicht erreichen; Bildquelle wetteronline.de; leicht ergänzt.

Die Niederschlagsverhältnisse – mehr Dürren im Sommerhalbjahr?

Exakte Definitionen des Begriffs „Dürre“ fehlen – es hängt viel von den subjektiven Betrachtungsweisen, der Betroffenheit einzelner Menschen oder Berufsgruppen, den örtlichen Gegebenheiten (Geografie, Infrastruktur) und den gesellschaftlichen Verhältnissen ab, was darunter verstanden wird. Indizien für Dürren sind geringe Monats-, Jahreszeiten- und Jahresniederschläge oder die Anzahl von Tagen, Wochen und Monaten ohne Niederschlag. Schon ein Blick auf die Entwicklung der Sommerhalbjahresniederschläge in Deutschland seit 1881 zeigt jedoch: Sehr trockene Sommerhalbjahre gab es schon immer, der Negativrekord von 2011 wurde knapp verfehlt, und ein Trend zu mehr Trockenheit ist nicht erkennbar:

Abbildung 4: Gebietsmittel der Niederschlagssummen für Deutschland im Zeitraum April bis September seit 1881. Ein merklicher Trend zu trockeneren Sommerhalbjahren fehlt bislang; auch die Streuung der Werte, welche ein Maß für ein extremeres Klima sein könnte (mehr Streuung bedeutet mehr nasse und dürre Sommerhalbjahre im Wechsel) wurde augenscheinlich nicht größer. Sehr trocken waren neben 1911 auch 1893, 1904, 1929, 1947, 1959, 1976 und 2003; 2018 wird den Negativrekord von 1911 aller Voraussicht nach verfehlen.

Einen gewissen Hinweis, ob sich Dürren häufen, liefert die Anzahl der niederschlagsarmen Monate je Dekade, hier am Beispiel Potsdams gezeigt, für das im Sommerhalbjahr alle Monate mit weniger als 30mm als wesentlich zu trocken gelten können. Es zeigt sich bislang keine signifikante Häufigkeitszunahme:

Abbildung 5: Von den 60 Sommerhalbjahres-Monaten einer Dekade in Potsdam seit 1893 war – mit leichten Schwankungen, meist etwas weniger als ein Viertel (15) zu trocken. Eine merkliche Zunahme ist nicht erkennbar, obwohl die 2013 begonnene Dekade noch nicht vollendet ist.

Deutschland liegt leider etwas näher zum Nordpol als zum Äquator. Nur im Sommerhalbjahr vermag hier die Sonne ausreichend Wärme und Licht zu spenden, und es ist folglich nur von April bis September mit zunehmender Sonnenscheindauer auch fast immer zunehmend wärmer. Hingegen ist der Einfluss der immer schneller steigenden CO2-Konzentration (Werte seit 1959 verfügbar) fraglich. Den recht engen Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen in Deutschland zeigt folgende Grafik:

Abbildung 6: Enge „Verzahnung“ zwischen den Sonnenstunden und den Lufttemperaturen im Sommerhalbjahr. Fast 60% der Variabilität der Temperatur in Deutschland im Sommerhalbjahr lässt sich mit der Sonnenscheindauer erklären; unsere Sommerhalbjahre erwärmten sich hauptsächlich, weil sie sonnenscheinreicher wurden. Als extrem sonnig können, bezogen auf das DWD-Mittel, alle Sommerhalbjahre mit mindestens 1400 Sonnenstunden gelten; diese sind in der Grafik ausgewiesen; denn wegen der sehr unterschiedlichen Größen der Lufttemperatur und der Sonnenscheindauer musste in Indexwerte umgerechnet werden. Das Rekord-Sommerhalbjahr 2018 war zugleich das sonnigste. Hingegen ist der Zusammenhang von CO2-Konzentration und Lufttemperaturen fraglich; denn in den 1970er Jahren sanken die Temperaturen trotz steigender CO2-Konzentrationen, und seit etwa 20 Jahren verlangsamte sich der Temperaturanstieg trotz beschleunigt steigender CO2-Werte.

Abbildung 7: Auch langfristig gilt: Kein Sommerhalbjahr war so sonnig wie 2018 – zumindest in Potsdam. Dort landete das Sommerhalbjahr von 1947 sowohl bei der Sonnenscheindauer als auch bei der Lufttemperatur auf Platz 2.

Über die Gründe der zunehmenden Besonnung lässt sich nur spekulieren. Neben geänderten Großwetterlagenhäufigkeiten, auf welche gleich noch eingegangen wird, kommen die Luftreinhaltemaßnahmen, die Sonnenaktivität selbst und die Austrocknung Deutschlands durch geänderte Landnutzung (Melioration), Bebauung und Versiegelung, in Betracht. Durch Letzteres fehlen intakte Böden und eine dichte Vegetation, was die Verdunstung und damit die Bildung von Wolken, Dunst oder Nebel erschwert.

Geänderte Großwetterlagenhäufigkeiten als Erwärmungsursache im Sommerhalbjahr?

Abbildung 8: Merkliche Häufigkeitsabnahme der im Sommerhalbjahr fast stets zu kühlen West-, Nordwest- und Nordlagen (dunkelblau); dafür häufigere Süd-, Südwest-, Südost- und Zentralhochlagen (rotbraun), welche meist zu warm ausfallen. Die Bestimmtheitsmaße beziehen auf das DWD-Deutschland-Temperaturmittel des Sommerhalbjahres, welches zur besseren Veranschaulichung ebenfalls in Indexwerte umgerechnet werden musste. Man beachte, dass der Zusammenhang zwischen den West-, Nordwest- und Nordlagenhäufigkeiten und der Temperatur stark negativ ist! Mit den geänderten Häufigkeitsverhältnissen der Großwetterlagen wurden unsere Sommerhalbjahre wärmer. Großwetterlagen-Klassifikation nach HESS/BREZOWSKY; die Daten für 2018 lagen noch nicht vollständig vor; so dass diese Grafik mit dem Sommerhalbjahr 2017 endet.

Abbildung 9: Mehr in der Höhe antizyklonale Großwetterlagen bei insgesamt feuchter Atmosphäre seit 1980 in Deutschland im Sommerhalbjahr. Diese wirken signifikant erwärmend. 2018 gab es mit mehr als 80 Tagen dieses Großwetterlagentyps einen neuen Häufigkeitsrekord.

Auf die Ursachen der geänderten Zirkulationsverhältnisse und Großwetterlagenhäufigkeiten kann im Rahmen dieses Beitrages nicht eingegangen werden. Interessierte Leser finden Näheres dazu in dem unlängst erschienenen Beitrag zu den Zirkulationsanomalien 2018 hier.

Der Wärmeinseleffekt heizt unseren Sommerhalbjahren ebenfalls ein

Abbildung 10: In den letzten 50 Jahren erwärmte sich das boomende Frankfurt mit seinem ausufernden Flughafen im Sommerhalbjahr viel stärker als das ländlichere Gießen. War Frankfurt anfangs nur um gut 0,5 Grad wärmer, sind es heuer fast 2 Grad.

Zusammenfassung: Dieses Sommerhalbjahr 2018 brach viele, doch nicht alle Rekorde. Es war das wärmste, aber keinesfalls das längste und auch nicht das trockenste seit Aufzeichnungsbeginn im Jahre 1881. In den letzten Jahrzehnten häuften sich sonnige, heiße Sommerhalbjahre in Deutschland. Bislang fehlen jedoch eindeutige Anzeichen für eine Häufung sommerlicher Unwetter oder Dürren in Deutschland. Neben einer längeren Sonnenscheindauer trugen geänderte Großwetterlagenhäufigkeiten und verschiedenste Wärmeinseleffekte ganz wesentlich zur Erwärmung des Sommerhalbjahres bei. Über den zeitlichen Verlauf dieses denkwürdigen Sommerhalbjahres und dessen Auswirkungen auf Natur und Landwirtschaft wird im Teil 2 dieses Beitrages berichtet werden.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Der Öffentlichkeit globale Erwärmung zu erklären ist unmöglich, weil wir nicht die gleiche Sprache sprechen

Er sagte:

Die ultimative Folge davon, die Menschheit vor den Auswirkungen von Dummheit zu schützen ist, die Welt mit Dummköpfen anzufüllen“.

,Nicht informiert‘ ist ein besseres Wort als Dummköpfe, aber das Problem ist das Gleiche. Es ist kein neues Problem, aber es scheint im heutigen, so genannten Informationszeitalter schlimmer denn je zu sein. Michael Crichton hatte recht, wenn er es das Zeitalter der Falschinformation nennt. Bertrand Russel sagte:

Das ganze Problem mit der Welt besteht darin, dass Dummköpfe und Fanatiker sich ihrer Sache immer so sicher und klügere Menschen so voller Zweifel sind“.

Voltaire schlug einen Beginn für Diskussionen vor:

Falls du dich mit mir unterhalten willst, definiere deine Anliegen“.

Ich würde hinzufügen, falls du dich mit mir unterhalten willst, sorge dafür, wenigstens minimal die Fakten zu verstehen. Während eines Interviews wurde ich kürzlich von einem Interviewer genervt, der unentwegt sagte, ich hätte unrecht und sei ein Lügner. Also forderte ich ihn schließlich heraus, der Zuhörerschaft den Treibhauseffekt zu erklären. Er konnte es nicht! Er wusste nicht einmal, dass die Treibhaus-Theorie auch zu einer kälteren Welt führen kann. Dieses fehlende Verständnis ist eine Folge der verwendeten Wörter. Die Öffentlichkeit assoziiert mit dem Terminus ein Treibhaus und folglich auch höhere Temperaturen. Dieses Konzept suggeriert automatisch Erwärmung. Das ist auch der Grund, warum diese Analogie für die politische Agenda und den Betrug der anthropogenen Erwärmung gewählt wurde. Viele andere Analogien, hauptsächlich ein Energie-Gleichgewicht implizierend, wie etwa Füllen und Ablassen einer Badewanne, wurden über die Jahre ins Spiel gebracht, konnten sich aber bisher nicht durchsetzen. Gleiches gilt für die Phrase „Löcher im Ozon“. Da sind keine Löcher, nur ein Gebiet mit einer Ausdünnung, aber die Phrase impliziert, dass etwas leckt oder zerbrochen ist.

Wegen dieser absichtlichen, in die Irre führenden Wortwahl ist es unglaublich, wie viele Menschen hartnäckig Standpunkte bzgl. globaler Erwärmung hegen, ohne auch nur die Grundlagen zu verstehen. Das führt zu dem unlösbaren Dilemma, logische Diskussionen über unlogische Dinge zu führen.

Dann gibt es da noch das zusätzliche Problem des technischen Jargons. Man schätzt, dass eine durchschnittliche englisch sprechende Person* einen Wortschatz von etwa 9000 Wörtern hat und dass etwa 100 dieser Wörter immer wieder verwendet werden. Die meisten glauben diese Zahlen nicht, was durch die Tatsache belegt wird, dass sie glauben, jedes Wort einer Fremdsprache lernen zu müssen, um sich in jener Sprache unterhalten zu können. Ich weiß, dass Shakespeare in seinen Dramen und Sonetten 24.000 Wörter verwendet und 1700 neue Wörter der Sprache hinzugefügt hat. Ich sagte meinen Studenten witzelnd, dass ich richtig lag mit 9000 zu 24.000 Wörtern, weil die Menschen nur etwa ein Drittel von Shakespeare verstehen. Das Oxford English Dictionary (OED) listet 171.476 Wörter, räumt aber ein, dass darunter viele Bereiche nicht abgedeckt werden, wie etwa der Jargon von Wissenschaftlern und Akademikern. Dennoch kommt es zu der Folgerung:

[*Weil ich nicht weiß, wie das bei Deutschen ist, bleibe ich hier und im Folgenden bei der direkten Übersetzung. Anm. d. Übers.]

Dies zeigt, dass es mindestens eine Viertel Million verschiedene englische Wörter gibt, ohne Beugung, und Wörter aus dem technischen oder auch regionalem Bereich nicht abgedeckt werden; oder dass Wörter noch nicht dem OED hinzugefügt worden sind, von denen 20% nicht länger gebräuchlich sind. Falls unterschiedliche Bedeutungen gezählt werden würden, würde sich die Gesamtzahl der Wörter vermutlich auf eine Dreiviertel Million belaufen“.

Ein Universitätsprofessor verfügt in der Regel über einen Wortschatz von 40.000 Wörtern, aber die Mehrzahl davon sind Fachwörter. Das Erste, was ein Student im ersten Semester gleich welchen Fachbereiches lernt, ist die ,Sprache‘ der jeweiligen Disziplin. Manchmal erfordert das Studiengebiet eindeutige Wörter, aber oftmals hat ein allgemein verwendetes Wort eine andere Bedeutung, was zu Konfusion führt. Das beste Beispiel hierfür ist ein Terminus, der zu Beginn der Debatte um die anthropogene globale Erwärmung AGW auftauchte, als all jene Wissenschaftler, welche richtigerweise die Theorie mittels des normalen wissenschaftlichen Verfahrens in Frage stellten, Skeptiker genannt wurden. Michael Shermer erklärt:

Wissenschaftler sind Skeptiker. Es ist unglücklich, dass das Wort ,Skeptiker‘ andere Bedeutungen in der Kultur angenommen hat, darunter Nihilismus und Zynismus. In Wirklichkeit ist es in seiner Reinheit und der ursprünglichen Bedeutung einfach nur nachdenkliches Hinterfragen“.

All dies rückte in dieser Woche wieder in den Mittelpunkt, weil ich in Diskussionen einbezogen wurde mit einer Gruppe, die eine Debatte arrangieren wollte. Ich bin immer grundsätzlich für Debatten und den freien Austausch von Gedanken und Meinungen, aber hier liegt das Problem. Falls zwei Wissenschaftler über ein Thema diskutieren, würde der größte Teil der Öffentlichkeit nicht folgen können, weil sie den Jargon nicht kennt und verschiedenen Wörtern eine unterschiedliche Bedeutung beimisst. Falls ein Wissenschaftler und ein Umweltaktivist oder auch nur ein durchschnittlicher Bürger diskutieren, gerät die Diskussion rasch zu einem emotionalen, faktenfreien Streit.

Die beschämende Wahrheit ist, dass Gerichte keinen wissenschaftlichen Fall behandeln, weil sie den Jargon nicht einmal auf der grundlegendsten Ebene verstehen. Es war für mich eine Herausforderung, einen Verteidiger zu finden, welcher wissenschaftlichen Grundlagen folgen konnte. Dazu nutzte ich das Wissen anderer Studenten, die sich Jura zugewandt hatten. Sie sagten mir, dass die meisten Anwälte Kunststudenten sind und die prozentual größte Fehlquote in einem Kurs über Steuerpolitik aufgetreten war, gewöhnlich im zweiten Jahr. Ich erhielt eine Liste mit Anwälten spezialisiert auf Diffamierung und fragte diese, wie sie sich bzgl. Steuerrecht machten. Derjenige, der sagte, dass er der Beste des Kurses und sehr stolz auf seine 84% war, wurde mein Anwalt. Bisher funktioniert das.

Das Problem fehlender Bildung bzgl. Zahlen erstreckt sich auf die Öffentlichkeit insgesamt. Abbildung 1 zeigt die Anzahl der 15-jährigen Schüler mit wissenschaftlichem Hintergrundwissen:

Abbildung 1

Das höchste Niveau weist Finnland auf mit etwa 18%, was bedeutet, dass 82% wissenschaftliche Erfahrung fehlt. Der Mittelwert über alle untersuchten Länder beträgt 10%. Man kann getrost annehmen, dass dies den Prozentanteil in der Gesellschaft reflektiert, so dass 90% nicht in der Lage sind, die Summary for Policymakers zu verstehen, welche explizit für die allgemeine Öffentlichkeit gedacht ist, geschweige denn die Wissenschafts-Berichte der Arbeitsgruppe 1 des IPCC.

Trotz dieser Unfähigkeit sind sie durchdrungen von dem Absolutismus, der Perfektion und der Unveränderbarkeit von Zahlen. Dies entwickelte sich aus einer Bewegung der 1920-ger Jahre mit der Bezeichnung logischer Positivismus und ist definiert als:

ist charakterisiert von der Ansicht, dass wissenschaftliche Kenntnisse die einzige Art tatsächlichen Wissens ist und dass jede traditionelle metaphysische Doktrin als bedeutungslos zurückgewiesen werden muss.

Hierauf entgegnete der Mathematiker und Philosoph A. N. Whitehead (1861-1947):

Es gibt keinen größeren Irrtum als zu vermuten, dass weil längere und genaue mathematische Berechnungen durchgeführt worden waren, die Anwendung des Ergebnisses auf einige Fakten der Natur absolut sicher ist.

Die Menschen sind derartig durchdrungen von logischem Positivismus, dass sie einfach nicht glauben können, dass es unterschiedliche Arten von Zahlen und also auch Daten gibt. Schon früh in meiner Laufbahn habe ich erfahren, dass Zahlen bei der Untersuchung von Energie-Input bei der Bildung eines Strandes diskret oder kontinuierlich sind. In vielen statistischen Anwendungen ist dieser Unterschied entscheidend für die Validität der Ergebnisse. Die meisten Menschen wissen noch nicht einmal, dass in einigen Bereichen der Mathematik imaginäre Zahlen verwendet werden.

Gleichzeitig mit dem Aufkommen des logischen Positivismus wurden Statistiken angewendet auf die Gesellschaft und vor allem auf Menschen und menschliches Verhalten. Hierzu habe ich in meinem vorigen Beitrag mit dem Titel [übersetzt] „Standardabweichung – die übersehene, aber essentielle Klima-Statistik“(hier) etwas geschrieben. Klima, das Mittel von Wetter, wurde schon von den Griechen studiert und verstanden, tauchte aber in der Historie erst während der ersten Hälfte des 20. Jahrhunderts auf. Um auf Wünsche von Piloten im 1. Weltkrieg einzugehen, wurde Meteorologie das, was jeder in Relation zu Wetter wusste. Das gilt heute immer noch, aber nur wenige Menschen wissen, dass Meteorologie begrenzt ist auf das Studium der Physik der Atmosphäre. Klima tauchte in nationalen Wetterdiensten nur deswegen auf, weil jemand – zumeist eine Person, die des Vorhersagens überdrüssig war – tägliche, wöchentliche und monatliche Mittelwerte erstellen musste. Darum war und ist das in der World Meteorological Organization (WMO) verblieben. Nach 1947 waren die Aufgaben immer noch diktiert von dem Bedarf nach Vorhersagen für die Luftfahrt, weshalb Wetterstationen zumeist an Flughäfen eingerichtet worden waren, und die einzige Referenz von Verpflichtungen für alle Agenturen unter dem Schirm der WMO „Klimatologische Statistik“ war.

Alles begann, als Reid Bryson (1920-2008) und Hubert Lamb (1913-1997) damit anfingen, sich ernsthaft mit Klimatologie zu befassen. Bryson gründete im Jahre 1948 die Abteilung Meteorologie an der University of Wisconsin-Madison und dem Center for Climatic Research. Lamb gründete die Climatic Research Unit CRU im Jahre 1972, um Klimadaten und langzeitliche Aufzeichnungen aus der Vergangenheit zu rekonstruieren, die schon lange zuvor aufgekeimt waren. Der Independent erklärt in seinem Nachruf auf Lamb:

Etwa zur gleichen Zeit (1950), hatten Lamb – und Klimatologie – großes Glück. Er wurde in die dahin siechende Abteilung Klimatologie im Met.-Office versetzt, wo er ohne wesentliche Unterbrechung seiner Faszination nachgehen konnte für etwas, was möglicherweise das vollständigste und nie untersuchte meteorologische Archiv der Welt war. Er erstellte Rekonstruktionen der monatlichen atmosphärischen Zirkulation über dem Nordatlantik und Europa bis zurück zum Jahr 1750, was ihn immer mehr von der Realität des Klimawandels überzeugte in zeitlichen Größenordnungen, die für die moderne Menschheit von Bedeutung waren. Er begann auch, erstmals Verbindungen herzustellen zwischen der Wassertemperatur in den Ozeanen und der atmosphärischen Zirkulation.

Es ist eine Ironie, dass es heutzutage große Bemühungen gibt, derartige Verbindungen zu verstehen, und zwar wegen der Bedeutung von Verbindungen zwischen ozeanischer Zirkulation und der darüber liegenden Atmosphäre. Lambs Verfahren wurde völlig unkritisch übernommen bis zum Ende seines Lebens.

Lamb hatte recht bzgl. des Gebrauchs von Computern und deren Anwendung, aber er hatte auch recht bzgl. der Probleme, die inhärent in der Forschung über ein allgemeines Thema vorhanden sind, in welchem es so viele Unter-Themen gibt. Darum ist Klimatologie traditionellerweise in der originalen integrativen Disziplin Physikalische Geographie gelehrt worden.

Dieser neue Studienbereich wird als ein Zweig der atmosphärischen Wissenschaften angesehen und als Unterbereich von physikalischer Geographie, welche eine der Geowissenschaften ist“.

Viele versuchen mich niederzumachen, weil ich meinen Ph.D. in Geographie habe. Das war eines der Dinge, auf denen der Interviewer immer wieder herumtrat, der mich einen Lügner genannt hatte. Die einzigen Klimatologie-Optionen außerhalb Physikalischer Geographie waren zu jener Zeit die Verfahren von Bryson oder Lamb. Ich kontaktierte Wisconsin, konnte es mir aber nicht leisten, persönlich dorthin zu kommen. Stattdessen erreichte ich meinen Grad am Queen Mary College an der University of London,, wo sich mein Doktorvater, Dr. Bruce Atkinson, auf das Studium städtischer Wärmeinseln spezialisiert hatte. Er arrangierte viele Treffen von Prof. Lamb von East Anglia mit mir. Schon damals wurde ich Zeuge der schändlichen Art und Weise, mit der man – kontrolliert und angestiftet von Tom Wigley und Phil Jones, die später die CRU und das IPCC kontrollierten – ihn behandelt und über ihn gesprochen hat. Glücklicherweise sind deren Aktivitäten und Verhalten in den Klimagate-E-Mails vom November 2009 bekannt geworden.

In einigen wenigen Disziplinen wie etwa dem Studium von System-Analysen versteht man das fundamentale Problem im Zentrum der AGW-Problematik. Abbildung 2 ist ein einfaches Systemdiagramm der Atmosphäre, erstellt von Kellogg und Schneider im Jahre 1974. Die so genannten Klimawissenschaftler verstehen nicht. Die Arroganteren unter ihnen glauben, weil sie Grade in Mathematik oder Physik haben, dass sie darüber stehen und es verstehen, während wir Anderen dumm sind, weil wir versuchen, selbst die größeren Teile des Systems richtig zu verstehen. Es ist die unvermeidliche Ausweitung von logischem Positivismus.

Abbildung 2

Die arroganten Wenigen, welche den Rest von uns schikanieren, erkennen noch nicht einmal den Unterschied zwischen Verallgemeinerung und Spezialisierung. Sie wissen nicht, dass es für jeden Teilbereich in dem Diagramm unterschiedliche Spezialisten gibt, wobei jeder einen anderen Jargon verwendet. Man frage sie einfach mal, ob sie die Bedeutung des Wortes yazoo kennen, welches von Experten in den Mund genommen wird, die den Boden-Durchfluss [overland flow] von „Niederschlag“ in dem Diagramm untersuchen.

Jetzt weiß man, warum es zu jedem IPCC-Report ein Glossar gibt, einschließlich der Summary for Policymakers (SPM). Daraus die Definition von Abscheidung [Sequestrierung]:

Die Aufnahme (d. h. die Hinzufügung einer bedenklichen Substanz zu einem Reservoir) von Kohlenstoff enthaltenden Substanzen, vor allem Kohlendioxid, in terrestrische oder maritime Reservoire. Biologische Abscheidung schließt das direkte Entfernen von CO2 aus der Atmosphäre ein mittels Veränderungen des Landverbrauchs LUC, Aufforstung, Wiederbegrünung, Kohlenstoff-Speicherung auf Deponien und Verfahren, welche den Kohlenstoffgehalt des Bodens in der Landwirtschaft verbessern. In Teilen der Literatur, aber nicht in diesem Report, wird die Kohlenstoff-Abscheidung diskutiert.

Also ist der größte Teil der Bevölkerung nicht besser informiert, und ein Teil derselben, die Rechtsanwälte, verstehen darunter etwas ganz anderes.

Die Aufgabe, einige wenige Punkte als Hinterfragung von AGW aufzustellen, ist es, diese im meist verbreiteten und weithin verständlichem Englisch zu formulieren. Natürlich muss man etwas Klassisches überwinden: nämlich die numerisch und linguistisch ungenaue Behauptung, dass 97% aller Wissenschaftler übereinstimmen. Viel Glück!

Link: https://wattsupwiththat.com/2018/09/23/explaining-global-warming-to-the-public-is-impossible-because-we-are-not-talking-the-same-language/

Übersetzt von Chris Frey EIKE




Wir müssen alle Opfer für die Umwelt bringen (aber ich meinte Sie – nicht mich!)

In Hamlets berühmtester Rede prophezeite er, dass ein Möchtegern-Attentäter „am Ende von seinen eigenen Missetaten eingeholt werden könnte“. Mit „Missetaten“ ist hier eine Bombe gemeint, folglich bedeutet dieser Satz einfach, dass der Bombenbauer von seiner eigenen Bombe hinweg gepustet werden könnte. Heute ist die Shakespear’sche Phrase ein allgemeines Sprichwort, eine andere Art zu sagen „in die eigene Grube gefallen“ oder „was man gibt, kommt tausendfach zurück“.

Die Beamten von San Francisco lernen wieder einmal die Bedeutung des Wortes „Sünden“ kennen, kämpfen sie doch mit Wasserknappheit. Viele Male hat das Thema gefährdete Spezies auf einige der unnachgiebigsten Umwelt-Campaigner sowie deren gewählte Vertreter zurückgeschlagen (San Francisco ist Gründungsort und Hauptquartier des Sierra Clubs). Und doch hat die Stadt niemals ihrem „heiliger-als-man-selbst“-Umweltaktivismus gehuldigt. Als beispielsweise Präsident Trump den Rückzug aus dem Paris-Abkommen verkündete, verkündete San Francisco, auf jeden Fall weiter dem Ziel zu folgen, den lokalen Verbrauch fossiler Treibstoffe zu limitieren. Die Stadt verbannte Plastik-Trinkhalme, Einkaufstüten und Styropor und forderte sogar die Installation von Solarpaneelen auf Privathäusern. Falls das auf der industriellen Wunschliste steht, weist San Francisco den Weg.

Genauso: Wenn Aktivisten dort darauf bestehen, mehr Wasser in den Flüssen zu lassen, um den Lachs zu schützen, meinen sie das Wasser der Farmer im Central Valley – und nicht ihr eigenes Wasser. Staatliche Behörden machten Vorschriften, und Restriktionen bzgl. Wasserverbrauch wurden den Farmern im Süden 25 Jahre lang aufgezwungen. Hunderte Milliarden Gallonen Wasser, welches eigentlich für die Bewässerung vorgesehen war, flossen jedes Jahr in den Ozean, anstatt durch das Kalifornien-Aquädukt in das Central Valley zu strömen. Der Lachs ist trotzdem gefährdet. Und die zuständige Behörde, das California Water Resources Control Board, hat nichts Eiligeres zu tun, als weitere Restriktionen bzgl. Wasser auf den Weg zu bringen, dieses Mal einschließlich des Wassers, das für die Versorgung der Stadt San Francisco vorgesehen ist.

In öffentlichen Anhörungen dazu hagelt es wütende Proteste. Der Plan würde die Durchflussmenge in den Flüssen Tuolumne, Stanislaus und Merced verdoppeln, was für die Lachse mehr Wasser übrig lässt, aber weniger für die Stadt – viel weniger. Es könnte eine Reduktion von 300.000 bis 675.000 Kubikfuß Wasser für die Bay Area bedeuten.

Die Wasserversorgung von San Francisco war über ein Jahrhundert kontrovers, aber heute ist es mit das sauberste Wasser in den USA. Ursache hierfür ist der Ursprung des Wassers im Hetch Hetchy-Reservoir im Yosemite National Park. Die verlorene Schlacht gegen den Bau jenes Dammes war ein Schlachtruf vom Gründer des Sierra Clubs John Muir. Der Damm wurde trotzdem gebaut und hat seit den zwanziger Jahren Wasser aus dem Tuolomne River nach San Francisco geliefert sowie zu Farmen nahe Modesto. Aber die Wasserrechte von San Francisco sind den landwirtschaftlichen Rechten untergeordnet, so dass tatsächlich die Stadt selbst Schauplatz der stärksten Reduktionen sein könnte.

Die Führer der Golden Gate-Stadt sind empört. Sie hatten niemals daran gedacht, dass die von ihnen auf den weg gebrachten Wasser-Reduktionen irgendwelche Auswirkungen auf sie selbst haben würden. Eine lokale Gruppe, die sich „Restore Hetch Hethcy“ nennt [restore = erhalten, wiederherstellen] kämpft dafür, den Damm abzureißen, und stellte dieses Vorhaben in einer lokalen Wahl zur Diskussion. Aber die Wähler in San Francisco stimmten dagegen – sie unterstützen nur den Abriss von Reservoiren anderer Menschen, aber nicht ihre eigenen. Die Gegner zogen dann vor Gericht, und da sind sie immer noch. Ironischerweise bekämpfen sie die Stadt selbst, welche argumentiert, dass die Legalität von Hetch Hetchy „settled“ und dass die Wasserversorgung aus dieser Quelle unverzichtbar ist. Das Reservoir erzeugt bedeutende Mengen Strom aus Wasserkraft und liefert Wasser für 2,7 Millionen Anwohner und Industrien in über einem Dutzend Städte in der Bay Area. Der Lachs scheint den Führern der Stadt irgendwie weniger wichtig zu sein.

Ihre Alternative: Der Staat muss viel mehr für die Wiederherstellung des Flusses aufwenden, einschließlich den Schutz der Fische. Aber selbst wenn das dem Lachs hilft, würde es die Umwelt-Industrie nicht befriedigen, welche immer neue Wasser-Restriktionen haben möchte.

Vielleicht kann man den Wasser-Gewaltigen im gesamten Westen ihre Denkweise „Willkommen in unserer Welt“ vergeben, falls San Francisco sich an seinen eigenen Vorgaben verschluckt. Es ist eine Welt, die zu erschaffen die Stadt half.

[Originally Published at Greg Walcher’s Website]

Link: https://www.heartland.org/news-opinion/news/we-must-all-sacrifice-for-the-environment-but-i-meant-you–not-me

Übersetzt von Chris Frey EIKE