Der Frankenwein wird teurer, weil sich das Klima zurückwandelt

Süddeutsche Zeitung 12. Oktober 2017: Frankenwein wird teurer
Ernte fällt besser aus als gedacht, doch Winzer müssen investieren
Trockene Winter, frühe Blüte, Spätfröste und nasse Sommer – auf diese Wetterbedingungen müssten sich Frankens Winzer auch in Zukunft einstellen. Deshalb seien vermehrt Investitionen in den Frostschutz, die Kellertechnik und die landwirtschaftlichen Geräte nötig, sagte Artur Steinmann, Präsident des Fränkischen Weinbauverbandes. „Das wird sich auf die Preise niederschlagen müssen.“
Die dpa nahm diese neue Klimainformation ebenfalls auf und meldete es so auch der Tageszeitung des Autors, in welcher laut Eigenwerbung „jedes Wort wahr ist“.

So steht es „im Klimawandel“

Wer beim Klimawandel aufgepasst hat, „weiss“, dass die Winter nasser und die Sommer trockener werden sollen. Belege dazu:
Umweltbundesamt: Globale Klimaänderungen bis 2100
Allgemein nehmen die jährlichen Niederschläge in Nordeuropa zu und in Südeuropa ab. Jahreszeitlich werden insbesondere
im Winter zunehmende Niederschläge für Mittel- und Nordeuropa projiziert, während die Projektionen für viele Teile Europas trockenere Sommer zeigen.
wiki Bildungsserver Klimaprojektionen Deutschland
Bei den Niederschlägen ergibt sich im Jahresmittel kein deutlicher Trend. Bei den Jahreszeiten zeigen jedoch besonders die Sommer- und Wintermonate deutliche Veränderungen. Die Sommer werden in Zukunft deutlich trockener, die Winter feuchter. Im Sommer können die Niederschlagsmengen bis zu 20 % ab- und im Winter bis zu 20 % zunehmen (REMO).

… und galt es auch für Weinfranken

Franken ist zwar ein etwas eigenes Völkchen, hat aber kein eigenes, sondern nur ein recht unterschiedliches Klima. Dass sich dieses auch dort in der (simulierten) Zukunft ähnlich verhalten soll, zeigt eine Folie des in Würzburg lehrenden „Weinklima-Simulations-Papstes“:

Prof. Dr. Heiko Paeth Institut für Geographie Universität Würzburg, Festvortrag am 25.07.2008: Von der Klimaforschung zum Klimaschutz (Auszug)

Das Klima wandelte sich (schon immer), allerdings nicht wie es die Simulationen vorhersagen

Man kann es nachvollziehen. Beim (AGW-)Klimawandel kann man sich wirklich auf nichts verlassen. Kaum wird die Überhitzung simuliert und daraufhin teuer investiert:
EIKE 01.08.2015: [1] Schlägt der Klimawandel auch in Franken zu? Bewässerungstechnik aus der Wüste muss Frankens Bauern helfen,
wird das Wetter schon wieder fast so schlecht wie es früher einmal war. Das schlägt sich dann nicht nur auf die Stimmung, sondern eben auch auf die Preise nieder.
Schön, wenn man darüber schon einmal berichtet hat [1] und es gleich zeigen kann. Seit 1990 hat sich bei der DWD-Messstation Würzburg – mitten in Mainfranken -, am Niederschlag nichts verändert. Betrachtet man die extreme Spanne des Sommerniederschlags, kann man direkt ablesen, wann welche Hiobsbotschaft – mal ist es zu nass, dann ist es zu trocken – in unseren Medien berichtet wird, nur nicht, dass sich in Summe seit ca. 1900 daran gar nichts verändert hat.

Bild1 [1] Jahreszeitliche Niederschläge Würzburg 1990-2015

Wer es nicht glaubt, dem sei es anbei anhand des langfristigen Verlaufs gezeigt (Bild 2). Der trockenste Sommer war vor 1950 und anhand der Minimas meint man eher eine Zyklik, als einen Klimawandel zu erkennen, uaf jeden Fall aber keine Veränderung.

Bild 2 Gebietsniederschlag Mainfranken Sommerhalbjahr 1930 – 2010. Quelle: KLIWA-Untersuchungsgebiet M1 „Main bis oh. Regnitz“.


Bild 3 Deutschland Niederschlag Winter 1881 – 2017. Quelle: DWD Klimaatlas


Bild 4 Deutschland Niederschlag Sommer 1881 – 2017. Quelle: DWD Klimaatlas


Fazit
Der Weinbauverbandspräsident sieht in Zukunft nassere Sommer und trockenere Winter, also das Gegenteil des durch den Klimawandel vorhergesagten, auf die Winzer zukommen.

Frühe Blüte“, oder der Vegetationsbeginn

In der Verbandsmeldung steht auch, die „frühe Blüte“ wäre ein Problem. EIKE Leser kennen dazu die „immerwährenden“ Berichte des Duos Kowatsch/ Kämpfe, welche immer neu zeigen, dass der Blühbeginn sich in der freien Natur bei Weitem nicht so „verfrüht“, wie es der DWD berichtet.

Bild 5 [2] Grafik 9: Trotz der relativ zeitigen Apfelblüte 2017 ist deren Verfrühungstrend – ebenso wie der der Haselblüte, welche diesmal eher spät einsetzte – nicht signifikant.

Im DWD Klimaatlas findet sich ein globales Bild über einen noch längeren Zeitraum (Bild 6). Dieses Jahr war der Blühbeginn der Apfelbäume sehr früh, was wegen der diesjährigen Spätfröste vor allem den Apfelbauern extrem zugesetzt hat.
Nur: Betrachtet man den Trendkanal, dann war das seit Beginn der Messreihe im Jahr 1961 schon oft so und eine Spanne von 30 Tagen Unterschied von einem Jahr zum nächsten schon immer „normal“. Der Mittelwert sagt nichts aus, da sein rechnerischer Beginn unklar ist. Doch zeigt er wieder, wie hoffnungslos ungenau die entsprechenden Projektionen bereits aktuell sind.

Bild 6 Deutschland Vegetationsbeginn 1961 – 2017. Quelle: DWD Klimaatlas


Fazit
Der Weinbauverbandspräsident sieht in Zukunft die frühe Blüte als Problem. Dabei hat das sich bisher wandelnde Klima zumindest seit Beginn der DWD-Grafik im Jahr 1961 noch keinen wirklich signifikanten, früheren Vegetationsbeginn zur Folge.

Frühe Blüte und Spätfröste

Spätfröste alleine stören wenig. Ein Problem ist es nur, wenn diese während der Blüte auftreten. Während die Obstbauern in Südtirol des Problem durch Bespritzen mit Wasser lösen, ist dies im Hoch-Technologieland Deutschland weitgehend unbekannt. Es erscheint zuerst einmal logisch, dass ein verfrühter Blühbeginn verstärkt durch Spätfröste gefährdet ist. Wie Studien zeigen, ist es jedoch umgekehrt. Seit dem etwas wärmer gewordenen Klima hat diese Gefahr erheblich abgenommen.
Leider fand der Autor keine historische Information zu Spätfrösten in Weinfranken. Er erinnert sich nur an einen Reportagefilm im Fernsehen, in dem so um 1950 die fränkischen Weinbauern verzweifelt mit Feuern dagegen ankämpften. Die Gefahr war demnach schon vor dem Beginn des „schlimmen“ Klimawandels akut.
Das bestätigt sich auch in einem Bericht über den Weinanbau an der oberen Mosel:
Dr. Daniel Molitor, Dr. Jürgen Junk, Centre de Recherche Public, Gabriel Lippmann Abteilung Umwelt und Agro-biotechnologien (EVA) in Belvaux Luxemburg: Spätfrostschäden im Weinbau
Ein Blick in alte Weinchroniken zeigt, dass in unseren Breiten Frühjahrs- oder Spätfröste seit jeher eine existenzielle Bedrohung für den Weinbau und die von ihm lebenden Winzer darstellen.
Insgesamt hat sich demnach die Wahrscheinlichkeit von Frostschäden in den letzten Jahrzehnten eher reduziert
… bis zum Ende des 21. Jahrhunderts ist in den Weinbergen des oberen Moseltals mit einer geringeren Wahrscheinlichkeit für Frostereignisse nach dem Austrieb, im Vergleich zum Referenzzeitraum 1961 bis1990, zu rechnendie Wahrscheinlichkeit von Frostereignissen nach dem Austrieb nimmt ab …
Auch die Daten der Obstbauern geben Entwarnung
[3] Hessisches Ministerium für Umwelt, Landwirtschaft und Verbraucherschutz: Abschlussbericht zum Forschungsvorhaben Auswirkungen von Klimaveränderungen auf den Obstanbau in Hessen
Die Möglichkeiten zur Aussage, welche Veränderungen auf den Obstanbau in Zukunft zukommen, sind also nur sehr schwer und zurzeit nur sehr begrenzt möglich. Das mittlere Blühdatum wird sich aber vermutlich bis zum bearbeiteten Zeitraum 2031-2060 im Verhältnis zu den letzten zwei Jahrzehnten nur noch wenig nach vorne verschieben. Bei der Gefahr von Spätfrösten zur Blüte ist für diesen Zeitraum im Vergleich zu den letzten 50 Jahren keine große Veränderung zu erkennen.

Das folgende Bild daraus zeigt, dass die kritischen Frosttage nach dem Blühbeginn (welche dieses Jahr die Apfelbauern fast schon extrem erwischt hat), in Zukunft an fünf von sechs Standorten, also sehr signifikant, abnehmen sollen.

Bild 7 [3] Abb. 7: Häufigkeiten des Auftretens von Frosttagen im 10-Jahres-Mittel. Vergleich des Durchschnitts der Perioden 1958-2001 (blauer Balken) und 2031-2060 (roter Balken). Die Farben der Geländekarte stellen die Höhe über NN dar.

Fazit
Der Weinbauverbandspräsident sieht in Zukunft ein Problem durch Spätfröste. Dabei hat das sich bisher wandelnde Klima zu weniger Spätfrostbelastung geführt und die Simulationen sagen sogar eine weitere Verringerung voraus.

Alle genannten Probleme hat das sich bisher positiv wandelnde Klima verringert

Nach Sichtung der Daten stellt man fest, dass alle vom Verbandspräsidenten berichteten Probleme dank des sich von einer Zwischeneiszeit aus wieder erwärmenden Klimas – genannt anthropogener Klimawandel – geringer geworden sind und sich sogar weiter positiv fortschreiben sollen.
Wenn dieser Präsident mit seiner Prognose trotzdem recht hat – und dass sollte so sein, denn die zu Klima und Energie als „hochkompetent“ geltende SZ berichtete es ohne Widerspruch, wie auch die darin ebenfalls geübte dpa, lässt dies nur einen Schluss zu:
Der zum Klimawandel besonders kenntnisreiche Verbandspräsident geht davon aus, dass sich der (angebliche) Klimawandel nicht wie simuliert weiter fortsetzt, sondern vorher reißaus zum „alten“ Wetter nimmt.
Verklausuliert gibt er damit zu, selbst nicht mehr an den (AGW-)Klimawandel zu glauben. Würde er es nämlich trotzdem, wäre es ein Beleg, dass er von dessen „Fakten“ keine Ahnung hat – und das wäre bei einem Winzer-Verbandspräsidenten doch kaum vorstellbar.
Die (In-)Kompetenz und unverhohlene Parteipolitik der Zeitung aus Süddeutschland belegt sich immer neu in den Darstellungen ihres Redaktionsteams.
SZ, Joachim Käppner (Studium Geschichte und politische Wissenschaften): [5]„ … Als die Grünen nur den Gedanken anzuregen wagten, herkömmliche Motoren herkömmliche Motoren bis 2030 zu verbannen, wurden sie als Spinner und Volkserzieher geschmäht ... Dabei spricht die Wissenschaft eine klare Sprache: Die Menschheit hat keine Jahrzehnte mehr zu verschwenden. Und zumindest was den Beitrag des Autos zu diesem Desaster angeht, gäbe es mit den E-Fahrzeugen und öffentlichen Transportmitteln realistische Alternativen zu einer fast buchstäblichen Politik, die „Nach mir die Sintflut“ ruft.

Das heute herbeigesehnte, „vorindustrielle“ Klima war ein Jammertal

Nachdem die Jammerei über das Wetter, bei dem man „täglich den Klimawandel spüren kann“, wie es die (zum Glück) ausscheidende Umwelt(hysterie)ministerin Hendricks erzählte, oder nach der in Bayern (leider noch länger) dafür zuständigen, die ihn erweitert sogar [4] Rüdiger Glaser 2012-09-19: Historische Klimatologie Mitteleuropas
Die Jahrestemperaturentwicklung zeigt für Mitteleuropa ab Mitte des 14. Jahrhunderts einen übergreifenden negativen Trend. Überlagert wird dieser von mittelfristigen Schwankungen in der Größenordnung von Dekaden, die zum Teil zyklisch verlaufen. Einige dieser Schwankungen erfolgen in vergleichsweise kurzen Phasen und fallen ab Mitte des 15. Jahrhunderts mitunter recht drastisch aus. Fast jede Generation erlebte in dieser Phase einen Zyklus wärmerer Klimaverhältnisse, gefolgt von einem dramatischen Temperatureinbruch. Bis 1600 wird eine der tiefsten Temperaturphasen der tausendjährigen Reihe erreicht.
In der saisonalen Analyse wirkte sich zwischen 1400 und 1500 vor allem die Abkühlung der Frühjahrswitterung prägend aus. Die Sommertemperaturen sanken mit einigen Dekaden Verzögerung, ebenso die im Herbst.
Besonders dramatisch ist der Einbruch der Sommertemperaturen gegen Ende des 16. Jahrhunderts. In dieser Phase häufen sich auch gesellschaftliche Exzesse wie Hexenverfolgungen. Auch wenn es verschiedene Definitionen und zeitliche Einordnungen gibt, setzte sich spätestens ab 1550 die klimatische Struktur der Kleinen Eiszeit durch.
In den Mittelgebirgen verschlechterten sich die Anbaubedingungen signifikant durch die Verkürzung der Vegetationsperiode. Öfters kam es in dieser Phase zum Auswintern (also zu einer frostbedingten Beschädigung) der Winterfrucht. Hungersnöte, Seuchen, die Aufgabe von Siedlungen und Abwanderungen waren die Folge. An den Küsten traten vermehrt schwere Sturmfluten auf, die teilweise zu großen Menschen- und Landverlusten führten. Tiefpunkt dieser Entwicklung war das sogenannte Maunder Minimum, das zwischen 1675 und 1700 auftrat und nach einem Sonnenfleckenminimum benannt ist.
Neben den langfristigen Änderungen können aus den historischen Daten auch extreme Einzelereignisse ausgewiesen werden, die oft noch lange im Gedächtnis der Menschen verhaftet blieben. Zu erwähnen sind die Hochwasserkatastrophen von 1595, 1608, 1682, 1784 und 1845. Die wohl schwerwiegendste, historisch belegbare Überschwemmungskatastrophe traf Mitteleuropa im Sommer des Jahres 1342.
Vor allem mit der zunehmenden Klimaverschlechterung der Kleinen Eiszeit ab Mitte des 14. Jahrhunderts begann eine Phase, in der nach klimatischen Extremen, insbesondere Unwettern, welche Teile der Ernte vernichteten, religiöse Minoritäten und gesellschaftliche Randgruppen verantwortlich gemacht wurden und schließlich massiver Verfolgung ausgesetzt waren. In der Forschung vermutet man eine enge Korrelation zwischen der Kleinen Eiszeit und der Herausbildung von Hexenverfolgungen als kollektivem Verbrechen. Die letzte vermeintliche Hexe wurde Ende des 18. Jahrhunderts in der Schweiz hingerichtet. Hochwasserphänomene erschließen ein facettenreiches Bild gesellschaftlicher Konzeptualisierungen: In Wasserpredigten wurde menschliches Fehlverhalten als Ursache für die Hochwässer genannt, wie es in der Metapher der Sündflut oder der Zornrute Gottes zum Ausdruck kam. Interessanterweise bezeichnete Martin Luther (1483–1546) in seinen Predigten die Hochwasser der Elbe als Werk des Teufels.
Quellen
[1] EIKE 01.08.2015: Schlägt der Klimawandel auch in Franken zu? Bewässerungstechnik aus der Wüste muss Frankens Bauern helfen
[2] EIKE 27. April 2017: Schnee statt Frühlingswärme- geht der Klimaerwärmung nun auch im April die Puste aus? Teil 1
[3] Hessischen Ministerium für Umwelt, Landwirtschaft und Verbraucherschutz: Abschlussbericht zum Forschungsvorhaben Auswirkungen von Klimaveränderungen auf den Obstanbau in Hessen
[4] Bayerisches Umweltministerium, Pressemitteilung Nr. 240/15 vom 07.12.2015, Scharf: Erderwärmung unter der Lupe / Neuer Klima-Report zeigt Folgen des Klimawandels in Bayern
[5] Süddeutsche Zeitung 14. / 15. Oktober: Klimaschutz Die Kühnen von Paris




Klimawissen­schaftler demon­strieren ihre Ignoranz hinsichtlich CO2-Emissi­onen und Abschwä­chung

(Offensichtlich geistert in den Denkapparaten der Klimawissenschaftler herum, dass die in erneuerbaren Strom zwischen 2000 und 2016 investierten 4 Billionen Dollar sowie hunderte Milliarden investiert in nicht elektrische erneuerbare Energie als nichts anzusehen sind).

Während Einige dieses Fehlen von Details als ein Zeichen dafür interpretieren, dass sie die Angelegenheit nicht politisieren wollen, wissen all jene von uns, welche der Debatte folgen, dass viele Klimawissenschaftler sich nicht wirklich Mühe geben, apolitisch zu sein. Folglich entwickle ich in diesem Artikel eine andere Hypothese: Wissenschaftler haben keine Ahnung von Energie und Ökonomie. Sie wissen wenig bis nichts darüber, was getan wurde und getan werden könnte, und sie wissen nicht einmal, wie man Fortschritte bei der Reduktion von Emissionen messen kann. Dennoch bleiben ihre Mahnrufe und Unfehlbarkeitsansprüche genauso vage wie irgendwelche motivierenden Zitate, die man zuhauf im Internet findet.

Es geht den Klimawissenschaftlern nicht darum, eine Debatte darüber zu steuern, was bzgl. Klimawandel getan werden sollte, weil eine solche Debatte augenblicklich das kolossale Scheitern der Klimapolitik während der letzten 20 Jahre offensichtlich machen würde. Es geht ihnen darum, die ,skeptische‘ Seite lächerlich zu machen und sich selbst als Märtyrer darzustellen.

Klimawissenschaftler verstehen nicht, dass Emissionen von ökonomischem Wachstum getrieben werden.

Das mag hart klingen, aber wie sonst soll man Tweets wie die Folgenden (hier und hier) bewerten?

Inschrift: „Und natürlich sind die Gelegenheiten, mit der Reduktion von Emissionen zu beginnen, um Jahre zurück geworfen worden“

Schauen wir mal. Gavin Schmidt betrachtet die Graphik, sieht die Emissionen bis zum Jahr 2008 oder so steigen und dann sinken. Auf dieser Grundlage folgert er, dass der Rückzug aus Kyoto die Gelegenheiten für die Reduktion von Emissionen verzögerte, d. h. dass die Emissionen schon früher angefangen hätten zu sinken, falls man sich nicht aus Kyoto zurück gezogen hätte. Aber er ignoriert vollkommen die Rolle des BIP.

Ein Rückgang von Emissionen bedeutet nicht, dass ,Klimawissenschaft wirkt‘: es kann einfach sein, dass die Wirtschaft kollabiert ist (siehe Syrien und Griechenland). Andererseits bedeutet eine Zunahme von Emissionen nicht, dass Klimapolitik gescheitert ist: es kann einfach sein, dass die Wirtschaft boomt. Was man tun muss: Man muss die Effizienz des BIP pro Einheit emittierten CO2 betrachten sowie die Rate mit welcher diese Effizienz zunimmt – was ich die Dekarbonisierungs-Rate nenne.

Tatsächlich ist es so, wie ich in diesem Artikel beschrieben habe, dass nämlich die Dekarbonisierungs-Rate der USA nach Buschs Rückzug aus Kyoto nicht abgenommen hat. Falls überhaupt, begann sich die Wirtschaft schneller zu dekarbonisieren! (Die Graphik zeigt ein gleitendes 5-Jahre-Mittel):

Betrachtet man das BIP wird offensichtlich, dass der Rückzug aus Kyoto ein Nicht-Ereignis war. Logisch, war doch Kyoto selbst ebenfalls ein Nicht-Ereignis. Übrigens war die Dekarbonisierungs-Rate der USA ein wenig höher als die der Europäischen Union im gleichen Zeitraum!

Die Mutter aller Rosinenpickerei: die letzten drei Jahre beweisen, dass die Klimapolitik erfolgreich war, aber die fünfzig Jahre zuvor zählen nicht!

Die ,Neuigkeit‘, dass die CO2-Emissionen im Jahre 2016 mehr oder weniger flach verlaufen waren (was tatsächlich vor mindestens vier Monaten bekannt war), bot den Wissenschaftlern eine neue Gelegenheit, sich über ihre gemeinsame Ahnungslosigkeit über Twitter auszutauschen.

Siehe z. B. Jon Foley:


Oder Scott Denning:

Oder Victor Venema:

Inschrift: Viel passiert bereits. Während der letzten drei Jahre waren die Emissionen durch Industrie und fossile Treibstoffe stabil. Dies ist normalerweise nur während einer weltweiten Rezession der Fall. Dies ist ein Zeichen, dass Politik bzgl. erneuerbarer Energie und Energieeffizienz zu greifen beginnt. Die meiste globale neue Energie-Erzeugungs-Kapazität und Investitionen sind bereits kohlenstofffrei. Der nächste Schritt ist, dass auch die meiste neue Erzeugung erneuerbar ist. Dann müssen wir die übrige Wirtschaft elektrifizieren sowie den Markt und die Technologie dazu nutzen. Angebot und Nachfrage zusammenzubringen. Es ist immer noch ein langer Weg, aber ich habe das Gefühl, es bewegt sich.

Oder Stefan Rahmstorf:

Inschrift [Rückübersetzung]: Während der letzten drei Jahre sind die globalen CO2-Emissionen aus der Verbrennung fossiler Treibstoffe nach Jahrzehnten des Anstiegs flach verlaufen. Dies ist ein Zeichen, dass Politik und Investitionen in die Klimaabschwächung sich auszuzahlen beginnen. Die USA, China und andere Nationen ersetzen Kohle durch Erdgas und rasant zunehmend durch erneuerbare Energiequellen. Es gibt eine fast einstimmige internationale Zustimmung, dass die Risiken, den Planeten dem Klimawandel auszusetzen, zu groß sind, um sie zu ignorieren.

Noch einmal: Die Wissenschaftler ignorieren vollständig die Rolle der Ökonomie. Haben sie noch nie etwas von dem Terminus Störfaktor [confounder*] gehört? Nun, es stellt sich heraus, dass die globale Wirtschaft während der letzten drei Jahre etwas langsamer gewachsen ist als die meiste Zeit in der Historie. Darum nehmen die Emissionen natürlich auch langsamer zu.

[*confounder: Der Übersetzer LEO bietet keine eindeutige Übersetzung an. In Kommentaren taucht dort der Begriff ,Störfaktor‘ auf. Mit diesem werde ich den Begriff also übersetzen. Anm. d. Übers.]

In diesem Artikel beschrieb ich die Dekarbonisierung des globalen BIP seit Beginn von Aufzeichnungen im Jahre 1951. Ich konnte mich nicht dazu durchringen, die Graphik mit Einschluss des Jahres 2016 zu aktualisieren, aber die Rate war ähnlich der des Jahres 2015, d. h. etwas über 2%.

Während die Dekarbonisierungs-Rate der letzten 3 Jahre höher ist als das historische Mittel, ist sie in keiner Weise ein Ausreißer. Öl und Gas nahmen 2017 stark zu und Kohle in den drei wichtigsten Märkten ebenfalls. Da ist es fast gesetzmäßig, dass die CO2-Emissionen in diesem Jahr um mindestens 1% zunehmen werden – was die Dekarbonisierungs-Rate erneut unter 2% drückt.

Am wichtigsten: Die implementierte vermischte Rate seit Beginn der Klimapolitik liegt deutlich unter dem historischen Mittel! Dabei spielt es keine Rolle, welches Jahr man wählt, 1997, 2000 usw. Meinen Berechnungen zufolge beträgt die Rate von 2000 bis 2017 0,7% – das ist etwa halb so hoch wie das Niveau vor der Jahrtausendwende. Anders gesagt: Die heutigen Emissionen sind höher als sie es wären, wenn sie einfach den Trend vor Kyoto beibehalten hätten.

Falls die typische Dekarbonisierungs-Rate 1,4% beträgt und man über 17 Jahre ein Mittel von 0,5% erhält, dann würde man natürlich erwarten, dass die Rate wieder steigt – und vielleicht das historische Mittel für einige Jahre übertreffen wird. Dies passiert in allen Arten von Zeitreihen-Daten. Nach den Verheerungen des 2. Weltkrieges beispielsweise wuchsen die Europäischen Ökonomien schneller denn je. Hohe ökonomische Wachstumsraten sind keine Überraschung nach einer Periode mit schlimmen (in diesem Falle negativen) Raten.

Niemand, der auch eine Spur Ahnung hinsichtlich historischer Emissionen hat, würde sagen, dass die letzten drei Jahre einen ,Wendepunkt‘ darstellen oder ein Beweis für das Wirken von Klimapolitik sind. Man braucht viele weitere Jahre mit einer schnelleren Dekarbonisierung als im Mittel, um zu folgern, dass die Politik greift.

Zum Schluss dieses Abschnitts ein weiteres Tweet von Mr Denning:

Niemand mit auch nur einem Schimmer Ahnung von Emissionen und Ökonomie würde den Ausdruck ,Entkopplung‘ verwenden. Die Wirtschaft wächst fast immer schneller als CO2-Emissionen, und falls sie langsam wächst, können CO2-Emissionen sinken. Es gibt darum herum keine ,Entkopplung‘ – es ist das, was immer passiert ist, obwohl normalerweise westliche Ökonomien zu schnell wachsen, um Emissionen sinken zu lassen.

Sagen wir mal, dass das BIP um 0,1% wächst und die Emissionen um 0,1% sinken. Würde man hier sagen, dass diese beiden Dinge sich entkoppelt haben?

Keine bedeutsamen Maßnahmen wurden ergriffen“

Nun gut, ich erwähnte diesen von vielen Wissenschaftlern gehätschelten Irrtum am Beginn des Artikels. Aber ich konnte nicht der Versuchung widerstehen, den folgenden geistesgestörten Twittersturm zu posten:


Falls keine bedeutsamen Maßnahmen ergriffen worden sind, was war dann der Sinn der 22 COP-Treffen? Sollen wir glauben gemacht werden, dass Fox News und die Koch Brothers Klimamaßnahmen in Bulgarien, Äthiopien, Bangladesh… blockiert haben?

Republikaner schlecht, Demokraten gut

Die vermeintlich apolitischen Wissenschaftler scheinen eine ziemlich starke politische Präferenz für eine bestimmte Seite zu haben. Früher erlebten wir, wie die USA unter Bush sich tatsächlich schneller dekarbonisierten als die EU während der gleichen Zeit. Dennoch war Bush immer als so etwas wie ein Klima-Antichrist verleumdet worden (siehe die Tweets von Gavin Schmidt zu Beginn). Man beachte bitte, dass ich nicht sage, dass Bush die Dekarboniserungs-Rate verursacht hat – es war sicher nur ein Zufall.

Falls ein Staat von Demokraten regiert wird und behauptet, viel zum ,Kampf gegen den Klimawandel zu tun‘, dann muss er offensichtlich etwas tun, was ,besser für das Klima‘ ist. Dieser Artikel ist schon ziemlich lang, so dass hier nur ein Tweet als Beispiel angeführt wird:

Nun sind die meisten der Städte, die behaupten, ,führend im Kampf gegen den Klimawandel‘ zu sein, in der glücklichen Lage, dass es keine guten Daten über CO2-Emissionen von Städten gibt. Aber es gibt Daten über Emissionen auf staatlichem Niveau. Hier ist Kalifornien, Mr. Foley zufolge der Klima-Führer:

Die Graphik zeigt zwischen 2000 und 2014 eine Abnahme der Treibhausgas-Emissionen pro Einheit BIP von 26%. Das ist gleich einer Zunahme der Treibhausgas-Effizienz des BIP um 35% (1/0,74). 14 Jahre lang ist das eine gemischte Dekarbonisierungs-Rate von 2,3% … was ziemlich genau der gleichen Rate wie der USA als Ganzes entspricht.

Also erging es dem Klima-Führer Kalifornien genauso schlecht (oder gut) wie dem Rest des Landes. Hoppla!

Hätten wir doch nur zugehört…“

Falls jemand nicht weiß, wie schnell man realistischerweise Emissionen zurückfahren kann, und sich stattdessen auf Fantasie-Szenarien stützt, dann kann dieser Jemand nicht wissen, was geschehen wäre, falls wir auf die Klimawissenschaftler gehört und mit der Reduktion von Emissionen vor Jahren begonnen hätten. Ich weiß nicht mehr, wie oft ich schon eine Version von ;wir hätten hören sollen‘ oder ,uns läuft die Zeit davon‘ gehört habe. Zum Kuckuck, man betrachte die Tweets von Jon Foley oben: ,der Rest von uns wird den Preis für diese Verzögerung zahlen‘.

Aber wie teuer war die Verzögerung denn nun? Man hört niemals, wie viel Erwärmung wir hätten vermeiden können – obwohl jener Datenpunkt sehr viel ausmacht! Also habe ich das mal geschätzt: falls eine stärkere (höhere) Dekarbonisierung schon im Jahre 1979 begonnen hätte, würde der Unterschied zu den derzeitigen Temperaturen etwa 0,05°C betragen – kein Witz!

Die Dekarbonisierungs-Rate betrug historisch etwa 1,4%, d. h. das BIP wuchs im Mittel um 1,4% schneller als die CO2-Emissionen; es sind etwa 1,1%, wenn wir den Zeitraum nach dem Jahr 2000 mit einbeziehen. Falls wir die Dekarbonisierungs-Rate um ein weiteres Prozent anheben, betrüge die Auswirkung bis zum Ende dieses Jahrhunderts weniger als 0,5°C! Offensichtlich ist es nahezu irrelevant, ob dieses höhere Niveau der Dekarbonisierung im Jahre 1979, 2000 oder 2030 begonnen hätte. Der Unterschied macht höchstens 0,1 bis 0,2°C aus.

Wissenschaftler behaupten unverdrossen, dass Abschwächung eine massive Auswirkung auf Temperaturen haben kann durch:

a) Sie verlassen sich auf Computermodelle anstatt auf Werte der Klimasensitivität berechnet aus historischen Temperaturdaten. Während die Gleichgewichts-Klimasensitivität unsicher bleibt, gibt es eine größere Übereinstimmung hinsichtlich der kurzlebigen Klima-Reaktion, und nur diese spielt hinsichtlich der Erwärmung in diesem Jahrhundert eine Rolle.

b) Sie beziehen eine Menge ,vermiedener Erwärmung‘ durch Reduktionen von Emissionen ein, welche nicht von fossilen Treibstoffen stammen. Das ist Unsinn, da diese Emissionen nicht verifizierbar sind – genauso wie jedwede ,Reduktionen‘. Außerdem stammen über 80% des menschlichen Klima-Antriebs während der letzten Jahre aus CO2, und 80% bis 90% davon gehen auf fossile Treibstoffe zurück.

c) Sie nehmen ein absurd hohes ,grundlegendes‘ Szenario an, welches sie irreführend ,Business as Usual‘ nennen. Mann, bei ,Business as Usual‘ würde ich große Mengen Kohle in meinem Hinterhof verbrennen; da ich das tatsächlich aber nicht mache, muss ich Emissionen stark reduziert haben!

Falls ein Schwachkopf wie ich die Berechnungen durchführen kann, kann das jemand mit einem Ph.D. mit Sicherheit auch. Aber erstens müsste der Typ mit Ph.D. ein wenig Neugier zu diesem Thema zeigen, zweitens Daten bzgl. des ökonomischen Wachstums herunterladen und drittens andere Websites anklicken, um Daten über Emissionen usw. zu erhalten. Und warum sollte man an einem Thema forschen, wenn man Unsinn twittern kann?

Schlussfolgerung

Man beachte bitte, dass ich nicht behaupte, ein Experte zu sein, wenn ich auf die Ignoranz der Wissenschaftler hinweise. Der Themenbereich Energie, Wirtschaft und CO2-Emissionen ist sehr umfangreich und mein eigenes Verständnis davon rudimentär. Aber es ist immer noch besser als das der von mir in diesem Artikel zitierten Wissenschaftler.

Klimawissenschaftler, zumindest sehr viele von ihnen, scheinen vollständig ahnungslos hinsichtlich der meisten Klimadinge, welche tatsächlich für den Rest von uns von Bedeutung sind. Sie wissen nicht, wie viele Emissionen zu- oder abnehmen, den Zusammenhang zwischen Emissionen und Ökonomie und ob unterschiedliche Länder erfolgreich bzgl. Emissionsreduktion sind oder nicht. Sie erwähnen niemals , was es kosten würde, die Freisetzung einer Tonne CO2 zu verhindern (hier). Sie reden kaum einmal über Dekarbonisierungs-Raten. Und so weiter, und so weiter

Sie sind ignorant. Aber die Welt sollte nicht zur Geisel ihrer Ignoranz werden.

Nachtrag: Natürlich wird auch gegen Skeptiker der Vorwurf ,aber sie fordern nichts‘ erhoben. Hier also eine spezifische Forderung von mir zum Kampf gegen den Klimawandel: nichts tun!

Link: https://wattsupwiththat.com/2017/10/10/climate-scientists-reveal-their-ignorance-about-co2-emissions-and-mitigation/
Übersetzt von Chris Frey EIKE




Natürliche und nicht anthropogene Klimaschwankungen dokumentiert an den Gletschervorstößen des Vernagtferners

Recht ausführlich werden von ihm die interessanten Ergebnisse der neuesten glaziologischen Untersuchungen des Vernagtferners genannt. Es wird auch eine sachlich richtig Antwort zur Entwicklung des Gletschers gegeben: Mit den heutigen Erkenntnissen kann nicht vorausgesagt werden, wie sich der Gletscher in Zukunft entwickeln wird. Zum ‚Klima‘ äußert er sich allerdings erst mit dem Datum von1850, obwohl man wissen sollte, dass in den ca. 250 Jahren davor die kleine Eiszeit die kälteste Zeit in dem Holozän war. Die Temperaturen des gesamten Holozäns, das vor knapp 14.000 Jahren unserer Zeitrechnung begann, lagen mit ihren natürlichen Schwankungen viel höher als heute. Mit dem Leserbrief wollte ich die Öffentlichkeit darauf aufmerksam machen, wie seit längerer Zeit in Medien und in der Presse sowie durch Politiker und durch NGO’s zu diesem Thema mit sehr selektive Aussagen auch zu guten Fachberichten leider meist „politisch korrekte“ aber naturwissenschaftlich nicht fundierte Zusammenfassungen verbreitet werden. Leider wurde der folgende Leserbrief nicht veröffentlicht. Deshalb gebe ich anschließend an den Brief einen kurzen Überblick über den heutigen Kenntnisstand der Entwicklung des Vernagtferners seit dem frühen Mittelalter im Zusammenhang mit der seit einiger Zeit propagierten sogenannten ‚Klimakatastrophe‘.
Mein Leserbrief – ohne Bilder und Literaturhinweise – vom 18. September 2017 an die F.A.Z.:
Manipulation
Es ist immer wieder erfreulich, dass die F.A.Z zunehmend auch Berichte über das natürliche Geschehen in der Natur mit wissenschaftlich fundierten Antworten veröffentlicht („Auf dem Rückzug“ von Bernd Steinle, F.A.Z vom 16. September). Zwei Sommer lang (je 4 Monate in 1963 und 1964) habe ich für meine geologische Diplomarbeit (TU München) das gesamte Vernagtgebiet mit den umliegenden über 3000 m hohen Bergen bis zur Wildspitze geologisch neu kartiert. Dabei lag es nahe, mich auch etwas mit der Geschichte des Rückzugs des Vernagtferners zu beschäftigen, den ich damals alleine sehr häufig überqueren musste, um an der Grenze des Firnfeldes zum Fels geologische Daten zu messen und Gesteinsproben zu sammeln (H. Fuchs et al.1969*).
Der Autor des Berichtes in der F.A.Z fasst die technischen Ergebnisse gut zusammen, die Folgerungen daraus sind einerseits korrekt, da er trotz der detaillierten Arbeiten der beiden Fachleute, die er interviewt hatte, erkannt hat, dass bis heute niemand die zukünftige Entwicklung des Vernagtferners und somit die zukünftige Klimaentwicklung vorhersagen kann. Andererseits sind seine weiteren Folgerungen wissenschaftlich nicht korrekt. Zum einen hätten die Fachleute wissen müssen, dass schon vor Franz Senn (1831-1884), der für 10 Jahre Pfarrer in Vent (1860 bis 1869) war und auch einer der Gründerväter des Deutschen Alpenvereins (1869) ist, aus früheren Berichten seit dem 17. Jahrhundert schon damals mit einem unglaublichen Weitblick die Bedeutung des einsetzenden Rückzugs des Vernagtferners für Vent und für das gesamte Ötztal erkannt hatte. Zum anderen hätte der Autor als Referenzdatum zu den Klimaschwankungen (heute Klimawandel bzw. Klimakatastrophe) das Datum 1850 hinterfragen müssen, da das Temperaturtief des holozänen Interglazials im Bereich von ca. 180 Jahren davor bei einer durchschnittlichen Temperatur von nur ca. 2,6 Grad Celsius lag, also damals die kälteste Zeit des gesamten Holozäns gewesen ist. Hätte er dagegen die durchschnittliche Temperatur aus der Zeit der Römer (1. Jahrhundert, ca.4 Grad) als Referenz genannt, wäre auch für die Bürger erkennbar, dass die heutige Durchschnittstemperatur von ca.3 Grad keine Katastrophe darstellt, sondern eine ganz normale, vom Menschen kaum beeinflussbare natürliche Entwicklung ist, und die Römer mit einer weit höheren Durchschnittstemperatur ein Weltreich aufbauen konnten. Mit der Nennung des Referenzjahres 1850 wird daher leider wieder einmal eine falsche, allerdings politisch korrekte Aussage gemacht, weil es sich bei der heutigen Erderwärmung um eine Katastrophe handeln muss! Inzwischen kennen wir das Klimageschehen im Holozän, das nach unserer Zeitrechnung von ca. 12.000 Jahren nach heutiger Zeitrechnung bis heute dauert, recht genau.“

Abb 2 Kesselwandspitze & Hochvernagt v. Plattei. 1725. Photographie und Verlag Würthle und Spinnhirn in Salzburg“. Aufgenommen von Gustav Jägermayer im August 1884 (Richter 1885). Die Abbildung ist die älteste bekannte Photographie des Vernagtferners (Tiroler Landesmuseum Ferdinandeum), Nicolussi, 2013 *),


Wissenschaftliche Erkenntnisse zu den Gletschervorstößen des Vernagtferners.

Nach Kurt Nicolussi 2013 *) sind für den Vernagtferner, Ötztaler Alpen, „… vier neuzeitliche Vorstöße ins vorgelagerte Rofental und dadurch ausgelöste Eisseebildungen historisch dokumentiert: um1600, 1680, 1772 und 1845. Der Kenntnisstand zum Ablauf dieser Hochstandphasen und den dokumentierten Seespiegelschwankungen und -ausbrüchen wird zusammengefasst. Ein Vergleich der Größenvariation des Vernagtferners mit jenen von Aletschgletscher und Unteren Grindelwaldgletscher belegt die unterschiedliche Dynamik der jeweiligen Eiskörper in den letzten rund 400 Jahren. Zwar sind Vorstoßbeträge und – Geschwindigkeitsbeträge unterschiedlich, aber die Hochstände des Vernagtferners fallen mit Vorstößen und Hochständen der beiden anderen Gletscher zusammen, wenn auch die Maxima manchmal um einige Jahre variieren. Das zeigt, dass die Hochstände des Vernagtferners im vergangenen Jahrtausend durchwegs klimatisch – und damit entsprechend auswertbar – und nicht nur eisdynamisch bedingt sind. Als Ausnahme mag der Hochstand um 1680 erscheinen, aber auch für diesen gibt es eine zeitlich präzise Übereinstimmung mit einem der beiden neuzeitlichen Maximalstände des Gepatschferners …“

Im frühen 17. Jahrhundert erstreckte sich mehrmals die mächtige Gletscherzunge bis in das obere Rofental und reichte dann bis zu der dahinter liegenden Zwerchwand hinauf. Hinter dieser Eisbarrikade wurde dann der von Westen kommende Rofenbach aufgestaut und es bildeten sich dahinter größere Stauseen. Wurde der Druck eines Sees zu groß, wurde die Eisblockade der Gletscherzunge durchbrochen und die Wasserflut führte zu Überflutungen des Rofentals von Vent und auch des ganzen Ötztals bis zum Inn, häufig mit Zerstörungen mit vielen von Toten. Bis zum Ende des 17. Jahrhunderts wurden dann vor der Zwerchwand die hier hochgeschobene Gletscherzunge zum Schutz des Tals mühsam mit Hacke und Schaufel Abflussrinnen gegraben, um die Menge des gestauten Wassers der sich immer wieder füllenden Stauseen zu verringern. Denn damals verließ man sich nicht nur auf den Glauben an Gott, auch nicht auf die damals Herrschenden, sondern versuchte sich vor nicht beeinflussbaren Naturgewalten mit technischen Maßnahmen zu schützen. Dieses Gefahrenpotenzial kannte der ‚Gletscher-Pfarrer‘ Franz Senn in den 1860iger Jahren. Er begann damals schon die umgebende Bergwelt zu erforschen und zu vermessen. Mit unglaublichem Weitblick erkannte er die Bedeutung des einsetzenden Rückzugs des Vernagtferners für Vent und für das gesamte Ötztal. Entspannung ist deshalb ins besondere für die Bewohner des Ötztales angesagt, die in Zukunft von großen Überflutungen durch ausbrechende Gletscherseen als Folge der seit damals stattfindenden natürlichen Erwärmung verschont bleiben dürften.

Abb 3 Der Rofener Eissee am 16. August im Jahr 1772, Kupferstich (Walcher 1773) *)

Klimageschehen (Temperaturschwankungen) im Holozän bis heute

Zuvor jedoch zum besseren Verständnis des Gesagten im Bezug zu Temperaturschwankungen und Klima nach Wikipedia folgendes: „Der Begriff ‚Klima‘ steht für die Gesamtheit aller meteorologischen Vorgänge, die für die über Zeiträume von mindestens 30 Jahren regelmäßig wiederkehrenden durchschnittlichen Zustände an einem Ort verantwortlich sind … Das Klima wird jedoch nicht nur von Prozessen innerhalb der Atmosphäre geprägt, sondern vielmehr durch das Wechselspiel aller Sphären der Erde (Kontinente, Meere, Atmosphäre) sowie von der Sonnenaktivität und anderen Einflüssen wie Z. B. der Instabilität der Erdbahn (Eiszeiten und Warmzeiten) …“. Zum Verständnis dieses Satzes sei auf ein ganz kleines Mosaiksteinchen zu den ständigen Plattenverschiebungen mit ihren weltweiten Massenverschiebungen und den damit zusammenhängenden Mechanismen der weltweiten Gebirgsbildungen hingewiesen. Die Komplexität dieser Bewegungen kann man an der geologischen Entwicklungsgeschichte des Vernagtgebietes als Folge der Plattenverschiebungen in unserer Veröffentlichung (Fuchs et al.1969 *) erkennen.

Inzwischen verstehen wir die Temperaturschwankungen (nicht jedoch das komplizierte ‚Klimageschehen‘) im Holozän recht genau, das nach unserer Zeitrechnung von ca. 12.000 Jahren bis heute dauert. In der Tabelle von Ed Hoskins, (2017 *) sind die Ergebnisse aus Belegen von Untersuchungen an Eisbohrkernen zusammengestellt, die auf einen einheitlichen Nullwert für den gesamten Zeitabschnitt bezogen sind. Sie zeigen die Bandbreite der Temperaturschwankungen auf der Nordhalbkugel, die eine größere Landmasse als die auf der Südhalbkugel hat und unsere Situation realistischer abbildet. Zum besseren Verständnis des Ergebnisses werden hier einige Zahlen zusammen gestellt, die jeder jedoch auf der Basis der genannten Tabellenwerte für seine eigene Klimaszenarien selbst variieren oder aber auch manipulieren kann.

Zum Beginn des Holozäns bestand eine lange Warmzeit. Die Durchschnittstemperatur lag damals bis ca. 2000 v. Chr. zwischen 4,7 und 4,4 Grad mit Schwankungen zwischen 6 und 3 Grad. Ab 1000 v. Chr. fällt die Durchschnittstemperatur von 4 Grad bis zur Zeitwende auf 3,7 Grad mit Maxima zur Minoer-Zeit von ca. 5,6 Grad. In dem Zeitabschnitt der Römer sowie in dem des Mittelalters fällt der Wert auf durchschnittlich 4 Grad. Zum Tiefpunkt der kleinen Eiszeit zum Ende des 17. Jahrhunderts lag die Durchschnittstemperatur bei ca. 2,5 Grad. Danach stieg sie wieder bis zum Ende der vorindustriellen Zeit auf ca. 3 Grad und bis heute weiter auf ca. 3,1 Grad an!

Abb. 4 The world should now fear the real and detrimental effects of cooling ,Ed Hoskins, 2017

Man kann nun über diese ermittelten Werte streiten, nicht aber gegen die deutlichen Schwankungen der Temperaturen im Holozän während dieses Abschnitts der Evolution der Erde. Dies ist ein nicht zu widerlegender Beweise, dass eine globale Erwärmung weder von uns Menschlein – trotz anderer Behauptungen – beeinflusst werden kann noch uns eine durchschnittliche Erwärmung von einem halben oder ganzen Grad schaden wird – wie es den Römern und den Menschen im Mittelalter nicht geschadet hat!

Leider werden in dem von der F.A.Z. veröffentlichten Bericht der Rückblick auf die vergangene Temperaturentwicklung nur bis 1850 genannt, der kältesten Zeit des Holozäns, obwohl wir heute diese bis ins 16. Jahrhundert besonders gut kennen. Dadurch wird – für jeden erkenntlich – der bewusst falsche Eindruck erweckt, dass sich die Temperaturen nur seit dieser Zeit erhöht haben und

weitere Wärmesteigerungen hauptsächlich durch anthropogene Ursachen bewirkt würden. Hätte der Berichterstatter dagegen die durchschnittliche Temperatur aus der Zeit der Römer als Referenz genannt, dann bliebe noch genügend Raum für eine weitere natürlich verursachte Erwärmung, unabhängig davon, ob diese durch Menschen erzeugtes CO2 – was aus physikalisch-chemischen Gründen jedoch unwahrscheinlich ist – oder eine Folge der natürlichen Evolution der Erde (Wechselspiel aller Sphären der Erde, siehe oben) darstellt. Angesichts dieser Tatsache könnte man sogar dazu übergehen, eine weitere Erhöhung der Temperaturen zu wünschen und die derzeitige weltweite Hysterie über einen Temperaturanstieg um 1 Grad oder 1,5 Grad mit vielen Billionen von Dollar oder Euro (da sowieso erfolglos) zu verhindern.

Trotz dieser Erkenntnisse betitelt M. Weber, 2003 *) seine Veröffentlichung zur Prognose zur Klimageschichte des Gletschers: “Gletscherschwund und Klimawandel an der Zugspitze und am Vernagtferner (Ötztaler Alpen)“. Dabei beruft er sich auf den heutigen opportunistischen Begriff ‚Klimawandel‘ insbesondere, wenn er für die Bewertung des Verhaltens der durchschnittlichen Temperaturen wiederum nur die Zeitspanne seit 1850 also nur über 150 Jahre bis heute betrachtet, wie sein Diagramm zeigt. Würde man jedoch beispielhaft als Referenzzeitpunkt die durchschnittliche Temperaturen von vor 2000 Jahren oder früher angeben, wie dem Diagramm von Ed Hoskin, 2017 zu entnehmen ist, verbietet sich die Aussage über eine angebliche anthropogene Beeinflussung des Klimas. Wissenschaftlich korrekt wäre der Begriff natürliche Temperaturschwankungen, da die vielen weiteren klimarelevanten Faktoren – siehe Definition weiter oben – nicht berücksichtigt wurden. Seine Prognosetabelle zeigt jedoch auch einen weiteren aufklärenden, wohl politisch gewünschten Befund. Die Prognose zur weiteren Erwärmung nach Roeckner (2001) ist eine lineare und aus der Vergangenheit eher erklärbare realistischere Einschätzung als die Prognose des IPCC. Mit dieser soll wohl gezeigt werden, dass die zukünftige nicht auszuschließende Erwärmung von angeblich anthropologisch beeinflussenden Faktoren abhängt. Und dazu sind komplexe statistische Modelle notwendig, die je nach Eingabe der verschiedensten ‚klimarelevanten Annahmen‘ „ … das Klima wird jedoch nicht nur von Prozessen innerhalb der Atmosphäre geprägt, sondern vielmehr durch das Wechselspiel aller Sphären der Erde …“ jede Aussage erlauben, die sich mit oder ohne Berücksichtigung der Daten aus der Vergangenheit konstruieren und auch manipulieren lassen. Auch die zunehmend gespreizte rote Darstellung des Anstiegs der Erwärmung deutet in die politisch gewünschte Richtung.

Abb. 5. Prognosen des weiteren Verlaufs der Massenabnahme des Vernagtferners auf der Basis verschiedener Szenarien der weiteren Entwicklung der globalen Mitteltemperatur und einer regressiven Analyse (M.Weber, 2003 *)


Nach Durchsicht von mehreren wissenschaftlichen Berichten aus den seit etwa zwanzig Jahren veröffentlichten Gletscherberichten ist eine klare dem heutigen Zeitgeist entsprechende Strömung zu erkennen: Wissenschaftliche Ergebnisse werden mit Hilfe neuester Techniken immer genauer und immer interessanter. Zusammenfassende Aussagen zu dem ‚Klimawandel‘ enden jedoch fast immer politisch korrekt mit Hinweisen auf eine kommende Erwärmung-Katastrophe. Zum einen weil dort wiederum konkrete Daten zur Temperatur meist nur zu den heutigen Verhältnissen das Referenzdatum bis 1850, d. h. bis zum Ende der kleinen Eiszeit genannt werden, also bis zu dem kältesten Zeitpunkt der vergangenen 2000 Jahren reichen, zum anderen weil die Komplexität der Natur bzw. die durch die Evolution der Erde bedingten Veränderungen noch nicht bzw. möglicherweise auch in Zukunft nicht verstanden werden. Beispielhaft für diesen Trend wird der Bericht von J. Fritschle (2006) genannt, der unter Fazit als Ausblick nennt: „Obwohl die Alpengletscher in der Vergangenheit schon mehrfach zurückgegangen sind, sogar weiter als heute, bleibt die Sorge um unsere ‚Eisriesen‘ berechtigt. Das extreme Abschmelzen der Gletscher scheint nicht alleine natürlichen Ursprungs zu sein, sondern durch die Menschen begünstigt zu werden“.
Eine wissenschaftliche Begründung für diese politische Aussage ist in dem gesamten Text jedoch nicht zu finden.
An Hand der Informationen des Diagramms von Ed Hoskins ist abzuleiten, dass es keine begutachteten Fachpublikationen geben kann, die stringent nachweisen, dass – wenn überhaupt – anthropogenes CO2 zu einer Klimakatastrophe der Erde führen wird und dass der heute beschworener Temperaturanstieg bzw. die globale Erderwärmung bzw. auch die einer Erdabkühlung mit oder ohne CO2 von 1Grad bis 1,5 Grad zu keiner Katastrophe der Menschen führen kann. Und somit ist auch ein wesentlicher anthropogener Einfluss auf Extremwetter-Ereignisse nur schwer erklärbar.
UN-Klimakonferenz in Paris 2015
Am 12. Dezember 2016 haben mehr als 170 Länder dem Übereinkommen von Paris zugestimmt. Sie verpflichten sich, weltweit die Treibhausgasemissionen zwischen 2045 und 2060 auf Null zu senken, um die Erwärmung auf bedeutend weniger als 2 Grad gegenüber dem vorindustriellen
Niveau zu begrenzen und wenn möglich unter 1,5 Grad zu halten. Deutschland strebt an, seine internationale ‚Klimafinanzierung‘ bis 2020 zu verdoppeln. Zudem sprach sich Deutschland für eine CO2-Bepreisung aus, um mittels einer vollständigen Dekarbonisierung der Weltwirtschaft zum Ende des 21. Jahrhunderts eine Überschreitung des 2 Grad Zieles zu verhindern. Zur Erinnerung: Zum Tiefpunkt der kleinen Eiszeit zum Ende des 18. Jahrhunderts lag die Durchschnittstemperatur bei ca. 2,5 Grad. Danach stieg sie bis heute wieder auf ca. 3,1 Grad also um ca. 0,6 Grad an. Zur Zeit der Römer lag sie bei ca. 4 Grad, lag also um mehr als ca.0,9 Grad höher als heute. Wer war für diese Schwankungen verantwortlich. Der Mensch oder die Natur bzw. die komplexe Evolution der Erde?

Abb. 6 Der weitsichtige Blick unserer Politikerkaste in die Zukunft unserer Republik Wilhelm Busch 1924*)


Kosten
Es gibt viele Zahlen zu den Kosten, die zur Vermeidung des ‚Klimawandels‘ in Deutschland notwendig sein dürften – ohne allerdings ernsthaft zu hinterfragen, ob nach dem Gesagten in Deutschland das Ziel einer CO2-Minderung von 80 Prozent im Jahr 2050 gegenüber 1990 überhaupt zu erreichen ist. Dafür werden beispielhaft zusätzliche Investitionen in Höhe von 1,4 Billionen Euro notwendig werden, die allerdings nach einem Gutachten von den Beratungsgesellschaften Boston Consulting Group und Prognos im Auftrag der Bundesregierung für die gesamtwirtschaftliche Effekte gering sein sollen und positiv sind. („1,4 Billionen für Klimaschutz“, F.A.Z. vom 4. August 2017). Zusätzlich wird gerade nach dem Bericht ‚Vorzüge einer Klimasteuer‘ der F.A.Z vom 30.09.17 vom französischen Staatspräsident Macron – einem Land, das einen hohen Teil aus fast CO2 freien Strom aus Kernkraftwerken erzeugt – ein Mindestpreis von 25 bis 30 Euro für jede Tonne CO2 ins Gespräch gebracht. Ob er bei dem Betrag nur an das industriell erzeugte CO2 denkt oder auch an die ‚Produktion‘ von CO2, das durch das Atmen von Menschen und Tieren frei wird, bleibt zumindest vorläufig noch offen.
Fazit
Nach dem Gesagten wäre es viel effektiver, wenn die Politik weltweit derartig große Summen für Infrastrukturprojekte ideologiefrei effizient planen und verantwortlich ausgegeben würde, die uns vor den gewaltigen Naturereignissen – im Volksmund Naturkatastrophen genannt – möglichst sicher schützen würden. So wie es uns die Bürger von Vent vor 200 Jahren mit Hacke und Schaufel vorgemacht haben. Denn an der stetigen, nach physikalischen und chemischen Gesetzten ablaufenden Evolution der Erde, die durch Plattenverschiebungen, Vulkanausbrüche, Erdbeben, Überflutungen und Tsunamis, Bergstürze, Klimaschwankungen usw. gekennzeichnet sind, können wir Menschlein auch in Zukunft nur wenig ändern. Dazu nenne ich beispielhaft zwei von vielen nachahmenswerten Beispielen aus der Schweiz und den Niederlanden. Im südbündnerischen Land donnerten schätzungsweise vier Millionen Kubikmeter Gesteinsmaterial bei Bondo ins Tal. Es ist einer der gewaltigsten Bergstürze in der Schweiz seit deutlich über 100 Jahren, ohne dass Menschen verletzt wurden. Grund war die weise Voraussicht der Verantwortlich rechtzeitig mit sehr teuren Maßnahmen eventuelle Felsabgänge – natürliche Erosion – umzuleiten und halbwegs zu beherrschen. In den Niederlanden werden schon seit vielen Jahrzehnten sehr teure Bauwerke wie Dämme und Kanäle gebaut und erhalten, um das Land vor natürlichen Naturereignissen wie vor Hochwasser zu schützen. Ein sehr schlechtes Beispiel dagegen liefert Texas. Obwohl für dieses gesamte Gebiet schon seit Jahrhunderten häufige und meist gewaltige Hurrikane bekannt sind. Einer davon zerstörte 1900 die ganze Stadt Galveston mit geschätzten 8.000 Menschenopfern. Trotzdem wurden und werden dort seit dieser und weiteren Katastrophen nur begrenzt neue Kanäle und Staudämme gebaut, um die dortigen Küstengebiete einschließlich Houston vor weiteren Zerstörungen und Überflutungen wie in 2017 zu schützten. Billionen werden dagegen seit Jahren für den angeblichen Schutz vor einer ‚Klimakatastrophe‘ verprasst, weil man den Menschen mit dem Erzeugen von Ängsten glaubhaft macht, die Welt mit einer Verringerung von CO2 Emissionen zu retten anstatt Menschen mit notwendigen Investitionen vor Naturereignissen zu schützen, die wir kaum beherrschen können.
Leider wiederholt sich in der Politik immer wieder, mit ideologisch gesteuerten Bewegungen wie Sozialismus, Kommunismus, Faschismus sowie Ökologismus die Menschen betäuben zu können wie ich schon vor Jahren beispielhaft in unserem spannenden Politthriller „Die German Angst“, 2013 *) über das Berufsleben eines Geologen in der heutigen Zeit thematisiert habe.

Abb. 7 Rückkehr des Autors vom Vernagtferner 1964


Literaturhinweise
H. Fuchs et al.1969 *): Faltung und Kristallisation im Vernagt-Marzell-Gebiet der Öztaler Alpen
http://www.zobodat.at/pdf/JbGeolReichsanst_112_0031-0080.pdf
Prof. Dr. Finsterwalder am 31 Juni 1911 aufgenommen von Rudolf Reschreiter http://polarbloggen.blogspot.com/2011_12_01_archive.html
Kurt Nicolussi, 2013 pdf´s, Geographie Innsbruck – uibk.ac.at
Ed Hoskins, 2017 *), The world should now fear the real and detrimental effects of cooling

https://www.iceagenow.info/world-should-now-fear-cooling/

M. Weber, 2003 *), Gletscherschwund und Klimawandel an der Zugspitze und am Vernagtferner (Ötztaler Alpen)

http://docplayer.org/44472724-Gletscherschwund-und-klimawandel-an-der-zugspitze-und-am-vernagtferner-oetztaler-alpen.html

J. Fritschle, 2006 *), Gletscherrückgänge in den Alpen in der jüngsten Zeit

docplayer.org/10311108-Gletscherrueckgaengein-den-alpen-in.

W. Busch,1924 *), Plisch und Plum, Friedr. Bassermann’sche Verlagsbuchhandlung, München

H. Fuchs und R. Kamradek *): Die German Angst, 2013im bookshouse Verlag, ISBN 978-9963-727-78-0 oder im Internet unter ‚Helmut Fuchs Geologe‘




Meeresspiegel: Steigen und fallen – Teil 2: Tidenmessungen

Wenn wir über SLR reden, müssen wir zunächst festlegen, was ,Meeresspiegel‘ überhaupt ist.

Was ist das, ,Meeresspiegel‘?

Wenn ich in diesem Beitrag den Begriff Meeresspiegel verwende, meine ich den lokalen, relativen Meeresspiegel – also das Niveau des Meeres dort, wo es an das Festland stößt, und zwar an jedem gegebenen Punkt. Falls wir von Meeresspiegel in New York City sprechen, meinen wir das Niveau der Meeresoberfläche, wo sie die Landmasse von Manhattan oder Long Island berührt, die Küsten von Brooklyn oder Queens. Dies ist der einzige Meeresspiegel von irgendeiner Bedeutung für irgendeine Stelle.

Es gibt ein zweites Konzept, ebenfalls Meeresspiegel genannt. Hierbei handelt es sich um einen globalen Standard, der zur Grundlage für Höhen des Festlandes genommen wird. Dies ist ein konzeptioneller Gedanke – ein standardisierter geodätischer Bezugspunkt – und hat nichts, aber auch gar nichts zu tun mit dem tatsächlichen Niveau des Wassers irgendwo in den Ozeanen der Erde. (Man mache sich nicht die Mühe, auf der Wiki-Seite für Meeresspiegel nachzusehen – dabei handelt es sich um ein Mischmasch von Missverständnissen. Es gibt dort auch einen 90 Minuten langen Film, in welchem die Komplexität der Höhenbestimmung aus modernen GPS-Daten erklärt wird – Informationen, die im nächsten Abschnitt dieses Beitrages eine Rolle spielen).

Und dann gibt es noch ein drittes Konzept mit der Bezeichnung absoluter oder globaler Meeresspiegel. Damit ist ein generalisierter Gedanke der mittleren Entfernung der Meeresoberfläche vom Erdmittelpunkt gemeint. Hierzu mehr in einem weiteren Beitrag dieser Reihe.

Da sich der Meeresspiegel in jedem Moment verändert infolge Tidenhub, Wellen und Wind gibt es in der Realität keinen einzelnen experimentellen Meeresspiegel, den wir den lokalen Meeresspiegel nennen können. Um diesem Wechsel Rechnung zu tragen, gibt es verschiedene Bezeichnungen wie Ebbe, Flut und in der Mitte den Mittleren Meeresspiegel. Es gibt weitere Termini für den Zustand der Meeresoberfläche, darunter Wellenhöhe und -frequenz sowie die Beaufort-Skala, welche sowohl die Windstärke als auch die zugehörigen Umstände der Wasseroberfläche beschreibt.

Das sieht so aus:

Eintägiger Gezeitenzyklus (links): Ein Gebiet erlebt einen eintägigen Gezeitenzyklus, falls es ein Hoch- und ein Tiefwasserstand an jedem Mondtag gibt (24 Stunden und 50 Minuten). An vielen Stellen im Golf von Mexiko ist diese Art Tidenwechsel zu erleben.

Halbtägiger Gezeitenzyklus (Mitte): Dieser liegt vor, wenn an einer Stelle im Laufe eines Mondtages zwei Hoch- und zwei Tiefwasserstände in etwa vergleichbarer Größenordnung auftreten. Diese Art Gezeitenzyklus tritt in vielen Gebieten an der Ostküste von Nordamerika auf.

Gemischter Gezeitenzyklus (rechts): Dieser tritt auf, wenn je zwei Hoch- und Niedrigwasserstände unterschiedlicher Größenordnung pro Mondtag auftreten. Diese Art Gezeitenzyklus tritt in vielen Gebieten an der Westküste von Nordamerika auf.

Das folgende Bild zeigt die Verteilung dieser unterschiedlichen Gezeitenzyklen:

Gezeiten werden hervorgerufen durch die Gravitationskräfte von Mond und Sonne auf die Ozeanoberfläche. Hierzu gibt es online viele gute, mehr oder weniger ausführliche Erklärungen, z. B. hier und hier.

Es gibt mehrere offiziell etablierte Zustände der Tide (welche einfach die numerischen mittleren relativen Wasserstände für jeden Zustand sind). Diese nennt man tidal datums und sind in Relation gesetzt zu einem Punkt auf dem Festland, normalerweise markiert durch ein in Fels oder Beton eingebettetes Schild, eine „bench mark”. Alle Gezeitenwerte für einen speziellen Tidenmesspunkt werden in Fuß über oder unter diesem Punkt gemessen. Hier folgt eine bench mark am Battery Park in New York, und ein Beispiel-Gezeitenwert für Mayport in Florida (repräsentativ für die Stadt Jacksonville, welche jüngst durch den Hurrikan Irma überflutet worden ist):



In Australien hat man etwas andere Bezeichnungen, wie die folgende Graphik zeigt (die US-Abkürzungen sind hinzugefügt):

Anmerkung zur Grammatik dieser Bezeichnungen: [Hier wird der Unterschied erklärt zwischen den englischen Begriffen ,datums‚ und ,data‚. Das lässt sich in deutscher Übersetzung aber nicht darstellen. Der Abschnitt lautet im Original: „They are collectively correctly referred to as “tidal datums” and not “tidal data”.  Data is the plural form and datum is the singular form, as in “Computer Definition. The singular form of data; for example, one datum. It is rarely used, and data, its plural form, is commonly used for both singular and plural.”  However, in the nomenclature of surveying (and tides), we say “A tidal datum is a standard elevation defined by a certain phase of the tide.“  and call the collective set of these elevations at a  particular place “tidal datums”.]

Die wesentlichen Punkt für die meisten Menschen sind die Hauptdaten [major datums] von oben nach unten:

MHHW [Mean High High Water] – mittlere Höhe des Hochwassers, also das Mittel des höheren der zwei Hochwasser pro Tag. An den meisten Stellen unterscheidet sich das kaum vom mittleren Hochwasser. Im Beispiel Mayport beträgt der Unterschied 8,5 cm. In einigen Fällen, wo gemischte Gezeitenzyklen auftreten, können die Unterschiede deutlich größer sein.

MSL [Mean Sea Level] – mittlerer Meeresspiegel, das Mittel von Hoch- und Niedrigwasser. Falls überhaupt keine Gezeiten auftreten, wäre dies einfach der lokale Meeresspiegel.

MLLW [Mean Low Low Water] – mittleres niedriges Niedrigwasser, das Mittel des niedrigeren der beiden täglichen Niedrigwasserstände. Im Beispiel Mayport beträgt der Unterschied 1,5 cm. Auch hier treten bei gemischten Gezeitenzyklen größere Unterschiede auf.

An einem Strand sieht das so aus:

An einem Strand wäre der Mittlere Meeresspiegel der vertikale Mittelpunkt zwischen MHW und MLW.

Die Hochwassermarke ist eindeutig erkennbar an diesen Pfosten eines Piers, wo nämlich das Wachstum von Muscheln und Seepocken aufhört:

Und Meeresspiegel? Im Moment ist der lokale relative Meeresspiegel offensichtlich – es ist die Wasseroberfläche. Es gibt nichts weiter Komplizierteres, wenn man jederzeit das Meer sehen und fühlen kann. Falls man die Hochwassermarke erkennt und das Wasser am niedrigsten Stand während des 12 Stunden und 25 Minuten langen Gezeitenzyklus‘ beobachtet, ist der Mittlere Meeresspiegel der Mittelpunkt zwischen beiden. Einfach!

(Unglücklicherweise ist Meeresspiegel in jeder anderen Hinsicht als Konzept erstaunlich komplizierter und komplexer). Im Moment wollen wir beim lokalen Relativen Mittleren Meeresspiegel bleiben (dem Niveau des Meeres, wo es das Festland berührt).

Wie wird der Mittlere Meeresspiegel an jeder Stelle gemessen oder bestimmt? Die Antwort lautet:

Tiden-Messgeräte.

Tidenmessung war früher ziemlich einfach – eine Skala, sehr ähnlich einem aus dem Wasser ragenden Lineal, an dem man die Wasserstände einfach ablesen konnte. Damit sollte vorüber fahrenden Schiffen gezeigt werden, wie viel Wasser sie noch unter dem Kiel haben in einer Bucht oder einem Hafen.

Aber Tidenmessgeräte sind inzwischen weiterentwickelt und anspruchsvoller geworden:

Das Bild oben zeigt schematisiert alte und neue Messverfahren. Die in den USA derzeit gebräuchlichen Verfahren hat die NOAA in einem PDF hier zusammengestellt. Bei den neuesten Geräten ergibt sich eine Unsicherheit von plus/minus 2 Zentimetern bei individuellen Messungen und plus/minus 5 Millimeter für monatliche Mittelwerte.

Um es so freundlich wie möglich auszudrücken, möchte ich darauf hinweisen, dass die Genauigkeit eines Monatsmittels ein mathematisches Phantasiegebilde ist. Falls jede Messung lediglich auf ± 2 cm genau ist, dann kann das monatliche Mittel nicht NOCH genauer sein – es muss die gleiche Fehler-/Unsicherheits-Bandbreite aufweisen wie die Originalmessungen, aus denen das Mittel gebildet wird. Eine Mittelung erhöht nicht Genauigkeit oder Präzision.

(Es gibt eine Ausnahme: Falls man 1000 Messungen des Wassersiegels durchführt an der gleichen Stelle zur immer gleichen Zeit, dann würde die Mittelung die Genauigkeit zunehmen lassen für jenen Zeitpunkt an jener Stelle, werden doch dann Zufallsfehler zwischen den Messungen reduziert, jedoch keine systematischen Fehler).

In praktischer Hinsicht erhalten wir also Messungen des Lokalen Mittleren Meeresspiegels mit den neuesten Messgeräten, die auf ± 2 cm genau sind. Dies ist weit genauer als notwendig für die ursprüngliche Absicht der Anwendungen von Tidenmessgeräten – mit welchen das Niveau der Wasseroberfläche zu verschiedenen Zeitpunkten der Tide bestimmt werden sollte. Dies sollte die Sicherheit für Schiffe und andere Wasserfahrzeuge erhöhen in Häfen und Flüssen mit Tidenhub. Die zusätzliche Genauigkeit ist nützlich für wissenschaftliche Bemühungen, Gezeiten und deren Bewegungen, Timing, Größenordnung und so weiter besser zu verstehen.

Ich möchte aber noch einmal betonen, dass dies später bedeutsam werden wird oder wenn wir Betrachtungen über die Verwendung dieser Daten anstellen, um den Globalen Mittleren Meeresspiegel zu ermitteln aus Daten von Tidenmessgeräten, obwohl behauptet wird, dass Zahlen über den Lokalen Monatlichen Mittleren Meeresspiegel auf ± 5 Millimeter genau sind. In Wirklichkeit sind sie begrenzt auf die Genauigkeit von ± 2 cm der Original-Messungen.

Wovon ist die Änderung des Lokalen Relativen Meeresspiegels abhängig?

Die von der Tidenmessstation am Battery Park gemessenen Änderungen des Lokalen Relativen Mittleren Meeresspiegels könnten auch eine Folge der Bewegung des Festlandes und nicht der steigende Meeresspiegel sein. In Wirklichkeit ist am Battery Park beides der Fall: das Land sinkt etwas ab, das Meer steigt ein wenig. Beide Bewegungen addieren sich zu einem wahrgenommenen Anstieg des lokalen Meeresspiegels. Ich ziehe das Beispiel Battery Park heran, wie ich es schon vielfach in Beiträgen bei WUWT beschrieben habe. Insgesamt sinkt die Landmasse mit Battery Park mit etwa 1,3 mm pro Jahr, also etwa 6 cm während der letzten 50 Jahre. Im gleichen Zeitraum ist der Meeresspiegel tatsächlich gestiegen, und zwar um ca. 8 cm – was sich addiert zu einem vermeintlichen Anstieg des lokalen mittleren Meeresspiegels am Battery Park um ca. 15 cm von 1963 bis 2015. In einem Bericht aus dem Jahr 2010 steht Näheres dazu.

Dies gilt für alle Tidenmesspunkte in der Welt, welche direkt auf einer Landmasse stehen (aber nicht für die ARGO-Bojen zum Beispiel). Die offenbare Änderung des lokalen relativen MSL ist die arithmetische Kombination der Änderung des tatsächlichen Meeresspiegels plus der Änderung durch die vertikale Bewegung der Landmasse.

Wir wissen durch die sorgfältige Arbeit der NOAA, dass der Meeresspiegel nicht überall gleichmäßig steigt:


(Anmerkung: Das Bild zeigt aus Satellitendaten abgeleitete Raten der Änderung des Meeresspiegels)
…und dass die Meeresoberfläche nicht überall glatt ist:

Dieses Bild zeigt eine maximale Differenz der Meeresoberfläche um über 2 Meter – sie liegt sehr hoch bei Japan und sehr niedrig nahe der Antarktis mit einer ziemlichen Zerstückelung im Atlantik.

Das NGS CORS-Projekt ist ein Netzwerk von Continuously Operating Reference Stations (CORS), die sich allesamt auf dem Festland befinden und die Daten des Global Navigation Satellite System (GNSS) liefern als Unterstützung einer dreidimensionalen Positionierung. Es repräsentiert den goldenen Standard einer geodätischen Positionierung einschließlich der vertikalen Bewegung von Landmassen an jedem Messpunkt.

Um die Daten der Tidenmesspunkte für die Bestimmung des absoluten SLR (nicht den relativen lokalen SLR) nutzbar zu machen – also das tatsächliche Steigen des Meeresspiegels relativ zum Erdmittelpunkt – müssen die Daten mit zuverlässigen Daten der Vertikalbewegungen des Festlandes an der gleichen Stelle gekoppelt werden.

Wie wir am Beispiel Battery Park in New York gesehen haben, die mit einer CORS-Station gekoppelt ist, ist die vertikale Bewegung des Landes von gleicher Größenordnung wie die tatsächliche Änderung der Höhe der Meeresoberfläche. An einigen Stellen einer deutlichen Landabsenkung wie etwa der Chesapeake Bay in den USA übertrifft das Absinken den steigenden Meeresspiegel (mehr hier und hier). An einigen Stellen der Küste von Alaska scheint der Meeresspiegel zu sinken, weil sich das Land nach 6000 Jahren Eisschmelze stärker hebt als der Meeresspiegel steigt.

Wer verfolgt den globalen Meeresspiegel mit Tiden-Messgeräten?

Der Permanent Service for Mean Sea Level (PSMSL) ist für die Zusammenstellung, Veröffentlichung, Analyse und Interpretation der Meeresspiegel-Daten verantwortlich, und zwar seit dem Jahre 1933 vom globalen Netzwerk von Tiden-Messgeräten. Im Jahre 1985 wurde das Global Sea Level Observing System (GLOSS) ins Leben gerufen, ein gut aufgemachtes, den Meeresspiegel in situ vermessendes Beobachtungs-Netzwerk hoher Qualität, um eine breite Plattform für Forscher und Nutzer zu bieten. Nahezu jede Studie zum Thema globaler Meeresspiegel bediente sich der Tidendaten des PSMSL. Man beachte, dass diese Daten aus der Ära vor Satelliten stammen – die Messungen der PSMSL-Datenbasis sind in situ-Messungen direkt an der Stelle des Messpunktes. Sie sind nicht aus Produkten der Satelliten-Altimetrie abgeleitet.

Diese Darstellung der PSMSL-Daten hat positive und negative Implikationen. Auf der Haben-Seite steht, dass die Daten direkt gemessen wurden und nicht anfällig sind für irgendwelche Verschiebungen und Fehler wegen Alterung der Instrumente. Gemessen werden sehr zuverlässige und genaue Daten (bis ± 2 cm) des Relativen Meeresspiegels – welches die einzigen Daten von Relevanz sind für die damit befassten Behörden vor Ort.

Auf der Soll-Seite steht, dass die Tiden-Messpunkte auf Landmassen stehen, von denen man weiß, dass sie sich heben und senken (oder sich auch horizontal verschieben). Diese Bewegungen sind konstant, wenn auch langsam. Gründe für diese Bewegungen sind u. A. isostatischer Ausgleich nach einer Vereisung, Absinken durch Abpumpen von Grundwasser, Gas- und Ölförderung sowie die natürlichen Prozesse der Ansammlung und des Setzens von Erde in Flussdeltas. Auch die Plattentektonik spielt eine Rolle.

Damit die PSMSL-Daten überhaupt brauchbar sind für die Bestimmung des absoluten SLR, müssen sie ganz offensichtlich um die vertikalen Landbewegungen korrigiert werden. Allerdings war es mir nicht möglich, auf der Website der PSMSL festzustellen, ob diese Korrekturen wirklich angebracht worden sind. Also sandte ich an PSMSL eine direkte E-Mail mit dieser einfachen Frage: Sind die PSMSL-Daten explizit korrigiert, um vertikalen Landbewegungen Rechnung zu tragen?

Die Antwort:

Die PSMSL-Daten werden zugeliefert bzw. heruntergeladen aus vielen Datenquellen. Darum lautet die kurze Antwort auf Ihre Frage: Nein. Allerdings fordern wir wo immer möglich, die PSMSL-Daten mit relevanten Abgleichungs-Informationen zu liefern, so dass wir die Stabilität des Messgerätes überwachen können“.

Man beachte: „Leveling“ bezieht sich nicht auf vertikale Landbewegungen, sondern auf den Versuch sicherzustellen, dass das Messgerät vertikal konstant bleibt hinsichtlich des assoziierten geodätischen Eckpunktes.

Falls die PSMSL-Daten korrigiert werden würden, um vertikalen Landbewegungen an dieser Stelle Rechnung zu tragen, dann könnten wir Änderungen der tatsächlichen oder absoluten Meeresoberfläche bestimmen, um damit dann etwas zu bestimmen, was man als wissenschaftliche Wiedergabe der Änderung des Globalen Meeresspiegels betrachten könnte. Ein derartiger Prozess würde sich komplizieren durch die Realität der geographisch unebenen Wasseroberfläche, geographischen Gebieten mit Änderungen mit entgegen gesetztem Vorzeichen und ungleichen Raten der Änderung. Unglücklicherweise kommen die PSMSL-Daten derzeit unkorrigiert daher, und nur sehr wenige (kaum mehr als eine Handvoll) Messpunkte sind assoziiert mit ununterbrochen operierenden GPS-Stationen.

Was all das bedeutet

Zusammengefasst lassen sich die in diesem Beitrag behandelten Punkte auf einige einfache Fakten bringen:

1. Die Daten von Tiden-Messgeräten sind unschätzbar für örtliche Gegebenheiten für die Bestimmung des Zustandes, der Meeresoberfläche relativ zum Festland und der Rate der Änderungen der Meeresoberfläche. Es sind die einzigen Daten zum Meeresspiegel, die für die lokale Bevölkerung von Belang sind. Allerdings sind diese Daten nur auf ±2 cm genau, das gilt sogar für die besten Stationsdaten des GLOSS-Netzwerkes. Alle aus diesen Daten abgeleiteten Mittelwerte, darunter tägliche, monatliche und jährliche Mittelwerte sind ebenfalls nur auf ±2 cm genau. Behauptungen einer Millimeter-Genauigkeit von Mittelwerten sind unwissenschaftlich und nicht zu unterstützen.

2. Die Daten von Tiden-Messgeräten sind wertlos zur Bestimmung des Globalen Meeresspiegels und/oder dessen Änderung, solange sie nicht explizit korrigiert worden sind hinsichtlich vertikaler Bewegungen des Festlandes, wie es bei den wenigen GPS-Referenzstationen der Fall ist. Da der gegenwärtige Standard der Daten von Tiden-Messgeräten, also PSMSL GLOSS, in dieser Hinsicht nicht korrigiert ist, beruhen die Ergebnisse aller Studien auf der Grundlage dieser unkorrigierten PSML-Daten zum Thema globaler SLR – Größenordnung oder Änderungsrate – auf nicht für diesen Zweck geeigneten Daten und können uns nicht zuverlässig Aufschluss geben über den Globalen Meeresspiegel und dessen Änderung.

Link: https://wattsupwiththat.com/2017/10/07/sea-level-rise-and-fall-part-2-tide-gauges/
Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (6)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden aufgedeckt. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Die jetzt folgenden Teile untersuchen grobe Mängel bei den Studien, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen.
Auch unter Gleichen sind nicht alle gleich
Um Manipulationen mit Zahlen über angebliche „Todesfälle durch Stickstoffdioxid“ entgegentreten zu können, muss man sich zunächst ein wenig mit der Ermittlung von Lebenserwartungen beschäftigen. Die Bevölkerung ist kein einheitlicher Block identischer Individuen, die allesamt ein gesundes Leben bis zum Todestag führen und dann friedlich und ohne Leid entschlafen. Jeder Mensch ist unterschiedlich, zudem besteht die Gesellschaft aus unterschiedlichen Gruppen, die sich bezüglich Lebenserwartung, Gesundheitszustand, Lebensstil, Wohnort, Einkommen etc. von anderen Gruppen unterscheiden. Statistisch gesicherte Aussagen sind daher nur möglich, wenn man möglichst große und zugleich in sich einheitliche Gruppen selektiert und versucht, diese mithilfe statistischer Verfahren zu charakterisieren. Am bekanntesten ist sicherlich die Tatsache, dass Frauen in Deutschland durchschnittlich fast fünf Jahre älter werden als Männer. Es gibt jedoch noch viele weitere Einflussfaktoren. So scheint vordergründig der Wohnort erheblichen Einfluss auf die Lebenserwartung der jeweiligen Einwohner zu haben, Bild 2.

Bild 2. Unterschiede in der Lebenserwartung von neugeborenen Jungen und Mädchen in den verschiedenen Regionen Deutschlands (Grafik: [BBSR])

Die Unterschiede sind wesentlich größer als man als Laie erwarten würde: So haben neu geborene Jungen in Pirmasens (73,6 Jahre), Emden (74,1 Jahre) und Eisenach (74,3 Jahre) die geringste Lebenserwartung. Mit einem besonders langen Leben können dagegen Mädchen im Kreis Breisgau-Hochschwarzwald (85,0 Jahre), Dresden (84,9 Jahre) und München (84,8 Jahre) rechnen. Ein in Pirmasens geborener Junge stirbt demnach im Mittel mehr als elf Jahre vor einem zum gleichen Zeitpunkt im Breisgau zur Welt gekommenen Mädchen. Anders ausgedrückt liegt dessen Lebenserwartung um mehr als 15 % über der des Jungen.
Natürlich interessiert angesichts dieser doch recht erheblichen Unterschiede die Frage nach den Ursachen für diese regionalen Unterschiede. Der Blick auf Bild 2 zeigt sofort, dass Luftverschmutzung als Ursache ausscheidet, denn die kürzesten Lebenserwartungen findet man häufig in ländlichen Regionen mit wenig Industrie, mit einem deutlichen Schwerpunkt in den neuen Bundesländern. Umgekehrt leben die Menschen dort am längsten, wo die Luft, wenn man den Panikmachern der „Umwelt“-Verbände und ihren Verbündeten in Parteien, Ministerien und Medien Glauben schenken darf, am schmutzigsten und giftigsten ist, nämlich in Großstädten wie Stuttgart, München oder Frankfurt, Bild 3.

Bild 3. Entwicklung der Lebenserwartung von Einwohnern verschiedener deutscher Großstädte sowie für Deutschland insgesamt für die Geburtsjahrgänge 1995 und 2010 (Daten: [LEBE], Statista)

Der Blick auf Bild 3 offenbart zweierlei: Zum einen gibt es kein Absinken, sondern sogar einen erheblichen Anstieg der Lebenserwartung mit höherer Schadstoffbelastung der Luft. Die Lebenserwartung hat gerade in den Ballungszentren in den letzten Jahrzehnten noch stetig weiter zugenommen, obwohl uns die Presse und Herr Resch von der Deutschen Umwelthilfe (DUH) mitsamt seinen grünen Gesinnungsgenossen pausenlos einzureden versuchen, dass wir uns und unsere Kinder einem frühen Tod ausliefern, wenn wir nicht schnellstens unsere Autoindustrie vor die Wand fahren. Zum zweiten kann man daraus lernen, dass bei der Aufstellung von Statistiken Sorgfalt die erste Wissenschaftlerpflicht sein sollte. Rein mathematisch könnte man beispielsweise aus der Statistik herauslesen, dass gute Landluft schlecht für die Gesundheit ist und Abgase dagegen das Nonplusultra. Dass dies Unsinn ist, kann man den Zahlen selbst nicht entnehmen: Dazu muss man den gesunden Menschenverstand hinzuziehen, und hieran scheint es dem einen oder anderen Professor aus dem Lager der Epidemiologen etwas zu mangeln.
Um nicht falsch verstanden zu werden: Abgase fördern sicherlich nicht die Gesundheit, und ihre Reduzierung ist eine Aufgabe, die den Schweiß des Edlen wert ist. Hier sollte man den Hut vor dem ziehen, was die Entwickler der Automobilbranche in den letzten Jahren vollbracht haben, statt sie als Scharlatane und Betrüger darzustellen. Der Gegensatz von Bild 2 und Bild 3 beweist eindeutig, dass die Verhältnisse wesentlich komplizierter sind, als dies von den Medien dargestellt wird. Bei Studien über die Auswirkungen von Abgasen muss man daher sehr sorgfältig aufpassen, um nicht Äpfel und Birnen miteinander zu vergleichen und zu Pseudo-Zusammenhängen zu kommen.
Wer arm ist, stirbt früher…
Die Ursache für die unterschiedlichen Lebenserwartungen, die Bild 2 zeigt, ist schon sehr lange bekannt: Es ist die soziale Stellung der Betreffenden, charakterisiert durch z.B. Einkommen, Beschäftigungssituation, Lebensstil und Gesundheitsvorsorge. Der zusammenfassende Begriff hierfür lautet „sozioökonomische Faktoren“. Diese sind die mit Abstand wichtigsten Einflussgrößen auf die Lebenserwartung. Wirtschaftliches Wohlergehen und soziale Stellung sind eng miteinander verknüpft. Das trifft nicht nur auf Individuen zu, sondern auch auf der Ebene größerer Bevölkerungsgruppen. Eine schlechte wirtschaftliche Lage wirkt sich stark nachteilig auf Gesundheit und Lebensdauer aus. Dies ist beispielsweise in Pirmasens der Fall, das in seiner wirtschaftlichen Entwicklung deutlich hinterherhinkt. Gleiches gilt auch für das Ruhrgebiet sowie für viele Regionen in den neuen Bundesländern. Kurz gesagt: Wer arm ist, stirbt früher. Fachleute in zuständigen Stellen wie Sozial- und Gesundheitsämtern, Krankenkassen usw. wissen darum. So schreibt das Bundesinstitut für Bau-, Stadt- und Raumforschung: „Analysen des BBSR zeigen jedoch, dass sich die Lebenserwartung regional ähnlich verteilt wie die Bildungschancen, die qualifizierte Beschäftigung sowie ökonomische Belastungen und soziale Benachteiligung. Die Lebenserwartung ist in den Regionen höher, in denen der Anteil sozial und ökonomisch schwacher Bevölkerungsgruppen gering und der Arbeitsmarkt günstig und attraktiv für hoch qualifizierte und kreative Arbeitnehmer ist. Dieser Zusammenhang ist bei Männern deutlicher ausgeprägt als bei Frauen [BBSR]“. Warnend wird allerdings hinzugefügt, dass sich diese Zusammenhänge kleinräumig – auf Stadt- oder Kreisebene – nicht leicht ermitteln lassen: Dafür seien die Einflüsse auf die Lebenserwartung zu komplex und die regionalstatistischen Daten zu begrenzt. Im weiteren Verlauf dieses Beitrags wird noch deutlich werden, dass viele Verfasser epidemiologischer Studien diesbezügliche Hinweise entweder nicht verstanden oder nicht ernst genug genommen haben.
Die Wirkung dieser sozioökonomischen Faktoren im Zusammenhang mit der Arbeitsplatzsituation ist vielfach belegt, Bild 4, Bild 5 und Tabelle 1.

Bild 4. Gesundheitszustand von Männern in Abhängigkeit vom Beschäftigungsverhältnis (Grafik: [ARB])

Bild 5. Besonders erschreckend ist die starke Zunahme der Sterblichkeit bei lang dauernder Arbeitslosigkeit (Grafik: [ARB])

Tabelle 1. Lebenserwartung in Abhängigkeit vom Einkommen (Daten: [GBE])

Die Grafiken sowie die Tabelle zeigen anschaulich, dass vor allem Männer mit geringem Einkommen oder prekärer bis gar keiner Beschäftigung einen deutlich schlechteren Gesundheitszustand haben und bis zu mehr als 10 Jahre früher sterben als ihre Geschlechtsgenossen mit einem höheren sozioökonomischen Status. Würde man dies mit den Methoden quantifizieren, die bei manchen epidemiologischen Studien zur Beurteilung von Abgasen angewandt werden, so käme man voraussichtlich zu dem Schluss, dass Armut in Deutschland jährlich Millionen Tote verursacht. Das traut sich natürlich niemand zu sagen. Zunächst stellt sich jedoch die Frage, wie es denn überhaupt zu diesen drastischen Unterschieden bei Gesundheit und Lebenserwartung kommt.
lebt ungesünder…
Auch dieser Frage wurde natürlich schon seit langem sehr akribisch nachgegangen. Die Antworten sind eindeutig: Menschen mit schlechterem sozioökonomischem Status leben ungesünder, treiben weniger Sport und gehen seltener und später (d.h. wenn eine Erkrankung schon weit fortgeschritten ist) zum Arzt als diejenigen, die einen höheren Status haben. Auch hierzu gibt es zahlreiche statistische Unterlagen, Bild 6 und Tabelle 2.

Bild 6. Bei langzeitarbeitslosen Männern über 45 ist die Raucherquote mehr als doppelt so hoch wie bei Gleichaltrigen mit sicherer Beschäftigung (Grafik: [GESU])

Tabelle 2. Menschen mit niedrigerem sozialem Status verhalten sich deutlich weniger gesundheitsbewusst (Adipositas = Fettleibigkeit) (Daten: [GESU])

Die Gründe liegen einerseits in teils deutlich ungesünderer Lebensführung wie Rauchen, Bewegungsmangel, ungesunde Ernährung oder Alkoholkonsum sowie geringerer Bereitschaft, bei Beschwerden ärztlichen Rat einzuholen. Zudem informieren sich diese Personengruppen weniger über Gesundheitsgefahren und werden auch vom eigenen Umfeld wie Familie und Bekanntenkreis weniger zu gesundheitsförderlichem Verhalten angeregt.
und ist entsprechend kränker
Erwartungsgemäß wirkt sich diese Lebensweise entsprechend nachteilig auf die Gesundheit aus, wobei bestimmte Krankheitsbilder mit besonderer Häufigkeit auftreten. So berichtet z.B. die „Welt“, dass Mecklenburg-Vorpommern – eines der ärmsten Bundesländer – mit 9,6 % die zweithöchste Arbeitslosigkeit aufweist. Zugleich belegt das Land bei gleich fünf Krankheiten, darunter Diabetes, Asthma und Leberschäden, den schlechtesten Platz in der Statistik [WELT]. Eine qualitative Übersicht über die gerade bei Menschen aus unteren sozialen Schichten besonders häufig auftretenden Krankheitsbilder zeigt Tabelle 3.

Tabelle 3. Bei Menschen mit niedrigem Einkommen ist das Risiko für bestimmte Erkrankungen teils deutlich höher (Quelle: [GBE])

Betrachtet man mit diesem Wissen jetzt noch einmal die Karte (Bild 2) mit den regionalen Unterschieden der Lebenserwartungen, so versteht man, warum es nicht die Luftqualität ist, welche zu krassen Unterschieden der Lebenserwartung führt, sondern in erster Linie der Unterschied in der Prosperität und damit im sozialen Status erheblicher Teile der Bevölkerung. Der ungesündere Lebensstil der sozial schwächeren Schichten hat eine markante Häufung ganz bestimmter Krankheitsbilder zur Folge, welche zu einem früheren Tod führen. Dazu gehören auf den deutlich höheren Tabakkonsum zurückzuführende Krebsarten wie Lungen- und Darmkrebs, aber auch Diabetes und Tuberkulose sowie Herz-Kreislauf-Erkrankungen [RAUCH]. Hinzu kommen noch chronische Bronchitis, chronische Lebererkrankungen sowie Bluthochdruck mit allen damit verknüpften Risiken wie Schlaganfällen und Herzinfarkt.

Bild 7. Entlang stark befahrener Straßen bilden sich schmale Linienghettos (Foto: Pixabay)


Linienghettos entlang der Hauptverkehrswege
Bereits in früheren Folgen dieser Untersuchung wurde darauf hingewiesen, dass sich in großen Städten entlang der stark befahrenen Hauptverkehrsstraßen ein deutliches soziales Gefälle ausbildet. Dies betrifft insbesondere Wohnbebauungen, wo Häuser in mehrstöckiger geschlossener Front ohne Vorgärten direkt an der Straße stehen, so dass eine mehr oder weniger ausgeprägte „Straßenschlucht“ vorliegt. Hier ist die Wahrscheinlichkeit sehr groß, dass sich mehr oder weniger ausgeprägte „Linienghettos“ speziell entlang der am stärksten befahrenen Straßen ausbilden, in denen sich bevorzugt Menschen aus unteren sozialen Schichten ansiedeln. Grund hierfür ist die starke Beeinträchtigung des Wohnumfelds u.a. durch Verkehrslärm, Gerüche und die geringe Attraktivität von Ausblick und Umgebung. In Abhängigkeit von der Entfernung des Wohnorts zur Hauptverkehrsader wird man dann markante Zunahmen insbesondere der Krankheiten finden, die in der obigen Aufzählung enthalten sind.
Stellt man dem jetzt die Liste der Erkrankungen gegenüber, die von Epidemiologen dem NO2 zugeschrieben werden, so entdeckt man wesentliche Übereinstimmungen, Tabelle 4.

Tabelle 4. Auslösende Faktoren von typischerweise häufiger auftretenden Erkrankungen bei sozial schwächeren Bevölkerungsgruppen im Vergleich zu den von Epidemiologen behaupteten Folgen selbst geringer Gehalte von NO2 in der Atemluft (Angaben: [GBE], [HOSHO])

Um besser verstehen zu können, warum die in Tabelle 4 aufgeführten Angaben der Epidemiologen Mißtrauen erwecken sollten, muss man zunächst wissen, dass sich mögliche nachteilige Wirkungen von NO2 ausschließlich auf die Lunge beschränken. Bei der Absorption in der Lunge wird das NO2 über Zwischenstufen in Nitrat umgewandelt und mit dem Blut abtransportiert. Die dabei gebildete Nitratmenge ist zwar nachweisbar, fällt jedoch gegenüber derjenigen, die mit der Nahrung aufgenommen wird, kaum ins Gewicht [STICK]. Es gibt deshalb keinerlei Wirkzusammenhang, der eine Schädigung solcher Organe wie Herz, Adern, Leber oder Bauchspeicheldrüse (Diabetes) etc. durch NO2 erklären könnte. Auch Lungenkrebs kann nach bisherigem Kenntnisstand der Toxikologie nicht auf eine Belastung mit NO2 zurückgeführt werden. Deshalb ist NO2 in der offiziellen Liste krebserregender Substanzen gar nicht erst aufgeführt [TRGS]. Epidemiologische Untersuchungen, die NO2 mit Lungenkrebs in Verbindung bringen, sind daher eher unglaubwürdig.

NO2 wird zum Universal-Sündenbock gemacht

Eine Erklärung dafür, wieso bei vielen epidemiologischen Studien Effekte „gefunden“ werden, die toxikologisch nicht erklärbar sind, liefert ein Beitrag aus dem Tropen- und Public-Health-Institut der Schweiz. Dieses Institut arbeitet eng mit der WHO zusammen und berät sowohl die Schweizer Regierung als auch die EU. Dieses tritt auch als Sprachrohr der automobil-und dieselfeindlichen Kräfte in Deutschland auf [SMCE]. In der von seinem Institut erstellten Studie findet sich eine äußerst aufschlussreiche Passage: „Wichtige Erkenntnisse zur Beurteilung gesundheitlicher Wirkungen von Schadstoffen auf die Bevölkerung stammen aus epidemiologischen Studien[….]Dabei muss beachtet werden, dass die statistischen Zusammenhänge, welche zwischen Gesundheitsgrössen und Schadstoffbelastungen gefunden werden, isoliert kaum Aussagen über ursächliche Beziehungen zulassen[…..]Gefundene Zusammenhänge mit einem Schadstoff können daher ein Hinweis sein auf direkte (kausale) Wirkungen oder sie stehen stellvertretend für Schadstoffe, welche die gleiche Quelle haben und mit ihm korrelieren. Oftmals sind NO oder NO2 Indikatoren für das verkehrsbedingte Schadstoffgemisch. In diesem Sinne ist NO2 auch als Leitschadstoff in der Luftreinhalteverordnung reguliert“ [LUDOK]. Auf gut Deutsch gesagt: Wenn man die Wirkung von z.B. karzinogenen Luftschadstoffen aus älteren Benzinern statistisch nicht von derjenigen des NO2 aus Dieseln unterscheiden kann, schiebt man alle Wirkungen der anderen Schadstoffe dem NO2 in die Schuhe. In der EPA-„Bibel“ [EPA2] ist immer wieder der Satz „Effect of NO2 independent from traffic-related copollutants is uncertain….“ zu finden. Mehr ist dazu nicht zu sagen. Als Begründung für eine Kampagne, die darauf abzielt, eine deutsche Spitzenbranche zu vernichten, ist das eigentlich recht dünn.

Die Zweifelhaftigkeit vieler epidemiologischer Studien…

Zählt man Zwei und Zwei zusammen, so ergibt sich ein sehr begründeter Verdacht: Bei epidemiologischen Studien zum NO2, welche als Hauptkriterium die räumliche Entfernung zu stark frequentierten Straßen verwendet haben, ist die eigentlich unbedingt erforderliche Trennschärfe zwischen den unterschiedlichen Belastungsfaktoren nicht gegeben. Vielfach hat man es weder geschafft, die wichtigen sozioökonomischen Faktoren aus der Statistik herauszufiltern, noch die Wirkung der unterschiedlichen Schadstoffe sauber voneinander zu trennen. Vermutlich liegt dies daran, dass man diese Aspekte schon bei der Auswahl der jeweils untersuchten Gruppe sowie bei der Art der vorgenommenen Messungen nicht ausreichend beachtet hat. In diesem Fall ist es unwahrscheinlich, dass diese Studien selbst bei Neubearbeitung überhaupt belastbare Ergebnisse liefern können. Zweifelhaft sind generell alle Untersuchungen, die angeblich Auswirkungen von NO2 auf innere Organe festgestellt haben. Diese sollte man grundsätzlich mit einem Fragezeichen versehen und einer eingehenden und kritischen Nachprüfung bezüglich Methodik und Sauberkeit der Selektionskriterien der Probanden unterziehen. Auch bei den dann noch übrig bleibenden Arbeiten ist eine genaue Überprüfung empfehlenswert, was die Erfassung und korrekte Berücksichtigung sozioökonomischer Hintergrundinformationen der untersuchten Personengruppen angeht. Und last but not least sind geographische Aspekte zu beachten. Untersuchungen in der Luftschadstoff-Hölle vieler Millionenmetropolen der 2. und 3. Welt voller Abgasschwaden von zweitaktgetriebenen Tuk-Tuks wie in Indien oder mit Kraftwerkssmogverhältnissen wie in Beijing lassen sich nicht zwanglos auf mitteleuropäische Verhältnisse übertragen. Auch in Europa oder den USA durchgeführte Analysen älteren Datums können vermutlich nur in begrenztem Umfang herangezogen werden, da die Zusammensetzung der Abgase heutzutage nicht mehr die gleiche ist wie vor 10 oder gar 20 Jahren.
betrifft auch die daraus zusammengestellten „Bibeln“ von WHO und EPA
Aus den gleichen Gründen ist sicherlich auch ein Großteil der diversen Metaanalysen zum Thema nur bedingt vertrauenswürdig. In der Regel beziehen sich die Verfechter von Dieselverboten auf zwei Kompendien, in denen der „Stand der Wissenschaft“ bezüglich der Gefährdung der menschlichen Gesundheit durch NO2 zusammengeführt sein soll: Die Studien der WHO sowie der US-amerikanischen EPA [WHO2], [EPA2]. Beide Werke stützen sich jedoch bei ihren Schlussfolgerungen auf zahlreiche Arbeiten, die im Lichte der hier dargelegten Erkenntnisse nur als bedingt tauglich eingestuft werden können. So findet sich in der WHO-Studie beispielsweise eine Untersuchung mit 1,26 Mio. Teilnehmern in Rom (Cesaroni et al., 2013), bei der nicht einmal das Rauchverhalten der Probanden systematisch erfasst, sondern geschätzt wurde. Die 1148 Seiten dicke EPA-Studie führt gerade einmal 13 Untersuchungen mit einigermaßen realistischen Zielsetzungen auf, bei denen sozioökonomische Faktoren einbezogen wurden. Auch dürften nach aktuellem Stand der Erkenntnisse sogar direkt gefälschte Daten eingeflossen sein [DUKE]. Von daher sind auch bezüglich der Fundiertheit der in beiden Dokumenten getroffenen Schlussfolgerungen Zweifel geboten. Als nicht mehr verhandelbare „settled Science“ sind sie nicht glaubwürdig. In den nächsten Folgen werden noch andere methodische Fehler thematisiert, welche die Glaubwürdigkeit zahlreicher weiterer epidemiologischer Studien erschüttern dürften.
Fakten und „Faktenfinder“
Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos.
Fred F. Mueller
Demnächst folgt Teil 7
Quellen
[ARB] Gesundheitsberichterstattung des Bundes Heft 13 Arbeitslosigkeit und Gesundheit. Robert Koch Institut
[BBSR] http://www.bbsr.bund.de/BBSR/DE/Home/Topthemen/lebenserwartung.html

[DUKE] http://dailycaller.com/2017/07/03/epa-funded-research-lab-accused-of-fabricating-data-on-respiratory-illnesses/

[EPA2] U.S. EPA (2016): Integrated Science Assessment for Oxides of Nitrogen –Health Criteria. Final Report.

https://cfpub.epa.gov/ncea/isa/recordisplay.cfm?deid=310879

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html
[GBE] GBE Kompakt 5/2010, Zahlen und Trends aus der Gesundheitsberichterstattung des Bundes, Robert Koch Institut
[GESU] https://www.lzg.nrw.de/ges_foerd/ges_chanc_gl/arbeitslosigkeit_gesundheit/gesundheitsverhalten/index.html

[HOSHO] https://www.uni-duesseldorf.de/home/fileadmin/redaktion/Oeffentliche_Medien/Presse/Pressemeldungen/Dokumente/Kurzstellungnahme_Experten_Umweltepidemiologie.pdf

[LEBE] http://www.lebenserwartung.info/index-Dateien/ledeu.htm

[LUDOK] Kutlar Joss M, Dyntar D, Rapp R: Gesundheitliche Wirkungen der NO2-Belastung auf den Menschen: Synthese der neueren Literatur auf Grundlage des WHO-REVIHAAP Berichts. Basel

[RAUCH] https://www.krebsgesellschaft.de/onko-internetportal/basis-informationen-krebs/bewusst-leben/rauchen-zahlen-und-fakten.html

[SMCE] https://www.sciencemediacenter.de/alle-angebote/rapid-reaction/details/news/diesel-skandal-wissenschaftler-widersprechen-schlussfolgerungen-der-abgeordneten-zu-gesundheitlich/

[STICK] Bundesgesundheitsblatt 1/98, S. 9-12.
[TRGS] Technische Regeln für Gefahrstoffe, Verzeichnis krebserzeugender, erbgutverändernder oder fortpflanzungsgefährdender Stoffe, TRGS 905.
[WELT] https://www.welt.de/gesundheit/article144337205/So-krank-ist-Deutschland.html

[WHO2] WHO (2013): Review of evidence on health aspects of air pollution – REVIHAAP Project, Technical Report