1

Waste-to-Power (W2P)

W2P beschreibt nichts anderes als die energetische Nutzung oder thermische Entsorgung von Müll der verschiedensten Art. Sollte Ihnen dieses Kürzel „W2P“ nun unbekannt vorkommen, so haben Sie völlig recht, denn ich habe den Begriff soeben erfunden. Allerdings erforderte es keine gesteigerte Kreativität, denn dieses hippe Neudeutsch ist für andere Wandlungsverfahren längst gebräuchlich: P2H, P2G, P2L. Diese Bezeichnungen stehen für vermeintlich zukunftsträchtige Anwendungen, sie durchweht der Hauch der glücklichen dekarbonisierten Welt von morgen. Da kommt „Waste-to-Power“ nicht mit, denn die schnöde Abfallverbrennung hat jahrhundertelange Tradition und aus grüner Sicht keine Perspektive, weil es künftig keinen zu entsorgenden Müll mehr geben soll, sondern nur noch Wertstoffe als Quelle neuer Produkte.

Zunächst praktizierte man Müllverbrennung als einfache Lösung eines Entsorgungsproblems ohne energetische Hintergedanken. Was unbrauchbar, aber im Weg war, wurde angehäuft und abgebrannt. Die Asche kam auf den Acker und gut. Später und mit zunehmenden Müllmengen sparte man sich das und entsorgte auf riesige Haufen vor den Siedlungen und Städten, dann wurden diese Berge aus optischen und Geruchsgründen abgedeckt und Deponien genannt. Es zeigten sich Spätfolgen, vor allem in den Wirkungen auf das Grundwasser. Seit 2005 gibt es in Deutschland ein Deponieverbot. Die Rezepte gegen die Müllberge lauten jetzt: Vermeiden, stoffliche Nutzung, thermische Verwertung und Ablagerung nur dann, wenn Umweltgefährdung ausgeschlossen ist.

Was tun?

Der Königsweg ist ohne Frage der geschlossene Stoffkreislauf. Sinnvoll gehört für bestimmte Verpackungstechniken ein Pfandsystem dazu. Unser Dosenpfand-Jürgen (ja, der mit der Kugel Eis auf der Stromrechnung) setzte 2003 in seiner Zeit als Umweltminister das Dosen- und Einwegpfandsystem um. Sein Vorgänger Töpfer hatte dies schon eingerührt. Es sollte ein deutlicher Schritt sein, die Wegwerfgesellschaft zu zähmen. Den Sound der gezogenen Lasche vor dem Resonanzkörper der mit Gerstensaft oder Cola beladenen Dose galt es dauerhaft zum Schweigen zu bringen. Die Weiche in Richtung des ökologischeren Mehrwegsystems schien gestellt. Zunächst brach die Menge der Einwegverpackungen wunschgemäß ein, um in den Folgejahren langsam aber stetig wieder anzuwachsen. Mit automatisierten Rücknahmesystemen der großen Handelsketten wurde das Einwegsystem der Getränkeindustrie wieder billiger als Mehrweg. Die PET-Einwegflasche (Polyethylenterephthalat, in Faserform Polyester genannt) wurde zur Gewinnerin beim Dosenpfand. Preisgünstig bei geringem Materialeinsatz und ideal recyclebar trug sie zum erneuten Absinken der Mehrwegquote bei. Schwere leere Glasflaschen müssen transportiert, gereinigt und neu etikettiert werden – PET-Flaschen nicht und an der gesunkenen Trinkkultur stört sich der Geiz-ist-geil-Kunde auch nicht. Er fragt: wenn schon Pfand, warum dann Mehrweg? So hat die Einwegquote inzwischen die des Mehrwegs wieder überholt.

Ökologisch am zuverlässigsten sind die deutschen Biertrinker bei der Glasflasche geblieben, lasst sie uns loben.

Auch der stofflichen Nutzung, also der Wiederverwertung des Restmülls sind wirtschaftliche Grenzen gesetzt. Aus Recyclinggranulat gepresste Gartenbänke kommen PR-mäßig gut, aber wirtschaftlich ist das auf Grund des hohen Trennaufwandes zumindest beim Haushalts- und Gewerbemüll und mangelnden Bedarfs so großer Mengen an Gartenbänken noch nicht. Die Deutschen sind vermutlich die eifrigsten Mülltrenner der Welt, dennoch war die bisherige Abfallpolitik nur eingeschränkt erfolgreich. Coffee-to-go-Becher (also „C2g“ – soeben erfunden!) führen zu neuen riesigen Abfallbergen, die noch nicht sinnvoll beherrscht werden. Auch die legendäre „Abwrackprämie“ für PKW von 2009 war entsorgungstechnisch und vor allem energiebilanziell eine falsche Entscheidung. Sie führte zur Vernichtung brauchbarer Güter und trieb mit künstlich erzeugter Nachfrage den Energiebedarf an.

Bevor wir aber kritisieren und unzufrieden werden, sollten wir uns vergegenwärtigen, dass wir im Grunde müllmäßig auf einer Insel der Glückseligen leben.

Seit den siebziger Jahren leidet die Region um Neapel am permanenten Müllnotstand, 1997 wurde die letzte Deponie wegen Überfüllung geschlossen. Der Widerstand der Bürger gegen neue Deponien und den Bau von Verbrennungsanlagen führte zu riesigen Müllbergen und illegalen Deponien.

Bella Italia

Die Mafia, in diesem Fall die Camorra, verdient prächtig an illegaler Mülllagerung und zwar an allen Fraktionen – Haus- und Gewerbemüll, Klinikmüll, Giftmüll, sogar radioaktive Abfälle wurden gegen Gebühr dubioser Auftraggeber in der Region verbuddelt. Man schätzt die illegal abgelagerte Müllmenge auf etwa 300.000 Tonnen.

Was sich auf den Straßen anhäuft, wird hin und wieder verbrannt, um Platz zu schaffen oder Protest zu zeigen. „Terra dei Fuochi“, „Land der Feuer“ heißt die Gegend nördlich von Neapel. Über theoretische Diskussionen zur Krebsgefahr durch Glyphosat können die Leute hier nur milde lächeln. Die Krebsrate in der Gegend ist mehr als dreimal so hoch wie im nationalen Durchschnitt. Die Feuer setzen ätzende Dioxinwolken frei, das Grundwasser ist verseucht, Schwermetalle und Gift sind im Erdreich versickert. Tomaten und Pfirsiche wachsen auf diesem Terrain und dies natürlich nicht zur Zierde. Forscher sprechen vom „Dreieck des Todes“ zwischen Neapel, der nördlich gelegenen Kleinstadt Caserta und Nola im Osten.

Einige Sonderzüge fuhren in deutsche Müllverbrennungsanlagen (MVA), was von deutschen Grünen heftig als Müllimport gegeißelt, aber von einem grünen italienischen Umweltminister maßgeblich mit verursacht wurde.

In Summe ist das Ganze nicht nur eine Schande für ein entwickeltes Industrieland wie Italien, auch die EU-Umweltbürokratie versagt seit Jahrzehnten auf der ganzen Linie. Sie bleibt ihrem Grundsatz treu, sich nicht um die wichtigen Sachen zu kümmern, sondern Selbstbestätigung in der Gängelung der Bürger zu finden wie im Vorschreiben von Beleuchtungsmitteln oder der Regulierung der Leistung von Staubsaugern. Auch eine 20 Millionen-Euro-Strafe, die der Europäische Gerichtshof verfügte, brachte natürlich keine Abhilfe. Ansonsten beherzigt die EU die „Omerta“ genannte Schweigepflicht der Camorra. Die US-Amerikaner gehen fürsorglicher mit ihren Bürgern um. Die in der Region Neapel stationierten US-Truppenangehörigen dürfen nicht außerhalb der Stützpunkte wohnen und der Teil der Lebensmittel, der nicht aus dem Ausland kommt sowie die Trinkwasserqualität werden akribisch überwacht.

In der Dritten Welt sind die Gefahren nicht nur durch die Gifte, sondern schon durch die riesigen Müllberge gegeben und es kann zur Katastrophe kommen, wenn wie in Sri Lanka ein 90 Meter hoher Müllberg ins Rutschen kommt.

Reinigendes Feuer

Damit es zu diesen gigantischen Ansammlungen von Müll nicht kommt, wäre die thermische Entsorgung in entsprechend ausgelegten Verbrennungsanlagen hilfreich. Sicherlich könnten auch Rotteverfahren helfen, die aber eine sehr korrekte Mülltrennung erforderlich machen und nur beim biogenen Anteil funktionieren.

In Deutschland verrichteten 2014 etwa 60 Müllverbrennungsanlagen und 35 Anlagen zur Verbrennung oder Mitverbrennung von Ersatzbrennstoff (EBS) ihre unattraktive aber nötige Tätigkeit. EBS wird durch Aufbereitung von Müll gewonnen, indem man heizwertreiche Fraktionen abtrennt und damit energetisch hochwertigen Brennstoff gewinnt. Holz-, Papier- und Stoffreste, biogene Anteile und Kunststoffe ergeben ein feuriges Gemisch, das selbst in Zementwerken einsetzbar ist. Unter den strengen Bedingungen der 17. Verordnung des Bundesimmissionsschutzgesetzes (BImschV) verbrennt der größte Teil von dem, was wir in grauer und gelber Tonne sammeln.

Gegenüber der Kohle-, Öl- oder Gasverbrennung verschärfte Emissionsgrenzwerte sichern die Umweltverträglichkeit. Die vorgeschriebenen Verbrennungstemperaturen oberhalb 850 Grad Celsius, bei halogenorganischen Stoffen sogar über 1.100 Grad zerstören Dioxin und andere Gifte. In den Angaben zum Energiemix erscheint die Energiegewinnung durch Müll mit einem relativ konstanten Anteil von etwa fünf Prozent meist unter der verschämten Bezeichnung „Sonstige“. Sollte sich dieser Anteil durch höhere Verwertungsquoten verringern, sinkt auch dieser Anteil konstanter und regelbarer, mithin systemstabilisierender Einspeisung.

Obwohl weitgehend Übereinstimmung besteht, dass wir von geschlossenen Stoffkreisläufen noch weit entfernt und moderne Verbrennungsanlagen umweltverträglich sind, bleiben Kampagnen gegen MVA bewährte Spielwiesen grüner Bürgerinitiativen. Sie treten zumeist als NIMBY-Anwohner („not-in-my-backyard“) auf und verfügen über bekanntes Kampfvokabular wie Dioxinschleuder, Menschenvergifter und ähnliches. Damit erreichen sie in großen Bevölkerungskreisen Ängste, die nur noch mit dem Neubau eines Atomkraftwerks neben dem Dorfanger zu toppen wären. Dabei wissen die Aktivisten sehr genau, dass hundertprozentige Müllverwertung nicht möglich ist und vergessen geflissentlich zu erwähnen, dass deponieren verboten und die so genannte „kalte Rotte“ durch Methanemission sehr „klimaschädlich“ ist.

Bürokratischer Müll

Um einem Anstieg der erheblichen Müllmenge in Deutschland (über 40 Millionen Tonnen pro Jahr) Einhalt zu gebieten, bastelt die Bundesregierung unterdessen an einer neuen Gewerbeabfallverordnung, die auch einige Details neu regelt, beispielsweise, was unter „Verpackung“ zu verstehen ist. Teebeutel, Wursthäute und Grablichtbecher gehören nicht dazu. Heftklammern und Dosierhilfen von Waschmitteln allerdings doch, wenn sie Teil des Verpackungsverschlusses sind. Bei Blumentöpfen ist zu differenzieren: Verbleibt die Pflanze Zeit ihres Lebens darin, ist es keine Verpackung, sonst schon. Das Verpackungsrecht tendiert in seiner Komplexität hin zum deutschen Steuerrecht, nur dass die entsprechende Beraterinfrastruktur noch fehlt. Deshalb wird die Einrichtung einer zentralen Stelle durch Industrie und Handel vorgesehen, um fairen Wettbewerb und konsequenten Vollzug als Registrierungs- und Standardisierungsstelle zu sichern. Wer diese Einrichtung wiederum kontrollieren soll, ist offen. Nicht dagegen die Finanzierung, die dem Verbraucher dann indirekt über die Preise auferlegt wird. Das ganze Verbürokratisierungsgesetz muss nicht durch den Bundesrat, was zumindest die Menge des Kommunikationsmülls reduziert.

Die Frage, wie künftig mit Gesetzes- und Verordnungsmüll (ganz zu schweigen vom Ideologiemüll) zu verfahren ist, bleibt offen. Verbrennung ist nur sehr eingeschränkt möglich, Kompostierung auch. Schließlich ist es die Existenzgrundlage einer vor allem sich selbst verwaltenden und wachsenden Ministerialbürokratie, die davon sehr auskömmlich lebt.

Die Italiener in Kampanien hätten gern diese Probleme . . .

 




Bemerkungen zur April-Kältewelle in Mitteleuropa

Während des vergangenen Winters lag der hemisphärische Kältepol wie auch während der Vorwinter im kanadisch-grönländischen Sektor der Arktis. Auffällig dabei war, dass die jahreszeitlich bedingte Abschwächung desselben verzögert war. Selbst derzeit werden über der nördlichen Hudson-Bay im 850-hPa-Niveau immer noch großräumig Temperaturwerte unter -25°C angetroffen. Immer wieder erfolgten daraus Kaltluftvorstöße über Nordskandinavien hinweg bis nach Russland. In Nordskandinavien dürfte es also eines der kältesten Frühjahre jemals gegeben haben, aber weil das dem Establishment nicht passt, hört man davon nichts.

Der Kältepol ist aber immerhin kleiner geworden. Und dennoch, schon zu Anfang des Monats, als noch niemand etwas Böses ahnte, hatte sich der Autor Sorgen gemacht, ob nicht ein solcher Kaltluftvorstoß direkt nach Mitteleuropa erfolgen könnte. Das ist im April natürlich völlig normal, und es war keine Frage, OB es dazu kommt, sondern WANN. Es war aber klar, dass ein solcher Kaltluftausbruch nach Mitteleuropa in diesem Jahr besonders intensiv ausfallen würde. Infolge des bis dahin recht warmen Frühjahres war die Natur viel weiter mit dem Austrieb als in anderen Jahren. Frostschäden waren also unvermeidlich. Im Garten des Autors hatte die Apfelblüte bereits eingesetzt, besondere Schäden konnte er aber nicht feststellen (Temperatur in seinem Garten am Morgen des 21. April 2017 etwa -3°C bis -4°C). Anders sah es beim Walnussbaum aus. Auch der hatte bereits ausgetrieben samt der Pollenträger, aber ausnahmslos alle grünen Spitzen hingen am nächsten Tag schwarz und schlaff herab. Das war diesmal das dritte Jahr nacheinander, dass dieser Baum abgefroren ist.

Die Wetterlage vom 20. bis 23. April 2017

Bild 1 zeigt die Wetterlage vom 23. April, 00 Uhr UTC (02 Uhr MESZ; Quelle). Der zugehörige 500-hPa-Trog (links) ist stark ausgeprägt, im 850-hPa-Niveau (rechts) zeigen sich Temperaturwerte unter -10°C. Der Trogvorstoß erfolgte direkt von Norden her über Skandinavien hinweg. Die Kaltluft konnte also den kürzestmöglichen Weg nehmen und hat sich daher auf dem Weg nach Süden kaum erwärmt. Außerdem lag in Skandinavien noch recht viel Schnee, wie Bild 2 zeigt:

Bild 2: Schneebedeckung Nordeuropa vom 23. April 2017. Quelle.

Rekordwerte – wirklich?

Kurz gesagt: Ja und nein! (Wenn es in der Wissenschaft doch nur so eindeutige „Ja“- und „Nein“-Antworten gäbe, wie es uns die Alarmisten immer vorgaukeln!). Zunächst einmal: In der mittleren Troposphäre war der Höhepunkt des Kaltluftvorstoßes am 23. April schon überschritten. Aber erst der nachfolgende Hochkeil brachte verbreitet Aufklaren und fast Windstille, so dass die Ausstrahlung erst in der Nacht zum 23. April die Temperatur in Bodennähe auf das Niveau von Rekordwerten sinken ließ (wo war eigentlich der CO2-Deckel, von dem Politik und Medien immer schwafeln?). Für einen 23. April mögen es Rekordwerte gewesen sein, aber das ist völlig unerheblich. Zu erinnern ist hier an einen von der Wetterlage her ähnlichen Kaltluftvorstoß von Norden her – aber erst um den 10. Mai – also genau pünktlich zu den Eisheiligen. Schauplatz ist das Jahr 1978, als zwei Wochen später im Frühjahr (!) ähnliche Absolutwerte der Temperatur wie dieses Jahr im April aufgetreten waren. Der Erinnerung des Autors nach war aber damals das Frühjahr ziemlich kalt ausgefallen, so dass die Natur etwa auf dem Stand dieses Jahres gewesen sein dürfte. Aber: Es geht sogar noch kälter!

Bild 3 zeigt die Wetterlage vom 11. Mai 1978, 00 Uhr UTC. Diese Karten waren jedoch nur bei Wetterzentrale.de verfügbar, daher die ganz andere Darstellung. Man erkennt aber auch hier das Muster: Ein mit hochreichend kalter arktischer Luft angefülltes Höhentief zog genau über Deutschland hinweg, also etwas weiter westlich als der diesjährige Trog. Über Berlin wurde am 11. Mai 1978 im 850-hPa-Niveau eine Temperatur von -12,3°C gemessen – und das war ein absoluter, weder davor noch danach je wieder erreichter Rekord. In der Re-Analyse erscheint der Temperaturgegensatz zwischen der Trogkaltluft und der umgebenden wärmeren Luft verwischt, so dass die -10°C-Isotherme nicht ganz bis nach Ostdeutschland reicht.

Bild 3: Wetterlage vom 11. Mai 1978. Quelle

Der beschriebene Vorgang ist natürlich Wetter – und nicht Klima. Auffällig war, dass in den medialen Wetterberichten, also am Wochenende um den 16. April, in keiner Weise auf den drohenden Frost hingewiesen worden ist. Es hieß nur, es „wird kälter“. Dem Autor ist in diesem Zusammenhang ein Blog aufgefallen, auf dem bereits eine Woche im Voraus auf diesen Kaltluftvorstoß hingewiesen worden war. Der Beitrag zeichnete sich wie alle Beiträge auf diesem Blog durch eine eindrucksvolle Zusammenstellung aller relevanten Karten und Graphiken aus. Der Beitrag steht hier. (Der Autor empfiehlt, immer mal wieder auf dem Blog vorbeizuschauen (https://wobleibtdieglobaleerwaermung.wordpress.com/).

Fazit: Es war sicher sehr kalt, aber es war sicher keine Rekordkälte. Und genauso normal oder anomal wie die Hitze im Jahre 1968 (!), als um diese Zeit im April bereits Heiße Tage mit Maxima über 30°C aufgetreten waren.

Im Übrigen: Eigentlich hätte doch die Klimaille in Politik und Medien laut jubeln müssen über die Kälte! Schließlich soll doch die Wärme die große Katastrophe sein…

Aktualisierung vom 27.4.2017:

Dem beschriebenen Kaltluftvorstoß von Norden her über Skandinavien hinweg folgte gleich noch ein zweiter, diesmal aber mehr aus Nordwest über die Nordsee hinweg. Infolge des maritimen Einflusses war es nicht ganz so kalt, aber für Nachtfrost in klaren Nächten in Norddeutschland hat es wieder gereicht.

Anders war die Lage diesmal in Süddeutschland. Dieser neue Kaltluftausbruch stieß auf schon recht warme Luft über Südosteuropa. Diese Wetterlage führt oft zur Entwicklung der so genannten Vb-Tiefs (hier steht eine gute Erklärung, was das ist), was im Frühjahr durchaus vorkommt. In diesem Falle kam zwar die Kaltluft, wie gesagt, über die Nordsee, doch war deren Ursprungsgebiet der gleiche extrem kalte Kaltluftkörper über Nordeuropa.

Die entsprechende Wetterlage zeigt Bild 4. Es bildete sich eine sehr markante, von Südwest nach Nordost verlaufende Luftmassengrenze, wobei dynamische Hebungsantriebe in Süddeutschland für lang anhaltende Aufgleitprozesse sorgten, d. h. die warme Mittelmeerluft glitt auf die Kaltluft auf. Ein eigenständiges Tiefdruckgebiet löste sich jedoch diesmal nicht ab, so dass der Prozess mehrere Tage lang über Süddeutschland stationär verharrte. Dabei sank die Schneefallgrenze schließlich unter 500 m, was bei dem schon recht weit fortgeschrittenen Pflanzenaustrieb zu erheblichem Schneebruch führte.

Wie die numerischen Rechnungen zeigen (Stand: 29.4.2017) ziehen die nächsten Wettersysteme von Westen und Südwesten heran. Nach kurzer Pause dürfte sich also das niederschlagsreiche Wetter fortsetzen, wenngleich jedoch auf einem deutlich höheren Temperaturniveau. Auch im westlichen Deutschland, das im Frühjahr von den ganzen Niederschlagsvorgängen außen vor gelassen wurde, dürfte es dann ergiebiger regnen.

Zum Schluss noch zwei Bilder aus dem Garten des Autors am Morgen des 28. April 2017. Es sah dort recht marode aus, aber weder der Frost noch der nachfolgende Schnee richteten Schäden an. Der blühende Apfelbaum auf dem Bild links hat den ganzen Vorgang ohne erkennbare Schäden überstanden.

Schlussbemerkung: Wie unter dem o. g. Link erläutert, ist dieser Typ Wetterlage häufig mit erheblichen Niederschlagsmengen verbunden. Im Garten des Autors waren es während der drei Tage fast 70 Liter pro Quadratmeter, was aber eher am unteren Ende der aufgetretenen Mengen liegen dürfte. Der Schneebruch ist zwar ein Ärgernis, aber hätte die Schneefallgrenze deutlich höher gelegen, hätte es mit Sicherheit trotz der durch das bislang trockene Frühjahr niedrigen Wasserstände zu erheblichem Hochwasser mit einer deutlich höheren Schadensbilanz geführt.

Dipl.-Met. Hans-Dieter Schmidt




CO2 neutral in die Zukunft der Armut zurück segeln

Doch wenn es der Klimarettung dient, gelten solche Betrachtungen nicht. Wie inzwischen in der Politik, wird auch dort jeder neue Messias zuerst einmal frenetisch bejubelt, wie es der Redakteur schon fast wie bei einer Stelle im Neuen Testament beschrieb:
WESERKURIER: [3] … Lauter Jubel brandet drauf. Die Menschen stehen am Ufer des Europahafens und applaudieren, rufen, jauchzen. Der Ökofrachtsegler „Avontuur“ fährt in den Hafen der Bremer Überseestadt ein.

Der Durchbruch im Ökotransport: Frachtsegler

Was war dazu der Anlass? Ein Durchbruch in der Ökogeschichte! Der leibhaftige Beleg, dass ein Frachtsegler (wieder) von Mittelamerika bis nach Bremen segeln kann, und das erstmals in der jüngeren Weltgeschichte wieder mit Bioware.
WESERKURIER: [3] … „Wir haben doch gerade bewiesen, dass es möglich ist, eine Fracht klimafreundlich über weite Seestrecken zu transportieren“… Mit dem Segelschiff „Avontuur“ erreichte nach Angaben der Verantwortlichen des Projekts Timbercoast erstmals ein Segelschiff mit Biokaffee die Stadt,
… diesmal sogar erweitert um den über lange Zeit verschmähten und nur noch aus sehr alten Filmen und fernen Ländern bekannten, ökogerechten „human power“-Weitertransport an Land:
WESERKURIER: [3] … Kurz vor 14 Uhr wurde dann auch der erste 69 Kilogramm schwere Kaffeesack der Bremer Marke Slokoffie mit einem Seilnetz an Land gehoben. In Kooperation mit dem Fahrrad-App-Anbieter „Bremen Bike it!“ wurden die Kaffeebohnen entladen und in die Rösterei Vollers am Speicherhof gebracht. Zahlreiche Freiwillige transportierten mit antiken Sackkarren aus dem Hafenmuseum und Lastenrädern die Säcke ins Lager. Muskelkraft statt Maschinen und Motoren …

Warum man die Möglichkeiten der über Jahrhunderte erfolgreich durchgeführten Segelschifffahrt neu mit einem uralten Frachtsegler beweisen muss, wird sich nicht jedem erschließen. Beim Klimawandel und der Ökofortbewegung scheint man aber zu viel an altbekannter Erfahrung verloren zu haben, weshalb auf diesem Gebiet so ziemlich alles neu erforscht und mit viel Aufwand ausprobiert werden muss. Gut, der anschließende Landtransport mit Lastenrädern gilt inzwischen auch amtlich als super-modern und dass antike Sackkarren mit dem Slogan „Muskelkraft statt Maschinen und Motoren“ unterstützen, kann ein Vorgriff auf eine noch kommende „Öko-Erneuerer Bewegung“ sein. Nicht unwahrscheinlich, dass Frau Hendricks diese neue Öko-Transport-Idee für den wirklich ganz CO2-freien Transport zum Klimaschutz als förderwürdig aufnimmt, zuerst ganz genau mit vielen Studien erforschen lässt um ihn dann flächendeckend zu sponsern.

Man mag zu dieser klimarettenden Tat stehen wie man will, doch ob es das ist, was sich der deutsche Bürger als Zukunft vorstellt, soll anhand einer kapitalistischen Betrachtung ergründet werden.

Hinweis: Eine solche Betrachtung wurde bereits im Artikel:
EIKE 25.04.2017: [6] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr,
durchgeführt. Anhand dieser soll nur wieder ergänzend gezeigt werden, welcher offensichtliche Kostenirrsinn in den Klimaaktivitäten hinterlegt ist und diese sich vom Bau von Kirchtürmen zur Hagelabwehr in keiner Weise unterscheidet.

Kostenschätzung der halben Reise mit Lastentransport

Der Frachtsegler war mit 15 Personen Besatzung 8 Monate unterwegs. Auf der Rückfahrt hat er von Honduras 20 Tonnen Bio-Kaffeebohnen und 2 Fässer Rum sowie weitere mit Gin nach Kiel transportiert.
Für die Abschätzung wird weggelassen, dass alleine das Herrichten des Frachtseglers durch 160 Freiwillige 1,6 Millionen EUR gekostet hat [5], also nicht wenig Verzinsung bindet. Auch der wegweisende, CO2-freie Weitertransport in Kiel durch Muskelkraft vieler Freiwilliger mit antiken Sackkarren wird kostenmäßig nicht berücksichtigt. Sehr wohlwollend werden auch die erheblichen Aufwendungen für die Hinfahrt nach Honduras weggelassen, denn man hätte da auch schon Fracht transportieren können.

Doch auch ohne dies ist das Ergebnis ökonomisch ein Desaster und zeigt überdeutlich, warum diese Art der Frachtsegelei schon vor längerer Zeit sofort aufgegeben wurde, als Alternativen aufkamen.

Für die Rücksegeltour bleiben an Aufwendungen:
-Gesamtreise: 15 Personen, Reisedauer 8 Monate = 120 MM
-Rückreisedauer der Lastsegel-Fahrt: 60 MM, zzgl. anteiligem Jahresurlaub von 4 Wochen, ohne Krankheitszeiten
-Mindestlohn: 8,84 EUR/h
Netto-Lohnkosten der Rückreise-Lastsegel-Fahrt: 60 MM x 30 Tage x 10 h x 8,84 EUR/h = 159.120 EUR

Lässt man den Schnaps als Beiladung beiseite, dann ergeben alleine die gesetzlichen Mindestlohnkosten für jedes Kilo Kaffee einen Betrag von 8,9 EUR / kg. Man darf also von wahren Frachtkosten im Bereich erheblich über 10 EUR / kg, weit realistischer jedoch von erheblich über 20 EUR / kg Kaffee ausgehen.

Der CO2-Nutzen

Spaßeshalber ist anbei der CO2- Ausstoß der Transportfahrt mit einem Tanker gelistet:

Bild: CO2-Ausstoß einer Frachtfahrt von Honduras nach Bremen. Quelle: ARKTIK CO2-Logistikrechner

Man betrachte die Genauigkeit der CO2-Berechnung auf fünf Stellen und Cent. Es ist eine besondere Eigenschaft der Klimawandel-Forscher, dass ihre Ergebnisse extrem genau sind (da Computer ohne extra Einstellung nicht runden und in dieser Zunft eine unübertroffene Computergläubigkeit herrscht), obwohl beispielsweise der CO2-Forcingwert aktuell eine gelistete Spanne zwischen 0,15 und 6 Grad pro CO2-Verdopplung ausweist und in inzwischen bei unter, oder bis zu ca. 1 °C vermutet wird (Anm.: „offiziell“ gilt der Sensitivitätswert aufgrund alter IPCC-Berichte von 3°C) .

Bild: Spanne der CO2-Sensitivität nach aktuellen Studien. Quelle: [7]

Es wird auf 4 t CO2 aufgerundet und mit dem viel zu hohen IPCC-Forcingwert von 3°C gerechnet. Damit berechnet sich der „Klimawandel-Einfluss“:

4 Tonnen CO2 entsprechen 0,51 x 10-9 ppm Atmosphärenbestandteile.
Auf 1 Millionen Luft-Moleküle mit anteilig 400 CO2-Molekülen wären durch einen kraftstoffgebundenen Seetransport also 0,0000005 Stück CO2-Moleküle dazu gekommen.
Der „Klimanutzen“ der alternativ durchgeführten Segelfracht beträgt rein rechnerisch:
5,5 x 10-12 °C, ausgetippt: 0,000000000005 °C (mit dem wahrscheinlichen Forcingwert davon etwa 1/3).
Und somit zeigt sich wieder, was im Artikel zur Berliner Stadtreinigung [6] bereits ausgeführt wurde: Beim Klimawandel gibt es keine Logik mehr, sondern Nachplappern und blanke Hysterie, verbunden mit einer tiefen Ökogläubigkeit:
WESERKURIER: [3] … Der Kaffeetransport mit der „Avontuur“ produziere übrigens mindestens 90 Prozent weniger Kohlenstoffdioxid gegenüber den herkömmlichen Lieferwegen per Flugzeug oder Containerschiff

Wirklich niemand hat etwas davon, außer ein paar Aktivisten ein ruhigeres Gewissen

Alleine damit ist wieder der Unsinn dieser Art Ökoidealismus belegt. Niemand hat davon wirklich etwas. Weder die Bauern in Honduras, denen schon ein geringer Teil der horrenden Frachtkosten weit mehr helfen würde, noch die vielen Transportmitarbeiter (sofern sie und ihre Familien sich davon ernähren müssten und es nicht nur als „Öko-Lustfahrt“ betrachten). Das Klima schon gar nicht und dem Eigner kann man sowieso die baldige Pleite vorhersagen, sofern sich dafür nicht schnell zusätzliche Sponsoren finden.

Doch wenn es der Klimarettung dient, gelten solche Betrachtungen nicht. Dafür ist Armut eine Verheißung [4], welche von Medien und (vielleicht) auch Bürgern inzwischen – noch mangels Erkenntnis – begrüßt wird.
WESERKURIER: [3] … die neben Abenteuern den nachhaltigen Handel auf See erlernen. Sie verbinde die Begeisterung für das Projekt des emissionsfreien Seetransports und vor allem die Nachhaltigkeit. Die See hat die Besatzungsmitglieder gezeichnet: Sie sind braun gebrannt, die Haare durch die Seeluft wuschelig und das Salzwasser heller geworden, mehrere Männer tragen Vollbart.
Leider beschreibt und erklärt dies viel (über den Zeitungsredakteur), aber bestimmt nicht das wahre Frachtsegelleben. Wer dieses wirklich erfahren möchte, sollte in alten Biografien nachlesen, was für eine schlimme Zeit es für die einfachen Matrosen war, vergleichbar den früher am Existenzminimum lebenden Knechten (und Mägden) bei den Bauern.

Dank an ScienceScepticalBlog für den Hinweis: [1] Avontuur: Die Zukunft der Frachtschifffahrt?

Quellen

[1] Science ScepticalBlog: Avontuur: Die Zukunft der Frachtschifffahrt?

[2] FOCUS ONLINE: Kaffee, Gin und Rum: Ökosegler „Avontuur“ wieder in Bremen

[3] WESERKURIER: Ökosegler „Avontuur“ legt am Europahafen an

[4] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

[5] NDR.DE: Ahoi: Öko-Frachtsegler „Avontuur“ sticht in See

[6] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[7] Climate Etc: Climate models versus climate reality




Sind die behaup­teten globalen Rekord-Tempera­turen haltbar?

Ich möchte den geneigten Leser auf das folgende Zitat von Taylor (1982) aufmerksam machen:

Der wichtigste Punkt hinsichtlich der Messungen unserer beiden Experten ist: Wie bei den meisten wissenschaftlichen Messreihen wären beide wertlos gewesen, falls sie nicht zuverlässige Aussagen bzgl. ihrer Unsicherheiten enthalten“.

Bevor ich fortfahre ist es wichtig, dass der Leser den Unterschied zwischen Genauigkeit und Präzision versteht. Genauigkeit sagt, wie nahe eine Messung (oder eine Reihe wiederholter Messungen) am tatsächlichen Wert liegt, und Präzision ist die Auflösung, mit der die Messung angegeben werden kann. Eine weitere Möglichkeit zum Verständnis bietet die folgende Graphik:

Die Abbildung impliziert, dass Reproduzierbarkeit oder verringerte Varianz Teil von Präzision ist. Das ist so, aber noch wichtiger ist die Fähigkeit, mit größerer Sicherheit aufzuzeichnen, wo eine Messung im Kontinuum einer Messskala lokalisiert ist. Geringe Genauigkeit ist die Folge systematischer Fehler. Sehr geringe Präzision jedoch, welche sich aus Zufallsfehlern oder ungeeigneter Instrumentierung ergibt, kann dazu beitragen, dass individuelle Messungen geringe Genauigkeit haben.

Genauigkeit

Um die folgende Diskussion nicht zu sehr ausufern zu lassen, werde ich Dinge wie Fehler bei den Örtlichkeiten bei der Aufstellung von Wetterstationen ignorieren, welche potentiell repräsentative Temperaturen korrumpieren und einen Bias einbringen können. Hier kann man sich einen Überblick über diese Probleme verschaffen. Ebenso werde ich die Art und Weise der Datengewinnung ignorieren, welche ein wesentlicher Kritikpunkt bei historischen pH-Messungen war, doch gilt dieses Problem nicht weniger stark auch für Messungen der Temperatur. Grundsätzlich sind Temperaturen räumlich verzerrt mit einer Überrepräsentanz industrialisierter, städtischer Gebiete in den Mittleren Breiten. Und doch werden diese Werte als für den ganzen Globus repräsentativ angegeben.

Es gibt zwei wesentliche Aspekte hinsichtlich der Vertrauenswürdigkeit gegenwärtiger und historischer Temperaturdaten. Ein Aspekt ist die Genauigkeit der aufgezeichneten Temperaturen über die nutzbare Bandbreite der Temperatur, wie sie in Tabelle 4.1 im folgenden Link beschrieben wird:

http://www.nws.noaa.gov/directives/sym/pd01013002curr.pdf

Im Abschnitt 4.1.3 im o. g. Link liest man:

4.1.3 Allgemeine Instrumente. Der WMO zufolge sind gewöhnliche Thermometer in der Lage, mit hoher Genauigkeit Temperaturen in der Bandbreite zwischen -29°C und 46°C zu messen, wobei der maximale Fehler kleiner ist als 0,2°C…

Im Allgemeinen wird von modernen Temperatur-Messgeräten eine Genauigkeit von ±0,56°C bei der Referenztemperatur verlangt sowie ein Fehler, der kleiner ist als ±1,1°C über den Messbereich. Tabelle 4.2 verlangt, dass die Auflösung (Präzision) 0,06°C beträgt mit einer Genauigkeit von 0,2°C.

In den USA gibt es eines der besten Wetterüberwachungssysteme der Welt. Allerdings sollten Genauigkeit und Präzision in dem Zusammenhang betrachtet werden, wie globale Mittelwerte und historische Temperaturen aus den Aufzeichnungen berechnet werden, im besonderen aus jenen mit geringerer Genauigkeit und Präzision. Es ist extrem schwierig, die Genauigkeit historischer Temperaturaufzeichnungen abzuschätzen, sind doch die Original-Instrumente kaum noch für eine Kalibrierung verfügbar.

Präzision

Der zweite Aspekt ist die Präzision, mit der die Temperaturen aufgezeichnet werden, sowie die sich daraus ergebende Anzahl signifikanter Ergebnisse, wenn die Berechnungen durchgeführt werden wie etwa das Ableiten von Mittelwerten und Anomalien. Dies ist der wichtigste Teil dieser Kritik.

Falls eine Temperatur mit dem nächsten Zehntel eines Grades aufgezeichnet wird, lautet die Konvention, dass deren Wert gerundet oder geschätzt wird. Das heißt, eine Temperaturmessung mit einem Wett von 98,6°F kann zwischen 98,55°F und 98,64°F liegen.

Die allgemeine Faustregel für Addition/Subtraktion lautet, dass rechts vom Komma nicht mehr signifikante Zahlen in der Summe auftauchen als die Anzahl signifikanter Angaben in der am wenigsten präzisen Messung. Bei Multiplikation/Division lautet die allgemeine Faustregel, dass höchstens eine zusätzliche signifikante Zahl im Ergebnis auftaucht im Vergleich mit dem Multiplikanden, welche die am wenigsten signifikanten Angaben enthält. Allerdings folgt man gewöhnlich der Regel, nur so viele signifikante Zahlen zu erhalten wie der am wenigsten präzise Multiplikand enthält. (Eine ausführliche Erklärung all dieser Regeln steht hier).

Anders als in einem Fall mit ganzen Zahlen lässt eine Reduktion der Anzahl signifikanter Angaben bereits um nur eine Messung in einer Reihe die Unsicherheit im Mittel zunehmen. Intuitiv könnte man vermuten, dass die Herabsetzung der Präzision einer oder mehrerer Messungen in einem Datensatz auch die Präzision der Ergebnisse mathematischer Berechnungen reduzieren sollte. Man nehme zum Beispiel an, dass jemand das arithmetische Mittel der Zahlen 50; 40,0 und 30,0 berechnen will, wobei die nach dem Komma stehenden Nullen die letzte signifikante Angabe sind. Die Summe der drei Zahlen beträgt 120 mit drei signifikanten Angaben. Dividiert man durch die ganze Zahl 3 (exakt) erhält man 40,0 mit einer Unsicherheit bei der nachfolgenden Stelle von ± 0,05.

Wie ist das nun aber, wenn wir die implizite Unsicherheit aller Messungen berücksichtigen? Man beachte zum Beispiel, dass im zuvor untersuchten Satz alle Messungen eine implizite Unsicherheit enthalten. Die Summe von 50 ±0,5; 40,0 ±0,05 und 30 ±0,05 beträgt 120,0 ±0,6. Zwar ist das nicht gerade sehr wahrscheinlich, doch könnte es sein, dass alle diese Fehler das gleiche Vorzeichen haben. Das bedeutet, dass der Mittelwert so klein sein kann wie 39,80 oder so groß wie 40,20. Das heißt, dass die Zahl 40,00 ±0,20 abgerundet werden sollte auf 40,0 ±0,2. Vergleicht man diese Ergebnisse mit den zuvor erhaltenen, kann man erkennen, dass es eine Zunahme der Unsicherheit gibt. Die potentielle Differenz zwischen den Grenzen des mittleren Wertes können zunehmen, wenn mehr Daten gemittelt werden.

Es ist vor allem unter Begutachtern [surveyors] allgemein bekannt, dass die Präzision multipler, gemittelter Messwerte invers variiert mit der Quadratwurzel der Anzahl der verwendeten Messungen. Mittelung neigt dazu, den Zufallsfehler bei der Rundung zu entfernen, wenn man einen festen Wert misst. Allerdings sind die Schwächen hier, dass alle Messungen mit dem gleichen Gerät durchgeführt werden müssen, mit dem gleichen festen Parameter wie etwa einer Winkeländerung mit einem Durchgang [an angle turned with a transit]. Außerdem warnt Smirnoff (1961): „bei einer niedrigen Größenordnung der Präzision wird aus wiederholten Messungen keine Zunahme der Genauigkeit folgen“. Dies führt er noch weiter aus mit der Bemerkung: „Implizit ist hier, dass es ein Limit gibt, wie viel der Präzision überhaupt zunehmen kann, während die Definition des Standardfehlers des Mittels die Standardabweichung der Mitglieder ist dividiert durch die Quadratwurzel der Anzahl der Mitglieder. Dieser Prozess kann nicht unendlich oft wiederholt werden, um irgendeine gewünschte Präzision zu erhalten!“

Während mittels einer Vielzahl von Beobachtern ein systematischer Bias dieser Beobachter eliminiert werden kann, sind die anderen Erfordernisse weniger vernachlässigbar. Unterschiedliche Geräte werden unterschiedliche Genauigkeiten aufweisen und können die gemittelten Werte ungenauer machen.

Genauso sagt die Messung unterschiedlicher Betrachtungswinkel einem nichts über Genauigkeit und Präzision eines bestimmten interessierenden Betrachtungswinkels. Folglich sagt einem die Messung multipler Temperaturen über eine Reihe von Stunden oder Tagen nichts über die Unsicherheit der Temperaturwerte an einer gegebenen Stelle zu einer bestimmten Zeit, und es kann auch nichts zur Eliminierung von Rundungsfehlern beitragen. Allerdings sind Temperaturen kurzlebig, und man kann die Temperatur irgendwann später nicht noch einmal messen. Grundsätzlich hat man nur eine Gelegenheit, die präzise Temperatur an einer Stelle zu einer bestimmten Zeit zu bestimmen.

Das Automated Surface Observing System (ASOS) der NOAA verfolgt einen unkonventionellen Weg der Behandlung umgebender Temperaturdaten. Im User’s Guide heißt es in Abschnitt 3.1.2:

Einmal pro Minute berechnet die ACU das 5-minütige Mittel der Umgebungstemperatur und des Taupunktes aus den 1-Minute-Beobachtungen … Diese 5-Minuten-Mittel werden zum nächstgelegenen Grad Fahrenheit gerundet, zum nächsten 0,1 Grad Celsius konvertiert und einmal pro Minute ausgegeben als das 5-Minuten-Mittel der umgebenden Temperatur und des Taupunktes…“.

Dieses automatisierte Verfahren wird mit Temperatursensoren durchgeführt, welche geeicht sind auf einen RMS-Fehler von 0,5°C, einen Maximum-Fehler von ±1,0°C und einer Auflösung von 0,06°C in den wahrscheinlichsten Temperatur-Bandbreiten, die in den kontinentalen USA angetroffen werden. Die Angabe der gerundeten Temperatur in Grad Celsius, wie oben aus dem Zitat hervorgehend, impliziert eine Präzision von 0,1°C, obwohl nur 0,6 ±0,3°C gerechtfertigt sind. Damit wird eine Präzision impliziert, die 3 bis 9 mal größer ist als sie ist. In jedem Falle ist selbst bei der Verwendung modernster Instrumente die Angabe von zwei oder mehr signifikanter Ziffern rechts vom Komma bei Anomalien der verfügbaren Temperaturdaten nicht garantiert!

Konsequenzen

Diese Dinge werden besonders wichtig, wenn die Temperaturdaten aus unterschiedlichen Quellen stammen, wobei unterschiedliche Instrumente mit variierender Genauigkeit und Präzision verwendet werden, um alle verfügbaren globalen Temperaturen zusammenzubringen und zu konsolidieren. Auch werden sie wichtig beim Vergleich historischer mit modernen Daten und besonders bei der Berechnung von Anomalien. Ein bedeutendes Problem mit historischen Daten ist, dass Temperaturen typischerweise nur in ganzen Zahlen gemessen wurden (wie es bei modernen ASOS-Temperaturen der Fall ist!). Folglich weisen die historischen Daten geringe Präzision (und unbekannte Genauigkeit) auf, und die oben genannte Regel für die Subtraktion kommt ins Spiel, wenn man berechnet, was gemeinhin Temperaturanomalie genannt wird. Das heißt, die Daten werden gemittelt, um eine so genannte Temperatur-Grundlinie [einen Temperatur-Referenzwert] zu berechnen, typischerweise für einen Zeitraum von 30 Jahren. Dieser Referenzwert wird von den aktuellen Daten subtrahiert, um eine Anomalie zu definieren. Ein Weg zur Umgehung dieser Subtraktion ist es, das beste verfügbare historische Mittel zu berechnen und danach so zu definieren, als wären genauso viele signifikante Angaben eingegangen wie in moderne Daten. Dann ist es nicht erforderlich, moderne Daten zu beschneiden und zu runden. Man kann dann legitimerweise sagen, wie sich die derzeitigen Anomalien darstellen hinsichtlich des definierten Referenzwertes, obwohl nicht offensichtlich ist, ob die Differenz statistisch signifikant ist. Unglücklicherweise macht man sich nur etwas vor, wenn man glaubt, dass diese Anomalien irgendetwas darüber aussagen können wie aktuelle Temperaturdaten im Vergleich zu historischen Temperaturdaten dastehen, wenn die Variationen nur rechts des Kommas zu finden sind!

Bezeichnend für das Problem ist, dass die von der NASA veröffentlichten Daten bei Anomalien am Ende des 19. Jahrhunderts und aktuelle Anomalien die gleiche implizite Präzision aufweisen (±0,005°C). Der Charakter der Datentabelle mit der Eingabe von 1 bis 3 Ziffern ohne Komma zeigt, dass die Aufmerksamkeit für signifikante Angaben wenig Berücksichtigung gefunden hat. Sogar noch ungeheuerlicher ist die Repräsentation einer Präzision von ±0,0005°C für Anomalien in einem Wikipedia-Beitrag, in welchem die NASA als Quelle angegeben wird.

Idealerweise sollte man eine kontinuierliche Aufzeichnung von Temperaturen über einen Zeitraum von 24 Stunden haben und die Fläche unter dem Temperatur-Zeit-Graphen integrieren, um eine wahre mittlere tägliche Temperatur zu erhalten. Allerdings ist diese Art einer Temperaturreihe nur selten, was besonders für ältere Daten gilt. Folglich müssen wir mit den Daten, die wir haben, alles in unserer Macht Stehende tun, was oftmals eine Bandbreite von Tag zu Tag ist. Zieht man die tägliche Höchst- bzw. Tiefsttemperatur heran und mittelt diese separat, gibt dies einen Einblick, wie sich Temperaturen an einer Station mit der Zeit ändern. Beweise zeigen, dass die Höchst- und Tiefsttemperaturen sich während der letzten 100 Jahre nicht in gleicher Weise geändert haben – bis vor Kurzem, als die Tiefsttemperaturen rascher gestiegen sind als die Höchsttemperaturen. Das bedeutet, sogar auch für langfristig gut betreute Wetterstationen, dass wir kein wahres Mittel der Temperatur mit der Zeit haben. Im besten Falle haben wir einen Mittelwert der täglichen Höchst- und Tiefsttemperaturen. Diese zu mitteln erzeugt ein Artefakt, bei welchem Informationen verloren gehen.

Wenn man ein Mittel berechnet zum Zwecke einer wissenschaftlichen Analyse wird diese konventionell mit einer Standardabweichung gezeigt, also einer Maßzahl der Variabilität der individuellen Einzelwerte innerhalb der Stichprobe. Ich habe bis heute noch keine einzige veröffentlichte Standardabweichung gesehen im Zusammenhang mit jährlichen globalen Temperatur-Mittelwerten. Wendet man jedoch das Theorem von Tchebysheff und die Empirische Regel (Mendenhall 1975) an, können wir mit einer konservativen Schätzung der Standardabweichung für globale Mittelwerte aufwarten. Das heißt, die Bandbreite der globalen Temperaturen sollte angenähert vier mal die Standardabweichung sein (Range ≈ ±4s). Bedenkt man jetzt, dass sommerliche Temperaturen in der Wüste etwa 130°F [ca. 54°C] und winterliche Temperaturen in der Antarktis -120°F [ca. -84°C] erreichen können, ergibt sich eine jährliche Bandbreite der Temperatur auf der Erde von mindestens 250°F [ca. 140 K] und damit eine geschätzte Standardabweichung von etwa 31°F [ca. 17 K]! Weil es in Wüsten und den Polargebieten kaum Messungen gibt, ist es wahrscheinlich, dass die Bandbreite (und damit die Standardabweichung) größer ist als meinen Vermutungen zufolge. Man sollte intuitiv den Verdacht haben, dass die Standardabweichung für das Mittel hoch ist, liegen doch nur wenige der globalen Messungen nahe dem Mittelwert! Und trotzdem werden globale Anomalien allgemein mit signifikanten Angaben rechts vom Komma präsentiert! Die Mittelung der jährlichen Höchsttemperaturen separat von den jährlichen Tiefstwerten würde die geschätzte Standardabweichung deutlich reduzieren, aber es würde immer noch nicht die Präzision rechtfertigen, von der allgemein die Rede ist. Diese geschätzte Standardabweichung sagt uns möglicherweise mehr über die Häufigkeitsverteilung von Temperaturen als die Präzision, die bzgl. des Mittels bekannt ist. Sie sagt, dass möglicherweise etwas mehr als zwei Drittel der aufgezeichneten Temperaturen zwischen -26°F und +36°F liegen [ca. zwischen -32°C und +2°C]. Weil der Zentralwert [median] dieser Bandbreite 5,0°F[*] beträgt und die allgemein akzeptierte mittlere globale Temperatur bei etwa 59°F [ca. 15°C], zeigt dies, dass es noch einen langen Schwanz bei dieser Verteilung gibt, was die Schätzung des Zentralwertes hin zu einer niedrigeren Temperatur verzerrt.

[*Die Umrechnung der absoluten Fahrenheit-Temperaturen in Grad Celsius ist einfach, aber der angegebene Zentralwert von 5°F lässt sich nicht umrechnen. Nehme ich den Zentralwert der Celsius-Angaben, komme ich auf einen Wert bei 15 K. Wahrscheinlich unterläuft mir hier ein logischer Denkfehler, aber ich bekenne, dass ich ihn nicht finden kann. Anm. d. Übers.]

Summary

Zusammengefasst lässt sich sagen, dass es zahlreiche Arten der Datenbehandlung gibt, welche Klimatologen allgemein ignorieren. Sie kompromittieren ernsthaft die Wahrhaftigkeit der Behauptungen über rekordhohe Mitteltemperaturen und reflektieren eine ärmliche [poor] Wissenschaft. Die statistische Signifikanz von Temperaturunterschieden 2 oder sogar 3 Stellen nach dem Komma ist höchst fragwürdig. Die Anwendung des Verfahrens der Berechnung des Standardfehlers des Mittelwertes, um dessen Präzision zu verbessern, wird nicht gerechtfertigt durch das Entfernen von Zufallsfehlern, weil es keinen festgelegten einzelnen Wert gibt, um den sich die Zufallsfehler verteilen. Das globale Mittel ist ein hypothetisches Konstrukt, welches in der Natur nicht existiert. Stattdessen ändern sich Temperaturen; sie erzeugen variable Fehler systematischer Art. Echte Wissenschaftler sind besorgt hinsichtlich der Größenordnung und des Ursprungs der unvermeidlichen Fehler in ihrem Messungen.

References

Mendenhall, William, (1975), Introduction to probability and statistics, 4th ed.; Duxbury Press, North Scituate, MA, p. 41

Smirnoff, Michael V., (1961), Measurements for engineering and other surveys; Prentice Hall, Englewood Cliffs, NJ, p.181

Taylor, John R., (1982), An introduction to error analysis – the study of uncertainties in physical measurements; University Science Books, Mill Valley, CA, p.6

Link: https://wattsupwiththat.com/2017/04/12/are-claimed-global-record-temperatures-valid/

Übersetzt von Chris Frey EIKE

Anmerkung: Der Autor hat zu diesem Grundlagen-Artikel einen Folgebeitrag geschrieben, in welchem er diese Erkenntnisse auf die gegenwärtige Mainstream-„Klimaforschung“ überträgt. Dieser befindet sich in der Übersetzung und wird in einigen Tagen ebenfalls hier gepostet. – C. F.




Beeinflussungs­grad der deutschen Jahresmittel­temperatur durch städtische Wärme­inseln erstmals flächen­deckend quanti­fiziert

Dazu müssen wir zunächst klären, ob die offiziellen DWD-Kurven bereits hinsichtlich des UHI korrigiert sind. Vor gut zwei Jahren fragten wir diesbezüglich beim DWD konkret nach und erhielten eine klare Antwort:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen

[DWD-Diplom-Meteorologin]

Eine UHI-Korrektur hat also seitens des DWD noch nicht stattgefunden. Es stellt sich also die Frage, ob es überhaupt irgendetwas zu korrigieren gibt. Existieren im Netz des DWD  Stationen, die in UHI-relevanten Bereichen liegen? Oder sind alle Stationen so sorgfältig platziert, dass sie abseits der städtischen Wärmebeeinflussung liegen? Auch diese Frage beantwortete uns der DWD damals bereitwillig:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe http://nbn-resolving.de/urn:nbn:de:101:1-201106095249 ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Der DWD erklärte also, dass die allermeisten Stationen in ländlichen und UHI-unbedenklichen Gegenden liegen würden. Zudem gäbe es keinen Unterschied in der Erwärmungsrate zwischen Stadt und Land. An dieser Stelle der Diskussion ließen wir es Anfang 2015 bewenden. Hier fehlten ganz klar Daten und ein konkreter Ansatz, um die Frage wissenschaftlich zufriedenstellend zu klären. Am 15. April 2017 kam dann plötzlich Bewegung in die Thematik. Im Fachblatt “Science of The Total Environment” erschien an jenem Tag eine Studie von Susanne Benz, Peter Bayer und Philipp Blum vom Karlsruher Institut für Technologie (KIT) und der Technischen Hochschule Ingolstadt. Eine thematische Punktlandung: Wieviel städtischer Wärmeinseleffekt steckt eigentlich in den offiziellen Deutschland-Temperaturen des Deutschen Wetterdienstes? Die Forschergruppe fahndete nach Wärmeinseleffekten in der Luft, am Boden und im Untergrund. Eine wichtige Studie, leider ohne Pressemitteilung des KIT. In den Highlights der Publikation heißt es:

  • Anthropogenic temperature anomalies are quantified in Germany.
  • Temperatures in air, surface and groundwater correlate with nighttime lights.
  • Groundwater temperature anomalies are most extreme.
  • Heat anomalies in air and groundwater are mainly caused by artificial surfaces.
  • Surface urban heat islands are observed in settlements with only 5000 inhabitants.

Kurz übersetzt: Anthropogene Anomalien in Deutschland quantifiziert. Die Temperaturen in der Luft, am Boden und im Grundwasser korrelieren mit dem Grad der nächtlichen Beleuchtung. Besonders starke Anomalien wurden im Grundwasser gefunden. Anomalien in der Luft und im Grundwasser werden vorwiegend durch künstliche Oberflächen (wie z.B. Asphaltflächen) verursacht. Städtische Wärmeinseleffekte wurden sogar in kleinen Orten mit bis zu 5000 Einwohnern gefunden.

Höchst spannend. Das wollten wir genauer wissen. Die Kalte-Sonne-Redaktion besorgte sich also die Publikation und studierte sie, in ganzer Länge. Eine wirklich gut lesbare Abhandlung, wenn man denn mit der englischen Wissenschaftssprache zurechtkommt. Der Aufbau der Arbeit ist gut strukturiert, Quellen werden klar genannt, die Argumentation ist logisch überzeugend. Chapeau!

Insgesamt wertete die Gruppe 464 vom DWD gelistete Stationen aus, die Deutschland flächig abdecken und deren Daten hier vorgehalten werden (siehe auch Karte in Abb. 1a der Publikation). In der Arbeit werden die Landstationen  “Surface air temperature” (SAT) genannt, da sie die Temperatur 2 m über Grund messen. Außerdem werteten die Autoren Satellitentemperaturdaten der NASA für Deutschland aus, die im Paper als “Land surface temperature” (LST) bezeichnet werden. Die Daten entsprechen den level-5 MODIS daily products MOD11A1 and MYD11A1 der NASA-Satelliten TERRA und AQUA und wurden in einer Auflösung von 1 x 1 km bearbeitet. Auch diese Daten sind im Internet offenbar frei verfübar (hier). Susanne Benz und ihr Team fanden dabei, dass die DWD-Daten (SAT) im Mittel 0,26°C kälter als die NASA-Satellitendaten (LST) sind. Was zwei Meter Höhe doch so ausmachen… Außerdem untersuchten die Autoren Grundwassertemperaturen in Baden Württemberg. Auch spannend, soll aber heute nicht unser Thema sein, daher lassen wir diesen Aspekt im Folgenden aus.

Die Gruppe besorgte sich aus den genannten Quellen die jeweiligen Jahresdurchschnittstemperaturen für das Jahr 2015. Besonders warm war es entlang des gesamten Rheinverlaufs sowie entlang des Mains. Nun ging es an das Kernproblem: Welche DWD-Stationen und Gebiete wurden vom UHI beeinflusst und welche blieben weitgehend ungestört? Wie lässt sich der Grad der Beeinflussung quantifizieren? Susanne Benz und ihr Team haben hier einen riesigen Schrit nach vorne gemacht. Sie testen eine Reihe von möglichen Datensätzen, die als Näherung für den Grad der UHI-Beenflussung genutzt werden könnten. Zunächst probierten sie die Bevölkerungsdichte, aufgelöst in 1 x 1 km. Das Ergebnis war ernüchternd: Keine gute Übereinstimmung mit den Satellitendaten (LST), keine Korrelation. Nächster Versuch mit einer Datenbank zur Oberflächenbeschaffenheit Deutschlands, auf english “landcover”. Wieder nichts, keine Korrelation mit den flächendeckenden Satellitendaten.

Schließlich dann noch ein letzter Versuch mit einem vielleicht überraschenden Datensatz, einer Karte der nächtlichen Lichtintensität Deutschlands (englisch: “Nighttime lights”). Die Idee ist gar nicht so abwegig: Wo viel Licht ist, herrscht viel menschliche Aktivität. Diesmal traf der Pfeil ins Schwarze. Der statistische Pearson Korrelationskoeffizient von Satellitentemperaturen und Nachtlicht ergab beachtliche 0.55. Stärkere Nighttime Lights scheinen die Temperatur also zu erhöhen. Wiederum scheinen die Daten für begabte Datentüftler von der NOAA-Webseite frei herunterladbar zu sein. Konkret handelt es sich um (Auszug aus dem Paper):

Nighttime lights were compiled from Version 4 of the DMSP-OLS Nighttime Lights Time Series, Image and Data processing by NOAA’s National Geophysical Data Center, and DMSP data collection by the US Air Force Weather Agency. Data were only available up to January 2014, hence 10-year mean (01/2004–12/2013) nighttime lights were chosen. The results were again exported at a resolution of approximately 1 km× 1 km(Fig. 2a) using Google Earth Engine, 2015.

Die Einheit des Nighttime Light Spektrums reicht von 0 (dunkel) bis 63 (sehr hell) und wird in der Einheit DN gemessen (Abb. 1). Die Autoren ermittelten nun einen geeigneten Schwellwert um “klimatisch” ländliche Gebiete von “klimatisch” städtischen Zonen zu unterscheiden. Sie kamen dabei auf den Wert 15. Gegenden mit einem DN-Wert von 0-15 sind als ländlich einzustufen, Gegenden mit Werten oberhalb von 15 als städtisch. Der Blick auf die Karte in Abb. 1 zeigt schön die hellen Stellen: Hamburg, Berlin, München, Ruhrgebiet, Frankfurt/Main sowie der Südwesten.

Abb. 1: Nächtliche Lichtintensität in Deutschland als Maß für den Grad der Beinflussung durch den städtischen Wärmeinseleffekt. Quelle: Abb. 2a aus Benz et al. 2017.

Basierend auf diesem einfachen und vielleicht sogar genialen Konzept können nun endlich verlässlich Land und Stadt klimatisch unterschieden werden. Daher weiter mit dem nächsten Schritt. Die Gruppe wollte für die einzelnen Wetterstationen und 1 x 1-Satellitenkacheln die Wärmeinsel-Intensität separat berechnen. Dazu schufen sie einen Parameter, die sogenannte “Anthropogenic Heat Intensity” (AHI), die im weitesten Sinne mit dem Grad der UHI-Beinflussung verwandt ist. Die Bestimmung der AHI ist denkbar einfach: Gemessene Temperatur an der Station bzw. der Satellitenkachel minus Temperatur des ländlichen Umlandes. An dieser Stelle ist es früher regelmäßig schiefgelaufen, denn das ländliche Umland ist gar nicht immer so ländlich wie man dachte. Erinnern Sie sich an die Highlights des Papers (siehe oben), in denen Wärmeinseln sogar in Orten mit lediglich 5000 Einwohnern gefunden wurden. Durch die neue Definition über das Nachtlicht gibt es nun eine verlässlichere Definition.

In der Praxis machten es die Autoren so: AHI-Berechnungen wurden nur für jene Wetterstationen durchgeführt, die im Umkreis von 47 km mindestens 5 ländliche Stationen mit Nachtlicht von 0-15 DN hatten. Aus diesen ländlichen Stationen wurde dann der Mittelwert gebildet. Die Temperatur der zu bestimmenden Station minus ländlicher Mittelwert ergibt dann den jeweiligen “Anthropogenic Heat Intensity”. In Fällen von weniger als 5 ländlichen Stationen wurde kein AHI berechnet, wodurch sich einige Löcher in der AHI-Karte in Abbildung 4a des Papers erklären (Abb. 2a). Insbesondere in den Ballungszentren war es schwierig, genug ländlichen Klimahintergrund zu bekommen. Hier blieb die Karte einfach weiß. Das Verfahren funktioniert analog für die Satellitentemperaturen, wobei mindestens ländliche 50 Satellitenkacheln im 47 km-Umkreis gebraucht wurden, um den AHI berechnen zu können. Das scheint kein großes Problem gewesen zu sein, denn die Satelliten-AHI-Karte macht einen ziemlich vollständigen Eindruck, vielleicht mit Ausnahme einiger Abschnite in den Küstenzonen (Abb. 2b).

Abb. 2: Anthropogenic Heat Intensity (AHI) in Deutschland. a) Wetterstationen (“Air”), b) Satellitenmessungen (“Surface”), c) Grundwasser. Quelle: Abb. 4 aus Benz et al. 2017.

Vertiefen wir uns in die AHI-Ergebniskarten in Abbildung 2. Bei den Wetterstationen gibt es drei große AHI-Klopper mit AHI-Werten über 1,1°C: bei München, bei Berlin und im Ruhrgebiet. Dies sind die orangen Punkte in der Karte. Diese Stationen scheinen regelrecht UHI-verseucht zu sein. Wenn man sich die Satellitenkarte in Abb. 2b anschaut, fallen die großen roten Flecken ins Auge, die ebenfalls UHI-bedenkliche Regionen markieren. Hier liegt eine Vielzahl von Stationen, deren Werte zur Berechnung der deutschlandweiten Jahresmitteltemperatur ganz offensichtlich ungeeignet sind. Stationen und Gegenden mit negativen AHI-Werte bzw. blauen Farben scheinen UHI-technisch in Ordnung zu sein. Schon bei den gelben AHI-Werten könnte es Probleme geben. Ein guter Grenzwert könnte z.B. eine AHI von 0,5°C sein, oberhalb dessen UHI-Korekturen durchgeführt werden müssten.

Projektanleitung: Bestimmung der wärmeinselarmen deutschen Jahresmitteltemperatur 

Kommen wir nun zum Knackpunkt der ganzen Sache. Nachdem wir nun also recht genau wissen, welche Gegenden besonders stark vom UHI beeinflusst werden, können wir die hier gelegenen Stationen entsprechend aussortieren. Ziel sollte es sein, bei der Berechnung der Jahresmitteltemperatur nur jene Stationen zu berücksichtigen, die eine AHI von unter 0 besitzen. Auf diese Weise erhielte man eine ziemlich UHI-arme Temperaturkurve, die derzeit noch fehlt. Man darf hochgespannt sein, ob die momentan in den deutschlandweiten DWD-Temperaturkurven enthaltene Erwärmungsrate auch in der UHI-armen Variante in gleicher Höhe enthalten ist.

Vorgeschlagene Vorgehensweise:

1) Zur Bearbeitung der Daten wird eine GIS-Software (Geographisches Informationssystem) benötigt, z.B. ArcGIS, ArcView oder Ähnliches. Vielleicht geht es auch über Google Maps oder Google Earth.

2) Herunterladen der Nighttime Light-Daten von der NOAA-Seiten (siehe oben) und Import in die GIS-Software.

3) Import einer hochauflösenden Version der Satelliten-AHI-Karte aus Abbildung 2b (Abb. 4 aus Benz et al. 2017). Vielleicht können die Autoren sie zur Verfügung stellen?

4) Import aller DWD-Stationen als Punkte ins GIS. Die geographische Breite und Länge der aktuell vom DWD gelisteten Stationen finden Sie hier. Im Datensupplement des Papers gibt es zudem eine Exceldatei mit Koordinaten für die ausgwerteten AHI-Stationen.

5) Überlagern der DWD-Stationen mit der Nighttime Light-Karte: Alle Stationen die in Gebieten mit DN über 15 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst.

6) Überlagern der DWD-Stationen mit der AHI-Satellitenkarte: Alle Stationen die in Gebieten mit AHI über 0 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst. Man könnte zum Test auch eine Variante mit AHI über 0,5 ausprobieren.

7) Aus allen übriggebliebenen, UHI-armen Stationen kann nun eine Temperaturkurve gemäß DWD-Richtlinien berechnet werden. Hier müsste man sich informieren, wie topographische Höhenunterschiede und andere Effekte behandelt werden.

Gibt es fachkundige Interessierte, die hier aktiv werden wollen? Mit ein bisschen Daten-Talent sollte sich dies doch relativ leicht bewerkstelligen lassen. Interessierte können sich bei der Kalte-Sonne-Redaktion melden. Wir koordinieren die Crowd-Science-Initiative gerne, so dass Duplikationen im Sinne einer besseren Effektivität vermieden werden können. Wir wollen den Autoren der vorgestellten Studie keine Konkurrenz machen, falls diese sich des Themas annehmen wollen, das ist klar. Anbei noch der vollständige Abstract der Studie:

Erkennung anthropogen verursachter Anomalien der Temperatur in der Luft, am Boden und im Grundwasser in Deutschland

Menschliche Aktivitäten beeinflussen direkt die umgebenden Luft-, Oberflächen- und Grundwasser-Temperaturen. Das bekannteste Phänomen dieser Art ist der städtische Wärmeinsel-Effekt, welcher vor allem in großen und dicht besiedelten Städten untersucht worden ist. Diese Studie erkundet den anthropogenen Einfluss auf das thermische Regime nicht nur in ausgesuchten Stadtgebieten, sondern im landschaftsweiten Maßstab für Datensätze mittlerer jährlicher Temperaturen in Deutschland in drei verschiedenen Bereichen: gemessene Lufttemperatur, gemessene Temperatur des Grundwassers und aus Satellitenbeobachtungen abgeleitete Temperatur der Landoberfläche. Zieht man nächtliche Beleuchtung als Indikator ländlicher Gebiete heran, kommt die anthropogene Wärmeintensität ins Spiel. Diese ist auf jeden Datensatz anwendbar und zeigt die Differenz zwischen gemessenen lokalen Temperaturen und der mittleren ländlichen Hintergrundtemperatur. Dieses Konzept ist analog der etablierten städtischen Wärmeinsel-Intensität und anwendbar auf jeden Messpunkt oder Pixel innerhalb eines großen, sogar globalen Untersuchungsgebietes.

Für alle drei untersuchten Datensätze gilt: die anthropogene Wärmeintensität nimmt mit zunehmender nächtlicher Beleuchtung zu, sie nimmt ab bei zunehmender Vegetation. Die Bevölkerungsdichte hat dagegen nur geringe Auswirkungen. Die oberflächennahe anthropogene Wärmeintensität kann im untersuchten Gebiet (1 km X 1 km) nicht mit bestimmten Landschaftsformen und Klassifizierungsystemen in Verbindung gebracht werden. Aber sowohl Luft als auch Grundwasser zeigen gesteigerte Wärmeintensitäten bei künstlichen Oberflächen. Alles in allem scheint die Temperatur des Grundwassers am stärksten auf menschliche Aktivitäten zu reagieren, obwohl die unterschiedlichen Bereiche teilweise durch nicht in Relation stehende Prozesse beeinflusst werden. Anders als die Temperaturen an der Landoberfläche und der bodennahen Luftschichten ist die Grundwasser-Temperatur in kultivierten Gebieten ebenfalls erhöht. Die höchste anthropogene Wärmeintensität in Deutschland findet sich mit 4,5 K an einem Braunkohle-Tagebau bei Jülich, gefolgt von drei großen Städten (München, Düsseldorf und Nürnberg) mit jährlichen mittleren anthropogenen Wärmeintensitäten >4 K. Alles in allem lassen sich anthropogene Wärmeintensitäten > 0 K und damit städtische Wärmeinseln in Gemeinden bis hinab zu einer Bevölkerungsdichte finden.

Dieser Beitrag war zuerst im Blog „Die Kalte Sonne“ erschienen. Übersetzung des Abstract am Ende Chris Frey EIKE