September 2017: Leicht unterkühlt, oft schon wie der Oktober – wo bleibt die Klimaer­wärmung?

Die langfristige Entwicklung der Septembertemperaturen in Deutschland
Zunächst lohnt ein Blick auf die langfristige Entwicklung der Septembertemperaturen und deren Ursachen. Von 1881 bis 2016 erwärmte sich der September in Deutschland lediglich um etwa 1 Kelvin (1 Kelvin = 1°C) und damit weit weniger stark, als die meisten anderen Monate. Zwei mögliche Erwärmungsursachen, eine leichte Häufigkeitszunahme der Großwetterlagen mit südlichem Strömungsanteil sowie die insgesamt gestiegenen AMO- Werte (ein Indexwert für die Wassertemperaturen im zentralen Nordatlantik), zeigt die folgende Grafik gleich mit. Eine dritte mögliche Ursache, die Verstädterung sowie die geänderte Landnutzung („Wärmeinseleffekte“ im weitesten Sinne) wurde hier bei EIKE schon oft erläutert und soll bloß erwähnt werden.

Abb. 1: Höhere Septembertemperaturen traten in Deutschland besonders während der AMO- Warmphasen zur Mitte des 20. Jahrhunderts und gegenwärtig auf. Die momentanen Werte erreichen aber bislang nur knapp das Niveau der vorigen Jahrhundertmitte. Außerdem nahm die Häufigkeit der Großwetterlagen mit Südanteil tendenziell mit den AMO- Werten zu, wobei Spitzenwerte bevorzugt am Ende der AMO- Warmphasen auftraten. Hier mussten Indexwerte berechnet werden, um die sehr unterschiedlichen Größen in einer Grafik darstellen zu können.


KOWATSCH hat das Temperaturverhalten in verschiedenen Zeitabschnitten genauer untersucht. Der größte Teil der bescheidenen Septembererwärmung fand bis etwa 1920 statt. Seit 1942, dem etwaigen Höhepunkt der vergangenen AMO- Warmphase, zeigt sich keinerlei Erwärmung:

Abb. 2: Keine Septembererwärmung in Deutschland seit über 70 Jahren, und das trotz stetig steigendem Wärmeinselanteil bei den DWD-Stationen. In diesem Zeitraum nahm die CO2- Konzentration in der Atmosphäre um etwa 90 ppm zu; das entspricht einer Steigerung um etwa 30%. Man achte auf die sehr warmen September 1947, 1949 und 1961. Erst 1999, 2006 und 2016 wurden deren Werte wieder erreicht, beziehungsweise knapp übertroffen.


Betrachtet man den Zeitraum ab 1980, so zeigen einzelne Stationen sehr unterschiedliche September- Temperaturtrends:

Abb. 3 und 4: Seit 1980 verhielten sich die Septembertemperaturen gebietsweise sehr unterschiedlich. Während es in Tempelhof (Berliner Innenstadt) milder wurde, was zumindest teilweise mit Wärmeinseleffekten erklärt werden kann, kühlte es sich auf dem Hohenpeißenberg (Südbayern) ab. Freilich ist auch diese Station nicht WI- frei, aber weniger WI-beeinflusst als die Berliner Innenstadt. Da an beiden Stationen die CO2- Konzentration seitdem stark anstieg, wird klar, dass diese CO2- Zunahme keine wesentliche Ursache für die Entwicklung der Septembertemperaturen in Deutschland sein kann.


Überhaupt zeigt sich der Monat September, über einen längeren Zeitraum betrachtet, sehr stabil. Ausgeprägte kalte bzw. warme Jahrzehnte treten kaum auf. Das zeigt die nächste Grafik vom Hohenpeißenberg seit Beginn der dortigen Messreihen vor über 230 Jahren. Bis 1934 stand die Wetterstation noch bei einem Kloster am höchsten Punkt des Berges, heute etwas tiefer gelegen in einem neu erbauten DWD-Wetterzentrum. Inzwischen ist der Berg touristisch gut erschlossen (siehe http://www.dwd.de/DE/forschung/atmosphaerenbeob/zusammensetzung_atmosphaere/hohenpeissenberg/start_mohp_node.html ).

Abb. 5: Das Temperaturverhalten des Monates September ist recht stabil. Zu Mozarts Zeiten war es allerdings etwas wärmer als heute. Der wärmste September im Alpenvorland war jedoch 1961. Eingezeichnet sind noch die kalten Jahre 1881, hier beginnt der DWD mit seinen Grafiken und das Jahr 1931, ein sehr kaltes Jahr, das der grüne Baden- Württembergische Umweltminister Untersteller gerne als Vergleichsjahr nimmt. Zweifellos war der relativ kühle September 2017 immer noch deutlich wärmer als 1931.


Septembertemperaturen in Zentralengland und Nordamerika – auch dort fehlt eine besorgniserregende Erwärmung
In Zentralengland liegen langfristige Temperaturaufzeichnungen seit mindestens 300 Jahren vor. Die Messreihe ist nicht WI- bereinigt, trotzdem zeigt sich dort eine nur unwesentliche September- Erwärmung:

Abb. 6: Im frühen 18. Jahrhundert war der September in Zentralengland fast genauso mild wie gegenwärtig; während er sich vom späten 18. bis zum frühen 20. Jahrhundert dort kühler zeigte. Der lineare Erwärmungstrend von knapp 0,3 K ist kaum größer als der Messfehler bei Temperaturaufzeichnungen.


An der von Wärmeinseleffekten weitgehend verschonten, weil ländlichen Station Dale Enterprise in Virginia/USA gab es während der vergangenen 130 Jahre sogar eine minimale September- Abkühlung:

Abb. 7: keine langfristige September- Erwärmung trotz stark steigender CO2- Werte an der Station Dale Enterprise/USA.


Warum waren der September 2016 und 2017 so unterschiedlich?

Abb. 8: Die Varianz der Septembertemperaturen wird zu einem guten Drittel von der Sonnenscheindauer bestimmt. Der Zusammenhang ist schwächer als im Spätfrühling und Sommer, aber dennoch signifikant. Das PIK gibt die Sonnenscheindauer nicht als Monatssumme in Stunden, sondern als Stundenmittel je Tag, bezogen auf den ganzen Monat, an. Ein Stundenmittel von 8 (sehr sonnenscheinreich) entspricht einer Monatssumme von 240 Sonnenstunden.


Seit 1893 wird in Potsdam-Telegrafenberg die Sonnenscheindauer erfasst. Sie nahm etwas zu, was eine vierte Ursache für die geringe Septembererwärmung in Deutschland ist:

Abb. 9: Leicht zunehmende Sonnenscheindauer im September in Potsdam. Für ganz Deutschland fehlen leider langfristige Aufzeichnungen, doch dürfte auch im ganzen Land der September etwas sonniger geworden sein.


Abb. 10: Am 14. September 2016 herrschte mit einer südöstlichen Strömung am Rande einer von Skandinavien zum Balkan reichenden Hochdruckzone noch perfektes, heißes Spätsommerwetter über Deutschland. Über der Bretagne lag bereits ein Tief, welches ostwärts zog und ab 16. September einen jähen Temperatursturz mit starken Regenfällen einleitete.


Doch 2017 dominierte eine ganz andere Luftdruckverteilung, welche besonders zur Monatsmitte maritime Subpolarluft (mP) mit Wind, Kälte und Regenschauern heranlenkte:

Abb.11: Genau ein Jahr später, am 14. September 2017, bestimmten Tiefdruckgebiete über Skandinavien unser Wetter. Stürmischer Südwestwind, wenig Sonne und häufige Regenfälle oder Schauer bei nur noch 13 bis 18°C dominierten in der feucht- kalten Subpolarluft für viele Tage. Nur im Raum Weimar- Erfurt blieben die Niederschläge, bedingt durch den Lee- Effekt des Thüringer Waldes, gering, so dass dort der September erheblich zu trocken ausfiel.


Stefan Kämpfe, unabhängiger Natur- und Klimaforscher
Josef Kowatsch, unabhängiger Natur-und Klimaforscher




Elektromobilität in Deutschland – ein Alternativvorschlag für den Stadtverkehr

Die Hintergründe für eine solche Politik sind zweifach: Einerseits soll die Luftqualität durch Fortfall schädlicher Abgase verbessert werden – besonders in den Zentren der Großstädte – , andererseits könnte der CO2-Ausstoß vermindert werden, weil der erforderliche elektrische Strom aus Wind- und Sonnenenergie hergestellt würde, und weil damit das durchschnittliche Erdklima vor weiterer Erwärmung bewahrt würde, wie allgemein angenommen wird.
Es muss sehr bezweifelt werden, ob die beiden genannten Gründe stichhaltig sind und diese vorgetragene Politik überhaupt möglich und sinnvoll ist – darüber soll hier aber nicht diskutiert werden.
Eines ist jedoch wahr und kann verbessert werden: Die Luftqualität in den Innenstädten, die in Deutschland zwar auch in einigen Großstädten gemäß den festgesetzten Grenzwerten für Schadstoffe verbesserungswürdig ist, die aber in vielen Megastädten anderer Länder unerträglich geworden ist.
Solange noch Zweitakt-Motore für Kleinfahrzeuge zugelassen sind, würde deren Ersatz durch Viertakt-Motore, besonders auf Erdgasbasis, schnell eine Besserung bringen – Beispiele dafür existieren bereits in anderen Ländern.
Weiterhin könnte der urbane Personentransport auf elektrische Trolleybusse (O-Busse) umgestellt werden, wenn nicht schon elektrische Straßenbahnen oder U-Bahnen vorhanden sind; eine Zwischenlösung wäre aber auch die Einführung von Bussen mit Flüssiggasmotoren dort, wo noch mit Diesel-motoren gearbeitet wird.
Auf diese Weise könnten die ganz kleinen und die ganz großen Abgaserzeuger verbessert oder gar eliminiert werden.
Nun seien die mittelgroßen Abgaserzeuger betrachtet, die normalen PKW und Lieferfahrzeuge. Von diesen beiden Typen sollen jetzt nur die erörtert werden, die allein in Stadtgebieten benutzt werden, das wären Lieferwagen und Zweit-PKW, mit denen nicht über Land gefahren wird; diese könnten mit Elektroantrieb ausgerüstet werden.
Für den angegebenen Zweck braucht der elektrisch angetriebene Wagen lediglich eine Geschwindigkeit von maximal 70 km/h zu erreichen und sein Aktionsradius einer Weite von 100 km zu entsprechen. Das bedeutet, dass die Batterie um ein Vielfaches kleiner sein könnte als bei den bisher von der Industrie angebotenen Fahrzeugtypen. Dieses würde weiterhin bedeuten, dass nicht mehr die teuren Lithium-Ionen Batterien verwendet werden müssten, sondern dass die nur wegen ihres Gewichtes bisher nicht eingesetzten Blei-Batterien „erträglich“ geworden wären.
Sie wiegen zwar je gespeicherter Kilowattstunde etwa viermal mehr (33 Wh/kg gegenüber 130 Wh/kg), man brauchte aber für den vorgesehenen Verwendungszweck auch viermal weniger Energie zu speichern – das Gewicht würde sich also kaum ändern. Dafür sind Bleibatterien aber wesentlich billiger und technisch ausgesprochen sicher; ihre Zyklenzahl ist hoch (2.000 und mehr) und ihre Wiederaufarbeitung einfach und bestens erprobt und in Anwendung.
Sie könnten jeweils des Nachts aufgeladen werden und dabei den häufig billigeren Nachtstrom ausnutzen; die Belastung des Stromnetzes an der Ladestelle wäre gering.
Langjährige Erfahrung mit Fahrzeugen, die mit einer Bleibatterie ausgerüstet sind, liegen vor und haben sich als wirtschaftlich erwiesen (z.B. Gabelstapler). Die Batterieindustrie hätte keine Probleme, Traktionsbatterien für den geschilderten Einsatzfall herzustellen. Im Folgenden sind die Vorteile nochmals übersichtlich zusammengestellt:
 

  • Bleibatterien sind billiger als solche auf Lithiumbasis,
  • Bleibatterien sind kurzzeitig stark überlastbar und in einem weiten Temperaturbereich (-35°C bis +60°C) arbeitsfähig,
  • Die Lebensdauer, bestimmt durch die Anzahl der Ladezyklen, ist hoch – mit fünf Jahren kann erfahrungsgemäß gerechnet werden,
  • Eine verbrauchte Batterie hat einen hohen Materialwert, sie wird problemlos in einer Sekundärbleihütte wiederverwertet – es handelt sich auch nur um ein einziges Metall, das zurückgewonnen werden muss,
  • Die sogenannte Recyclingrate ist bei Blei die höchste aller Metalle, nichts geht verloren oder belastet die Umwelt, solches ist bei Lithiumbatterien in keiner Weise entwickelt,
  • Blei ist kein seltenes Element, es gibt keine Versorgungsprobleme, was für Lithiumbatterien, die außer Lithium auch Kobalt benötigen, nicht gesagt werden kann,
  • Das Aufladen eines Bleiakkumulators im vorgeschlagenen Anwendungsfall würde nachts erfolgen und keine große Leistung erfordern, vielleicht 1 kW, was überall zur Verfügung steht – besondere Kabel und Stecker für die Ladestation sind nicht erforderlich.

Derart ausgerüstete Fahrzeuge sollten zur Erhöhung des Komforts und der Schonung der gespeicherten Antriebsenergie dann noch einen „Hybrid“-Zusatz erhalten, einen kleinen Generator (z.B. 2 kW), der mit einem wassergekühlten Benzin- oder Gasmotor betrieben wird. Dessen Strom würde für die Beleuchtung, Heckscheibenheizung, Elektronikversorgung und ähnliche Nebenverbraucher eingesetzt, nicht aber, um die Fahrleistung zu erhöhen; das Kühlwasser wäre für die im Winter erforderliche Heizung gut. Diese Einrichtung wäre zwar durchaus kostenerhöhend, ist aber für die heutigen Bedürfnisse nicht verzichtbar.
Wenn solche Fahrzeuge gebaut würden, wäre ihre Anzahl zunächst nicht sehr groß, und der erforderliche elektrische Strom sicherlich lieferbar, was bei Umstellung auf totale Elektromobilität, wie jetzt von der Politik gefordert, in keiner Weise möglich wäre – es sei denn, es würden viele neue thermische Kraftwerke errichtet (auf Basis von Kohle-, Erdöl-, Erdgas- oder Kerntechnik). Es ist nicht vorstellbar, dass Wind- und Sonnenenergie derart viel mehr beitragen könnten, wo sie doch für den jetzigen Elektrizitätsbedarf erst rund 25% zu liefern in der Lage sind und die Primärenergie für den gesamten Strombedarf weniger ausmacht als der zu ersetzende Brennstoffbedarf für das bestehende Transportwesen.
Der Effekt der vorgeschlagenen Elektrofahrzeuge auf die Luftqualität in den Innenstädten dürfte jedoch durchaus bemerkbar sein. Es sei auch erwähnt, dass die Lärmbelastung auf diese Weise deutlich reduziert würde.
Was dieses vorgeschlagene Konzept kosten würde, ist noch nicht berechnet; wenn es für interessant erachtet würde und die bis heute vorgeschlagene Politik in diesem Sinne geändert würde, müsste es in Zusammenarbeit der Politiker mit den Automobil- und Batterieherstellern im Detail erörtert werden, bevor etwas in die Tat umgesetzt wird.
Es ist sicherlich besser, gewünschte Umweltveränderungen und –verbesserungen in kleinen Schritten anzugehen und durchzusetzen, als ein neues Gesamtkonzept anzusteuern, das allein wegen seiner Größe kaum in der Lage sein dürfte, erfolgreich zu werden, schon gar nicht in kurzer Zeit.
Über den Autor:
„Dr. Reinhard Marx studierte Metallhüttenkunde in Aachen und war während seiner beruflichen Laufbahn in verschiedenen Metallhütten für Blei und Zink (Stolberg, Málaga, Duisburg, Harlingerode) tätig. Er spezialisierte sich später mehr auf die Weiterverarbeitung dieser Metalle, besonders zu Oxiden, wobei er sich als Technischer Leiter und Prokurist der Heubach GmbH  in Langelsheim auch mit Farb- und Korrosionsschutzpigmenten befasste.“
 




Trinkstationen gegen den Klimawandel

Gäbe es nicht die Informationsseite zu Klima und Energie [3] und einen EIKE-Unterstützungsautor, der es sich zur Klimakasteiung ab und zu antut, dort hineinzusehen, hätten viele EIKE-Leser sicher nie etwas über diesen Meilenstein in der Klima-Stadtertüchtigung erfahren:
KLIMARETTER.INFO, 26. September: Trinkstationen gegen den Klimawandel
Das Berliner Projekt Kiezklima hat Bürger befragt, wie sie mit extremer Hitze in der Stadt umgehen. Herausgekommen sind überraschend gute Ideen für die Anpassung von Städten an den Klimawandel

Unsere Städte werden zu lebensgefährlichen Klimafallen …

KLIMARETTER.INFO: [1] Großstädte sind Wärmeinseln – und das kann gefährlich sein. In Berlin zum Beispiel, Deutschlands größter Stadt, sterben pro Jahr 700 bis 800 Menschen zusätzlich während Hitzewellen. Vor allem ältere und kranke Menschen sind gefährdet. Und die Zahlen dürften steigen, denn Klimaforscher erwarten für den Raum Berlin-Brandenburg, dass sich die jährliche Zahl heißer Tage mit über 30 Grad Celsius in diesem Jahrhundert vervierfachen und die der Tropennächte, in denen die Temperatur nicht unter 20 Grad fällt, sogar verfünffachen wird. Nicht nur in Dachgeschoss-Wohnungen könnte es für die Bewohner dann sehr ungemütlich bis lebensgefährlich werden.

… wovon die Natur nur nichts weiß

Wie eigentlich immer, wenn „Klimaforscher“ in den schlimmsten Farben ausmalen, lohnt es sich bei solchen Aussagen, die Messwerte aus der Natur zu „befragen“.
Wie Bild 1 zeigt, wurden die Sommertemperaturen seit dem Hoch kurz nach 1990 wieder niedriger und sind aktuell nicht höher als im Jahr 1911. Kein Wunder, dass die Zukunftsprojektionen schon aktuell meistens danebenliegen und für das Jahr 2100 eine Spanne von 6 Grad „bieten“, aus der sich jeder Klimafachmann das Gewünschte heraussuchen darf.

Bild 1 Berlin-Brandenburg, Verlauf der Sommertemperatur seit 1960. Mit Zufügungen vom Autor. Quelle: DWD Klimaatlas

Die „heißen Tage“ nahmen seit 1990 zu- Ein stetiger Trend zu „immer mehr“ ist aber nicht zu sehen.

Bild 2 Berlin-Brandenburg, Verlauf der „heißen Tage“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

Auch Tropennächte, welche „lebensgefährlich“ werden, zeigen keinen ansteigenden Trend, nur, dass diese Anzahl schon in den 70er Jahren von der heutigen Rentnergeneration „überlebt“ wurde.

Bild 3 Berlin-Brandenburg, Verlauf der „tropischen Nächte“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

In Deutschland ist es vor allem heiß, wenn es nicht regnet. Doch die Länge der Trockenperioden nimmt auch nicht zu.

Bild 4 Berlin-Brandenburg, Verlauf der „längsten Trockenperioden“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

Nur die Winter werden nicht mehr ganz so kalt. Fast könnte man sagen: Winter, wie bis zum ersten Weltkrieg schon einmal waren und ohne die folgenden, schlimmen Kältewellen bis 1970, als die Klimaforscher entnervt die kommende Eiszeit ausgerufen hatten.
Nachdem die „Alten“ jedoch entgegen den Angaben von Klimaretter weiterhin vorwiegend bei Kälte sterben:
EIKE 21.07.2015:
ist auch das positiv und erspart sicher einigen Senioren, in den warmen Süden ziehen zu wollen, wo sie nach der Klimawandel-Zunft unweigerlich an Hitze noch frühzeitiger zu sterben hätten.

Bild 5 Berlin-Brandenburg, Verlauf der Wintertemperatur seit 1960. Vom Autor ergänzt. Quelle: DWD Klimaatlas

Der Stadtteil erwärmt sich um bis zu 10°C gegenüber dem Umland

Ein Umstand, den alle Großstädte haben und gegen dessen Größe jeglicher, denkbare Einfluss eines sich stetig wandelnden Klimas vollkommen in den Hintergrund tritt.
Berlin-Brandenburg hatte seit 1880 ca. +1,5 Grad Temperaturerhöhung. Davon sind angeblich 50 % vom Menschen verursacht, wären demnach CO2-bedingt maximal +0,75 Grad in fast 140 Jahren. Gegen den städtischen Wärmeinseleffekt von +10 Grad ist das nichts.
Für städtische Verwaltungen jedoch kein Grund, den minimalen Effekt nicht durch CO2-Minderung mit Unsummen an Steuergeldern „bekämpfen“ zu wollen:
EIKE 24.09.3017: [4] Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel
EIKE 25.04.2017: [5] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr (Berlin)
und viele, langwierige und teure Studien aufzusetzen:
KLIMARETTER.INFO: [1] … In dem bundesweit einmaligen Forschungsprojekt „Kiezklima“ wurde in den vergangenen drei Jahren untersucht, wie das Leben unter Klimawandel-Bedingungen verbessert werden kann … „Hier im Brunnenviertel wird es im Sommer bis zu zehn Grad heißer als im Berliner Umland„, sagt Eva Wiesemann von der privaten List-Stadtentwicklungsgesellschaft, die das vom Bundesumweltministerium geförderte Projekt zusammen mit sechs weiteren Partnern seit 2014 durchgeführt hat

Die Bewohner selbst spüren zwar nichts vom Klimawandel. Doch wenn man ihnen davon erzählt, erinnern sie sich, dass sie schon mal unkonzentriert waren…

Auch Berlin scheint das Problem zu haben, dass die Bewohner „klimadumm“ sind und erst durch „Fachpersonen“ darauf gestoßen werden müssen. Vergleichbar vielen Südsee-Atollbewohnern, die erst nach den „Einweisungen“ von NGOs und der Kenntnis um Klimaschutzgelder [6] darauf kamen, dass ihre Inseln untergehen.
KLIMARETTER.INFO: [1] … Wiesemann musste viel Aufklärungsarbeit leisten. „Wenn man die Leute fragt, ob sie etwas vom Klimawandel spüren, sagen sie meist: Nein„, erzählt sie. Doch wenn die Fragen konkret wurden, wenn die List-Mitarbeiterin zum Beispiel wissen wollte, wie die Bewohner in den Hitzeperioden zurechtkommen, sei das ganz anders gewesen. Sehr heiß sei es gewesen, hätten sie berichtet, man könne sich nicht gut konzentrieren, und viele Menschen fänden in den heißen Nächten kaum Schlaf.

Die Klima-Vulnerabilitätsforschung zeigt Erfolge und Lösungen, welche bisher niemand kannte

KLIMARETTER.INFO: [1] … Außerdem konnte Wiesemann Geschäfte im Viertel dafür gewinnen, ein Netz von „Trinkstationen“ aufzubauen, an denen man kostenlos ein Glas kaltes Wasser bekommen kann. Und seit Anfang des Sommers gibt es einen öffentlichen Trinkbrunnen auf dem Vinetaplatz mitten im Quartier, ein zweiter steht am Bahnhof Gesundbrunnen.

Ohne umfassendes Klimamanagement ist ein Stadtteil heutzutage praktisch hilflos …

Immer neu bestätigt sich die Überzeugung des Autors, dass „der Klimawandel“ im Wesentlichen eine weltweit angelegte Arbeitsbeschaffungsmaßnahme für die sonst nicht verwendbare Akademikerschwemme ist.
KLIMARETTER.INFO: [1] Vorbild für Klimaanpassung
„Kiezklima“ arbeitet seit 2014 an einer Beteiligung der Bürger für den Aus- und Umbau des Berliner Brunnenviertels. Das Projekt erhebt Klimadaten, schlägt Anpassungsmaßnahmen etwa für Hitzewellen vor und bezieht die Anwohner in die Planungen ein. Das Viertel im Zentrum der Hauptstadt ist so zu einem „Modellgebiet für Klimaanpassungsmaßnahmen“ geworden. Dazu gehören auch die „Brunnengärten“. Im vergangenen Jahr zeichnete das Umweltbundesamt das Projekt mit dem „Blauen Kompass“ aus. In diesem Jahr ist es für den ZeitzeicheN-Preis für lokale Nachhaltigkeitsinitiativen nominiert

Bild 6 Projektpartner „Kiezklima“

… wer käme sonst auf die Idee, gegen den Klimawandel in Hochbeeten Gemüse- und Gartenkräuter anzubauen

Dazu natürlich auch die wohl in Vergessenheit geratene Kenntnis, dass Beschattung gegen Sonnenstrahlung schützen kann.
KLIMARETTER.INFO: [1] Wohnhof bekommt Sonnensegel
Eine ganze Reihe Ideen sind in dem Kiezklima-Projekt gesammelt worden. Einige davon wurden schon in die Tat umgesetzt. So wurden in einem der Innenhöfe der Wohnblöcke der kooperierenden Berliner Wohnungsbaugesellschaft Degewo Hochbeete angelegt, in denen Mieter Gemüse und Gartenkräuter anbauen.

Mit Klimawandel hat das alles jedoch nichts zu tun, eher mit dem Unvermögen der bisherigen Verwaltung

Im Gegensatz zur Redaktion von Klimaetter kann der Autor nicht erkennen, dass ein sich stetig veränderndes Klima Anlass für solche Ma0nahmen geben könnte. Zumindest die Klimadaten geben dafür keinerlei Anhaltspunkt.
Sollten sich in diesem Wohnviertel wirklich herausstellen, dass Wohnungen bei bestimmten Wetterlagen „lebensgefährlich“ sind, sollte man vielleicht die Bausubstanzen und Isolierungen überprüfen und den zuständigen Aufsichtsbehörden und Vermietern gehörig „die Ohren langziehen“. Lösungen wie beim Auto, welche es inzwischen mit Klimaanlagen gibt, weil niemand mehr wie früher im Sommer ohne fahren will, wären denkbar. Zumindest käme der Autor ohne eine langwierige und teure Untersuchung darauf.
Nun handelt es sich laut dem Bericht wohl um einen Problemstadtteil [1]: „ …viele Sozialwohnungen, haben zu zwei Dritteln einen Migrationshintergrund …“.
Dies legt die Vermutung nahe, dass man Sanierungsanalysen und Stadtteilarbeit unter dem Deckmantel „Klima“ finanzieren lies, weil für vernünftige Direkt-Maßnahmen keine Fördermittel genehmigt wurden. Den „Ideologieschwund“ und übertriebenen Aufwand, sowie sinnlose Zusatzmaßnahmen nahm man wohl in Kauf.
Ob dieses Vorgehen wirklich so richtungsweisend ist, wie es die Redaktion von Klimaretter darstellt, wagt der Autor zu bezweifeln.
Vielleicht nehmen es aber die Stadtverwaltungen der noch viel „lebensgefährlicheren“ Städte im Rheingraben und schönen Freiburg zum Anlass, die Bewohner vorsorglich bis zur Gefahrenklärung „auszulagern“, wie es bei den wärmegedämmten Hochhäusern schon passiert ist.
In Freiburg waren es im Sommer immerhin zwei Grad mehr Hitze, während in Berlin-Brandenburg die Sommer-Mitteltemperatur seit 1880 um ca. 1,5 °C gestiegen ist.

Bild 7 Sommertemperaturverlauf 2017 Freiburg Flugplatz und Berlin-Tegel. Quelle: wetteronline

Nach der in Freiburg bereits erfolgten „Klimazeitreise“ von über 200 Jahren müsste die schöne und beliebte Stadt eigentlich schon den Klimatod gestorben sein.

Welch ein Glück, dass es ausreicht, erst in der fernen Zukunft mit dem „Klimaschutz“ anzufangen und den „Werkzeugkasten“ zu füllen, der sich anscheinend vorwiegend um Förderprogramme und Finanzierungsfragen kümmert.

Bild 8 Screenshot Quelle: FWTM Freiburg

Weiterbildung „Kommunales Energie- und Klimaschutzmanagement“
15. Januar 2016 – 16. Juli 2016, berufsbegleitend
FWTM:
Durchgeführt von fesa e.V. in Kooperation mit dem Institut für Fortbildung und Projektmanagement ifpro
In 13 kompakten Modulen vom 15. Januar bis zum 16. Juli 2016 füllen die künftigen Klimaschutzmanager und andere regional Klimaschutzaktive ihren Werkzeugkasten mit allem, was es für die Umsetzung der Energiewende vor Ort braucht: Vom Kontext und den Grundlagen kommunalen Klimaschutzes geht es über die rechtlichen Rahmenbedingungen bis zu Förderprogrammen und Finanzierung. Der Kurs beinhaltet ebenso Basiswissen über Erneuerbare Energien, Kraft-Wärme-Kopplung und Wärmenetze wie Informationen zu Energieeffizienz und Energiemanagement in kommunalen Liegenschaften. Weitere Themenfelder sind Öffentlichkeitsarbeit und Bürgerbeteiligung. Abgerundet und auf Praxisnähe zugeschnitten wird die Fortbildung durch eine Einführung in das Projektmanagement, das die Teilnehmerinnen und Teilnehmer dann auch im Rahmen eigener, kursbegleitender Projektarbeiten vertiefen und verfestigen.

Quellen

[1] KLIMARETTER.INFO 26. September 2017: Trinkstationen gegen den Klimawandel

[2] Kiezklima, Homepage

[3] EIKE 25. September 2017 : Das Interview!

[4] EIKE 24.09.3017: Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel

[5] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[6] EIKE 14.12.2015 (Tel 2 … 3): Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang




Facetten der Mathematik

Die Ägypter besaßen eine hochentwickelte Mathematik und Geometrie, sonst hätten sie nie und nimmer die Pyramiden berechnen und bauen können. Mit dem „Papyrus Rhind“ (aufbewahrt im Britischen Museum) haben sie uns gewissermaßen ein Buch zur Mathematik hinterlassen, in dem sogar x-Gleichungen vermerkt sind. Die wichtigste Schule der Mathematik befand sich jedoch um 350 v. Chr. in Alexandria. Das Genie Euklid, von dessen Leben wir fast nichts wissen, war der Begründer einer Schule, welche das berühmte Lehrbuch „Die Elemente“ herausgebracht hat.

Klassischerweise unterscheidet man in der Mathematik vier große Disziplinen: Geometrie, Algebra, Analysis und Stochastik. (Heute würden wir noch die Logik und die Topologie benennen.) Die Geometrie ist die Lehre des umgebenden Raumes mit Punkten, Geraden, Vierecken und Kreisen etc. Sie hatte ihre Blütezeit in der griechischen Antike. Bei der Algebra studiert man die Zahlen und ihre Eigenschaften, z. B. die Primzahlen. Die Analysis ist die Differential- und Integralrechnung und die Stochastik die Lehre vom Zufall.

Null – Eins – Unendlich

Die Erfindung der Null („0“) war eine Großtat, ähnlich wie die Erfindung des Rads. Vor gut tausend Jahren tauchte sie erstmals auf einem Tempel in Indien auf; um 1.200 n.Chr. war sie auch in Westeuropa angekommen. Manchmal entsteht ein Streit um das Vorzeichen der 0. Nun, der ist überflüssig, denn die 0 kann man sowohl mit einem plus-Zeichen, als auch mit einem minus-Zeichen versehen. Also: +0 oder -0 ist egal.— Anders verhält es sich bei der Frage, ob die 0 eine gerade Zahl (wie beispielsweise 4) oder eine ungerade Zahl (wie 5) ist. Nun, die Mathematiker sehen die 0 als eine gerade Zahl an, denn sie lässt sich zwei Mal auf 0 aufteilen: 0+0 ist wiederum 0.

Die natürliche Zahl 1 kennt jeder. Sie verleitet uns dazu immer weiter zu zählen, also: 1, 2, 3… bis in das Unendliche, welches die Mathematiker sich als (unbeweisbares) Axiom vorstellen. Mit dem Begriff „unendlich“ (geschrieben als liegende acht) lässt sich trefflich spielen, z. B. beim Bruchrechnen. So geht die Summe der unendlichen Bruchreihe 1/2 + 1/3 + 1/4 + 1/5 … = ∞

Sie geht also über alle Grenzen hinweg, bis ins Unendliche.
Demgegenüber ist die Summe der nur leicht veränderten Bruchreihe

1/2 + 1/4 + 1/8 + 1/16….= 1.

Die erste Reihe divergiert ins Unendliche,  die zweite konvergiert zu 1.

Ein Teilbereich der natürlichen Zahlen sind die Primzahlen; sie sind größer als 1 und nur durch 1 und sich selbst teilbar. Die ersten Primzahlen sind: 2, 3, 5, 7, 11, 13, 17, 19… Die Primzahlen haben eine große Bedeutung in der Verschlüsselungstechnik bei Großrechnern. Fakt ist, dass es unendlich viele Primzahlen gibt, aber dass (leider) keine Formel existiert, sie zu berechnen.

Mit dem Begriff ∞ man sich verrückte Sachen ausdenken. Eine Anwendung ist das sog.“Hilbert Hotel“, das im vorigen Jahrhundert von dem deutschen Mathematiker David Hilbert vorgestellt wurde. Er dachte sich ein Hotel aus mit unendlich vielen Zimmern, welche die Nummern 1, 2, 3… bis ∞ trugen. Alle Zimmer dieses Hotels sind belegt, aber nun taucht ein weiterer Gast auf, der Einlass begehrt. Für Hilbert ist dies kein Problem. Er bittet den (bisherigen) Gast in Zimmer 1 ins Zimmer 2 zu wechseln, den Gast in Zimmer 2 ins Zimmer 3 usf. bis ins Unendliche. Dadurch haben alle bisherigen Gäste wieder ein Zimmer – und der neue Gast kann in Zimmer 1 einziehen. Mathematisch gesprochen funktioniert dies, weil ∞ + 1 = ∞ ist.

 

Berühmte Mathematiker

Geniale Mathematiker gab es in den vergangenen zweieinhalbtausend Jahren in großer Zahl. Unter den noch Lebenden ist der Brite Andrew Wiles zu nennen, dem es gelang, eine vierhundert Jahre alte Behauptung des Franzosen Pierre de Fermat zu beweisen. Der sog. Fermat´sche Satz lautet vereinfacht: „Es ist unmöglich, einen Würfel exakt in zwei gleiche, kleinere Würfel zu zerlegen“. Klingt simpel, aber Wiles schuftete – im geheimen – volle sieben Jahre an der Lösung, die mehr als hundert Schreibmaschinenseiten umfasste. Danach genoss er seinen Ruhm in vollen Zügen.

Ein gegensätzlicher Charaktertyp war der (ebenfalls noch lebende) Russe Grigori Perelmann. Er bewies 2003 die sog. Poincaré-Vermutung. Sie besagt (vereinfacht), dass der vierdimensionale Raum in etwa so ähnlich ist, wie der uns zugängliche dreidimensionale. Noch mehr vereinfacht behauptet der Satz, dass jedes geometrische Objekt, welches kein Loch hat, in eine Kugel überführt werden kann. Trotz (oder wegen?) des Presserummels lehnte Perelmann nach der erfolgreichen Lösung jede Ehrung ab – auch den Millionenpreis einer amerikanischen Universität. Er kündigte sogar seine Stellung im Moskauer Forschungsinstitut und ist seitdem untergetaucht.

Keiner der beiden hat sich für den Nobelpreis qualifiziert, denn diese Auszeichnung gibt es nur in den Sparten Physik, Chemie, Medizin, Literatur und Frieden. Warum der schwerreiche Stifter AlfredNobel die Mathematik ausgelassen hat, dafür gibt es eine Legende: angeblich hatte der damals bekannteste schwedische Mathematiker, Gösta Mittag-Leffler (1846 – 1927), ein Verhältnis mit Nobels Frau, weswegen Nobel in seinem Testament, quasi aus Rache, keinen Preis für Mathematiker auslobte. Gegen diese Legende spricht allerdings die Tatsache, dass Alfred Nobel nie verheiratet war. Aber vielleicht hatte er eine attraktive Geliebte?!

Um diese offensichtliche Vakanz zu füllen, gibt es seit einiger Zeit die sog. Fields-Medaille. Sie wird alle vier Jahre an zwei bis max. vier Mathematiker – die jünger als 40 Jahre sein müssen! – für herausragende Entdeckungen in ihrem Gebiet vergeben. Damit ist ein bescheidenes Preisgeld von 15.000 kanadischen Dollars verbunden.

Geniale, aber nicht mehr lebende, Mathematiker des vorigen Jahrhunderts waren u. a. David Hilbert (1867 – 1943) und Kurt Gödel (1906 – 1978). Hilbert listete im Jahr 1900 in einer berühmten Rede 23 bedeutende, aber ungelöste Probleme der Mathematik auf. Von diesen ist in der Zwischenzeit ein Gutteil gelöst, entsprechend der alten Weisheit: „Durch Intuition entdeckt man, durch Wissenschaft beweist man“. Unter Hilberts Problemen war auch der Gödelsche Unvollständigkeitssatz, eine der wichtigsten Behauptungen der modernen Logik. Er besagt, dass man nicht alle Aussagen der Mathematik formal beweisen kann, womit er diese Wissenschaft in beträchtliche Nöte brachte.

Erstaunen mag, dass unter diesen Geistesheroen Albert Einstein (1879 – 1955), der Entdecker zweier Relativitätstheorien fehlt. Aber Einstein war in erster Linie ein genialer (theoretischer) Physiker. Auf dem Gebiet der Mathematik war er eher schwach – nach eigener Einschätzung!

Gehen wir weiter in die Vergangenheit zurück, dann treffen wir auf hervorragende Mathematiker wie Leonhard Euler (1707 – 1783), Carl Friedrich Gauß (1777 – 1855), Gottfried Wilhelm Leibniz (1646 – 1716) und Isaac Newton(1642 – 1726).

In der griechisch-römischen Antike ragen heraus: Thales von Milet, der um das Jahr 600 v. Chr. gelebt hat, Pythagoras von Samos (um 550 v. Chr.) und Euklid von Alexandria (um 350 v. Chr.). Der Allergrößte unter diesen antiken Genies war wohl Archimedes von Syrakus (um 250 v. Chr.). Er berechnete als Erster die Kreiszahl π und leiste auch als Physiker und Ingenieur Bedeutendes.
Pythagoras hat den nach ihm benannten Satz erstmals bewiesen; benutzt wurde er bereits von den Babyloniern. Seitdem gibt es für ihn mehr als 300 Beweise.

Archimedes

Schöne Formeln

In der Mathematik gibt es Tausende, ja Millionen von Formeln und Gleichungen. Kein Wunder, dass manche besonders „schön“ anmuten. Nach allgemeiner Ansicht gebührt die Krone der sog. Eulerschen Formel:


In dieser einfachen Beziehung kommen fünf wichtige Zahlen der Mathematik vor,
nämlich 0, 1, die Kreiszahl π, die Eulersche Zahl e und die imaginäre Einheit i.
Eine sonderliche Bedeutung für die Anwendung hat diese Formel nicht, sie ist nur einfach „schön“.

Besser für die Anwendung geeignet ist eine andere schöne Formel, die ebenfalls von Euler ist und aus dem Gebiet der Geometrie stammt. Sie lautet:

e – k + f = 2

Es ist die Eulersche Polyederformel, wobei Polyeder Vielflächner sind wie Würfel, Pyramiden – oder Fußbälle. Nicht jedoch, wohlgemerkt, die Kugel. Dabei bedeutet e die Anzahl der Ecken, k die Anzahl der Kanten und f die Anzahl der Flächen. Nehmen wir den Würfel als Beispiel. Er hat 8 Ecken (e), 12 Kanten (k), und 6 Flächen (f). Eingesetzt in die Polyederformel ergibt sich: 8-12+6=2.

Ein anderer, allen bekannter Polyeder ist der klassische Fußball. Er besteht in der Regel aus 12 (schwarzen) Fünfecken und 20 (weissen) Sechsecken, also insgesamt 32 Flächen (f). Durch Nachzählen kommt man auf 60 Ecken. Die Zahl der Kanten kann man aus der Formel errechnen:

60 + 32 – 2 = 90 Kanten.

Nach dieser vorbereitenden Tätigkeit ist Bayern München bereit zum Angriff:

Toooor!!
Übernommen vom Rentnerblog hier



Fukushima: Schuldige werden gesucht

Als am 11. März 2011, einem Freitag Nachmittag um 14 Uhr 46 (japanischer Zeit), ein Seebeben der Magnitude 9,0 die vier Kernkraftwerke im Ortsteil Daiichi durchrüttelte, war die Welt, vergleichsweise, noch in Ordnung. Drei Reaktoren schalteten sich selbstständig ab, der vierte war wegen Wartungsarbeiten gar nicht in Betrieb. Die elektrische Stromversorgung des umliegenden Netzes war zwar ausgefallen, aber die für solche Fälle bereitstehenden Diesel sprangen automatisch an und sicherten die Kühlung der Reaktorkerne mit Wasser.

Eine Stunde später traf ein Tsunami von 14 Metern Höhe ein und überschwemmte den nur 5,7 Meter hohen Schutzwall sowie alle Dieselaggregate, die im Keller angeordnet waren.. Die Notstromversorgung kam zum Erliegen und die Urankerne der Reaktoren heizten sich wegen der weiterhin generierten Nachwärme stetig auf. Der erzeugte heiße Wasserdampf reagierte chemisch mit dem Zirkonmetall der Brennstabhüllen unter Freisetzung von Wasserstoff. Einen Tag danach kam es beim Reaktor Fukushima 1 (später bei den Reaktoren 2 und 3) zu einer heftigen Knallgasexplosion, welche das Reaktorgebäude massiv beschädigte und undicht machte. Die Urankerne waren inzwischen ganz oder teilweise geschmolzen und führten zur Freilassung der radioaktiven Gase Jod, Cäsium und Strontium in die Umgebung. Hier setzt die Kritik ein, die man unseren japanischen Freunden nicht ersparen kann.

Chaos bei der Konzernzentrale TEPCO in Tokio

Im Hauptquartier der Betreibergesellschaft TEPCO („The Tokyo Electric Power Company“) in Tokio war man über die bedrohliche Situation im 300 Kilometer entfernten Fukushima sehr wohl unterrichtet. Aber in den wichtigen Stunden nach dem Ausfall der Diesel-Notkühlung wurde dort viel Zeit verschwendet und es wurden eine Reihe falscher Entscheidungen getroffen. Statt mobile Notstromgeneratoren und Pumpen schnellstens per Hubschrauber aus Tokio heranzuschaffen, ließ man die vergleichsweise schwachen betrieblichen Batterien  leerlaufen. Die Manager bei Tepco in Tokio waren nicht in der Lage, die Betriebsleute vor Ort wirkungsvoll zu unterstützen. Zur gleichen Zeit offerierte die US-Regierung – welche die Gefährlichkeit der Lage von Anfang an richtig einschätzte – der japanischen Regierung ihre sofortige Hilfe. Aus militärischen Beständen auf den japanischen Stützpunkten wären Pumpenwägen, unbemannte Drohnen und Messroboter zur Verfügung gestellt worden. Doch der japanische Ministerpräsident Naoto Kan lehnte höflich ab; ein Asiate will eben sein Gesicht nicht verlieren.Auch zwischen Tepco und dem Regierungschef funktionierte die Kommunikation nicht. Als Kan die Konzernmanager am Tag nach dem Störfall zur Berichterstattung empfing, erzählten ihm diese alles Mögliche – nur nicht, dass es wenige Stunden vorher bei Block 1 zu einer Wasserstoffexplosion gekommen war. Der Ministerpräsident erfuhr das erst nach der Sitzung von den Presseleuten und war entsprechend wütend. Beispielhaft für die verspätete und lückenhafte Informationspolitik der Tepco ist weiterhin, dass der Konzern die japanische Öffentlichkeit erst Mitte Mai – also volle zwei Monate nach Beginn des Unglücks – darüber unterrichtete, dass in allen drei Reaktoren die Urankerne zumindest angeschmolzen waren.

Ein Drama für sich war die Entscheidung zum Bespritzen der Reaktorkomponenten mit Meerwasser aus Feuerwehrschläuchen. Der Anlagenleiter Masao Yoshoda forderte die Genehmigung für diese Maßnahme von seinen Chefs in Tokio an, insbesondere um die hochgefährdeten Reaktortanks sowie die innenliegenden Brennelemente abzukühlen. Die Manager bei Tepco sträubten sich längere Zeit dagegen, gaben aber schließlich doch die Zustimmung – um sie 21 Minuten später wieder zurückzuziehen. Angeblich hatte man „aus der Umgebung des Ministerpräsidenten gehört“, dass dieser ebenfalls dagegen sei. Das war jedoch nur vorgeschoben. In Wirklichkeit wusste die Tepco-Zentrale,  dass nach dem Einpumpen des korrosiven Meerwassers die Kernkraftwerke „kaputt“ sein würden. Den Anlagenchef im fernen Fukushima focht dies jedoch nicht an. Geradezu einmalig für japanische Verhältnisse ignorierte er den Stopp-Befehl aus Tokio und besprühte weiterhin seine Reaktoren mit Meerwasser. Auch der Anweisung „zum Verlassen der Anlage“ kam er nicht nach. Dabei hatte er die Unterstützung des Ministerpräsidenten, der darin ein „unheilvolles Fanal“ gesehen hätte. Ein Kapitän verlässt eben nicht seine Brücke.

Späte Anklage

Erst sechs Jahre nach dem Unglück von Fukushima wurde gerichtlich Anklage erhoben. Vorher hatte es die Staatsanwaltschaft von Tokio zwei Mal abgelehnt, die Verantwortlichen vor Gericht zu bringen. Nach ihrer Argumentation sei es unmöglich gewesen, die katastrophalen Abläufe vorher zu sehen, weshalb es auch keine Schuldigen bei dieser Katastrophe gegeben habe. Der Prozess kam schließlich nur aufgrund des selten angewandten Verfahrens zweier „Bürger-Jurys“ zustande, welche die Regierung zu einer Anklage förmlich zwangen.

Es ist das erste strafrechtliche Verfahren in Japan zur Aufarbeitung eines Atomunfalls. Angeklagt ist der 77 Jahre alte frühere Vorstandsvorsitzende Tsunehisa Katsamuta, sowie seine beiden Vizepräsidenten Sakae Muto (66) und Ichiro Takekura (71), allesamt frühere Manager der Betreiberfirma Tepco. Ihnen wird vorgeworfen, ihre dienstlichen Pflichten vernachlässigt zu haben. Unter anderem lastet die Anklage den Managern den Tod von 44 Patienten bei der überhasteten Evakuierung eines Krankenhauses an. Wie in Japan so üblich, verbeugten sich die Angeklagten tief vor Gericht, plädierten aber im Übrigen auf „unschuldig“.

Klar ist, dass das Risiko einer großen Flutwelle im Nordosten Japans lange vor dem Unglück bekannt war. Schon im Jahr 2002 schätzten Fachleute der Regierung in einem Bericht die Wahrscheinlichkeit auf 20 Prozent, dass in den kommenden 30 Jahren ein Erdbeben der Stärke 8 auftreten und einen großen Tsunami auslösen werde. Die entscheidende Frage ist, wer bei Tepco wann von diesem Bericht Kenntnis hatte und warum danach nicht umgehend die Deiche erhöht wurden.

Ausblick

Den drei Angeklagten droht im Maximum eine Haftstrafe von 5 Jahren oder eine Geldstrafe von (umgerechnet) 7.800 Euro. Mit einem Urteil wird nicht vor dem Jahr 2018 gerechnet. Nach Schätzungen von Tepco wird es 30 bis 40 Jahre dauern, bis die Kraftwerksruinen in Fukushima endgültig rückgebaut sind.Derweil setzt die Regierung darauf, dass die nach dem Unfall stillgelegten Kernkraftwerke Schritt für Schritt wieder ans Netz gehen können. Von den 42 Reaktoren, welche nach dem Unglück abgeschaltet wurden, sind bereits 5 wieder  in Betrieb.

Übernommen von Rentnerblog hier