Trinkstationen gegen den Klimawandel

Gäbe es nicht die Informationsseite zu Klima und Energie [3] und einen EIKE-Unterstützungsautor, der es sich zur Klimakasteiung ab und zu antut, dort hineinzusehen, hätten viele EIKE-Leser sicher nie etwas über diesen Meilenstein in der Klima-Stadtertüchtigung erfahren:
KLIMARETTER.INFO, 26. September: Trinkstationen gegen den Klimawandel
Das Berliner Projekt Kiezklima hat Bürger befragt, wie sie mit extremer Hitze in der Stadt umgehen. Herausgekommen sind überraschend gute Ideen für die Anpassung von Städten an den Klimawandel

Unsere Städte werden zu lebensgefährlichen Klimafallen …

KLIMARETTER.INFO: [1] Großstädte sind Wärmeinseln – und das kann gefährlich sein. In Berlin zum Beispiel, Deutschlands größter Stadt, sterben pro Jahr 700 bis 800 Menschen zusätzlich während Hitzewellen. Vor allem ältere und kranke Menschen sind gefährdet. Und die Zahlen dürften steigen, denn Klimaforscher erwarten für den Raum Berlin-Brandenburg, dass sich die jährliche Zahl heißer Tage mit über 30 Grad Celsius in diesem Jahrhundert vervierfachen und die der Tropennächte, in denen die Temperatur nicht unter 20 Grad fällt, sogar verfünffachen wird. Nicht nur in Dachgeschoss-Wohnungen könnte es für die Bewohner dann sehr ungemütlich bis lebensgefährlich werden.

… wovon die Natur nur nichts weiß

Wie eigentlich immer, wenn „Klimaforscher“ in den schlimmsten Farben ausmalen, lohnt es sich bei solchen Aussagen, die Messwerte aus der Natur zu „befragen“.
Wie Bild 1 zeigt, wurden die Sommertemperaturen seit dem Hoch kurz nach 1990 wieder niedriger und sind aktuell nicht höher als im Jahr 1911. Kein Wunder, dass die Zukunftsprojektionen schon aktuell meistens danebenliegen und für das Jahr 2100 eine Spanne von 6 Grad „bieten“, aus der sich jeder Klimafachmann das Gewünschte heraussuchen darf.

Bild 1 Berlin-Brandenburg, Verlauf der Sommertemperatur seit 1960. Mit Zufügungen vom Autor. Quelle: DWD Klimaatlas

Die „heißen Tage“ nahmen seit 1990 zu- Ein stetiger Trend zu „immer mehr“ ist aber nicht zu sehen.

Bild 2 Berlin-Brandenburg, Verlauf der „heißen Tage“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

Auch Tropennächte, welche „lebensgefährlich“ werden, zeigen keinen ansteigenden Trend, nur, dass diese Anzahl schon in den 70er Jahren von der heutigen Rentnergeneration „überlebt“ wurde.

Bild 3 Berlin-Brandenburg, Verlauf der „tropischen Nächte“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

In Deutschland ist es vor allem heiß, wenn es nicht regnet. Doch die Länge der Trockenperioden nimmt auch nicht zu.

Bild 4 Berlin-Brandenburg, Verlauf der „längsten Trockenperioden“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

Nur die Winter werden nicht mehr ganz so kalt. Fast könnte man sagen: Winter, wie bis zum ersten Weltkrieg schon einmal waren und ohne die folgenden, schlimmen Kältewellen bis 1970, als die Klimaforscher entnervt die kommende Eiszeit ausgerufen hatten.
Nachdem die „Alten“ jedoch entgegen den Angaben von Klimaretter weiterhin vorwiegend bei Kälte sterben:
EIKE 21.07.2015:
ist auch das positiv und erspart sicher einigen Senioren, in den warmen Süden ziehen zu wollen, wo sie nach der Klimawandel-Zunft unweigerlich an Hitze noch frühzeitiger zu sterben hätten.

Bild 5 Berlin-Brandenburg, Verlauf der Wintertemperatur seit 1960. Vom Autor ergänzt. Quelle: DWD Klimaatlas

Der Stadtteil erwärmt sich um bis zu 10°C gegenüber dem Umland

Ein Umstand, den alle Großstädte haben und gegen dessen Größe jeglicher, denkbare Einfluss eines sich stetig wandelnden Klimas vollkommen in den Hintergrund tritt.
Berlin-Brandenburg hatte seit 1880 ca. +1,5 Grad Temperaturerhöhung. Davon sind angeblich 50 % vom Menschen verursacht, wären demnach CO2-bedingt maximal +0,75 Grad in fast 140 Jahren. Gegen den städtischen Wärmeinseleffekt von +10 Grad ist das nichts.
Für städtische Verwaltungen jedoch kein Grund, den minimalen Effekt nicht durch CO2-Minderung mit Unsummen an Steuergeldern „bekämpfen“ zu wollen:
EIKE 24.09.3017: [4] Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel
EIKE 25.04.2017: [5] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr (Berlin)
und viele, langwierige und teure Studien aufzusetzen:
KLIMARETTER.INFO: [1] … In dem bundesweit einmaligen Forschungsprojekt „Kiezklima“ wurde in den vergangenen drei Jahren untersucht, wie das Leben unter Klimawandel-Bedingungen verbessert werden kann … „Hier im Brunnenviertel wird es im Sommer bis zu zehn Grad heißer als im Berliner Umland„, sagt Eva Wiesemann von der privaten List-Stadtentwicklungsgesellschaft, die das vom Bundesumweltministerium geförderte Projekt zusammen mit sechs weiteren Partnern seit 2014 durchgeführt hat

Die Bewohner selbst spüren zwar nichts vom Klimawandel. Doch wenn man ihnen davon erzählt, erinnern sie sich, dass sie schon mal unkonzentriert waren…

Auch Berlin scheint das Problem zu haben, dass die Bewohner „klimadumm“ sind und erst durch „Fachpersonen“ darauf gestoßen werden müssen. Vergleichbar vielen Südsee-Atollbewohnern, die erst nach den „Einweisungen“ von NGOs und der Kenntnis um Klimaschutzgelder [6] darauf kamen, dass ihre Inseln untergehen.
KLIMARETTER.INFO: [1] … Wiesemann musste viel Aufklärungsarbeit leisten. „Wenn man die Leute fragt, ob sie etwas vom Klimawandel spüren, sagen sie meist: Nein„, erzählt sie. Doch wenn die Fragen konkret wurden, wenn die List-Mitarbeiterin zum Beispiel wissen wollte, wie die Bewohner in den Hitzeperioden zurechtkommen, sei das ganz anders gewesen. Sehr heiß sei es gewesen, hätten sie berichtet, man könne sich nicht gut konzentrieren, und viele Menschen fänden in den heißen Nächten kaum Schlaf.

Die Klima-Vulnerabilitätsforschung zeigt Erfolge und Lösungen, welche bisher niemand kannte

KLIMARETTER.INFO: [1] … Außerdem konnte Wiesemann Geschäfte im Viertel dafür gewinnen, ein Netz von „Trinkstationen“ aufzubauen, an denen man kostenlos ein Glas kaltes Wasser bekommen kann. Und seit Anfang des Sommers gibt es einen öffentlichen Trinkbrunnen auf dem Vinetaplatz mitten im Quartier, ein zweiter steht am Bahnhof Gesundbrunnen.

Ohne umfassendes Klimamanagement ist ein Stadtteil heutzutage praktisch hilflos …

Immer neu bestätigt sich die Überzeugung des Autors, dass „der Klimawandel“ im Wesentlichen eine weltweit angelegte Arbeitsbeschaffungsmaßnahme für die sonst nicht verwendbare Akademikerschwemme ist.
KLIMARETTER.INFO: [1] Vorbild für Klimaanpassung
„Kiezklima“ arbeitet seit 2014 an einer Beteiligung der Bürger für den Aus- und Umbau des Berliner Brunnenviertels. Das Projekt erhebt Klimadaten, schlägt Anpassungsmaßnahmen etwa für Hitzewellen vor und bezieht die Anwohner in die Planungen ein. Das Viertel im Zentrum der Hauptstadt ist so zu einem „Modellgebiet für Klimaanpassungsmaßnahmen“ geworden. Dazu gehören auch die „Brunnengärten“. Im vergangenen Jahr zeichnete das Umweltbundesamt das Projekt mit dem „Blauen Kompass“ aus. In diesem Jahr ist es für den ZeitzeicheN-Preis für lokale Nachhaltigkeitsinitiativen nominiert

Bild 6 Projektpartner „Kiezklima“

… wer käme sonst auf die Idee, gegen den Klimawandel in Hochbeeten Gemüse- und Gartenkräuter anzubauen

Dazu natürlich auch die wohl in Vergessenheit geratene Kenntnis, dass Beschattung gegen Sonnenstrahlung schützen kann.
KLIMARETTER.INFO: [1] Wohnhof bekommt Sonnensegel
Eine ganze Reihe Ideen sind in dem Kiezklima-Projekt gesammelt worden. Einige davon wurden schon in die Tat umgesetzt. So wurden in einem der Innenhöfe der Wohnblöcke der kooperierenden Berliner Wohnungsbaugesellschaft Degewo Hochbeete angelegt, in denen Mieter Gemüse und Gartenkräuter anbauen.

Mit Klimawandel hat das alles jedoch nichts zu tun, eher mit dem Unvermögen der bisherigen Verwaltung

Im Gegensatz zur Redaktion von Klimaetter kann der Autor nicht erkennen, dass ein sich stetig veränderndes Klima Anlass für solche Ma0nahmen geben könnte. Zumindest die Klimadaten geben dafür keinerlei Anhaltspunkt.
Sollten sich in diesem Wohnviertel wirklich herausstellen, dass Wohnungen bei bestimmten Wetterlagen „lebensgefährlich“ sind, sollte man vielleicht die Bausubstanzen und Isolierungen überprüfen und den zuständigen Aufsichtsbehörden und Vermietern gehörig „die Ohren langziehen“. Lösungen wie beim Auto, welche es inzwischen mit Klimaanlagen gibt, weil niemand mehr wie früher im Sommer ohne fahren will, wären denkbar. Zumindest käme der Autor ohne eine langwierige und teure Untersuchung darauf.
Nun handelt es sich laut dem Bericht wohl um einen Problemstadtteil [1]: „ …viele Sozialwohnungen, haben zu zwei Dritteln einen Migrationshintergrund …“.
Dies legt die Vermutung nahe, dass man Sanierungsanalysen und Stadtteilarbeit unter dem Deckmantel „Klima“ finanzieren lies, weil für vernünftige Direkt-Maßnahmen keine Fördermittel genehmigt wurden. Den „Ideologieschwund“ und übertriebenen Aufwand, sowie sinnlose Zusatzmaßnahmen nahm man wohl in Kauf.
Ob dieses Vorgehen wirklich so richtungsweisend ist, wie es die Redaktion von Klimaretter darstellt, wagt der Autor zu bezweifeln.
Vielleicht nehmen es aber die Stadtverwaltungen der noch viel „lebensgefährlicheren“ Städte im Rheingraben und schönen Freiburg zum Anlass, die Bewohner vorsorglich bis zur Gefahrenklärung „auszulagern“, wie es bei den wärmegedämmten Hochhäusern schon passiert ist.
In Freiburg waren es im Sommer immerhin zwei Grad mehr Hitze, während in Berlin-Brandenburg die Sommer-Mitteltemperatur seit 1880 um ca. 1,5 °C gestiegen ist.

Bild 7 Sommertemperaturverlauf 2017 Freiburg Flugplatz und Berlin-Tegel. Quelle: wetteronline

Nach der in Freiburg bereits erfolgten „Klimazeitreise“ von über 200 Jahren müsste die schöne und beliebte Stadt eigentlich schon den Klimatod gestorben sein.

Welch ein Glück, dass es ausreicht, erst in der fernen Zukunft mit dem „Klimaschutz“ anzufangen und den „Werkzeugkasten“ zu füllen, der sich anscheinend vorwiegend um Förderprogramme und Finanzierungsfragen kümmert.

Bild 8 Screenshot Quelle: FWTM Freiburg

Weiterbildung „Kommunales Energie- und Klimaschutzmanagement“
15. Januar 2016 – 16. Juli 2016, berufsbegleitend
FWTM:
Durchgeführt von fesa e.V. in Kooperation mit dem Institut für Fortbildung und Projektmanagement ifpro
In 13 kompakten Modulen vom 15. Januar bis zum 16. Juli 2016 füllen die künftigen Klimaschutzmanager und andere regional Klimaschutzaktive ihren Werkzeugkasten mit allem, was es für die Umsetzung der Energiewende vor Ort braucht: Vom Kontext und den Grundlagen kommunalen Klimaschutzes geht es über die rechtlichen Rahmenbedingungen bis zu Förderprogrammen und Finanzierung. Der Kurs beinhaltet ebenso Basiswissen über Erneuerbare Energien, Kraft-Wärme-Kopplung und Wärmenetze wie Informationen zu Energieeffizienz und Energiemanagement in kommunalen Liegenschaften. Weitere Themenfelder sind Öffentlichkeitsarbeit und Bürgerbeteiligung. Abgerundet und auf Praxisnähe zugeschnitten wird die Fortbildung durch eine Einführung in das Projektmanagement, das die Teilnehmerinnen und Teilnehmer dann auch im Rahmen eigener, kursbegleitender Projektarbeiten vertiefen und verfestigen.

Quellen

[1] KLIMARETTER.INFO 26. September 2017: Trinkstationen gegen den Klimawandel

[2] Kiezklima, Homepage

[3] EIKE 25. September 2017 : Das Interview!

[4] EIKE 24.09.3017: Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel

[5] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[6] EIKE 14.12.2015 (Tel 2 … 3): Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang




Facetten der Mathematik

Die Ägypter besaßen eine hochentwickelte Mathematik und Geometrie, sonst hätten sie nie und nimmer die Pyramiden berechnen und bauen können. Mit dem „Papyrus Rhind“ (aufbewahrt im Britischen Museum) haben sie uns gewissermaßen ein Buch zur Mathematik hinterlassen, in dem sogar x-Gleichungen vermerkt sind. Die wichtigste Schule der Mathematik befand sich jedoch um 350 v. Chr. in Alexandria. Das Genie Euklid, von dessen Leben wir fast nichts wissen, war der Begründer einer Schule, welche das berühmte Lehrbuch „Die Elemente“ herausgebracht hat.

Klassischerweise unterscheidet man in der Mathematik vier große Disziplinen: Geometrie, Algebra, Analysis und Stochastik. (Heute würden wir noch die Logik und die Topologie benennen.) Die Geometrie ist die Lehre des umgebenden Raumes mit Punkten, Geraden, Vierecken und Kreisen etc. Sie hatte ihre Blütezeit in der griechischen Antike. Bei der Algebra studiert man die Zahlen und ihre Eigenschaften, z. B. die Primzahlen. Die Analysis ist die Differential- und Integralrechnung und die Stochastik die Lehre vom Zufall.

Null – Eins – Unendlich

Die Erfindung der Null („0“) war eine Großtat, ähnlich wie die Erfindung des Rads. Vor gut tausend Jahren tauchte sie erstmals auf einem Tempel in Indien auf; um 1.200 n.Chr. war sie auch in Westeuropa angekommen. Manchmal entsteht ein Streit um das Vorzeichen der 0. Nun, der ist überflüssig, denn die 0 kann man sowohl mit einem plus-Zeichen, als auch mit einem minus-Zeichen versehen. Also: +0 oder -0 ist egal.— Anders verhält es sich bei der Frage, ob die 0 eine gerade Zahl (wie beispielsweise 4) oder eine ungerade Zahl (wie 5) ist. Nun, die Mathematiker sehen die 0 als eine gerade Zahl an, denn sie lässt sich zwei Mal auf 0 aufteilen: 0+0 ist wiederum 0.

Die natürliche Zahl 1 kennt jeder. Sie verleitet uns dazu immer weiter zu zählen, also: 1, 2, 3… bis in das Unendliche, welches die Mathematiker sich als (unbeweisbares) Axiom vorstellen. Mit dem Begriff „unendlich“ (geschrieben als liegende acht) lässt sich trefflich spielen, z. B. beim Bruchrechnen. So geht die Summe der unendlichen Bruchreihe 1/2 + 1/3 + 1/4 + 1/5 … = ∞

Sie geht also über alle Grenzen hinweg, bis ins Unendliche.
Demgegenüber ist die Summe der nur leicht veränderten Bruchreihe

1/2 + 1/4 + 1/8 + 1/16….= 1.

Die erste Reihe divergiert ins Unendliche,  die zweite konvergiert zu 1.

Ein Teilbereich der natürlichen Zahlen sind die Primzahlen; sie sind größer als 1 und nur durch 1 und sich selbst teilbar. Die ersten Primzahlen sind: 2, 3, 5, 7, 11, 13, 17, 19… Die Primzahlen haben eine große Bedeutung in der Verschlüsselungstechnik bei Großrechnern. Fakt ist, dass es unendlich viele Primzahlen gibt, aber dass (leider) keine Formel existiert, sie zu berechnen.

Mit dem Begriff ∞ man sich verrückte Sachen ausdenken. Eine Anwendung ist das sog.“Hilbert Hotel“, das im vorigen Jahrhundert von dem deutschen Mathematiker David Hilbert vorgestellt wurde. Er dachte sich ein Hotel aus mit unendlich vielen Zimmern, welche die Nummern 1, 2, 3… bis ∞ trugen. Alle Zimmer dieses Hotels sind belegt, aber nun taucht ein weiterer Gast auf, der Einlass begehrt. Für Hilbert ist dies kein Problem. Er bittet den (bisherigen) Gast in Zimmer 1 ins Zimmer 2 zu wechseln, den Gast in Zimmer 2 ins Zimmer 3 usf. bis ins Unendliche. Dadurch haben alle bisherigen Gäste wieder ein Zimmer – und der neue Gast kann in Zimmer 1 einziehen. Mathematisch gesprochen funktioniert dies, weil ∞ + 1 = ∞ ist.

 

Berühmte Mathematiker

Geniale Mathematiker gab es in den vergangenen zweieinhalbtausend Jahren in großer Zahl. Unter den noch Lebenden ist der Brite Andrew Wiles zu nennen, dem es gelang, eine vierhundert Jahre alte Behauptung des Franzosen Pierre de Fermat zu beweisen. Der sog. Fermat´sche Satz lautet vereinfacht: „Es ist unmöglich, einen Würfel exakt in zwei gleiche, kleinere Würfel zu zerlegen“. Klingt simpel, aber Wiles schuftete – im geheimen – volle sieben Jahre an der Lösung, die mehr als hundert Schreibmaschinenseiten umfasste. Danach genoss er seinen Ruhm in vollen Zügen.

Ein gegensätzlicher Charaktertyp war der (ebenfalls noch lebende) Russe Grigori Perelmann. Er bewies 2003 die sog. Poincaré-Vermutung. Sie besagt (vereinfacht), dass der vierdimensionale Raum in etwa so ähnlich ist, wie der uns zugängliche dreidimensionale. Noch mehr vereinfacht behauptet der Satz, dass jedes geometrische Objekt, welches kein Loch hat, in eine Kugel überführt werden kann. Trotz (oder wegen?) des Presserummels lehnte Perelmann nach der erfolgreichen Lösung jede Ehrung ab – auch den Millionenpreis einer amerikanischen Universität. Er kündigte sogar seine Stellung im Moskauer Forschungsinstitut und ist seitdem untergetaucht.

Keiner der beiden hat sich für den Nobelpreis qualifiziert, denn diese Auszeichnung gibt es nur in den Sparten Physik, Chemie, Medizin, Literatur und Frieden. Warum der schwerreiche Stifter AlfredNobel die Mathematik ausgelassen hat, dafür gibt es eine Legende: angeblich hatte der damals bekannteste schwedische Mathematiker, Gösta Mittag-Leffler (1846 – 1927), ein Verhältnis mit Nobels Frau, weswegen Nobel in seinem Testament, quasi aus Rache, keinen Preis für Mathematiker auslobte. Gegen diese Legende spricht allerdings die Tatsache, dass Alfred Nobel nie verheiratet war. Aber vielleicht hatte er eine attraktive Geliebte?!

Um diese offensichtliche Vakanz zu füllen, gibt es seit einiger Zeit die sog. Fields-Medaille. Sie wird alle vier Jahre an zwei bis max. vier Mathematiker – die jünger als 40 Jahre sein müssen! – für herausragende Entdeckungen in ihrem Gebiet vergeben. Damit ist ein bescheidenes Preisgeld von 15.000 kanadischen Dollars verbunden.

Geniale, aber nicht mehr lebende, Mathematiker des vorigen Jahrhunderts waren u. a. David Hilbert (1867 – 1943) und Kurt Gödel (1906 – 1978). Hilbert listete im Jahr 1900 in einer berühmten Rede 23 bedeutende, aber ungelöste Probleme der Mathematik auf. Von diesen ist in der Zwischenzeit ein Gutteil gelöst, entsprechend der alten Weisheit: „Durch Intuition entdeckt man, durch Wissenschaft beweist man“. Unter Hilberts Problemen war auch der Gödelsche Unvollständigkeitssatz, eine der wichtigsten Behauptungen der modernen Logik. Er besagt, dass man nicht alle Aussagen der Mathematik formal beweisen kann, womit er diese Wissenschaft in beträchtliche Nöte brachte.

Erstaunen mag, dass unter diesen Geistesheroen Albert Einstein (1879 – 1955), der Entdecker zweier Relativitätstheorien fehlt. Aber Einstein war in erster Linie ein genialer (theoretischer) Physiker. Auf dem Gebiet der Mathematik war er eher schwach – nach eigener Einschätzung!

Gehen wir weiter in die Vergangenheit zurück, dann treffen wir auf hervorragende Mathematiker wie Leonhard Euler (1707 – 1783), Carl Friedrich Gauß (1777 – 1855), Gottfried Wilhelm Leibniz (1646 – 1716) und Isaac Newton(1642 – 1726).

In der griechisch-römischen Antike ragen heraus: Thales von Milet, der um das Jahr 600 v. Chr. gelebt hat, Pythagoras von Samos (um 550 v. Chr.) und Euklid von Alexandria (um 350 v. Chr.). Der Allergrößte unter diesen antiken Genies war wohl Archimedes von Syrakus (um 250 v. Chr.). Er berechnete als Erster die Kreiszahl π und leiste auch als Physiker und Ingenieur Bedeutendes.
Pythagoras hat den nach ihm benannten Satz erstmals bewiesen; benutzt wurde er bereits von den Babyloniern. Seitdem gibt es für ihn mehr als 300 Beweise.

Archimedes

Schöne Formeln

In der Mathematik gibt es Tausende, ja Millionen von Formeln und Gleichungen. Kein Wunder, dass manche besonders „schön“ anmuten. Nach allgemeiner Ansicht gebührt die Krone der sog. Eulerschen Formel:


In dieser einfachen Beziehung kommen fünf wichtige Zahlen der Mathematik vor,
nämlich 0, 1, die Kreiszahl π, die Eulersche Zahl e und die imaginäre Einheit i.
Eine sonderliche Bedeutung für die Anwendung hat diese Formel nicht, sie ist nur einfach „schön“.

Besser für die Anwendung geeignet ist eine andere schöne Formel, die ebenfalls von Euler ist und aus dem Gebiet der Geometrie stammt. Sie lautet:

e – k + f = 2

Es ist die Eulersche Polyederformel, wobei Polyeder Vielflächner sind wie Würfel, Pyramiden – oder Fußbälle. Nicht jedoch, wohlgemerkt, die Kugel. Dabei bedeutet e die Anzahl der Ecken, k die Anzahl der Kanten und f die Anzahl der Flächen. Nehmen wir den Würfel als Beispiel. Er hat 8 Ecken (e), 12 Kanten (k), und 6 Flächen (f). Eingesetzt in die Polyederformel ergibt sich: 8-12+6=2.

Ein anderer, allen bekannter Polyeder ist der klassische Fußball. Er besteht in der Regel aus 12 (schwarzen) Fünfecken und 20 (weissen) Sechsecken, also insgesamt 32 Flächen (f). Durch Nachzählen kommt man auf 60 Ecken. Die Zahl der Kanten kann man aus der Formel errechnen:

60 + 32 – 2 = 90 Kanten.

Nach dieser vorbereitenden Tätigkeit ist Bayern München bereit zum Angriff:

Toooor!!
Übernommen vom Rentnerblog hier



Fukushima: Schuldige werden gesucht

Als am 11. März 2011, einem Freitag Nachmittag um 14 Uhr 46 (japanischer Zeit), ein Seebeben der Magnitude 9,0 die vier Kernkraftwerke im Ortsteil Daiichi durchrüttelte, war die Welt, vergleichsweise, noch in Ordnung. Drei Reaktoren schalteten sich selbstständig ab, der vierte war wegen Wartungsarbeiten gar nicht in Betrieb. Die elektrische Stromversorgung des umliegenden Netzes war zwar ausgefallen, aber die für solche Fälle bereitstehenden Diesel sprangen automatisch an und sicherten die Kühlung der Reaktorkerne mit Wasser.

Eine Stunde später traf ein Tsunami von 14 Metern Höhe ein und überschwemmte den nur 5,7 Meter hohen Schutzwall sowie alle Dieselaggregate, die im Keller angeordnet waren.. Die Notstromversorgung kam zum Erliegen und die Urankerne der Reaktoren heizten sich wegen der weiterhin generierten Nachwärme stetig auf. Der erzeugte heiße Wasserdampf reagierte chemisch mit dem Zirkonmetall der Brennstabhüllen unter Freisetzung von Wasserstoff. Einen Tag danach kam es beim Reaktor Fukushima 1 (später bei den Reaktoren 2 und 3) zu einer heftigen Knallgasexplosion, welche das Reaktorgebäude massiv beschädigte und undicht machte. Die Urankerne waren inzwischen ganz oder teilweise geschmolzen und führten zur Freilassung der radioaktiven Gase Jod, Cäsium und Strontium in die Umgebung. Hier setzt die Kritik ein, die man unseren japanischen Freunden nicht ersparen kann.

Chaos bei der Konzernzentrale TEPCO in Tokio

Im Hauptquartier der Betreibergesellschaft TEPCO („The Tokyo Electric Power Company“) in Tokio war man über die bedrohliche Situation im 300 Kilometer entfernten Fukushima sehr wohl unterrichtet. Aber in den wichtigen Stunden nach dem Ausfall der Diesel-Notkühlung wurde dort viel Zeit verschwendet und es wurden eine Reihe falscher Entscheidungen getroffen. Statt mobile Notstromgeneratoren und Pumpen schnellstens per Hubschrauber aus Tokio heranzuschaffen, ließ man die vergleichsweise schwachen betrieblichen Batterien  leerlaufen. Die Manager bei Tepco in Tokio waren nicht in der Lage, die Betriebsleute vor Ort wirkungsvoll zu unterstützen. Zur gleichen Zeit offerierte die US-Regierung – welche die Gefährlichkeit der Lage von Anfang an richtig einschätzte – der japanischen Regierung ihre sofortige Hilfe. Aus militärischen Beständen auf den japanischen Stützpunkten wären Pumpenwägen, unbemannte Drohnen und Messroboter zur Verfügung gestellt worden. Doch der japanische Ministerpräsident Naoto Kan lehnte höflich ab; ein Asiate will eben sein Gesicht nicht verlieren.Auch zwischen Tepco und dem Regierungschef funktionierte die Kommunikation nicht. Als Kan die Konzernmanager am Tag nach dem Störfall zur Berichterstattung empfing, erzählten ihm diese alles Mögliche – nur nicht, dass es wenige Stunden vorher bei Block 1 zu einer Wasserstoffexplosion gekommen war. Der Ministerpräsident erfuhr das erst nach der Sitzung von den Presseleuten und war entsprechend wütend. Beispielhaft für die verspätete und lückenhafte Informationspolitik der Tepco ist weiterhin, dass der Konzern die japanische Öffentlichkeit erst Mitte Mai – also volle zwei Monate nach Beginn des Unglücks – darüber unterrichtete, dass in allen drei Reaktoren die Urankerne zumindest angeschmolzen waren.

Ein Drama für sich war die Entscheidung zum Bespritzen der Reaktorkomponenten mit Meerwasser aus Feuerwehrschläuchen. Der Anlagenleiter Masao Yoshoda forderte die Genehmigung für diese Maßnahme von seinen Chefs in Tokio an, insbesondere um die hochgefährdeten Reaktortanks sowie die innenliegenden Brennelemente abzukühlen. Die Manager bei Tepco sträubten sich längere Zeit dagegen, gaben aber schließlich doch die Zustimmung – um sie 21 Minuten später wieder zurückzuziehen. Angeblich hatte man „aus der Umgebung des Ministerpräsidenten gehört“, dass dieser ebenfalls dagegen sei. Das war jedoch nur vorgeschoben. In Wirklichkeit wusste die Tepco-Zentrale,  dass nach dem Einpumpen des korrosiven Meerwassers die Kernkraftwerke „kaputt“ sein würden. Den Anlagenchef im fernen Fukushima focht dies jedoch nicht an. Geradezu einmalig für japanische Verhältnisse ignorierte er den Stopp-Befehl aus Tokio und besprühte weiterhin seine Reaktoren mit Meerwasser. Auch der Anweisung „zum Verlassen der Anlage“ kam er nicht nach. Dabei hatte er die Unterstützung des Ministerpräsidenten, der darin ein „unheilvolles Fanal“ gesehen hätte. Ein Kapitän verlässt eben nicht seine Brücke.

Späte Anklage

Erst sechs Jahre nach dem Unglück von Fukushima wurde gerichtlich Anklage erhoben. Vorher hatte es die Staatsanwaltschaft von Tokio zwei Mal abgelehnt, die Verantwortlichen vor Gericht zu bringen. Nach ihrer Argumentation sei es unmöglich gewesen, die katastrophalen Abläufe vorher zu sehen, weshalb es auch keine Schuldigen bei dieser Katastrophe gegeben habe. Der Prozess kam schließlich nur aufgrund des selten angewandten Verfahrens zweier „Bürger-Jurys“ zustande, welche die Regierung zu einer Anklage förmlich zwangen.

Es ist das erste strafrechtliche Verfahren in Japan zur Aufarbeitung eines Atomunfalls. Angeklagt ist der 77 Jahre alte frühere Vorstandsvorsitzende Tsunehisa Katsamuta, sowie seine beiden Vizepräsidenten Sakae Muto (66) und Ichiro Takekura (71), allesamt frühere Manager der Betreiberfirma Tepco. Ihnen wird vorgeworfen, ihre dienstlichen Pflichten vernachlässigt zu haben. Unter anderem lastet die Anklage den Managern den Tod von 44 Patienten bei der überhasteten Evakuierung eines Krankenhauses an. Wie in Japan so üblich, verbeugten sich die Angeklagten tief vor Gericht, plädierten aber im Übrigen auf „unschuldig“.

Klar ist, dass das Risiko einer großen Flutwelle im Nordosten Japans lange vor dem Unglück bekannt war. Schon im Jahr 2002 schätzten Fachleute der Regierung in einem Bericht die Wahrscheinlichkeit auf 20 Prozent, dass in den kommenden 30 Jahren ein Erdbeben der Stärke 8 auftreten und einen großen Tsunami auslösen werde. Die entscheidende Frage ist, wer bei Tepco wann von diesem Bericht Kenntnis hatte und warum danach nicht umgehend die Deiche erhöht wurden.

Ausblick

Den drei Angeklagten droht im Maximum eine Haftstrafe von 5 Jahren oder eine Geldstrafe von (umgerechnet) 7.800 Euro. Mit einem Urteil wird nicht vor dem Jahr 2018 gerechnet. Nach Schätzungen von Tepco wird es 30 bis 40 Jahre dauern, bis die Kraftwerksruinen in Fukushima endgültig rückgebaut sind.Derweil setzt die Regierung darauf, dass die nach dem Unfall stillgelegten Kernkraftwerke Schritt für Schritt wieder ans Netz gehen können. Von den 42 Reaktoren, welche nach dem Unglück abgeschaltet wurden, sind bereits 5 wieder  in Betrieb.

Übernommen von Rentnerblog hier




Trotz Abwahl: Bundesumweltministerin bewilligt die ersten 60 Klimaschutz-Nachbarschaftsprojekte

Man tut so als sei nichts gewesen. Man tut so als ob man nicht soeben abgewählt wurde. Man tut so, als könne man weiterhin business as usual betreiben.

Nur so lässt sich die Chuzpe der Bundesumweltminsterin verstehen noch schnell, als nur noch geschäftsführende Ministerin, einige weitere Steuermillionen für „Klimaschutzprojekte“ zu versenken. In einer Pressemitteilung dem BMU vom 26.9.17 heißt es:

Das Bundesumweltministerium hat die ersten 60 Projekte des Förderaufrufs „Kurze Wege für den Klimaschutz“ bewilligt. Dabei setzen die Projekte beim Alltagshandeln der Bürgerinnen und Bürger auf Nachbarschaftsebene an. Sie werden mit rund 4,9 Millionen Euro aus Mitteln der Nationalen Klimaschutzinitiative (NKI) gefördert. Die ausgewählten Projekte sollen zur Umsetzung der Klimaschutzziele der Bundesregierung beitragen, indem sie Rahmenbedingungen für energieeffiziente und ressourcenschonende Lebensstile schaffen.

Bundesumweltministerin Dr. Barbara Hendricks:

„Klimaschutz darf für Bürgerinnen und Bürger keine abstrakte Idee sein, sondern muss mit Leben gefüllt und mit entsprechenden Rahmenbedingungen unterstützt werden. Durch nachbarschaftliche Vorhaben können auf kurzen Wegen nachbarschaftliche Klimaschutzmaßnahmen wirken und Ressourcen eingespart werden. Die praktische Anbindung an die Lebenswelten der Bürgerinnen und Bürger ist dabei unerlässlich.“

Von Aurich bis Nürnberg und Eberswalde bis Freiburg: Die nun startenden Projekte widmen sich insbesondere den Schwerpunkten Mobilität, Ernährung und Konsum sowie Abfall und Recycling. Unter den Projekten sind Mitfahrkonzepte und Radverleihsysteme, urbane Gärten, Repair-Cafés, Stadtgrün und viele nachbarschaftliche Bildungsangebote, die das individuelle Können und Wissen bezogen auf Ernährung, Konsum, Energiesparen, Wiederverwertbarkeit von Gegenständen thematisieren.

Und damit nicht genug. Der Selbstbedienungsladen für „Bürgerinnen und Bürger“ mit noch so abstrusen Ideen für den „Klimaschutz“ bleibt weit offen, den zum Schluss heißt es in der PM

Ein weiteres Förderfenster zur Einreichung von Projektskizzen öffnet vom 1. Mai bis zum 1. Juli 2018.

Ein guter Anlass für die gerade gewählte AfD Fraktion im Deutschen Bundestag, mittels einer großen Anfrage den erwarteten Nutzen in Bezug auf die Erreichung der Pariser Klimaziele aber vor allem den Umfang dieser massiven Verschwendung von Steuermitteln zu erfragen.

Mit Dank an Hartmut Hüne für den Hinweis




Häufig gestellte Fragen 9.1*: Eine Kritik

Im AR 5 des IPCC heißt es unter FAQ 9.1 (Seite 824):

Die Komplexität von Klimamodellen … hat seit dem AR 1 aus dem Jahr 1990 substantiell zugenommen. In dieser Hinsicht sind also gegenwärtige Modelle des Erdsystems deutlich ,besser‘ als die Modelle von damals.

Sie definieren „besser“ explizit als ,komplexer‘. Was die Politiker jedoch wissen müssen ist, ob diese Prophezeiungen präziser und zuverlässiger sind! Das heißt, sind sie überhaupt brauchbar?

Bei FAQ 9.1 heißt es weiter:

Ein wichtiger Gedanke ist, dass die Modellgüte nur evaluiert werden kann relativ zu Beobachtungen aus der Vergangenheit, wobei man die natürliche interne Variabilität berücksichtigen muss.

Dies stimmt nur dann, wenn die Modelle so angepasst werden, dass sie zum Wetter der Vergangenheit passen, besonders hinsichtlich Temperatur und Niederschlag. Allerdings ist dieses Pseudo-Modellverhalten kaum besser als das Anpassen einer Kurve mittels eines Polynoms höherer Ordnung. Was man tun sollte ist, den Verlass auf historische Daten zu minimieren, wobei man eher Grundsätzen folgen sollte als dem, was derzeit gemacht wird, nämlich eine Projektion zu simulieren und dann 5 bis 10 Jahre warten, um abzuschätzen, wie gut die projizierte Vorhersage zu tatsächlichen zukünftigen Temperaturen passt. So wie man es derzeit macht – trotz der Anwendung von Grundsätzen – dürfte es kaum besser sein als die Verwendung eines neuralen ,Black Box‘-Netzwerkes für Vorhersagen wegen der Stützung auf das, was Ingenieure „Toffee-Faktor“ [fudge factors] nennen bei der Anpassung an die Historie.

Weiter bei FAQ 9.1:

Um Vertrauen in die Zukunfts-Projektionen derartiger Modelle zu haben, muss das historische Klima – nebst dessen Variabilität und Änderung – gut simuliert sein.

Offensichtlich ist, dass falls die Modelle das historische Klima nicht gut simulieren man kein Vertrauen in ihre Fähigkeit zu Vorhersagen setzen würde. Allerdings reicht die Anlehnung an die Historie nicht aus, um zu garantieren, dass Projektionen korrekt sind. Polynom-Anpassungen der Daten kann hohe Korrelations-Koeffizienten haben, sind jedoch dafür bekannt, in das Nirwana zu entfleuchen, wenn man über die Datensequenz hinaus extrapoliert. Darum sage ich oben, dass der Wahrheits-Test darin besteht, die Modelle tatsächlich die Zukunft vorhersagen zu lassen. Ein anderes Verfahren, das man anwenden könnte wäre, die Modelle nicht an alle historischen Daten anzupassen, sondern nur an die Daten aus vorindustrieller Zeit oder vor dem Zweiten Weltkrieg. Dann lasse man sie laufen und begutachte, wie gut sie die zweite Hälfte des vorigen Jahrhunderts simulieren.

Eines der Probleme bei der Anpassung an historische Daten ist, dass falls die bestehenden Modelle nicht alle Faktoren enthält, welche das Wetter beeinflussen (und das ist fast mit Sicherheit der Fall), dann wird der Einfluss der fehlenden Parameter ungeeignet durch andere Faktoren approximiert. Das heißt, falls es in der Vergangenheit eine ,Störung beim Forcing‘ unbekannter Natur und Größenordnung gegeben hat und man die Daten entsprechend korrigiert, wäre es erforderlich, die Variablen zu korrigieren, die in dem Modellen enthalten sind. Können wir sicher sein, dass wir alle exogenen Inputs bzgl. Klima ausgemacht haben? Können wir sicher sein, dass alle feedback loops mathematisch korrekt sind?

Unbequemerweise wird in Kasten 9.1 (Seite 750) angemerkt:

Zumindest für ein Modell wurde gezeigt, dass der Anpassungsprozess nicht notwendigerweise einen einzelnen, einheitlichen Satz von Parametern für ein gegebenes Modell ergibt, sondern dass verschiedene Kombinationen von Parametern gleich plausible Modelle ergeben können (Mauritsen et al. 2012)

Diese Modelle sind so komplex, dass es unmöglich ist vorherzusagen, wie eine Unendlichkeit von Parameter-Kombinationen die verschiedenen Outputs beeinflussen könnten.

Die Art der in modernen Daten verfügbaren meteorologischen Details steht für historische Daten nicht zur Verfügung, besonders in der Zeit vor dem 20. Jahrhundert! Folglich würde es eine voreilige Schlussfolgerung sein, dass fehlende Forcing-Informationen auf andere Faktoren übertragen werden, die in den Modellen sind. Klarer beschrieben: wir kennen die Zeitpunkte von fast allen Vulkanausbrüchen in der Vergangenheit. Allerdings kann die Dichte der vulkanischen Asche in der Atmosphäre im besten Falle nur geschätzt werden, während die Dichte von Asche und Aerosolen bei aktuellen Ausbrüchen gemessen werden kann. Historische Eruptionen in dünn bevölkerten Gebieten können auch nur Spekulation sein auf der Grundlage eines plötzlichen Rückgangs der globalen Temperaturen zumindest ein paar Jahre lang. Wir haben lediglich qualitative Schätzungen bzgl. außerordentlicher Ereignisse wie z. B. das Carrington-Ereignis, ein koronaler Massenauswurf im Jahre 1859. Wir können uns nur fragen, was alles eine solche massive Injektion von Energie in die Atmosphäre anrichten kann.

Jüngst wurden Bedenken laut, wie der Ozon-Abbau das Klima beeinflussen könnte. Tatsächlich waren Einige so kühn zu behaupten,, dass das Montreal-Protokoll einen unerwünschten Klimawandel verhindert hat. Wir können nicht sicher sein, dass einige Vulkane wie etwa der Mount Katmai in Alaska keinen signifikanten Effekt auf die Ozonschicht hatten, bevor wir überhaupt von Variationen des Ozons wussten. Dieser Vulkan ist bekannt für seine anomalen Emissionen von Salzsäure und Fluorwasserstoff (siehe Seite 4). Weiteres hierzu findet man hier.

Fortsetzung von FAQ 9.1:

Unvermeidlich machen sich einige Modelle hinsichtlich bestimmter Klima-Variablen besser als andere, aber kein Modell zeichnet sich eindeutig als das ,insgesamt beste Modell‘ aus.

Dies liegt zweifellos daran, dass die Modellierer unterschiedliche Hypothesen hinsichtlich Parametrisierungen zugrunde legen, und die Modelle werden an die Variable ihres Interesses angepasst. Dies zeigt, dass die Anpassung die Grundprinzipien außer Kraft setzt und die Ergebnisse dominiert!

Meine Vermutung wird gestützt durch die nachfolgende Anmerkung in FAQ 9.1:

…Klimamodelle basieren in erheblichem Umfang (Hervorhebung von mir [=dem Autor]) auf verifizierbaren physikalischen Grundsätzen und sind in der Lage, bedeutende Aspekte von externen Forcings in der Vergangenheit zu reproduzieren.

Man würde denken, dass dieses Anpassen eine erhebliche Schwäche ist bei den gegenwärtigen Modellierungs-Bemühungen zusammen mit der Notwendigkeit, Energie-Austauschprozesse zu parametrisieren (Konvektion und Wolken), welche räumlich zu klein sind, um direkt modelliert zu werden. Anpassen ist der ,Elefant im Raum‘, der kaum einmal beachtet wird.

Die Autoren von Kapitel 9 räumen in Box 9.1 (Seite 750) ein:

…die Notwendigkeit der Modellanpassung könnte die Modell-Unsicherheit zunehmen lassen.

Verschlimmert wird die Lage durch die Anmerkung in diesem gleichen Abschnitt (Box 9.1, Seite 749):

Mit sehr wenigen Ausnahmen beschreiben die Modellierer nicht detailliert, wie sie ihre Modelle anpassen. Daher ist eine vollständige Liste von Widersprüchen zu Beobachtungen, an welche ein bestimmtes Modell angepasst wird, allgemein nicht verfügbar.

Und schließlich stellen die Autoren eindeutig in Frage, wie das Anpassen den Zweck der Modellierung beeinflusst (Box 9,1, Seite 750):

Die Erfordernis von Anpassungen wirft die Frage auf, ob Klimamodelle für Klimaprojektionen der Zukunft überhaupt brauchbar sind.

Ich denke, dass es wichtig ist anzumerken, dass sich vergraben im Kapitel 12 des AR 5 (Seite 1040) das folgende Statement findet:

Insgesamt gesehen gibt es derzeit kein allgemein anerkanntes und robustes formales Verfahren, um quantitative Schätzungen der Unsicherheit zu liefern bzgl. zukünftiger Änderungen aller Klimavariablen … „

Dies ist wichtig, weil es impliziert, dass die unten gezeigten quantitativen Korrelationen nominelle Werte sind ohne Verankerung in inhärenter Unsicherheit. Das heißt, falls die Unsicherheiten sehr groß sind, dann sind die Korrelationen selbst mit großen Unsicherheiten behaftet und sollten zurückhaltend aufgenommen werden.

Auch das folgende Zitat sowie die nachfolgende Illustration aus FAQ 9.1 gilt dem Thema Zuverlässigkeit:

Ein Beispiel von Änderungen der Modellgüte mit der Zeit wird in FAQ 9.1 gezeigt und illustriert die stattfindende, wenn auch mäßige Verbesserung (Hervorhebung von mir [=dem Autor]).

Allgemein sollte man eine hohe, nicht lineare Korrelation zwischen Temperatur und Niederschlag erwarten. In Wüsten regnet oder schneit es nicht viel, ebenso wie an den Polen (effektiv Kältewüsten). Warme Gebiete, also z. B. die Tropen, sind gekennzeichnet durch gewaltige Verdunstung aus den Ozeanen und Feuchtigkeitsanreicherung durch die Vegetation. Sie stellen also gewaltige niederschlagbare Mengen von Wasserdampf zur Verfügung. Daher bin ich kaum überrascht, dass die folgenden Graphiken eine höhere Korrelation zwischen Temperatur und deren räumlicher Verteilung zeigen als für Niederschlag und dessen räumlicher Verteilung. Bzgl. Temperatur werden Gebiete gezeigt, in denen die modellierte Temperatur höher ist als die gemessenen Temperaturen, dann muss es aber auch Gebiete geben, in denen es kühler als gemessen ist, um den Anpassungen an das globale Temperaturmittel zu genügen. Daher bin ich nicht vollständig überzeugt von Behauptungen hoher Korrelationen zwischen Temperaturen und der räumlichen Verteilung. Könnte es sein, dass die „Oberflächen-Temperaturen“ auch die Wassertemperatur der Ozeane enthalten, und weil die Ozeane über 70% der Erdoberfläche bedecken und nicht die Temperaturextreme des Festlands aufweisen, und dass daher die Temperaturverteilung stark durch Wassertemperaturen gewichtet sind? Das heißt, würden die Korrelations-Koeffizienten fast genauso hoch sein als wenn man ausschließlich Temperaturen auf dem Festland heranzieht?

Bildinschrift: FAQ 9.1, Abbildung 1: Fähigkeit der Modelle, die jährliche mittlere Temperatur und die Verteilung von Niederschlag zu simulieren, illustriert durch die Ergebnisse von drei jüngeren Phasen der CMIP-Modelle (CMIP2 um das Jahr 2000, CMIP3 aus dem Jahr 2005 und CMIP5, die jetzige Modellgeneration). Die Abbildung zeigt die Korrelation zwischen gemessener und modellierter Temperatur (oben) und des Niederschlags (unten). Größere Werte deuten auf eine bessere Korrespondenz zwischen modellierten und beobachteten räumlichen Verteilungen. Die schwarzen Symbole deuten auf Korrelations-Koeffizienten individueller Modelle, und die großen grünen Symbole zeigen den Median-Wert (d. h. die Hälfte der Modellergebnisse liegt über, die andere Hälfte unter diesem Wert. Die Verbesserung des Modellverhaltens wird deutlich durch die Zunahme der Korrelation bei aufeinanderfolgenden Modell-Generationen.

Man sollte beachten, dass die behaupteten Korrelations-Koeffizienten sowohl für CMIP3 als auch für CMIP5 implizieren, dass lediglich 65% des Niederschlags vorhergesagt werden können durch den Ort oder die räumliche Verteilung. Falls Verteilungen des Niederschlags so schlecht erklärt sind im Vergleich zur mittleren Temperatur, gewinne ich kein Vertrauen, dass regionale Temperaturverteilungen Korrelations-Koeffizienten aufweisen, die so hoch sind wie das globale Mittel.

Der AR 5 des IPCC steht hier.

*Intergovernmental Panel on Climate Change, Fifth Assessment Report: Working Group 1; Climate Change 2013: The Physical Science Basis: Chapter 9 – Evaluation of Climate Models

Link: https://wattsupwiththat.com/2017/09/27/frequently-asked-questions-9-1-a-critique-2/

Übersetzt durch Chris Frey EIKE