Über STICKOXIDE und den DIESELMOTOR

Dass solche Darstellungen irrig sind, wurde an vielen Stellen bereits veröffentlicht. Der folgende Aufsatz unterstreicht das ausdrücklich und zeigt ebenfalls mit leicht errechenbaren Zahlen, was es mit Stickoxiden und den beim Dieselmotor emittierten Konzentrationen auf sich hat.

Chemische Gleichgewichte

 

            Reaktion A: N2 + O2   ↔   2 NO               („Stickstoffverbrennung“)

In einem Dieselabgas mit 74% Stickstoff und 6% Sauerstoff (s.u.) sind im chemischen Gleichgewicht folgende Stickoxide (NO) auf Grund der thermodynamischen Daten zu erwarten:
bei   25°C    1 zehnmillardstel ppm (=fast gar nichts)
bei    700°C    45 ppm
bei 1.200°C    1.300 ppm
bei 2.700°C    13 % (in Luft mit 23% O2), = 130.000 ppm
Die Gleichgewichtskonzentrationen geben aber noch nichts über die Reaktions-geschwindigkeiten an, weder zur Bildung noch zur Zersetzung. Dazu wird berichtet, dass unterhalb 700°C die Verbindung NO metastabil ist und sich praktisch nicht verändert, also weder sich bildet noch sich zersetzt; wenn also bei sehr hohen Temperaturen sich eine deutliche Menge gebildet hat und das Gasgemisch sehr schnell bis auf 700°C oder weniger abgeschreckt wird, bleibt viel des erhaltenen NO bestehen. Solches wurde früher im sogenannten „Nitrum“-Verfahren zur Luftverbrennung im Lichtbogenofen ( ̴ 2700°C !) durchgeführt (Herstellung von Salpetersäure).
Das Gas NO ist farblos und hat nur ein sehr geringes Lösungsvermögen in Wasser.

Reaktion B:   2 NO + O2   ↔   2 NO2       („Oxidation von Monoxid zu Dioxid“)

 
In Luft mit 23 % Sauerstoff und bei 25°C liegt das Verhältnis Dioxid zu Monoxid
(NO2 : NO) bei über 500.000.
So ist in Luft bei 25°C praktisch kein NO mehr neben NO2 vorhanden, die Reaktion ist aber sehr temperaturabhängig, und sie verläuft relativ schnell.
Bei ca. 480°C wird sie bereits endotherm, und der Zerfall von NO2 in NO und Sauerstoff setzt verstärkt ein, was bei 650°C so gut wie vollständig ist.
Das braune Gas NO2 löst sich gut in Wasser nach der Formel 2 NO2 + H2O → HNO2 + HNO3, die salpetrige Säure ihrerseits ist aber nicht beständig und zersetzt sich nach der Formel 3 HNO2 → HNO3 + H2O + 2 NO. Das dabei gebildete NO ist ein Problem bei jeder Gaswäsche, weil es sich erst wieder oxidieren muss, um weiter ausgewaschen werden zu können, häufig aber vorher entweicht.

Emissionskonzentrationen

Man spricht häufig von NOx-Konzentrationen, weil sowohl NO als auch NO2 vorhanden sein kann. Die Gleichgewichtsbetrachtungen zeigen aber, dass bei Raumtemperaturen praktisch nur NO2 vorhanden ist, es bildet sich aus NO und Luftsauerstoff ziemlich schnell. Bei hohen Temperaturen (Verbrennungen) kann sich aber nur NO bilden, das nach Abschreckung und bei Sauerstoffanwesenheit so gut wie vollständig verschwindet und so zu NO2 wird.
In der Industrie besagen die Abgasvorschriften, dass die Emissionskonzentration von NOx nicht höher als 100 mg/Nm3 ( ̴77 Gew.ppm) sein darf; es wird im Abgaskamin gemessen. Um diesen Wert zu erreichen, werden stickoxidhaltige Abgase normalerweise in einer Gaswäsche behandelt, wobei die Waschflüssigkeit alkalisch sein muss. Der Stickstoff wird so aus der Gasphase in eine Abwasserphase überführt und kann dort zu weiteren Schwierigkeiten führen, die aber beherrschbar sind (z.B. durch biologische Abwasserbehandlung).
Die emittierten NOx-Mengen führen nun in der Umgebung der Emissionsquelle zu Immissionen, deren zulässige Konzentrationen folgendermaßen definiert sind:
40 µg/Nm3 im Jahresmittel, höhere vereinzelte Spitzenwerte dürfen 200 µg/Nm3 während
1 Stunde nicht überschreiten.
Gemessen wird in einiger Entfernung von der Emissionsquelle und in der Nähe menschlicher Wohnungen unter Berücksichtigung der herrschenden Windrichtung. Die Messpunkte werden von den Überwachungsbehörden festgelegt. Das Verhältnis zwischen zulässiger Emissions- und Immissionskonzentration beträgt bei NOx also 2.500:1 (= erforderlicher Verdünnungsfaktor).
(1 Nm3, „Normkubikmeter“, ist der Kubikmeter bei 0°C und dem Druck von 1 atm oder 760 Torr)
An den Arbeitsplätzen in der Industrie gilt der sogenannte MAK-Wert („maximale Arbeitsplatzkonzentration“), er beträgt für Stickoxide 0,95 mg/Nm3 (= 950 µg/Nm3 oder 735 µg/kg), früher war er noch erheblich höher eingestuft. Dieser Wert bedeutet, dass die Beschäftigten während acht Stunden und fünfmal in der Woche dieser Konzentration maximal ausgesetzt sein dürfen – wobei keine gesundheitliche Beeinträchtigung zu befürchten wäre.
Verteilte man die 40 h Wochenarbeitszeit mit einer Belastung von 950 µg/Nm3 gleichmäßig auf die Gesamtzeit von 168 h in der Woche, ergäbe sich ein Durchschnittswert von 226 µg/Nm3, unter der Annahme, dass in den 128 Stunden Freizeit gar keine Belastung besteht. Dieser Wert entspricht etwa der zugelassenen kurzfristigen Immission von 200 µg/Nm3.
 

Verhältnisse bei Dieselmotoren

Die Verbrennung des Kraftstoffs in Dieselmotoren muss mit einem deutlichen Luftüberschuss erfolgen (λ ≥ 1,3), andernfalls wäre mit starker Rußbildung zu rechnen. Die Verbrennungstemperaturen im Zylinder sind sehr hoch (>> 1000°C), also erfolgt mit dem überschüssigen Sauerstoff auch eine Oxidation des Luftstickstoffs (s.o.), das gebildete NO wird dann sehr schnell in den Auspuff geleitet und unter 700 °C abgekühlt, so dass das unerwünschte Gas sich nicht weiter zersetzen kann und zu Emissionsproblemen führt. Im heißen Auspuff bei etwa 700°C werden 600-800 Vol.ppm gefunden (TÜV Essen, z.T. auch etwas weniger oder mehr). Das deckt sich gut mit obigen Berechnungen: Wenn bei 1200°C während der Verbrennung ̴ 1.300 ppm NO gebildet werden, so haben sie sich bei 700°C noch nicht bis auf < 100 ppm wieder zersetzt wegen der Geschwindigkeit der Abkühlung.
Bei stationären Großanlagen könnte jetzt wieder die schon erwähnte alkalische Gaswäsche installiert werden, was aber bei beweglichen Fahrzeugen nicht durchführbar ist. Hier bietet sich ein anderes Verfahren an: Das heiße Abgas wird mit einer wässerigen Lösung von Harnstoff behandelt, wobei nur die Stoffe N2, CO2 und H2O entstehen. Die summarische Reaktionsgleichung wäre ganz grob folgende:

CO(NH2)2 + H2O + 3 NO     →     5/2 N2 + CO2 + 3 H2O

Allerdings verläuft die Reaktion über Zwischenstufen, wobei auch NH3 (Ammoniak) gebildet wird; eine katalytische Unterstützung ist erforderlich. Das zeigt, dass die Dosierung der Harnstofflösung sehr genau erfolgen muss. Wird zu wenig eingespritzt, bleibt unbehandeltes NO übrig, bei einer Überdosierung entstehen Zersetzungsprodukte des Harnstoffs, die ebenfalls unerwünscht sind. Die Dosierung hängt weiter auch davon ab, wie hoch die Drehzahl des Motors ist, und wie viel Kraftstoff gerade zugegeben wird – einem Rechner müssen alle Einflussgrößen zugeführt werden, und der sorgt dann automatisch für die richtige Dosierung der 32,5 %-igen Harnstofflösung (als „AdBlue“ im Handel). Gemäß obiger Formel kann mit 1 kg Harnstoff 1,5 kg Stickoxid unschädlich gemacht werden; bezogen auf den Kraftstoffverbrauch, sei je nach Fahrweise mit 2 – 8 % Harnstoffeinsatz zu rechnen.
Weitere veröffentlichte Kennzahlen zum Dieselmotor: Je Liter Kraftstoff werden ca. 14 m3 Luft benötigt (bei λ= 1,4 als Überschussfaktor) und etwa 2,65 kg CO2 erzeugt. Seine Dichte beträgt 0,84 kg/l und der Heizwert 9,7 kWh/l.

Theoretische Verbrennungsrechnung im Dieselmotor:

Man kann folgende vereinfachte Reaktionsgleichung aufstellen, bei der als Kraftstoff Cetan genommen ist, Lambda mit 1,4 gerechnet wird und 800 ppm NO im Abgas entstehen sollen:
C16H34 + 24,5 O2 + 93,75 N2 + λ-Luft      16 CO2 + 17 H2O + 93,75 N2 + 0,1 NO + λ-Luft
226          784          2625          1363           704           306         2625            4             1359
Die Zahlen sind die Molekulargewichte in g; addiert ergibt sich, dass 226 g Kraftstoff 4.772 g Luft (=3.690 l) erfordern. Im Abgas werden 4 g NO aus der λ-Luft gebildet, es hat folgende Zusammensetzung :
Gewichts-%              Volumen-%
Stickstoff            73,4                           75,3
Sauerstoff            6,3                             5,6
CO2                      14,1                             9,2
Wasserdampf         6,1                          9,8
Stickoxid NO        0,080                         0,077 (unbehandelt, unverdünnt)
 
Die Abgasmenge beträgt 17,2 m3/kg oder 14,5 m3/l Kraftstoff. Als Luftbedarf ergibt sich 16,3 Nm3/kg oder 13,7 Nm3/l. Vielleicht wäre noch folgende Zahl interessant: Ein Fahrzeug, das einen Verbrauch von 5 l/100 km hat und mit einer Geschwindigkeit von 50 km/h fährt, würde minütlich 833 m zurücklegen und dabei 42 ml (=35 g) Kraftstoff verbrauchen und rund 0,6 m3 Abgas produzieren.
Damit ein konzentriertes Abgas mit ca. 800 ppmgew NO in den Bereich dessen gelangt, das in der Industrie genehmigt ist (= 77 ppmgew), müsste es zunächst zehnfach verdünnt werden, was bei einem fahrenden Automobil, das minütlich beispielsweise 0,6 m3 ausstößt, leicht geschieht, eine weitere Verdünnung um den Faktor 105 wäre erforderlich, um den MAK-Wert zu erreichen. 0,6x10x105 = 630 m3 (= z.B. 2,5 m x 2,5 m x 100 m), ein Volumen, das ein Fahrzeug in 14 Sekunden durchfährt, so dass selbst diese Verdünnung kein Problem darstellt. Schwieriger wird es, den festgesetzten Immissionswert von 40 µg/Nm3 zu erreichen, der eine weitere Verdünnung um das 24-fache erforderte.
Das unverdünnte Abgas ist mit Sicherheit gesundheitsschädlich, sogar giftig beim direkten Einatmen (nach Abkühlung !), allein schon wegen seines hohen CO2-Gehaltes, eine Verdünnung ist also erforderlich. Der Faktor von 1 : 1.000 ist nicht schwer zu erreichen, wie dargestellt, um an den MAK-Wert des NOx zu gelangen. Trotzdem ist die Maßnahme, bei Fahrzeugstillstand den Motor abzustellen, wenn man sich im dichten Stadtverkehr befindet, richtig. Daraus resultiert, dass auch ein häufiges Wiederstarten erforderlich wird, was die Starterbatterie stark belastet. Die Batteriehersteller haben dieser Anforderung allerdings bereits Rechnung getragen.
Aus diesen Betrachtungen ergibt sich, dass bei dichtem Verkehr und Windstille sich NOx-Konzentrationen über dem Immissionsgrenzwert ergeben können. Das kann aber nicht durch eine wie auch immer geartete „Software“ verhindert werden, vielleicht nur etwas gemindert werden – die Naturgesetze der Verbrennung lassen sich nicht ändern. Die Anwendung der Harnstoffeinspritzung ist für so tiefe Grenzwerte wie 40 µg/Nm3 eine reale Möglichkeit, also das Anbringen einer „Hardware“, um bei der gängigen Wortwahl zu bleiben. Ob der Wert von 40 µg/Nm3 allerdings wirklich erforderlich ist, sollte noch einmal gründlich überprüft werden. Der gültige und bereits reduzierte MAK-Wert ist mit Sicherheit nach langen Untersuchungen festgelegt worden, eine geforderte weitere Reduzierung um das 24-fache für den Straßenverkehr erscheint um ein Vielfaches überzogen ! Der zeitweise bereits zulässige Immissionswert von 200 µg/Nm3 (21 % des MAK-Wertes) wird von Dieselfahrzeugen so gut wie nie in der Realität erreicht und sollte als Grenzwert eingeführt werden, weil er durchaus noch als gesundheitlich ungefährlich betrachtet werden muss. Damit erübrigte sich die große Aufregung über die „schrecklichen“ Dieselemissionen, und der „Skandal“ bezöge sich nur noch auf die betrügerischen Versprechungen einiger PKW-Hersteller.
Es sei noch auf eine relative Zahl hingewiesen, die bei NOx und auch bei CO2 gerne angeführt wird: Die Emissionsmenge je gefahrenen Kilometer. Das ist überhaupt keine technische Zahl, und sie sollte vollkommen unterbleiben. Die Emissionen hängen allein vom Kraftstoffverbrauch (in kg oder l) und vielleicht auch der Fahrweise ab – ein mit laufendem Motor stehendes Fahrzeug emittiert pro Kilometer unendlich viel ! Wer viele Liter Kraftstoff verbraucht, emittiert auch viele Mikrogramm NOx.
Bei Otto-Motoren wird ohne Luftüberschuss gearbeitet (λ = 1), dabei kann sich so gut wie kein NO bilden, wohl bleibt aber immer etwas unverbranntes CO übrig, das dann mittels zugeführter Luft an dem bekannten nachgeschalteten Katalysator zu CO2 umgesetzt und unschädlich gemacht wird.
Über den Autor:
„Dr. Reinhard Marx studierte Metallhüttenkunde in Aachen und war während seiner beruflichen Laufbahn in verschiedenen Metallhütten für Blei und Zink (Stolberg, Málaga, Duisburg, Harlingerode) tätig. Er spezialisierte sich später mehr auf die Weiterverarbeitung dieser Metalle, besonders zu Oxiden, wobei er sich als Technischer Leiter und Prokurist der Heubach GmbH  in Langelsheim auch mit Farb- und Korrosionsschutzpigmenten befasste.“
 




Elektromobilität in Deutschland – ein Alternativvorschlag für den Stadtverkehr

Die Hintergründe für eine solche Politik sind zweifach: Einerseits soll die Luftqualität durch Fortfall schädlicher Abgase verbessert werden – besonders in den Zentren der Großstädte – , andererseits könnte der CO2-Ausstoß vermindert werden, weil der erforderliche elektrische Strom aus Wind- und Sonnenenergie hergestellt würde, und weil damit das durchschnittliche Erdklima vor weiterer Erwärmung bewahrt würde, wie allgemein angenommen wird.
Es muss sehr bezweifelt werden, ob die beiden genannten Gründe stichhaltig sind und diese vorgetragene Politik überhaupt möglich und sinnvoll ist – darüber soll hier aber nicht diskutiert werden.
Eines ist jedoch wahr und kann verbessert werden: Die Luftqualität in den Innenstädten, die in Deutschland zwar auch in einigen Großstädten gemäß den festgesetzten Grenzwerten für Schadstoffe verbesserungswürdig ist, die aber in vielen Megastädten anderer Länder unerträglich geworden ist.
Solange noch Zweitakt-Motore für Kleinfahrzeuge zugelassen sind, würde deren Ersatz durch Viertakt-Motore, besonders auf Erdgasbasis, schnell eine Besserung bringen – Beispiele dafür existieren bereits in anderen Ländern.
Weiterhin könnte der urbane Personentransport auf elektrische Trolleybusse (O-Busse) umgestellt werden, wenn nicht schon elektrische Straßenbahnen oder U-Bahnen vorhanden sind; eine Zwischenlösung wäre aber auch die Einführung von Bussen mit Flüssiggasmotoren dort, wo noch mit Diesel-motoren gearbeitet wird.
Auf diese Weise könnten die ganz kleinen und die ganz großen Abgaserzeuger verbessert oder gar eliminiert werden.
Nun seien die mittelgroßen Abgaserzeuger betrachtet, die normalen PKW und Lieferfahrzeuge. Von diesen beiden Typen sollen jetzt nur die erörtert werden, die allein in Stadtgebieten benutzt werden, das wären Lieferwagen und Zweit-PKW, mit denen nicht über Land gefahren wird; diese könnten mit Elektroantrieb ausgerüstet werden.
Für den angegebenen Zweck braucht der elektrisch angetriebene Wagen lediglich eine Geschwindigkeit von maximal 70 km/h zu erreichen und sein Aktionsradius einer Weite von 100 km zu entsprechen. Das bedeutet, dass die Batterie um ein Vielfaches kleiner sein könnte als bei den bisher von der Industrie angebotenen Fahrzeugtypen. Dieses würde weiterhin bedeuten, dass nicht mehr die teuren Lithium-Ionen Batterien verwendet werden müssten, sondern dass die nur wegen ihres Gewichtes bisher nicht eingesetzten Blei-Batterien „erträglich“ geworden wären.
Sie wiegen zwar je gespeicherter Kilowattstunde etwa viermal mehr (33 Wh/kg gegenüber 130 Wh/kg), man brauchte aber für den vorgesehenen Verwendungszweck auch viermal weniger Energie zu speichern – das Gewicht würde sich also kaum ändern. Dafür sind Bleibatterien aber wesentlich billiger und technisch ausgesprochen sicher; ihre Zyklenzahl ist hoch (2.000 und mehr) und ihre Wiederaufarbeitung einfach und bestens erprobt und in Anwendung.
Sie könnten jeweils des Nachts aufgeladen werden und dabei den häufig billigeren Nachtstrom ausnutzen; die Belastung des Stromnetzes an der Ladestelle wäre gering.
Langjährige Erfahrung mit Fahrzeugen, die mit einer Bleibatterie ausgerüstet sind, liegen vor und haben sich als wirtschaftlich erwiesen (z.B. Gabelstapler). Die Batterieindustrie hätte keine Probleme, Traktionsbatterien für den geschilderten Einsatzfall herzustellen. Im Folgenden sind die Vorteile nochmals übersichtlich zusammengestellt:
 

  • Bleibatterien sind billiger als solche auf Lithiumbasis,
  • Bleibatterien sind kurzzeitig stark überlastbar und in einem weiten Temperaturbereich (-35°C bis +60°C) arbeitsfähig,
  • Die Lebensdauer, bestimmt durch die Anzahl der Ladezyklen, ist hoch – mit fünf Jahren kann erfahrungsgemäß gerechnet werden,
  • Eine verbrauchte Batterie hat einen hohen Materialwert, sie wird problemlos in einer Sekundärbleihütte wiederverwertet – es handelt sich auch nur um ein einziges Metall, das zurückgewonnen werden muss,
  • Die sogenannte Recyclingrate ist bei Blei die höchste aller Metalle, nichts geht verloren oder belastet die Umwelt, solches ist bei Lithiumbatterien in keiner Weise entwickelt,
  • Blei ist kein seltenes Element, es gibt keine Versorgungsprobleme, was für Lithiumbatterien, die außer Lithium auch Kobalt benötigen, nicht gesagt werden kann,
  • Das Aufladen eines Bleiakkumulators im vorgeschlagenen Anwendungsfall würde nachts erfolgen und keine große Leistung erfordern, vielleicht 1 kW, was überall zur Verfügung steht – besondere Kabel und Stecker für die Ladestation sind nicht erforderlich.

Derart ausgerüstete Fahrzeuge sollten zur Erhöhung des Komforts und der Schonung der gespeicherten Antriebsenergie dann noch einen „Hybrid“-Zusatz erhalten, einen kleinen Generator (z.B. 2 kW), der mit einem wassergekühlten Benzin- oder Gasmotor betrieben wird. Dessen Strom würde für die Beleuchtung, Heckscheibenheizung, Elektronikversorgung und ähnliche Nebenverbraucher eingesetzt, nicht aber, um die Fahrleistung zu erhöhen; das Kühlwasser wäre für die im Winter erforderliche Heizung gut. Diese Einrichtung wäre zwar durchaus kostenerhöhend, ist aber für die heutigen Bedürfnisse nicht verzichtbar.
Wenn solche Fahrzeuge gebaut würden, wäre ihre Anzahl zunächst nicht sehr groß, und der erforderliche elektrische Strom sicherlich lieferbar, was bei Umstellung auf totale Elektromobilität, wie jetzt von der Politik gefordert, in keiner Weise möglich wäre – es sei denn, es würden viele neue thermische Kraftwerke errichtet (auf Basis von Kohle-, Erdöl-, Erdgas- oder Kerntechnik). Es ist nicht vorstellbar, dass Wind- und Sonnenenergie derart viel mehr beitragen könnten, wo sie doch für den jetzigen Elektrizitätsbedarf erst rund 25% zu liefern in der Lage sind und die Primärenergie für den gesamten Strombedarf weniger ausmacht als der zu ersetzende Brennstoffbedarf für das bestehende Transportwesen.
Der Effekt der vorgeschlagenen Elektrofahrzeuge auf die Luftqualität in den Innenstädten dürfte jedoch durchaus bemerkbar sein. Es sei auch erwähnt, dass die Lärmbelastung auf diese Weise deutlich reduziert würde.
Was dieses vorgeschlagene Konzept kosten würde, ist noch nicht berechnet; wenn es für interessant erachtet würde und die bis heute vorgeschlagene Politik in diesem Sinne geändert würde, müsste es in Zusammenarbeit der Politiker mit den Automobil- und Batterieherstellern im Detail erörtert werden, bevor etwas in die Tat umgesetzt wird.
Es ist sicherlich besser, gewünschte Umweltveränderungen und –verbesserungen in kleinen Schritten anzugehen und durchzusetzen, als ein neues Gesamtkonzept anzusteuern, das allein wegen seiner Größe kaum in der Lage sein dürfte, erfolgreich zu werden, schon gar nicht in kurzer Zeit.
Über den Autor:
„Dr. Reinhard Marx studierte Metallhüttenkunde in Aachen und war während seiner beruflichen Laufbahn in verschiedenen Metallhütten für Blei und Zink (Stolberg, Málaga, Duisburg, Harlingerode) tätig. Er spezialisierte sich später mehr auf die Weiterverarbeitung dieser Metalle, besonders zu Oxiden, wobei er sich als Technischer Leiter und Prokurist der Heubach GmbH  in Langelsheim auch mit Farb- und Korrosionsschutzpigmenten befasste.“
 




Facetten der Mathematik

Die Ägypter besaßen eine hochentwickelte Mathematik und Geometrie, sonst hätten sie nie und nimmer die Pyramiden berechnen und bauen können. Mit dem „Papyrus Rhind“ (aufbewahrt im Britischen Museum) haben sie uns gewissermaßen ein Buch zur Mathematik hinterlassen, in dem sogar x-Gleichungen vermerkt sind. Die wichtigste Schule der Mathematik befand sich jedoch um 350 v. Chr. in Alexandria. Das Genie Euklid, von dessen Leben wir fast nichts wissen, war der Begründer einer Schule, welche das berühmte Lehrbuch „Die Elemente“ herausgebracht hat.

Klassischerweise unterscheidet man in der Mathematik vier große Disziplinen: Geometrie, Algebra, Analysis und Stochastik. (Heute würden wir noch die Logik und die Topologie benennen.) Die Geometrie ist die Lehre des umgebenden Raumes mit Punkten, Geraden, Vierecken und Kreisen etc. Sie hatte ihre Blütezeit in der griechischen Antike. Bei der Algebra studiert man die Zahlen und ihre Eigenschaften, z. B. die Primzahlen. Die Analysis ist die Differential- und Integralrechnung und die Stochastik die Lehre vom Zufall.

Null – Eins – Unendlich

Die Erfindung der Null („0“) war eine Großtat, ähnlich wie die Erfindung des Rads. Vor gut tausend Jahren tauchte sie erstmals auf einem Tempel in Indien auf; um 1.200 n.Chr. war sie auch in Westeuropa angekommen. Manchmal entsteht ein Streit um das Vorzeichen der 0. Nun, der ist überflüssig, denn die 0 kann man sowohl mit einem plus-Zeichen, als auch mit einem minus-Zeichen versehen. Also: +0 oder -0 ist egal.— Anders verhält es sich bei der Frage, ob die 0 eine gerade Zahl (wie beispielsweise 4) oder eine ungerade Zahl (wie 5) ist. Nun, die Mathematiker sehen die 0 als eine gerade Zahl an, denn sie lässt sich zwei Mal auf 0 aufteilen: 0+0 ist wiederum 0.

Die natürliche Zahl 1 kennt jeder. Sie verleitet uns dazu immer weiter zu zählen, also: 1, 2, 3… bis in das Unendliche, welches die Mathematiker sich als (unbeweisbares) Axiom vorstellen. Mit dem Begriff „unendlich“ (geschrieben als liegende acht) lässt sich trefflich spielen, z. B. beim Bruchrechnen. So geht die Summe der unendlichen Bruchreihe 1/2 + 1/3 + 1/4 + 1/5 … = ∞

Sie geht also über alle Grenzen hinweg, bis ins Unendliche.
Demgegenüber ist die Summe der nur leicht veränderten Bruchreihe

1/2 + 1/4 + 1/8 + 1/16….= 1.

Die erste Reihe divergiert ins Unendliche,  die zweite konvergiert zu 1.

Ein Teilbereich der natürlichen Zahlen sind die Primzahlen; sie sind größer als 1 und nur durch 1 und sich selbst teilbar. Die ersten Primzahlen sind: 2, 3, 5, 7, 11, 13, 17, 19… Die Primzahlen haben eine große Bedeutung in der Verschlüsselungstechnik bei Großrechnern. Fakt ist, dass es unendlich viele Primzahlen gibt, aber dass (leider) keine Formel existiert, sie zu berechnen.

Mit dem Begriff ∞ man sich verrückte Sachen ausdenken. Eine Anwendung ist das sog.“Hilbert Hotel“, das im vorigen Jahrhundert von dem deutschen Mathematiker David Hilbert vorgestellt wurde. Er dachte sich ein Hotel aus mit unendlich vielen Zimmern, welche die Nummern 1, 2, 3… bis ∞ trugen. Alle Zimmer dieses Hotels sind belegt, aber nun taucht ein weiterer Gast auf, der Einlass begehrt. Für Hilbert ist dies kein Problem. Er bittet den (bisherigen) Gast in Zimmer 1 ins Zimmer 2 zu wechseln, den Gast in Zimmer 2 ins Zimmer 3 usf. bis ins Unendliche. Dadurch haben alle bisherigen Gäste wieder ein Zimmer – und der neue Gast kann in Zimmer 1 einziehen. Mathematisch gesprochen funktioniert dies, weil ∞ + 1 = ∞ ist.

 

Berühmte Mathematiker

Geniale Mathematiker gab es in den vergangenen zweieinhalbtausend Jahren in großer Zahl. Unter den noch Lebenden ist der Brite Andrew Wiles zu nennen, dem es gelang, eine vierhundert Jahre alte Behauptung des Franzosen Pierre de Fermat zu beweisen. Der sog. Fermat´sche Satz lautet vereinfacht: „Es ist unmöglich, einen Würfel exakt in zwei gleiche, kleinere Würfel zu zerlegen“. Klingt simpel, aber Wiles schuftete – im geheimen – volle sieben Jahre an der Lösung, die mehr als hundert Schreibmaschinenseiten umfasste. Danach genoss er seinen Ruhm in vollen Zügen.

Ein gegensätzlicher Charaktertyp war der (ebenfalls noch lebende) Russe Grigori Perelmann. Er bewies 2003 die sog. Poincaré-Vermutung. Sie besagt (vereinfacht), dass der vierdimensionale Raum in etwa so ähnlich ist, wie der uns zugängliche dreidimensionale. Noch mehr vereinfacht behauptet der Satz, dass jedes geometrische Objekt, welches kein Loch hat, in eine Kugel überführt werden kann. Trotz (oder wegen?) des Presserummels lehnte Perelmann nach der erfolgreichen Lösung jede Ehrung ab – auch den Millionenpreis einer amerikanischen Universität. Er kündigte sogar seine Stellung im Moskauer Forschungsinstitut und ist seitdem untergetaucht.

Keiner der beiden hat sich für den Nobelpreis qualifiziert, denn diese Auszeichnung gibt es nur in den Sparten Physik, Chemie, Medizin, Literatur und Frieden. Warum der schwerreiche Stifter AlfredNobel die Mathematik ausgelassen hat, dafür gibt es eine Legende: angeblich hatte der damals bekannteste schwedische Mathematiker, Gösta Mittag-Leffler (1846 – 1927), ein Verhältnis mit Nobels Frau, weswegen Nobel in seinem Testament, quasi aus Rache, keinen Preis für Mathematiker auslobte. Gegen diese Legende spricht allerdings die Tatsache, dass Alfred Nobel nie verheiratet war. Aber vielleicht hatte er eine attraktive Geliebte?!

Um diese offensichtliche Vakanz zu füllen, gibt es seit einiger Zeit die sog. Fields-Medaille. Sie wird alle vier Jahre an zwei bis max. vier Mathematiker – die jünger als 40 Jahre sein müssen! – für herausragende Entdeckungen in ihrem Gebiet vergeben. Damit ist ein bescheidenes Preisgeld von 15.000 kanadischen Dollars verbunden.

Geniale, aber nicht mehr lebende, Mathematiker des vorigen Jahrhunderts waren u. a. David Hilbert (1867 – 1943) und Kurt Gödel (1906 – 1978). Hilbert listete im Jahr 1900 in einer berühmten Rede 23 bedeutende, aber ungelöste Probleme der Mathematik auf. Von diesen ist in der Zwischenzeit ein Gutteil gelöst, entsprechend der alten Weisheit: „Durch Intuition entdeckt man, durch Wissenschaft beweist man“. Unter Hilberts Problemen war auch der Gödelsche Unvollständigkeitssatz, eine der wichtigsten Behauptungen der modernen Logik. Er besagt, dass man nicht alle Aussagen der Mathematik formal beweisen kann, womit er diese Wissenschaft in beträchtliche Nöte brachte.

Erstaunen mag, dass unter diesen Geistesheroen Albert Einstein (1879 – 1955), der Entdecker zweier Relativitätstheorien fehlt. Aber Einstein war in erster Linie ein genialer (theoretischer) Physiker. Auf dem Gebiet der Mathematik war er eher schwach – nach eigener Einschätzung!

Gehen wir weiter in die Vergangenheit zurück, dann treffen wir auf hervorragende Mathematiker wie Leonhard Euler (1707 – 1783), Carl Friedrich Gauß (1777 – 1855), Gottfried Wilhelm Leibniz (1646 – 1716) und Isaac Newton(1642 – 1726).

In der griechisch-römischen Antike ragen heraus: Thales von Milet, der um das Jahr 600 v. Chr. gelebt hat, Pythagoras von Samos (um 550 v. Chr.) und Euklid von Alexandria (um 350 v. Chr.). Der Allergrößte unter diesen antiken Genies war wohl Archimedes von Syrakus (um 250 v. Chr.). Er berechnete als Erster die Kreiszahl π und leiste auch als Physiker und Ingenieur Bedeutendes.
Pythagoras hat den nach ihm benannten Satz erstmals bewiesen; benutzt wurde er bereits von den Babyloniern. Seitdem gibt es für ihn mehr als 300 Beweise.

Archimedes

Schöne Formeln

In der Mathematik gibt es Tausende, ja Millionen von Formeln und Gleichungen. Kein Wunder, dass manche besonders „schön“ anmuten. Nach allgemeiner Ansicht gebührt die Krone der sog. Eulerschen Formel:


In dieser einfachen Beziehung kommen fünf wichtige Zahlen der Mathematik vor,
nämlich 0, 1, die Kreiszahl π, die Eulersche Zahl e und die imaginäre Einheit i.
Eine sonderliche Bedeutung für die Anwendung hat diese Formel nicht, sie ist nur einfach „schön“.

Besser für die Anwendung geeignet ist eine andere schöne Formel, die ebenfalls von Euler ist und aus dem Gebiet der Geometrie stammt. Sie lautet:

e – k + f = 2

Es ist die Eulersche Polyederformel, wobei Polyeder Vielflächner sind wie Würfel, Pyramiden – oder Fußbälle. Nicht jedoch, wohlgemerkt, die Kugel. Dabei bedeutet e die Anzahl der Ecken, k die Anzahl der Kanten und f die Anzahl der Flächen. Nehmen wir den Würfel als Beispiel. Er hat 8 Ecken (e), 12 Kanten (k), und 6 Flächen (f). Eingesetzt in die Polyederformel ergibt sich: 8-12+6=2.

Ein anderer, allen bekannter Polyeder ist der klassische Fußball. Er besteht in der Regel aus 12 (schwarzen) Fünfecken und 20 (weissen) Sechsecken, also insgesamt 32 Flächen (f). Durch Nachzählen kommt man auf 60 Ecken. Die Zahl der Kanten kann man aus der Formel errechnen:

60 + 32 – 2 = 90 Kanten.

Nach dieser vorbereitenden Tätigkeit ist Bayern München bereit zum Angriff:

Toooor!!
Übernommen vom Rentnerblog hier



Fukushima: Schuldige werden gesucht

Als am 11. März 2011, einem Freitag Nachmittag um 14 Uhr 46 (japanischer Zeit), ein Seebeben der Magnitude 9,0 die vier Kernkraftwerke im Ortsteil Daiichi durchrüttelte, war die Welt, vergleichsweise, noch in Ordnung. Drei Reaktoren schalteten sich selbstständig ab, der vierte war wegen Wartungsarbeiten gar nicht in Betrieb. Die elektrische Stromversorgung des umliegenden Netzes war zwar ausgefallen, aber die für solche Fälle bereitstehenden Diesel sprangen automatisch an und sicherten die Kühlung der Reaktorkerne mit Wasser.

Eine Stunde später traf ein Tsunami von 14 Metern Höhe ein und überschwemmte den nur 5,7 Meter hohen Schutzwall sowie alle Dieselaggregate, die im Keller angeordnet waren.. Die Notstromversorgung kam zum Erliegen und die Urankerne der Reaktoren heizten sich wegen der weiterhin generierten Nachwärme stetig auf. Der erzeugte heiße Wasserdampf reagierte chemisch mit dem Zirkonmetall der Brennstabhüllen unter Freisetzung von Wasserstoff. Einen Tag danach kam es beim Reaktor Fukushima 1 (später bei den Reaktoren 2 und 3) zu einer heftigen Knallgasexplosion, welche das Reaktorgebäude massiv beschädigte und undicht machte. Die Urankerne waren inzwischen ganz oder teilweise geschmolzen und führten zur Freilassung der radioaktiven Gase Jod, Cäsium und Strontium in die Umgebung. Hier setzt die Kritik ein, die man unseren japanischen Freunden nicht ersparen kann.

Chaos bei der Konzernzentrale TEPCO in Tokio

Im Hauptquartier der Betreibergesellschaft TEPCO („The Tokyo Electric Power Company“) in Tokio war man über die bedrohliche Situation im 300 Kilometer entfernten Fukushima sehr wohl unterrichtet. Aber in den wichtigen Stunden nach dem Ausfall der Diesel-Notkühlung wurde dort viel Zeit verschwendet und es wurden eine Reihe falscher Entscheidungen getroffen. Statt mobile Notstromgeneratoren und Pumpen schnellstens per Hubschrauber aus Tokio heranzuschaffen, ließ man die vergleichsweise schwachen betrieblichen Batterien  leerlaufen. Die Manager bei Tepco in Tokio waren nicht in der Lage, die Betriebsleute vor Ort wirkungsvoll zu unterstützen. Zur gleichen Zeit offerierte die US-Regierung – welche die Gefährlichkeit der Lage von Anfang an richtig einschätzte – der japanischen Regierung ihre sofortige Hilfe. Aus militärischen Beständen auf den japanischen Stützpunkten wären Pumpenwägen, unbemannte Drohnen und Messroboter zur Verfügung gestellt worden. Doch der japanische Ministerpräsident Naoto Kan lehnte höflich ab; ein Asiate will eben sein Gesicht nicht verlieren.Auch zwischen Tepco und dem Regierungschef funktionierte die Kommunikation nicht. Als Kan die Konzernmanager am Tag nach dem Störfall zur Berichterstattung empfing, erzählten ihm diese alles Mögliche – nur nicht, dass es wenige Stunden vorher bei Block 1 zu einer Wasserstoffexplosion gekommen war. Der Ministerpräsident erfuhr das erst nach der Sitzung von den Presseleuten und war entsprechend wütend. Beispielhaft für die verspätete und lückenhafte Informationspolitik der Tepco ist weiterhin, dass der Konzern die japanische Öffentlichkeit erst Mitte Mai – also volle zwei Monate nach Beginn des Unglücks – darüber unterrichtete, dass in allen drei Reaktoren die Urankerne zumindest angeschmolzen waren.

Ein Drama für sich war die Entscheidung zum Bespritzen der Reaktorkomponenten mit Meerwasser aus Feuerwehrschläuchen. Der Anlagenleiter Masao Yoshoda forderte die Genehmigung für diese Maßnahme von seinen Chefs in Tokio an, insbesondere um die hochgefährdeten Reaktortanks sowie die innenliegenden Brennelemente abzukühlen. Die Manager bei Tepco sträubten sich längere Zeit dagegen, gaben aber schließlich doch die Zustimmung – um sie 21 Minuten später wieder zurückzuziehen. Angeblich hatte man „aus der Umgebung des Ministerpräsidenten gehört“, dass dieser ebenfalls dagegen sei. Das war jedoch nur vorgeschoben. In Wirklichkeit wusste die Tepco-Zentrale,  dass nach dem Einpumpen des korrosiven Meerwassers die Kernkraftwerke „kaputt“ sein würden. Den Anlagenchef im fernen Fukushima focht dies jedoch nicht an. Geradezu einmalig für japanische Verhältnisse ignorierte er den Stopp-Befehl aus Tokio und besprühte weiterhin seine Reaktoren mit Meerwasser. Auch der Anweisung „zum Verlassen der Anlage“ kam er nicht nach. Dabei hatte er die Unterstützung des Ministerpräsidenten, der darin ein „unheilvolles Fanal“ gesehen hätte. Ein Kapitän verlässt eben nicht seine Brücke.

Späte Anklage

Erst sechs Jahre nach dem Unglück von Fukushima wurde gerichtlich Anklage erhoben. Vorher hatte es die Staatsanwaltschaft von Tokio zwei Mal abgelehnt, die Verantwortlichen vor Gericht zu bringen. Nach ihrer Argumentation sei es unmöglich gewesen, die katastrophalen Abläufe vorher zu sehen, weshalb es auch keine Schuldigen bei dieser Katastrophe gegeben habe. Der Prozess kam schließlich nur aufgrund des selten angewandten Verfahrens zweier „Bürger-Jurys“ zustande, welche die Regierung zu einer Anklage förmlich zwangen.

Es ist das erste strafrechtliche Verfahren in Japan zur Aufarbeitung eines Atomunfalls. Angeklagt ist der 77 Jahre alte frühere Vorstandsvorsitzende Tsunehisa Katsamuta, sowie seine beiden Vizepräsidenten Sakae Muto (66) und Ichiro Takekura (71), allesamt frühere Manager der Betreiberfirma Tepco. Ihnen wird vorgeworfen, ihre dienstlichen Pflichten vernachlässigt zu haben. Unter anderem lastet die Anklage den Managern den Tod von 44 Patienten bei der überhasteten Evakuierung eines Krankenhauses an. Wie in Japan so üblich, verbeugten sich die Angeklagten tief vor Gericht, plädierten aber im Übrigen auf „unschuldig“.

Klar ist, dass das Risiko einer großen Flutwelle im Nordosten Japans lange vor dem Unglück bekannt war. Schon im Jahr 2002 schätzten Fachleute der Regierung in einem Bericht die Wahrscheinlichkeit auf 20 Prozent, dass in den kommenden 30 Jahren ein Erdbeben der Stärke 8 auftreten und einen großen Tsunami auslösen werde. Die entscheidende Frage ist, wer bei Tepco wann von diesem Bericht Kenntnis hatte und warum danach nicht umgehend die Deiche erhöht wurden.

Ausblick

Den drei Angeklagten droht im Maximum eine Haftstrafe von 5 Jahren oder eine Geldstrafe von (umgerechnet) 7.800 Euro. Mit einem Urteil wird nicht vor dem Jahr 2018 gerechnet. Nach Schätzungen von Tepco wird es 30 bis 40 Jahre dauern, bis die Kraftwerksruinen in Fukushima endgültig rückgebaut sind.Derweil setzt die Regierung darauf, dass die nach dem Unfall stillgelegten Kernkraftwerke Schritt für Schritt wieder ans Netz gehen können. Von den 42 Reaktoren, welche nach dem Unglück abgeschaltet wurden, sind bereits 5 wieder  in Betrieb.

Übernommen von Rentnerblog hier




Trotz Abwahl: Bundesumweltministerin bewilligt die ersten 60 Klimaschutz-Nachbarschaftsprojekte

Man tut so als sei nichts gewesen. Man tut so als ob man nicht soeben abgewählt wurde. Man tut so, als könne man weiterhin business as usual betreiben.

Nur so lässt sich die Chuzpe der Bundesumweltminsterin verstehen noch schnell, als nur noch geschäftsführende Ministerin, einige weitere Steuermillionen für „Klimaschutzprojekte“ zu versenken. In einer Pressemitteilung dem BMU vom 26.9.17 heißt es:

Das Bundesumweltministerium hat die ersten 60 Projekte des Förderaufrufs „Kurze Wege für den Klimaschutz“ bewilligt. Dabei setzen die Projekte beim Alltagshandeln der Bürgerinnen und Bürger auf Nachbarschaftsebene an. Sie werden mit rund 4,9 Millionen Euro aus Mitteln der Nationalen Klimaschutzinitiative (NKI) gefördert. Die ausgewählten Projekte sollen zur Umsetzung der Klimaschutzziele der Bundesregierung beitragen, indem sie Rahmenbedingungen für energieeffiziente und ressourcenschonende Lebensstile schaffen.

Bundesumweltministerin Dr. Barbara Hendricks:

„Klimaschutz darf für Bürgerinnen und Bürger keine abstrakte Idee sein, sondern muss mit Leben gefüllt und mit entsprechenden Rahmenbedingungen unterstützt werden. Durch nachbarschaftliche Vorhaben können auf kurzen Wegen nachbarschaftliche Klimaschutzmaßnahmen wirken und Ressourcen eingespart werden. Die praktische Anbindung an die Lebenswelten der Bürgerinnen und Bürger ist dabei unerlässlich.“

Von Aurich bis Nürnberg und Eberswalde bis Freiburg: Die nun startenden Projekte widmen sich insbesondere den Schwerpunkten Mobilität, Ernährung und Konsum sowie Abfall und Recycling. Unter den Projekten sind Mitfahrkonzepte und Radverleihsysteme, urbane Gärten, Repair-Cafés, Stadtgrün und viele nachbarschaftliche Bildungsangebote, die das individuelle Können und Wissen bezogen auf Ernährung, Konsum, Energiesparen, Wiederverwertbarkeit von Gegenständen thematisieren.

Und damit nicht genug. Der Selbstbedienungsladen für „Bürgerinnen und Bürger“ mit noch so abstrusen Ideen für den „Klimaschutz“ bleibt weit offen, den zum Schluss heißt es in der PM

Ein weiteres Förderfenster zur Einreichung von Projektskizzen öffnet vom 1. Mai bis zum 1. Juli 2018.

Ein guter Anlass für die gerade gewählte AfD Fraktion im Deutschen Bundestag, mittels einer großen Anfrage den erwarteten Nutzen in Bezug auf die Erreichung der Pariser Klimaziele aber vor allem den Umfang dieser massiven Verschwendung von Steuermitteln zu erfragen.

Mit Dank an Hartmut Hüne für den Hinweis