Gefährliche Ladung – Die E-Auto sind Energieverschwender, die Batterien giftige Umweltsünder erster Klasse

In Zeiten, in denen Industrie, Politik und Justiz versuchen, die Dieselkrise zu bewältigen, scheint es keine löblichere Fortbewegungsart zu geben als die mit Elektrizität. Diesen Eindruck erwecken zumindest all die Politiker- und Zeitungskommentare, die den Stromantrieb als bessere Alternative zum Verbrennungsmotor preisen. Elektroautos seien ökologischer und schonten die Ressourcen, so der Tenor. So propagierte der Tages-Anzeiger die E-Mobilität mit dem Argument, es brauche «einen effizienteren und sparsameren Umgang mit Energie». Bereits plant der Verein E-Mobil Züri, mitten in der grössten Schweizer Stadt ein Elektroauto-Rennen zu veranstalten. Wäre Gleiches mit Kraftstoff-Boliden geplant, würde man eine solche Idee wohl als Aprilscherz erachten.

In anderen Weltgegenden scheint man von den Vorteilen der E-Mobilität weniger überzeugt zu sein. So brummten die Verkehrsbehörden von Singapur letztes Jahr dem Käufer eines Tesla S eine Umweltsteuer von umgerechnet über 10 000 Franken auf – mit dem Hinweis, das Fahrzeug brauche besonders viel Energie, nämlich über 44 Kilowattstunden (kWh) Strom pro 100 Kilometer. Dabei benötigt die elektrische Luxuskarosse aus dem Silicon Valley gemäss Katalog doch nur 18 kWh. Singapurs Behörden sind aber nicht etwa von allen guten Öko-Geistern verlassen, sondern mit einer Extraportion Sachverstand gesegnet. Denn Elektroautos verschlingen tatsächlich besonders viel Energie. Dies zeigt folgende Berechnung.

Tieferer Wirkungsgrad im Winter

Gemäss den Prospekten ihrer Produzenten benötigen gängige Elektroautos – vom Nissan Leaf über den VW E-Golf, den Mitsubishi i-MiEV bis hin zum neuen Tesla 3 – bloss rund 15 kWh Strom pro 100 km, manche etwas mehr, manche etwas weniger. Grundsätzlich weiss jeder Autofahrer, sei er nun mit Strom oder Brennstoff unterwegs, dass solche Herstellerangaben bloss Theorie sind. Die Werte werden unter Bedingungen ermittelt, die mit dem realen Strassenverkehr fast nichts gemeinsam haben: Die Prüfzyklen finden auf Rollen statt und sind von tiefen Geschwindigkeiten und sanften Beschleunigungen geprägt. Zusatzverbraucher wie etwa Scheinwerfer sind ausgeschaltet. Fahrtwind gibt es im Labor auch keinen. Laut dem Forschungsverband ICCT (International Council on Clean Transportation) liegt der tatsächliche Verbrauch von Autos mit Verbrennungsmotor im Schnitt happige 42 Prozent über den offiziellen Angaben. Bei Elektrofahrzeugen klaffen Realität und Theorie aber noch viel weiter auseinander: Das deutsche Prüfunternehmen TÜV Süd ermittelte 2014 den Verbrauch einiger gängiger Elektroautos bei realen Testfahrten. Es zeigte sich, dass im Schnitt 31 kWh Strom für 100 km nötig sind, wenn man je zur Hälfte auf Landstrassen und auf Autobahnen fährt – also rund doppelt so viel als von den Herstellern angegeben.

Doch das ist erst die halbe Wahrheit, denn TÜV Süd testete bei Temperaturen von 23 Grad. Bei Kälte steigt der Strombedarf von Elektrofahrzeugen jedoch deutlich: Der Wirkungsgrad der Batterie ist dann viel tiefer, und die Fahrerkabine kann nicht wie bei konventionellen Autos durch die Abwärme des Verbrennungsmotors geheizt werden. Dänemarks Technische Universität zeigte 2016 anhand von Messungen, dass Elektroautos im Winter ein Drittel mehr Energie benötigen als im Sommer. Davon kann man ableiten, dass der Verbrauch bei ganzjährigem Gebrauch in der Schweiz (Durchschnittstemperatur etwa neun Grad) 11 Prozent höher liegt als bei den Tests von TÜV Süd.

Beträchtliche Ladeverluste

Weiter sind Ladeverluste zu beachten. Hängt ein Elektroauto an der Steckdose, kann die Batterie nur einen Teil der übertragenen Energie speichern. Gemäss Tests, etwa des deutschen Wuppertal-Instituts, gehen zwischen 10 und 30 Prozent als Wärme verloren, wobei die Verluste bei Schnellladungen grösser sind. Wird bei tiefer Aussentemperatur geladen, kann der Verlust sogar fast 50 Prozent betragen. In diesem Artikel soll ein durchschnittlicher Ladeverlust von 20 Prozent angenommen werden.

Geht man also von einem Verbrauch von rund 31 kWh (gemäss TÜV Süd) bei Sommerbetrieb aus und addiert 11 Prozent bei Ganzjahresbetrieb und 20 Prozent wegen Ladeverlusten, müssen an den Ladestationen rund 41 kWh Strom bereitstehen, damit ein Elektroauto 100 Kilometer weit fahren kann. Der reale Verbrauch ist somit über 2,5-mal so hoch als von den Herstellern angegeben.

Für eine Bilanz ist nicht nur die Betriebsenergie massgebend, sondern auch diejenige für die Fahrzeugherstellung. Bei Elektrofahrzeugen ist insbesondere die Produktion der Batterien sehr energieintensiv. Wegen Erschöpfung müssen diese Batterien zudem nach einigen Jahren Betrieb ersetzt werden. Bei einer durchschnittlichen Nutzung des Fahrzeugs müssen mindestens 15 kWh pro 100 Kilometer Fahrt dazugerechnet werden. Batterien enthalten zudem hochgiftige Stoffe, von denen auch bei konsequentem Recycling ein Teil entsorgt werden muss. Lithium, das besonders häufig verwendet wird, ist ähnlich toxisch wie schwach bis mittel radioaktive Stoffe. Das bedeutet, dass eine ebenso sichere Endlagerung wie bei Atomabfällen nötig ist (siehe Artikel rechts) – was mit beachtlichem Energieaufwand verbunden ist: Für 100 Kilometer Elektrofahrt kommen darum mindestens 3,5 kWh dazu. Insgesamt beträgt der Energieaufwand für Elektroautos auf Schweizer Strassen somit etwa 60 kWh pro 100 km.

Dieser Wert soll mit einem Auto mit Benzinmotor verglichen werden: Für dieses wird ein durchschnittlicher Verbrauch von acht Litern pro 100 Kilometer angenommen – bei realen Nutzungsbedingungen und ganzjährigem Gebrauch. Um diesen Verbrauch mit demjenigen von Elektromobilen in Relation zu setzen, muss man den Energiegehalt von Benzin heranziehen und beachten, dass die Produktion von Strom mit beträchtlichen Energieverlusten einhergeht (Wirkungsfaktor für die Erzeugung von Elektrizität aus Primärenergie gemäss  BP: 0,38). Insgesamt kann ein Liter Benzin so mit 3,4 kWh Strom gleichgesetzt werden. Ein Verbrauch von acht Litern entspricht somit rund 27 kWh Strom pro 100 km. Ein Zuschlag für Herstellung und Entsorgung des Benzinantriebs drängt sich nicht auf, da der entsprechende Energieaufwand vernachlässigbar klein ist. Ein Elektrofahrzeug mit 60 kWh pro 100 km verbraucht somit mehr als doppelt so viel Energie wie ein Fahrzeug mit Benzinmotor. Ein Vergleich mit einem Dieselfahrzeug dürfte noch schlechter ausfallen. Elektromobilität bedeutet also Energieverschwendung der Extraklasse.

Auch bei den anderen ökologischen Vorteilen handelt es sich weitgehend um leere Behauptungen. Sogenannt sauber sind E-Mobile nur, wenn man lediglich den Betrieb beachtet. Berücksichtigt man die Produktion des Stroms für diesen Betrieb, schneiden E-Mobile bezüglich Klimagasen nur dann klar besser ab als konventionelle Autos, wenn der Strom weitgehend CO2-frei erzeugt wird (vergleiche Weltwoche Nr. 32/17). Das ist in der Schweiz heute dank Wasser- und Atomkraft zwar noch der Fall. Es braucht aber viel Optimismus, zu glauben, dass die Versorgung auch nach dem beschlossenen Atomausstieg ohne fossilen Strom erfolgen kann. Ein Umstieg auf Elektrofahrzeuge im grossen Stil würde zudem den Stromverbrauch deutlich erhöhen. Die Empa geht davon aus, dass die Nachfrage um einen Fünftel steigt, falls alle Autos in der Schweiz elektrisch betrieben würden. Ohne den Einsatz von CO2-intensivem Gas- oder Kohlestrom wäre diese Nachfrage kaum zu bedienen.

Wegen des erwähnten grossen Energieaufwands entstehen zudem bei der Herstellung der Batterien enorme Mengen an CO2. Gemäss einer neuen schwedischen Studie müssen Besitzer eines Tesla Model S acht Jahre lang fahren, bis das CO2, das bei der Batterienproduktion freigesetzt wurde, kompensiert ist. Nach acht Jahren Betrieb ist aber wohl längst ein erster Batterientausch fällig.

Die Grüne Partei verlangt, dass die Schweiz ab 2025 keine neuen Autos mit Verbrennungsmotor mehr zulässt, sondern nur noch Elektromobile. Der Schaden für die Umwelt wäre enorm, sollte Bundesbern dieser Forderung nachkommen.

*Ferruccio Ferroniist diplomierter Ingenieur ETH.

Batterien

Lithium, ade!

Setzen sich Elektroautos  im grossen Stil durch, gibt es ein Rohstoff- und Giftmüllproblem.

Bei Elektromobilen kommen meist Batterien auf Basis von Lithium zum Einsatz. Denn mit dem Alkalimetall kann, verglichen mit dem Gewicht, am meisten Energie gespeichert werden. Auch Lithium-Batterien erschöpfen sich aber. Nach etwa 500 Ladevorgängen muss man sie ersetzen. Ein Set Batterien für den neu auf den Markt gekommenen Tesla 3 benötigt elf Kilogramm Lithium. Ist das Fahrzeug zwölf Jahre in Betrieb und legt es dabei total 150 000 Kilometer zurück, müssen die Batterien wegen der Erschöpfung zweimal ersetzt werden. Für die Lebensdauer eines Tesla 3 sind somit 33 Kilogramm Lithium nötig.

Setzt sich die Elektromobilität durch, droht ein Rohstoffproblem: Gemäss der US-Behörde Geological Survey betragen die weltweiten Lithium-Reserven 14 Millionen Tonnen. Falls davon die Hälfte für Elektrofahrzeuge verwendet wird (Batterien werden auch für andere Zwecke benötigt), reichen die Reserven selbst bei idealem Re- cycling von Lithium nur für rund 400 Millionen Elektrofahrzeuge vom Typ Tesla 3 (inkl. Batterienersatz). Derzeit kurven aber 1,2 Milliarden Autos auf den Strassen der Welt herum. Es entsteht also ein Engpass, falls mehr als ein Drittel des motorisierten Verkehrs auf Elektroantrieb umstellt. Zwar könnte man Batterien anderen Typs verwenden. Der Aufwand für deren Produktion wäre aber noch höher als bei Lithium-Batte- rien, zudem stiege das Batteriengewicht. Die Energiebilanz der Elektromobilität würde nochmals deutlich schlechter.

Tödliche Gefahren

Dazu kommt, dass Lithium hochgiftig ist. Bereits bei einer Einnahme von wenigen Milligramm pro Tag drohen tödliche Gefahren für den Menschen. Setzt sich Elektromobilität breit durch, müssten jedoch mehrere Millionen Tonnen Lithium entsorgt werden, das nicht mehr recycelt werden kann. Der Aufwand, um eine sichere Isolation vor der Umwelt zu gewährleisten, ist vergleichbar mit dem für die Entsorgung schwach- bis mittelradioaktiver Abfälle. In der Schweiz müsste man wohl die Nagra mit der Endlagerung von Lithium beauftragen. Die entsprechend hohen Kosten hätten die Elektroautofahrer zu tragen.

Ferruccio Ferroni und Alex Reichmuth

übernommen von Die Weltwoche hier

Anmerkung der Redaktion

in einem Mailwechsel mit Autor Ferroni wurde festgestellt, dass gem. John Petersen von Seeking Alpha Rohstoffspezialist u.a. für Lithium und Kobalt und Kritiker von TESLA sowie  von Battery University and Avicenne Energy in einer TESLA Model 3 Batterie 93 Kg Kobalt verbaut sind,(d.h. 1.44 kg Co pro kWh Kapazität). Aus diesem Grund wird die Nachfrage nach Kobalt rasant steigen und die Schlussfolgerungen des Artikel in EIKE über die furchtbare völlig inakzeptable Lage der Kinderarbeiter darunter Kleinkinder ab 4 Jahren, die für den Abbau in Demokratischen Republik Kongo schuften müssen, evtl. nur der Anfang sind.




Der C-Kreislauf – ein neuer umfassender Ansatz!

Dr. Peter Vögele, Biologe

Zusammenfassung:

Das Standardmodell für den C-Kreislauf geht davon aus, dass die CO2-Konzentration der Atmosphäre seit 800 000 Jahren bis zu Beginn des Industriezeitalters niemals den Wert von 280 ppm überschritten habe und erst danach auf säkular einmalige Werte von ca. 400 ppm angestiegen sei (1). Ferner wird angenommen, dass der Austausch von CO2 zwischen Atmosphäre , Ozean und Biosphäre vor der Industrialisierung zu einem quasi stabilen Klimazustand geführt hätte, der erst durch die relativ kleine, aber zusätzliche menschliche Quelle aus der Kontrolle geraten sei (2). Der durch den Menschen verursachte Anteil an der globalen CO2-Emission wird auf lediglich 3% geschätzt, der aber über Hunderte von Jahren kumuliert, eine bedrohliche Prognose für die Zukunft liefern soll. Diese Prognose besteht erstens in einer globalen Temperaturerhöhung in Folge eines „Treibhauseffekts“ und zweitens in der „Versauerung“ des Meeres, weil ein Teil des zusätzlichen CO2 in Folge eines erhöhten Partialdrucks durch Diffusion auch in das Meer gelangt. Die dadurch verursachte Absenkung des pH-Wertes habe drastische negative Auswirkungen auf die Meeresorganismen (4,5).

Was ist falsch an diesem Modell?

  1. In der Erdgeschichte überwog der Verbrauch von CO2 durch die Photosynthese immer die CO2-Emission. Die Photosynthese hat eine CO2-Atmosphäre des Planeten in eine O2-Atmosphäre verwandelt. Ein „Gleichgewicht“ bzw. ein „stabiler Klimazustand“ sind fiktive Annahmen.
  2. Es ist pure Ideologie, den gegenwärtigen Anstieg des CO2 in der Atmosphäre auf einen marginalen anthropogenen Beitrag zurückzuführen. In einem guten Modell sollten alle, insbesondere die großen, Kohlenstoff-Flüsse berücksichtigt werden. Der schnelle gegenwärtige CO2-Anstieg (inclusive der C-Isotopenverschiebung) ist nicht einmalig.
  3. Das Modell ist statisch (Quellen, Senken), rein physikalisch und extrem simplifiziert. Die Ursachen der Kohlenstoff- Flüsse sind biologischer Art und variieren durch Rück-Kopplung, z.B. steigendes CO2 ergibt steigende Photosynthese. Die Änderungen der Flüsse gehen nicht in die Modelle ein.
  4. Der Austausch zwischen Meer und Atmosphäre wird von der biologischen und der physikalischen Pumpe getrieben. Die Annahme, dass der Austausch durch simple Diffusion wegen des marginal höheren Partialdrucks in Folge der anthropogenen Verbrennung stattfinde, ist nicht nur falsch, sondern lächerlich.
  5. Bei Abschätzung aller Flüsse ist es wahrscheinlich, dass der gegenwärtige CO2-Anstieg durch Emission aus dem Meer entsteht.

 

Erdgeschichtlicher CO2-Verlauf

Vor 3,8 Milliarden Jahren umfassten die Ozeane ca. 90% der Erdoberfläche, die wegen der ungehinderten (fehlende Ozonschicht) UVC-Strahlung ohne Leben war. Die Atmosphäre enthielt damals ca. 10% CO2 (100 000 ppm) und absolut keinen Sauerstoff. Heute enthält die Atmosphäre 21% Sauerstoff und nur noch 0,0% CO2. Diese Umwandlung der Erdatmosphäre ist das Werk eines einzigen Bakteriums ( Prochlorococcus), das die Blaulichtkomponente in Meerestiefen bis 200 m zur oxygenen Photosynthese ausnützt und so vor der UV-Strahlung geschützt ist. Dieses Cyanobacterium und sein Stickstoff-fixierender Artgenosse Synechococcus sind auch heute noch für 50% der globalen Photosynthese verantwortlich (6). Während ca. 1 Milliarde Jahren wurde der Sauerstoff, den Prochlorococcus produzierte, zur Oxidation von Eisen und Silizium verwendet, bis der Sauerstoffgehalt vor 2,2 Milliarden Jahren auch in der Atmosphäre anstieg. Die Ozonschicht entstand ca. vor 1,9 Milliarden Jahren (7).

Die weitere Entwicklung ab der Biologischen Explosion im Kambrium (vor 542 Millionen Jahren) zeigt die folgende Abb. (16)

Vereinfacht gesehen, fällt die CO2-Konzentration bis nahezu Null am Ende des Carbon und steigt dann wieder auf 2500 ppm vor 150 Millionen Jahren an, um dann wiederum auf fast Null im heutigen Quartär zu fallen. Wenn man davon ausgeht, dass ab dem Kambrium zweifellos biologische Respiration (Atmung, Gärung, Zersetzung) stattfand, aber offensichtlich die Photosynthese (mit CO2-Verbrauch) überwiegt und deshalb ein „Gleichgewicht“ nicht konstruiert werden kann, dann stellt sich die Frage, wieso ein Boden der CO2-Konzentration bei ca. 150-200 ppm zweimal in der Erdgeschichte erreicht wurde. Das liegt daran, dass alle photosynthetisierenden Lebewesen bei niedrigem CO2-Gehalt der Umgebung Mechanismen zur Anreicherung entwickelt haben und ein Enzym Carboanhydrase, das die Umwandlung von gelöster Kohlensäure in gasförmiges CO2 katalysiert, weil Letzteres im Calvin-Cyclus gebraucht wird (8). Unter 200 ppm werden die Photosyntheseraten von C3 und C4-Pflanzen , von Algen und Bakterien extrem niedrig. Der starke Anstieg von CO2 im Perm wird auf vulkanischen Ausstoß zurückgeführt.

Bezüglich der Meeresversauerung in der Erdgeschichte folgen einige Abschätzungen von Zeebe (15) :

Vor 450 Millionen Jahren : 6000 ppm CO2 in der Luft und pH 7,4 im Meer

Vor 65 Millionen Jahren : 3000 ppm CO2 in der Luft und pH 7,6 im Meer

Vor 4,5 bis 2 Millionen Jahren: 525 – 200 ppm CO2 in der Luft und pH 8,0-8,3 im Meer.

 

Eisbohrkerne zur indirekten Ermittlung von CO2 (proxy-Methoden)

Vor etwa 2 Millionen Jahren begann das Eiszeit-Alter, in dem einer Eiszeit von ca. 100 000 Jahren eine Zwischeneiszeit von ca. 20000 Jahren folgt. Der Vorsitzende der Arbeitsgruppe 1 im IPPC , Prof. Stocker , ein Eiskernspezialist aus Bern, hat publiziert, dass am Ende einer Eiszeit erst die Temperatur steigt und mit einem Nachlauf von 800 Jahren erst das CO2 (9).

Während der Eiszeit liegen die CO2-Konzentrationen bei 200 ppm, in den Zwischeneiszeiten bei 280 ppm. Das impliziert, dass bei Beginn einer Zwischeneiszeit während mindestens 1000 Jahren ein CO2-Fluß aus dem Meer in Richtung Atmosphäre stattfand.

Um die Aussagekraft von Eisbohrkernen zu beurteilen, muss man wissen, dass die Umwandlung von Schnee über Firn bis zum Eis 200 Jahre dauern kann, in denen Diffusion von Gasen möglich ist. Eisbohrkerne können schnelle An-und Abstiege von CO2 innerhalb von 100- 500 Jahren nicht auflösen (10). Ferner ist der CO2-Gehalt in Polargebieten ca. 25 ppm niedriger wie Satellitenaufnahmen zeigen. Schnelle Änderungen des CO2-Gehalts können dagegen mittels der Analyse von Spaltöffnungen von Pflanzenmaterial entdeckt werden, z. B. ein ähnlicher Anstieg wie heute kurz vor der Jüngeren Dryas (von 150 auf 400 ppm in ca. 200 Jahren), der allerdings nicht zu einer Erwärmung, sondern zum Rückfall in eiszeitliche Temperaturen führte (11). Die Autorin führt den Anstieg auf „altes“ CO2 aus den Meerestiefen zurück, das eine ähnliche C-Isotopen-Verschiebung in der Atmosphäre bewirkte, wie auch heute zu beobachten ist.

 

Das IPCC –Modell der CO2-Austauschvorgänge ist falsch

In der Atmosphäre (750 Gt C) werden CO2- Emission durch Verbrennung, Respiration etc. und CO2-Aufnahme durch Photosynthese in wenigen Tagen durchmischt. Die Photosynthese übertrifft fast immer die Verbrennung und die Respiration , z. B. in den borealen Wäldern (26).

In den Ozeanen existiert eine gut ( von Wind und Wellen) durchmischte und warme Deckschicht von ca. 75 Metern (12), die von dem tiefen Wasser durch eine kältere Thermokline getrennt wird. Diese Deckschicht enthält 1000 Gt C und hat eine Durchschnittstemperatur im 20. Jahrhundert von 16,3 °C (im Gegensatz zur Landtemperatur von 11,1 °C). Die Temperatur der Ozeanoberflächenschicht hat sich in 150 Jahren um 0,7°C erwärmt nach Angaben der NOAA . Die Erwärmung der Oberflächenschicht des Meeres kommt vermutlich dadurch zu Stande, dass das Sonnenlicht bis zu 200 m tief eindringt und das Wasser erwärmt.

Der Austausch mit dem tiefen Ozean, der 50 mal mehr Kohlenstoff gespeichert hat, erfordert Zeiträume von 1000 Jahren.

Laut dem rein physikalischen Standardmodell von Sabine (17) erfolgt der CO2-Austausch zwischen Meer und Luft durch Diffusion, die vom leicht höheren Partialdruck in der Luft ( 2 ppm CO2 jährlich wegen der industriellen Verbrennung) getrieben wird. Die Austauschzeit wird auf 1 Jahr beziffert. Das Modell nimmt an, dass die höchste Konzentration von gelöstem anorganischem Kohlenstoff (DIC) wegen der Diffusion an der Meeresoberfläche vorliege. Das Modell berücksichtigt weder steigende Photosynthese in Folge steigender CO2-Konzentration noch den raschen Export von Kohlenstoff in den tiefen Ozean (18).

Im warmen Meer in Äquatornähe entweicht CO2 aus dem Meer , während es von kalten Meeren aufgenommen wird. In der folgenden Abb., die auf Daten des Scripps Institute beruht, wurde in jedem Meßpunkt die CO2-Konzentration in der Luft und im Wasser gemessen. Was überrascht, ist die Höhe der Differenz. In der Luft über den Warmwasserzonen wurden über 50 ppmv höhere CO2-Konzentrationen gemessen und über den kalten Zonen über 50 ppmv niedrigere. Das kann man nicht mit dem anthropogenen jährlichen Anstieg des atmosphärischen CO2 von 2ppmv erklären. Der CO2-Austausch zwischen Meer und Atmosphäre ist die Bilanz von 2 Flüssen: Emission aus dem Wasser in äquatorialen Zonen und Aufnahme aus der Luft in kalten Zonen (13). Eine globale Bilanz dieser beiden Flüsse kann nicht aus den Partialdrücken ermittelt werden (14), da bei diesem rein physikalischen Modell (17) der Effekt der biologischen Pumpe fehlt. In der Abb. sieht man, dass in dem kalten Teil des Meeres (links < 17°C) der CO2-Gehalt bei steigender Temperatur sinkt und nicht steigt, wie intuitiv zu erwarten wäre. Wegen der biologischen Pumpe (Absinken von Kohlenstoff in den tiefen Ozean) bildet sich ein vertikaler Gradient an anorganischem Kohlenstoff (DIC) aus, bei dem die C-Konzentration an der Meeresoberfläche am kleinsten ist. In kalten Meeren misst man mit dem Partialdruck im Wesentlichen die Stärke der biologischen Pumpe, in warmen Meeren die temperaturbedingte CO2-Ausgasung und in bestimmten „upwelling“ Zonen das Aufsteigen der ozeanischen Tiefenströmung. Allerdings liegen CO2-Konzentrationen über den „upwelling zones“ bei über 1000 ppmv.

Es bleibt offen, ob in der globalen Bilanz die Ozeane CO2 aufnehmen oder abgeben.

Quelle: NOAA, upwelling, pict.1

Photosynthese, wie funktioniert ein Korallenriff?

Die modellierte pH-Änderung im Great Barrier Reef seit 159 Jahren beträgt minus 0,054 pH (27). Im seichten Wasser eines Riffs schwankt der pH zwischen 8,4 am Tag und 7,7 bei Nacht (28). Die Abweichung des pH-Wertes nach oben während der Photosynthese ist einfach zu erklären. Das umgebende Wasser verarmt an anorganischem Kohlenstoff, der in Biomasse umgewandelt wird. Die tierische Respiration ist weit niedriger. Die Koralle besteht aus einem tierischen Organismus, z.B. einem Polypen, der eine geschlossene Kammer ausgebildet hat, in dem sich die photosynthetisierenden Algen befinden. Eine Protonenpumpe des Polypen senkt den pH der Kammer auf ca. 5,5, bei dem weitgehend nicht dissoziierte Kohlensäure vorliegt. Diese wird durch das Enzym Carboanhydrase (ähnlich wie im Blut) zu gasförmigem CO2 umgewandelt, das zur Bildung von Biomasse dient. Je stärker die Photosynthese, umso mehr verarmen die oberflächlichen Meereszonen an anorganischem Kohlenstoff und das Wasser wird alkalischer, nicht saurer. Auch die Kalkbildung ist kein chemischer Prozess, der von der Konzentration der Carbonat-Ionen abhängt, sondern ein biologischer Vorgang, der mit der Photosynthese korreliert ist, und unabhängig von pH-Schwankungen und Calcit-Sättigungswerten ist (30). Bei sinkendem pH-Wert sollte eigentlich die Carbonat-Konzentration und die Pufferkapazität abnehmen. In den Riffen tritt als negative Rückkopplung eine Kalkauflösung statt, die CO2 absorbiert und Carbonat freisetzt (29).

 

Gibt es ein Gleichgewicht der vorindustriellen CO2-Flüsse ?

Zunächst ein Zitat von Prof.Sabine (NOAA)(18) : „ although ocean biology plays an integral role in the natural distribution of carbon in the ocean, there is no conclusive evidence that the ocean uptake and storage of anthropogenic carbon, thus far, involve anything other than a chemical and physical response to rising atmospheric CO2.”

Der kurzfristige C-Kreislauf ist doch in erster Linie eine Bilanz zwischen biologischer Photosynthese und Respiration ( biologische Zersetzungsvorgänge mit Freisetzung von CO2) an Land und Meer, und in zweiter Linie der biologischen Pumpe. Welche physikalischen Vorgänge sollen denn eine Rolle spielen außer der marginalen anthropogenen Verbrennung?

Viele Organismen reagieren auf höhere CO2-Konzentration und höhere Temperatur mit einer erhöhten Photosyntheserate. Das Cyanobacterium Synechococcus (für 25% der globalen Photosynthese zuständig) erhöht die Photosyntheserate bei 750 ppm CO2 und 19°C auf das 4fache (19). Die quantitative Erhöhung der globalen Photosynthese (gross primary production) ist quantitativ schwierig zu fassen. Campbell (20) ermittelte 31% im 20.Jahrhundert. Im Sargasso Meer nahm das Mesoplankton um 61% zu zwischen 1994 und 2006 (21). Coccolithophoren nahmen zwischen 1990 und 2012 im Atlantik um 37% zu (22). Pro Jahr ergibt das Zunahmen von 0,31% bis 5,1 %.

Wenn die Brutto-Primärproduktion 223 Gt C pro Jahr beträgt (23), so müsste eine jährliche Abnahme von 0,7 Gt C bis 11,4 Gt C in der globalen C-Bilanz berücksichtigt werden. Dies liegt in der Größenordnung der anthropogenen Emission, wird aber in den Modellen nicht berücksichtigt.

Woodward (23) gibt folgende Zahlen in Gt C für Land und Ozean an:

GPP (gross primary production ) : Land 120, Ozean 103

NPP (net PP = GPP – pflanzliche Respiration): Land 60, Ozean 65

NET (net ecosystem prod. = NPP – heterotrophe (tierische) Respiration) : Land 5, Ozean 11

Man sieht, dass der photosynthetische C-Verbrauch immer die durch biologische Zersetzung emittierte C übertrifft, wie es auch in erdgeschichtlichen Zeiträumen der Fall war. Die Zahlen der NPP sind recht zuverlässig, da sie auf Satellitenmessungen der photosynthetischen Pigmente (400-700 nm) beruhen. Was nicht berücksichtigt wird, weil es von den Satelliten nicht erfasst wird, sind 25% der globalen Photosynthese durch Prochlorococcus in Meerestiefen bis 200 m. Die heterotrophe Respiration in den tropischen klaren Meeren kann in diesen Tiefen gleich Null gesetzt werden. Das bedeutet, dass ca 26 Gt C pro Jahr zusätzlich zur obigen Rechnung aus dem C-Kreislauf verschwinden. Das Cyanobacterium verdoppelt sich jeden Tag, aber die Hälfte der Zellen wird durch einen Phagen aufgelöst und endet im tiefen Ozean (biol. Pumpe).

Die NET im Ozean wird von Woodward mit 11 Gt C angegeben. Dieser Wert entspricht weitgehend der biologischen Pumpe, ist aber zu niedrig angesetzt. Laut Prof. Riebesell (24) liegt das Ausmaß der biologischen Pumpe bei 9-15 Gt C/ Jahr, liegt aber seiner Meinung nach eher beim oberen Wert. Man könnte folgende Bilanz des C-Kreislaufs aufstellen, wobei + einer Zunahme und – einer Abnahme von Kohlenstoff bedeutet:

Die NET (net ecosystem production) in Gt C/ Jahr) addiert sich aus -5 (Land) – 12-15 (Ozean) – 1 (jährliche Zunahme) , was 17- 21 Gt C / Jahr ergibt (ohne den Effekt von Prochlorococcus = 26) und die anthropogene Emission von 10 Gt C/ Jahr weit übertrifft. Das bedeutet, dass jedes Jahr der Atmosphäre trotz anthropogener Emission ca 7-11 Gt C entzogen werden. Wenn nur der halbe Effekt von Prochlorococcus (der von mir geschätzt wurde) mitgerechnet wird, ergibt sich ein CO2-Verbrauch von jährlich 30-34 Gt C trotz der „anthropogenen „ Emission.

 

Biologische Pumpe

Die biologische Pumpe ist so definiert, dass ein Teil (25%) des durch Photosynthese gebildeten organischen Kohlenstoffs relativ schnell und ohne heterotrophe Respiration in den tiefen Ozean absinkt, wodurch er dem C-Kreislauf für ca. 1000 Jahre entzogen wird (25). Am Meeresboden findet dann der Abbau des organischen Materials in anorganischen Kohlenstoff statt.

Das falsche Modell, das Prof. Sabine beim IPPC anwendet wird, beruht auf seiner falschen Einschätzung der Sinkgeschwindigkeit des organischen Materials : „ because anthropogenic CO2 invades the ocean by gas exchange across the air-sea interface, the highest concentrations of anthropogenic CO2 are found in near surface waters. Away from deep water formation regions, the time scales for mixing of near-surface waters downward into the deep ocean can be centuries“ (18).

Die Literatur gibt relative unterschiedliche Sinkgeschwindigkeiten an, aber man kann mit 30 bis 1000 Metern pro Tag rechnen, was mir von Prof. Riebesell (24) bestätigt wurde. Für Bakterien (Aggregate) werden Sinkgeschwindigkeiten von 440-660 Metren angegeben (18).

Wie oben diskutiert, wird der von Prochlorococcus produzierte Anteil der Nettoprimärproduktion von Satelliten nicht erfasst . Deswegen wird auch der gleich große Anteil an der Biologischen Pumpe einfach nicht berücksichtigt.

Die Biomasse landet am Boden der Ozeane , wo sie von Bakterien zu anorganischem Kohlenstoff abgebaut wird. Dieser Kohlenstoff kommt nicht vor 1000 Jahren wieder an die Oberfläche.

 

Physikalische Pumpe: Tiefenströmung , „upwelling“

Die physikalische Pumpe sorgt für den Austausch zwischen der Oberflächenschicht des Meeres und dem tiefen Ozean.

Die globale Meeresströmung (siehe Abb.) wird angetrieben durch die thermohaline Zirkulation. Der warme Golfstrom strömt an der Oberfläche des Atlantiks nach Norden und gibt Wasserdampf ab, der zu einer Abkühlung und Aufsalzung des Wassers führt. Auf der Höhe Islands ist die Dichte dieses Stroms so hoch geworden, dass er wie ein Wasserfall bis zum Meeresboden fällt. Dort verteilt sich die Strömung flächig und fließt sehr langsam nach Süden zurück. Die Zeit für einen Kreislauf wird auf ca. 1000 Jahre geschätzt.

Das Austeigen von Tiefenwasser (upwelling) in Küstennähe wird dagegen hauptsächlich durch Winde verursacht, die die warme Oberflächenschicht wegtreiben und den Auftrieb des kalten und kohlenstoffreichen Tiefenwassers ermöglichen (30). In der Luft über den Auftriebsgebieten werden mehr als 1000 ppmv an CO2 gemessen (18).

Während der letzten Eiszeit war die Ventilation am Meeresboden unterbrochen, so dass sich dort Kohlenstoff ansammelte, der absolut frei von 14C war (31). Dieser Kohlenstoff kann bis zu 30 000 Jahren am Boden der Ozeane verbleiben (32).

 

Diskussion: woher kommt der gegenwärtige CO2-Anstieg in der Luft? 

  1. Die durch Photosynthese und biologische Pumpe verursachte Aufnahme von CO2 aus der Atmosphäre bis in den tiefen Ozean, kann nicht durch anthropogene Verbrennung kompensiert werden. Die gemessene Zunahme in der Atmosphäre muss zwangsläufig durch Ausgasung aus dem Ozean erklärt werden.
  2. Entweder hat sich das „upwelling“ seit ca. 100 Jahren verstärkt, was am ehesten durch Änderungen der Windbewegungen erklärt werden kann oder die Tiefenströmung bringt seit 100 Jahren kohlenstoffreicheres Tiefenwasser nach oben.
  3. Der Befund, dass es sich um „alten Kohlenstoff“ (14C arm) handelt, könnte auch dadurch erklärt werden, dass CO2 aus dem Erdinneren austritt.

 

Quellen:

  1. IPPC Synthesis Report 2014, Summary for Polcymakers, SPM 1.2, Seite 4
  2. D. Schönwiese “Klimatologie”, 3.Aufl. Ulmer Verlag 2008, Seite 346
  3. Le Quére et al. 2014; Earth Syst. Sci. Data Discuss. 7, 521-610
  4. Schulz & U.Riebesell , S.160-162 in : J.Lozan (Hg): Warnsignal Klima: Die Meere-Änderungen & Risiken (2012)
  5. J. Hardt , C.Safina , Spektrum der Wissenschaft, Feb. 2011, 82-89
  6. Partensky et al. , Microbiol.Mol.Biol.Rev. 63, 106-127 (1999)
  7. Kutschera: Tatsache Evolution, München 2009,313
  8. Wang et al. , The Plant J. 82, 429-448 (2015)
  9. Monnin, T.Stocker et al, Science 291, 112-114 (2001)
  10. Van Hoof et al. , Tellus 57B, 351-355 (2005)
  11. Steinthorsdottir et al. , Quaternary Science Rev. 99, 84-96 (2014)
  12. Roedel “Die Atmosphäre”, 2.Aufl. 1994, Springer , Seite346
  13. Scripps Institute, Seawater CO2 Data ,published by C.D.Keeling 1957-1963
  14. Takahashi et al. 2016 , “Global Ocean Surface Water Partial Pressure of CO2 database. Oak Ridge Nat. Laboratory, U.S. Dep. of Energy
  15. E.Zeebe, Ann.Rev.Earth Planet Sci. 2012, 141-165
  16. A.Berner+ Z. Kothavala, Am.J.Sci 301, (2001), 182-204
  17. IPPC: Climate Change 2013, 6.3 (C.Sabine)
  18. Steele, https://wattsupwiththat.com/2017/03/02/how
  19. Fu, J.Phycology 43, (2007),485-496
  20. J.E.Campbell, Nature 544, (2017), 84-87
  21. Hernández-Léon et al., Limnol.Oceanogr. 55, (2010), 2503-2512
  22. K.M.Krumhardt et al. , Biogeosciences 13, (2017), 1163-1177
  23. I.Woodward, Current Biol. 17, (2007), 269-273
  24. Mitt. von Prof. U. Riebesell , Geomar, am 20.07.2017
  25. Körtzinger in : „Der marine Kohlenstoffkreislauf“ , S.16 ( Springer, 2017)
  26. Gonsamo et al., J.Geophys.Res. 122, 1275-1293 (2017)
  27. Wei et al. , J.Geophys.Res. 120, 7166-7188 (2015)
  28. I.Kline et al. , PLos ONE 10 (6): e0127648 (2015)
  29. W.Morse et al. , Chem.Rev. 107, 342-381 (2007)
  30. National Ocean Service, NOAA
  31. Basak et al. , Nature Geoscience 3, 770-773 (2010)
  32. L.Follett et al. , proc. Nat. Acad. Sci. U.S.A. 111, 16706 (2014)

 




Machen wir mal ein Gedanken­experiment: Es gibt gar keine Erde!

  • Die Erde hat zwar ein heißes Inneres, aber der Wärmestrom an ihrer Oberfläche ist äußerst gering. Auch die Gezeitenreibung liefert keine klimawirksame Energie. Die alleinige „natürliche“ Eigentemperatur der Erde würde vielmehr bei etwa minus 240 Grad Celsius  liegen. Die Erde selbst ist also primär an der Temperaturgenese auf ihrer Oberfläche nicht beteiligt.
  • Die Sonne ist der bestimmende Energielieferant für die Temperatur- und Klimagenese auf unserer Erde; die Sonne ist also ihr eigentlicher Klimamotor.
  • Und das Stefan-Boltzmann-Gesetz beschreibt den physikalischen Zusammenhang von Strahlung und Temperatur.

Das Stefan-Boltzmann-Gesetz kann also, bei richtiger Anwendung, zur Beschreibung der Temperatur- und Klimagenese unserer Erde dienen. Es beschreibt für einen Schwarzen Körper den in Abbildung 1 dargestellten physikalischen Zusammenhang von Strahlung und Temperatur im thermischen Gleichgewicht:

Abbildung 1: Der Zusammenhang von Strahlung und Temperatur nach dem Stefan-Boltzmann-Gesetz

Das Gleichheitszeichen im Stefan-Boltzmann-Gesetz bedeutet aber leider nicht, dass man einfach irgendwelche Durchschnittswerte in dieses physikalische Gesetz einsetzen darf, um die Situation auf der Erde zu beschreiben, denn dieses S-B Gesetz ist eben ein Gesetz und keine Gleichung. Es stellt vielmehr einen direkten physikalischen Bezug von singulären Strahlungs- und Temperaturwerten im gemeinsamen thermischen Gleichgewicht her. Und nur in diesem Gleichgewichtszustand entspricht ein konkreter Strahlungswert einer durch dieses Gesetz eindeutig definierten Temperatur nach der in Abbildung 1 dargestellten Funktion. Die jeweilige Temperatur muss also physikalisch konkret vorliegen, um den spezifischen Strahlungswert nach dem Stefan-Boltzmann-Gesetz zu erzeugen.

1. ERKENNTNIS: Berechnungen von und aus Durchschnittswerten sind mit dem Stefan-Boltzmann-Gesetz physikalisch nicht zulässig. Eine Berechnung von Mittelwerten kann vielmehr erst dann durchgeführt werden, wenn bereits für alle beteiligten Wertepaare von Temperatur und Strahlung eine individuelle Umrechnung nach dem Stefan-Boltzmann-Gesetz erfolgt ist. Grundvoraussetzung ist, dass diese Wertepaare in einer direkten physikalischen Beziehung miteinander stehen müssen.

Machen wir an dieser Stelle zunächst einmal ein Gedankenexperiment: Es gibt gar keine Erde!
Dazu verbringen wir zu einem Zeitpunkt “0” ein Duplikat unserer Erde aus einem Dunkelkammer-Weltraumlabor an den aktuellen Standort unserer Erde. Dieses Duplikat soll eine voll funktionsfähige Erde in einem „tiefgefrorenen“ Zustand mit einer Eigentemperatur von minus 240 Grad Celsius darstellen:

  • Nun setzen wir dieses Duplikat unserer Erde zum Zeitpunkt „0“ der Sonnenstrahlung aus und messen die Zeit „A“, bis die aktuelle Temperaturverteilung auf unserer Erde erreicht ist und alle atmosphärischen und ozeanischen Zirkulationen mit Wärmeenergie „aufgeladen“ sind. Dieser Zeitpunkt „A“ ist gekennzeichnet durch ein erstmaliges Gleichgewicht von eingestrahlter und abgestrahlter Energiemenge.
  • Nachdem dieser Gleichgewichtszustand erreicht wurde, verbringen wir das Duplikat unserer Erde zum Zeitpunkt „B“ wieder ins Labor und messen den Zeitraum „b”, bis wieder die ursprüngliche Ausgangstemperatur von etwa 240 Grad Celsius herrscht.

Wir werden dann herausfinden, dass beide Zeiten “A” und “b” größer als “Null” sind. Die Zeit “A” repräsentiert ein Maß für die Wärmekapazität unserer Erde, während die Zeit “b” ein Maß für die Qualität der thermischen Isolierung unserer Erde gegen das Weltall darstellt. „A“ und „b” repräsentieren in erster Näherung einen Zeitraum von Jahrhunderten bis Jahrtausenden. Das Stefan-Boltzmann-Gesetz gilt aber nur in einem thermischen Gleichgewichtszustand zwischen Strahlung und Temperatur, also im Zeitraum „t“ mit (A < t < B). In einem solchen Gleichgewichtszustand spielt aber die Wärmekapazität zunächst keine Rolle. Die einzige temperaturbestimmende Einflussgröße im thermischen Gleichgewichtszustand auf unserer Erde ist damit die eingestrahlte Energie von der Sonne in [W/m²] auf der Tagseite. Wie groß der Energieinhalt des Systems Erde dabei wirklich ist und wie lange die Aufladung gedauert hat, ist dafür zunächst unerheblich, wenn wir diesen Zeitraum „t“ mit (A < t < B) betrachten.

Dieser statische Fall zeichnet sich offensichtlich durch eine relativ stabile globale Durchschnittstemperatur (NST=Near Surface Temperature) von 14,8 Grad Celsius aus. Die globalen Zirkulationen sind mit Energie „gesättigt“ und alle atmosphärischen und ozeanischen Prozesse sind in eine Art mittleren klimatischen Gleichgewichtszustand „eingeschwungen“ – das Wettergeschehen spiele in dieser Abstraktion keine Rolle. Bei einer solchen statischen Betrachtung ergeben sich dann folgende Rechengrößen:

Solarkonstante: 1.367 W/m²

Temperaturwirksame Sonneneinstrahlung: 940 W/m²

Durchschnittliche Abstrahlung nach Energiebilanz: 235 W/m²

Anmerkung: Um den Beweisweg nicht zu komplizieren, werden hier vereinfachte Werte zugrunde gelegt. Der hemisphärische Zweischichtfall für Atmosphäre und Oberfläche mit einer temperaturwirksamen Nettostrahlung von 780 W/m² wird hier nicht betrachtet.

Für eine hemisphärische Sonneneinstrahlung von 940 W/m² bei lotrechter Position der Sonne ergibt sich nach dem Stefan-Boltzmann-Gesetz dann eine maximale Gleichgewichtstemperatur von 85,7 Grad Celsius. Und eine beliebige örtliche SB-Maximaltemperatur lässt sich in Abhängigkeit von der geographischen Breite mit dem hemisphärischen S-B Ansatz folgendermaßen beschreiben:

S,Z = 940 [W/m²] * cos mit S,,Z = breitenabhängiger hemisphärischer Netto-Strahlungsantrieb im solaren Zenit und =auf den jahreszeitlichen Sonnenstand korrigierte Breite der Ortslage

Die aus dieser S-B Beziehung ableitbaren hemisphärischen S-B Gleichgewichtstemperaturen werden auf der Erde weder im Maximum noch im Minimum erreicht. Wenden wir uns daher zunächst einmal dem Mond als vergleichbarem Himmelskörper ohne Ozeane und Atmosphäre zu. Nachfolgend ist eine Abbildung dargestellt, die bereits auf EIKE veröffentlicht worden war:

Abbildung 2: Vergleich der gemessenen Oberflächentemperatur auf dem Mond (blau) mit der hemisphärischen S-B Gleichgewichtstemperatur (rot)

Blau: Gemessene Oberflächentemperatur auf dem Mond am Landeplatz von Apollo 15
Zugrunde liegt die Originalabbildung aus einem EIKE-Artikel (Primärquelle Eschenbach auf WUWT)

Rot: Verlauf der hemisphärischen S-B Gleichgewichtstemperatur für die geographischen Position des Apollo 15 Landeplatzes ohne Berücksichtigung der lunaren Achsenneigung mit den nachfolgenden Eckwerten:

Landepunkt von Apollo 15: Mond @ 26° 7′ 55.99″ N 3° 38′ 1.9″ E

Solarkonstante: 1.367 [W/m²]

Albedo des Mondes: 0,11

Temperaturwirksame Solarstrahlung: 1.217 [W/m²]

dito bei 26,125° geogr. Breite: 1.092 [W/m²]

Effektive Solarstrahlung Seff für α = [0° – 360°]: IF SIN α >0 THEN Seff = SIN α* 1.092 [W/m²]

IF SIN α <0 THEN Seff = 0 [W/m²]

Abbildung 2 zeigt, dass die gemessene und die hemisphärisch berechnete S-B Gleichgewichtstemperatur am Landepunkt von Apollo 15 bei Tage hervorragend überein stimmen, während die Nacht-Temperaturen um etwa 70 Grad differieren. Diese Differenz ist aber eher ein Problem zwischen Theorie und Praxis, denn in der S-B Berechnung wird für die Nachtseite des Mondes streng mit 0 [W/m²] gerechnet, während der Mond in der Realität reflektierte Sonnenstrahlung von der Erde erhält, deren Albedo immerhin etwa 30% betragt. Eine Temperatur von -196 °C entspricht nach Stefan-Boltzmann einer Strahlung von 2 {W/m²], wie Abbildung 1 erkennen lässt, und dafür dürfte die Rückstrahlung der Erde von etwa 400 [W/m²] allemal ausreichen.

2. ERKENNTNIS: Auf dem Mond funktioniert der hemisphärische S-B Ansatz ganz hervorragend, warum sollte er also für die Erde nicht anwendbar sein?

Im konventionellen S-B Ansatz wird eine globale Durchschnittstemperatur aus der durchschnittlichen Energiebilanz der Erde mit einem Viertel der wirksamen Solarkonstanten ermittelt. Wie wir bereits gesehen haben, „verkraftet“ das Stefan-Boltzmann-Gesetz solche Durchschnittswerte aber gar nicht.

Schauen wir aber trotzdem einmal näher hin und beschränken wir uns auf die Abstrahlung:
Die durchschnittliche globale Abstrahlung unserer Erde kann in erster Näherung unter Berücksichtigung der Albedo tatsächlich mit einem Viertel der temperaturwirksamen netto-Sonneneinstrahlung von 235 W/m² beschrieben werden, auch wenn sie in Wahrheit sicherlich tages- und jahreszeitlichen sowie breitenabhängigen Schwankungen unterworfen ist.

Nur zur Erinnerung: Diese Betrachtung der Erde findet im Zeitraum „t“ mit (A < t < B) statt.

Die Wärmespeicher des Systems Erde sind also „voll aufgeladen“ und die globale Abstrahlung geschieht kontinuierlich parallel zur hemisphärisch getakteten solaren Einstrahlung. Beim Mond war das ja noch ganz einfach, denn der verfügt neben seiner Oberfläche über keine zusätzlichen Wärmespeicher. Damit stellt sich die Frage, wo bei einer Betrachtung nach der globalen Strahlungsbilanz eigentlich der Wärmeinhalt der globalen Zirkulationen berücksichtigt wird.

3. ERKENNTNIS: Im Gegensatz zum Mond kühlt unsere Erde über Nacht nicht schnell genug aus.

Das Stefan-Boltzmann-Gesetz für einen schwarzen Körper in einer erwärmten Umgebung lautet nun:

S = S – S0 = * (T4 – T04)   mit S = P/A [W/m²] Quelle: Gerthsen-Kneser “Physik” (1971)

Nach Abbildung 3 ist es also nach dem Stefan-Boltzmann-Gesetz überhaupt nicht egal, bei welcher Umgebungstemperatur „T0“ wir eine globale Emission von S=235 W/m² ansetzen:

Abbildung 3: Der Temperaturbereich für eine pauschale Abstrahlung von S = 235 W/m² ist abhängig von der Basistemperatur T0 und ergibt nach dem S-B Gesetz keine eindeutige Lösung

Rot: Der Zusammenhang von Strahlung und Temperatur nach dem Stefan-Boltzmann-Gesetz aus Abbildung 1

Blau: Das S-B Temperaturäquivalent für S = 235 W/m² abhängig von der jeweiligen Umgebungstemperatur T0

Abbildung 3 macht also deutlich, dass es beim Stefan-Boltzmann-Gesetz von ganz entscheidender Bedeutung ist, bei welcher Umgebungstemperatur eine Abstrahlung nach der globalen Energiebilanz erfolgt. Jedenfalls kann die Temperatur eines Schwarzen Körpers nicht unter seine Umgebungstemperatur fallen.

4. ERKENNTNIS: Mit der Umgebungsgleichung des S-B Gesetzes ist jetzt das einzige Manko der hemisphärischen S-B Ableitung geheilt, nämlich das Fehlen einer Erklärung für das Verhalten der örtlichen Nachttemperatur.

Der konventionelle S-B Ansatz aus der globalen Energiebilanz geht nun davon aus, dass das Umgebungsniveau „T0“ unserer Erde null Grad Kelvin beträgt. Von dort aus werden nämlich nach S-B die ominösen 18 Grad Celsius mit S = 235 W/m² „hochgerechnet“, wie das in Abbildung 3 durch die erste „Treppenstufe“ von 0 bis 235 W/m² dargestellt wird. Die konventionelle S-B Ableitung für die „natürliche“ globale Durchschnittstemperatur von 18 °C ignoriert also den Wärmeinhalt der globalen Zirkulationen als unmittelbar wirksame Wärmespeicher unserer Erde.

5. ERKENNTNIS: Allein der Wärmeinhalt der globalen Zirkulationen sorgt dafür, dass das Temperaturniveau der Erde nachts nicht in die Nähe von null Grad Kelvin zurückfällt, wie wir das auf dem Mond beobachten können.

Abschätzung für die S-B Größe „T0“ in dieser Betrachtung: Das „T0“ in der S-B Umgebungsgleichung dürfte in etwa durch die global gemittelte Morgentemperatur der Ozeane kurz vor Sonnenaufgang repräsentiert werden. In dem auf EIKE veröffentlichten Artikel „Über die schwer fassbare globale mittlere Temperatur – ein Vergleich Modell ? Daten “ (von Bob Tisdale, übersetzt von Chris Frey, EIKE) heißt es über die durchschnittlichen Meerestemperaturen, Zitat:

Die mittlere absolute globale Wassertemperatur ICOADS beträgt während der letzten 30 Jahre (1984 bis 2013) 19,5°C, während deren absolute globale Wassertemperatur 19,3°C beträgt.

Zunächst einmal ist hier festzustellen, dass die globalen Durchschnittswerte der oberflächennahen Bodentemperatur (NST) und der Wassertemperatur stark differieren. Diese Differenz dürfte aber eher der natürlichen Begrenzung der Wassertemperatur durch den Gefrierpunkt des Wassers geschuldet sein. An diesem begrenzten Minusbereich für die Wassertemperatur scheitert also eine direkte Vergleichbarkeit beider Durchschnittswerte. Setzen wir hier also einfach einmal voraus, dass sich beide Durchschnittstemperaturen (Land und Meer) in etwa entsprechen würden. Da aber die globale Wassertemperatur zu tiefen Temperaturen hin eingeschränkt ist liegt es nahe, als gemeinsame Basis auf die durchschnittliche oberflächennahe Lufttemperatur zurückzugreifen. Und wenn wir in der S-B Umgebungsgleichung als Ausgangswert „T0“ diese global gemittelte gemessene Durchschnittstemperatur (NST) von 14,8 Grad Celsius ansetzen, dann ist der imaginäre atmosphärische Treibhauseffekt plötzlich verschwunden.

6. ERKENNTNIS: Wenn die bodennahe örtliche Nachttemperatur nach der Umgebungsgleichung des S-B Gesetzes durch einen Wärmezufluss aus den atmosphärischen und ozeanischen Zirkulationen gestützt wird, dann sind alle weiteren Spekulationen über einen „natürlichen“ atmosphärischen Treibhauseffekt hinfällig.

Sinkt also nachts die örtliche bodennahe Temperatur unter die Temperatur des ortsnahen Ozeans, dann erfolgt sofort ein Wärmefluss aus diesem Wärmespeicher. Anstelle einer weiteren Abkühlung der betrachteten Senke erfolgt dann also ein zusätzlicher Wärmefluss in diese Senke hinein. Im Umkehrschluss wird diese Senke also umso tiefer werden, je weiter entfernt vom Ozean sie sich befindet. Für eine anschauliche Darstellung des tageszyklischen Wärmeaustausches von Land und Meer wird hier auf Wikipedia verwiesen.
Anmerkung: Der direkte Einfluss der Atmosphäre wird hier nicht weiter diskutiert, weil sie sehr viel komplizierter zu beschreiben ist. Der Wärmeinhalt der Atmosphäre selbst weist nämlich wegen stark schwankender Wassergehalte eine wesentlich größere Variabilität auf und eine Wolkenbedeckung kann außerdem die nächtliche Abstrahlung deutlich vermindern.

Wenn wir jetzt einmal realistisch das S-B Temperaturäquivalent für eine globale Abstrahlung von S = 235 W/m² betrachten, dann dürften wir irgendwo im Bereich der zweiten „Treppenstufe“ in Abbildung 3 fündig werden, also im Bereich von T = 48 Grad Celsius. Dieser Wert ist als tägliche Schwankungsbreite selbst für extreme Wüstengebiete sehr ambitioniert, also dort, wo die globalen Zirkulationen nur einen geringen Beitrag gegen die Nachtabkühlung liefern können. Für die meisten individuellen Ortslagen kommt also im Umkehrschluss tatsächlich ein unterstützender Wärmestrom aus den globalen Zirkulationen zum Tragen. Das in Abbildung 4 dargestellte Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite nach HÄCKEL (1990) weist diesen Zusammenhang eindeutig nach.

Abbildung 4: Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite. QUELLE: HÄCKEL, Meteorologie, Verlag Eugen Ulmer, Stuttgart 1990, zu finden auch hier

Diese Abbildung 4 zeigt zum Beweis der oben gemachten Ausführungen den durchschnittlichen horizontal verfrachteten jährlichen Wärmestrom durch die globalen Zirkulationen in mittlere und höhere geographische Breiten hinein. Da die abschließende Argumentation über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes auf der globalen Energiebilanz von 235 W/m² aufsetzt, reiht sich diese Abbildung 4 von Häckel (1990), die ebenfalls auf einer Energiebilanz von 235 W/m² beruht, widerspruchslos in die vorliegende Argumentation ein und weist deren Richtigkeit nach.

7. ERKENNTNIS: Die theoretische Schwankungsbreite für das Temperaturäquivalent einer durchschnittlichen globalen Abstrahlung von 235 W/m² kann, außer vielleicht in extremen Wüstengebieten, auf der Erde kaum erreicht werden. Vielmehr wirkt der Wärmezufluss aus Atmosphäre und Ozeanen einer örtlichen Nachtabsenkung der Temperaturen entgegen.

Fassen wir die Temperaturgenese auf unserer Erde also noch einmal abschließend zusammen:

  • Die Sonne heizt auf der Tagseite der Erde Landflächen, Atmosphäre und Ozeane auf.
  • Die hemisphärisch berechnete Maximaltemperatur nach dem Stefan-Boltzmann-Gesetz wird dabei nirgendwo auf der Erde erreicht. Vielmehr werden insbesondere in niederen und mittleren Breiten die globalen Zirkulationen tagsüber mit Wärmeenergie „aufgeladen“.
  • Der Wärmeinhalt in den globalen Zirkulationen wird also auf der Tagseite aus der hemisphärischen Sonneneinstrahlung gespeist, was dort zu einer Reduzierung der gemessenen Temperaturen gegenüber den berechneten hemisphärischen S-B Gleichgewichtstemperaturen führt.
  • Für eine individuell betrachtete Ortslage auf der Nachtseite der Erde bestimmen der Wassergehalt der Atmosphäre und die Entfernung zum Ozean, wie stark sich die Erdoberfläche dort abkühlen kann.
  • Damit ist die Nachtabkühlung in meeresnahen äquatorialen Gebieten am geringsten und in kontinentalen Wüstengebieten niederer Breiten am größten.
  • Der Wärmezufluss aus den globalen Zirkulationen trägt also zur örtlich gemessenen Nachttemperatur bei. Diese Wärmeflüsse sorgen während des jeweiligen Winterhalbjahres in mittleren und höheren geographischen Breiten auch für einen generellen Temperaturanstieg gegenüber den hemisphärisch berechneten S-B Gleichgewichtstemperaturen.

Am Ende führen also eine physikalisch falsche Anwendung des Stefan-Boltzmann-Gesetzes und die Nichtbeachtung des Wärmeinhalts der globalen Zirkulationen bei der konventionellen S-B Herleitung einer globalen Durchschnittstemperatur über die Energiebilanz unserer Erde zu einem imaginären „natürlichen atmosphärischen Treibhauseffekt“ von 33 Grad. Tatsächlich aber folgt die globale Temperaturgenese auf der Erde einem hemisphärischen Strahlungsansatz über das Stefan-Boltzmann-Gesetz, während die Nachtabkühlung auf der Erde mit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes unter Einbeziehung des Wärmeinhaltes der globalen Zirkulationen beschrieben werden kann.

ERGEBNIS: Es sind in Wirklichkeit also die wärmebeladenen globalen Zirkulationen, die unter dem Pseudonym „natürlicher atmosphärischer Treibhauseffekt“ für lebensfreundliche Temperaturen auf unserer Erde sorgen, indem sie hier auf der Erde eine dem Mond vergleichbare extreme Schwankung von tageszyklischer Aufheizung und Nachtabsenkung verhindern.

Schlussbemerkung: Wegen des imaginären Konstruktes eines „natürlichen atmosphärischen Treibhauseffektes“ aus einer fehlerhaften Anwendung des Stefan-Boltzmann-Gesetzes sollen wir uns jetzt also alle einer „globalen Dekarbonisierung bis zum Jahre 2100“ unterziehen. Und damit wird dann unsere fossil betriebene Industrie, unser damit erwirtschafteter Lebensstandard sowie auch noch die Überlebensperspektive zukünftiger Generationen zerstört – ja geht’s denn eigentlich noch?




Tesla-E-Auto mangels Reichweite für Umwelt­ministerin nicht geeignet

Bild, 11.08.2017: Batterie zu schwach Umweltministerin legt Dienst-Tesla still
Aus für den 110 000 Euro teuren Elektro-Dienstwagen des NRW-Umweltministeriums.
Die neue Ministerin Christina Schulze Föcking (CDU) will den Vorzeige-Tesla, den ihr Amtsvorgänger Johannes Remmel (Grüne) 2016 zu Testzwecken angeschafft hatte, nicht weiter nutzen.
Das bestätigte ein Ministeriumssprecher gegenüber dem „Kölner Stadtanzeiger“. Demnach habe sich die Batterieleistung „für Fahrten über mehrere Hundert Kilometer als noch nicht ausreichend herausgestellt.”
„Die maximale Reichweite lag in den Langstreckentests, je nach Fahrweise und Streckenprofil, bei unter 300 Kilometern. Diese Reichweite konnte nur ausgeschöpft werden, wenn im Anschluss sichergestellt war, dass die Batterien geladen werden können.

Die Ministerin bestätig damit direkt, was auf EIKE schon vor einem Jahr publiziert wurde:
EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit
EIKE 19.02.2016: Gleiches Recht für Alle: Warum dürfen Elektroautos so weit von den Prospektangaben abweichen?

Für Minister*innen ist das natürlich kein Problem. Geeignete Lösungen (die der Bürger bezahlt) finden sich immer.
… Derzeit fahre Umweltministerin Schulze Föcking nun in einem Mercedes S500 E-Hybrid, so der „Stadtanzeiger“ weiter.

Dieses Problem mit Elektroautos haben nicht nur CDU-Minister*innen. Selbst die GRÜNEN zeigen, dass sie mit der von ihnen selbst propagierten Technik nicht zurechtkommen:
DER WESTEN, 11.04.2017: Doppelmoral? Grüne-NRW-Ministerin steigt erst kurz vorm Ziel aus Audi A8 in Hybridauto

Macht aber nichts. Was für die „Führungskräfte der Nation“ nicht taugt, ist für die Untertanen gut genug, vor allem kann man es denen verordnen. Diese in sozialistischen Ländern von der Politikkaste schon immer gepflegte Eigenschaft nennt sich heute „mutige Politik“.
Bündnis 90 / Die Grünen, Homepage: Sauber Autofahren ab 2030
Der Programmparteitag hat entschieden: Ab 2030 sollen alle Neuwagen abgasfrei sein. Das ist gut für unser Klima und rettet die deutsche Autoindustrie. Wie das funktionieren soll? Hier geben wir Antworten.
… Das ist eine mutige Vision. Denn heute gibt es noch nicht viele Elektroautos auf deutschen Straßen. Aber unsere Erde braucht mutige Politik.




Unter dem Antarktischen Eis wurden fast 100 neue Vulkane entdeckt

Eine neue Satelliten gestützte Untersuchung hat 138 Vulkane auf einem Teil des Kontinents offenbart, der als West-Antarktis-Rift-System bekannt ist, eine riesige Region, die sich 3.500 Kilometer vom Ross-Meer im Süden bis zur Antarktischen Halbinsel im Nordwesten erstreckt. Von 91 dieser gefundenen Vulkanstrukturen hatten die Wissenschaftler vorher noch keine Kenntnis.

Die Vulkane reichen von bescheidenen 100 Metern bis zu imposanten 3.850 m hoch. Die Ergebnisse wurden Anfang dieses Monats in der Zeitschrift Geological Society Special Publications veröffentlicht. [ 50 Erstaunliche Fakten über die Antarktis ]

Die Antarktis gehört zu den am wenigsten untersuchten Gebieten der Welt, und als junger Wissenschaftler war ich aufgeregt, etwas Neues und bislang nicht gut Verstandenes kennen zu lernen. Nach der Untersuchung der vorhandenen Daten über die Westantarktis begann ich, Spuren von Vulkanismus zu entdecken. Natürlich kniete ich mich weiter hinein, was zu dieser Entdeckung von fast 100 Vulkanen unter dem Eisschild führte „, sagt Studien-Co-Autor Max Van Wyk de Vries, ein Geowissenschaftler an der Universität von Edinburgh in Schottland.

 

Land des Feuers und des Eises

De Vries, der derzeit ein Student ist, studierte die Antarktis, als er aus anderen Quellen erfuhr, dass der kälteste Kontinent eine vulkanische Geschichte hatte. Durch die Verwendung einer Kombination von Satellitendaten, eiseindringenden Radardaten und Luftaufnahmen konnte de Vries 91 Spots identifizieren, in denen basaltischer oder vulkanischer Fels unter dem Eis lauerte. Bekannte Vulkane in der gleichen Region tragen diese unverwechselbare Signatur der vulkanischen Tätigkeit.

Die Anzahl der Vulkane in dieser Region rivalisiert mit denen des ostafrikanischen Rift Valley, einer der vulkanisch dichtesten Regionen der Welt.

 

Karte der Antarktis mit der Verteilung von Vulkanen, Alter zwischen 11 Mio Jahre bis heute. Nur eine geringe Anzahl sind aktiv.

Quelle: http://www.antarcticglaciers.org/glacial-geology/subglacial-volcanoes/

 

Die Wissenschaftler wissen noch nicht, wie viele dieser Vulkane aktiv sind, aber der aktive Magmatismus hat in der Vergangenheit den Kontinent eingetrübt. Doch wie jetzt der Klimawandel den Kontinent erwärmt und das Eis verdünnt, könnten einige der jetzt ruhenden Vulkane wieder aktiv werden, sagten die Wissenschaftler in einer Erklärung . Die vorherige Arbeit hat gezeigt, dass die Antarktis in wärmeren Zeiten der geologischen Geschichte vulkanisch aktiv war.

Erschienen auf LiveScience am  15. August 2017

Übersetzt durch Andreas Demmig

https://www.livescience.com/60133-volcanoes-discovered-beneath-antarctica.html

Ursprünglich auf Live Science veröffentlicht .

 

Tia Ghose

Miss Tia hat bei Science News, Wired.com und dem Milwaukee Journal Sentinel als Praktikantin gearbeitet und hat für das Center for Investigative Reporting, Scientific American und ScienceNow geschrieben. Sie hat einen Master-Abschluss in Bioingenieurwesen von der University of Washington und ein Diplom-Zertifikat in der Wissenschaft schriftlich von der University of California Santa Cruz.

 

Weitere Links

VULKANOLOGIE: MONITORING UND VORHERSAGE VON VULKANAUSBRÜCHEN

Vulkane für Schüler