Deutschlands Autoindustrie: Mord auf offener Straße? – Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (1)

Wer wissen will, wie perfide das Spiel ist, das unsere Politiker derzeit mit dem Recht des Bürgers auf individuelle Mobilität spielen, dem sei empfohlen, in der Mediathek des ZDF die um 19.00 Uhr ausgesandte „Heute“-Nachrichtensendung des ZDF vom 9.8.2017 anzusehen. Unter „Strategien gegen Luftverschmutzung“ wird das Beispiel Düsseldorfs vorgestellt, wo die Stadt die „grüne Welle“ mancherorts unterbricht. Damit sollen, so der Kommentar, die Autofahrer gezwungen werden, abzubremsen und neu anzufahren, obwohl das mehr Schadstoffe bedeutet. Dies sei „Verkehrserziehung in Richtung Zukunft“.

Mit überlegenem Lächeln erläutert anschließend Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, seine Motive zu dieser bewussten Erhöhung der Luftbelastung in seiner Stadt wie folgt: „Das mag jetzt unter Schadstoffgesichtspunkten an der einen individuellen Stelle nachteilig sein, aber insgesamt geht es natürlich darum, die Menschen zu motivieren, die Bahn zu benutzen eher als das Auto…“

Das wurde so nonchalant dahergesagt, dass man sich der Ungeheuerlichkeit dieser Aussagen im ersten Moment gar nicht bewusst wird. Hier erklärt ein Oberbürgermeister einer Landeshauptstadt, dessen Stadt von der DUH („Deutsche Umwelthilfe“, manchmal auch als Toyotas ’Ndrangheta bezeichnet) wegen zu hoher Abgaswerte verklagt wird, dass er bewusst Maßnahmen ergreift, welche diese Belastung noch ansteigen lassen. Dabei halten Spitzenvertreter seiner Partei zudem Schauermärchen über „zehntausend Tote durch Autoabgase jedes Jahr in Deutschland“ für glaubwürdig und fordern mit dieser Begründung Fahrverbote. Wenn ein SPD-Politiker zugleich willentlich eine Steigerung dieser Abgasbelastung herbeiführt, kann man vermuten, dass er hier bewusst Leben und Gesundheit von Bürgern gefährdet. Für Juristen dürfte die Frage von Interesse sein, ob hier die Staatsanwaltschaft aufgrund eines begründeten Anfangsverdachts von sich aus tätig werden müsste oder ob Bürger der Stadt Düsseldorf selbst Klage erheben sollten. Es scheint berechtigt, hier von einem Bubenstück der besonderen Art zu sprechen.

Interessanterweise gibt es auch aus Stuttgart Hinweise darauf, dass die grün geführte Stadtverwaltung dort zu ähnlichen „Tricks“ greift. In einem Kommentar zu einem Bericht im „Spiegel Online“ ist zu lesen, dass an einer besonders kritischen Messstelle (Am Neckartor) die Straße Richtung Fellbach von zwei auf eine Spur verengt wurde, um einen Fahrradstreifen anzulegen, so dass sich dort die Pendler aufstauen. Zudem gibt es dort jetzt eine Abzweigung zu einem neuen Einkaufszentrum, dessen Parkhaus jeden Samstag komplett voll ist. Und last but not least gibt es direkt neben dem Neckartor eine riesige Baustelle, bei der regelmäßig schwere Nutzfahrzeuge hin- und herfahren.

Die NOx-Emissionen des Straßenverkehrs in Deutschland sind seit 1990 sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) zurückgegangen (Grafik: Umweltbundesamt)

 

Meister der Doppelzüngigkeit

Mit seiner Haltung steht der SPD-OB Geisel selbstverständlich nicht alleine da, sondern befindet sich, wie man so schön sagt, im Mainstream. Auch seine Art des „Nudging“, also des hinterhältigen Manipulierens, hat größere Vorbilder. Es gibt in Deutschland Politiker, die ihre Schulung in einer Zeit und einer Republik erhalten haben, in der Grenzwachen „Republikflüchtlingen“ in dem gutem Glauben in den Rücken geschossen haben, die Obrigkeit habe dies befohlen. Hinterher hieß es, dass ein solcher Schießbefehl niemals existiert haben soll. Eine solche Fähigkeit, Menschen zu manipulieren und sie zu Handlungen zu veranlassen, zu denen sie sich bei klarer Kenntnis der Sachlage vermutlich nicht bereitgefunden hätten, war schon eine Meisterleistung. Politiker, die diese Kunst in verantwortlicher Position des Regimes verinnerlicht haben, sind es gewohnt, ihre wahren Absichten zu verstecken und wenn möglich andere vorzuschieben, damit diese die Drecksarbeit machen. Wer sich in diesem Dschungel zurechtfinden will, muss lernen, dem gesprochenen oder geschriebenen Wort nicht blind zu vertrauen, zwischen den Zeilen zu lesen und vor allem die Fakten zu beachten.

Der Rückgang der transportbedingten Schadstoffemissionen ist auch europaweit zu beobachten (Grafik: [THAL])

 

Das eigentliche Ziel heißt „Dekarbonisierung“

Die politische Elite, die Deutschland im Moment führt, hat sich voll und ganz dem Ziel der „Dekarbonisierung“ unserer Volkswirtschaft verschrieben. Dies ist eine der wesentlichsten Triebkräfte des Handelns insbesondere der Mehrheitsparteien, ein Ziel, an dem sie seit mindestens einem Jahrzehnt geduldig und mit allen ihr verfügbaren Mitteln und Methoden arbeiten. Autos, deren Verbrennungsmotoren fossiles CO2 ausstoßen, haben in diesem Weltbild keinen Platz. Entsprechende Aussagen tätigten maßgebliche PolitikerInnen bereits 2009: „Während die Autobranche mit der 63. IAA mühsam versucht aus der Krise zu fahren, fordert Bundeskanzlerin Merkel nichts geringeres als die Neuerfindung des Automobils“ und verlangte „von den deutschen Herstellern einen Entwicklungsschub hin zu umweltfreundlicheren Motoren“. Es gelte, „das Auto fast wieder neu zu erfinden, nämlich völlig neue Antriebstechnologien zu entwickeln“ [SUED]. Bereits damals gab es Planungen, bis 2020 mindestens eine Million Elektromobile auf deutsche Straßen zu bringen, die von höchster Stelle als „ehrgeizig, aber notwendig“ bezeichnet wurden. Da die Kfz-Hersteller sich jedoch halsstarrig zeigten, wurden im Rahmen einer Langfristplanung geeignete „erzieherische Maßnahmen“ auf den Weg gebracht. Die faulen Ausreden der unwilligen Automanager, dass es keine ausreichende Nachfrage nach E-Fahrzeugen gebe und der Markt von ihnen andere Fahrzeuge verlange, durften schließlich nicht ungestraft bleiben. Die Umsetzung der gewünschten „Erziehungsmaßnahmen“ erforderte jedoch die Ausarbeitung einer ausgeklügelten und langfristig angelegten Strategie.

Die historischen Karten der NO2-Jahresmittelwerte in Deutschland belegen den ständigen Rückgang der NO2-Gehalte in der Luft (Grafik: Umweltbundesamt)

 

Grünlinke Traumwelten

Zum Leidwesen solcher „verantwortungsbewusster“ Politiker ist es im heutigen Deutschland jedoch schwieriger, die Bevölkerung zum „richtigen“ Konsumverhalten zu motivieren, als noch vor einigen Jahrzehnten im östlichen Deutschland. Dort konnte es solche Flausen der Untertanen erst gar nicht geben, weil es nur ein einziges Automodell gab, und selbst das konnte man nicht mal so eben kaufen. Aber die Politikerkaste ist flexibel und wächst mit ihren Aufgaben. Zunächst galt es, sich die Deutungshoheit zu sichern. Der Bevölkerung musste klargemacht werden, dass ganz Deutschland eine Art Naturparadies zu sein hat. Dabei wird einfach ausgeklammert, dass Zivilisation nicht nur Vorteile wie warme Wohnungen, Kleidung und Nahrung sowie Antibiotika und moderne Medizin ermöglicht, sondern unabdingbar auch gewisse Belastungen mit sich bringt. Dazu gehört die Beanspruchung durch körperliche Arbeit ebenso wie Beeinträchtigungen der Gesundheit durch Gift- und Reizstoffe sowie Schäden an Natur und Umwelt. Früher gab es in den westlichen Gesellschaften einen gewissen Grundkonsens darüber, dass man hier Kompromisse einzugehen hatte. Es galt, die zivilisatorisch gewünschten Vorteile nicht zu gefährden, dabei jedoch die zu akzeptierenden Nachteile auf ein vertretbares Minimum einzugrenzen. Heute geht dieser Konsens jedoch immer weiter verloren, insbesondere bei den großstädtischen Eliten. Hier tummeln sich alle möglichen grünen und linken Ideologien, welche dem Glauben anhängen, man habe ein Anrecht darauf, die Vorteile einer technologisch fortgeschrittenen Industriegesellschaft uneingeschränkt zu genießen, ohne dafür irgendwelche Kompromisse eingehen zu müssen. Diese moderne urbane Spaßgesellschaft wünscht sich eine Fahrradrepublik mit bedingungslosen Grundeinkommen und einer Umwelt wie in einem hochalpinen Luftkurort, ergänzt um eine schrankenlose Willkommenskultur für Wirtschaftsflüchtlinge aus jedem „failed state“ dieser Welt. Diese Ideologien werden von einem Großteil der Medien mit großer Verve unterstützt. Hierdurch erhalten sie einen überproportional großen Einfluss auf die öffentliche Meinung und damit auf die Politik.

Die Lebenserwartung der deutschen Bevölkerung ist mit der Weiterentwicklung unserer technischen Zivilisation ständig gestiegen (Grafik: Statistisches Bundesamt)

 

Die beste Luft seit 100 Jahren

Die deutsche Bevölkerung atmet heute die beste Luft seit mindestens 100 Jahren. Früher gab es in den Häusern offene Kamine und Herde, geheizt wurde überwiegend mit Holz, dessen schädlicher Rauch karzinogene Substanzen in der Raumluft verteilte. Auch Kerzen sowie Petroleumlampen sind massive Quellen schädlicher Luftschadstoffe, denen die Bevölkerung tagein, tagaus ausgeliefert war. In den Städten und Industriegebieten gab es keinerlei Abgasbehandlung. Noch in den 60er Jahren kam es im Ruhrgebiet zu Todesfällen durch Smog, einer giftigen Mischung aus unbehandelten Abgasen (Ruß, Staub, SO2) und Nebel. Mit der Einführung entsprechender Gesetze und der Installation von Abgasbehandlungsanlagen hat sich die Qualität der Luft seither ständig und in erheblichem Umfang verbessert, wie sich anhand langjähriger Vergleiche des Umweltbundesamts unschwer dokumentieren lässt. Waran liegt es also, dass man derzeit von fast allen Parteien und aus allen Medien den Eindruck erhält, die Luft in unseren Städten werde durch gierige und rücksichtslose Automanager so verpestet, dass jährlich abertausende Menschen an den Folgen sterben. Es sei deshalb unausweichlich, dass man um der Volksgesundheit willen so schnell wie möglich ein Verbot von Verbrennermotoren anstreben müsse? Wobei der Diesel zwar derzeit die meisten Prügel abbekommt, der Benziner jedoch ebenfalls bereits zum Tode verurteilt wurde.

Auf europäischer Ebene ist der Straßentransport nur mit 13 % an der Emission des besonders kleinteiligen Feinstaubs PM2.5 beteiligt (Grafik: [THAL])

 

Verleumdungen statt Tatsachen

Wenn man sich die Vorwürfe gegen den Diesel, der im Moment als Sündenbock herhalten muss, einmal genauer ansieht, so stellt man fest, dass diesem Dinge unterstellt werden, die gar nicht den Tatsachen entsprechen. So wird in den Medien häufig suggeriert, dass Diesel-PKW Hauptquelle sowohl von Feinstaub als auch von Stickoxiden (NOx) seien und ihre Abgase Krebs sowie Lungen- und Kreislauferkrankungen auslösen würden. Dabei stimmt dies für Diesel-PKW spätestens ab der seit 2009 geltenden Schadstoffklasse Euro 5 nicht, weil sie seitdem mit einem Rußpartikelfilter ausgerüstet sein müssen. Der Diesel unterscheidet sich vom Benziner lediglich durch einen höheren Ausstoß von Stickstoffoxid (NO), das sich an der Atmosphäre dann zu Stickstoffdioxid (NO2) umwandelt. Über die Gesundheitsgefahr dieser Mischung, die unter dem Sammelbegriff NOx zusammengefasst wird, werden alle möglichen abstrusen Behauptungen in die Welt gesetzt. Dabei sind diese vergleichbar einfachen chemischen Substanzen der Wissenschaft seit gut 100 Jahren bekannt. Auch ihre gesundheitlichen Auswirkungen sind seit vielen Jahrzehnten immer wieder sorgfältig untersucht worden. In den Konzentrationen, in denen sie in der Atmosphäre unserer Städte vorkommen, sind sie höchstens lästig bis irritierend, keinesfalls aber gefährlich. Da sie auch an Arbeitsplätzen – z.B. im Bereich der chemischen Industrie – auftreten, wurden hierzu nach umfassenden Untersuchungen durch Fachgremien sogenannte MAK-Grenzwerte festgelegt. Diese MAK-Werte werden als unbedenklich für Gesunde eingestuft, selbst wenn diese dem Grenzwert über Jahre hinweg an 8 Stunden jeden Arbeitstags ausgesetzt sind. In Deutschland galt für NO2 noch 1994 ein MAK-Wert von 9 mg/m3 [NIEM], in der Schweiz sind es bis heute 6 mg/m3.

Die Anzahl der Überschreitung des Ozon-Grenzwerts von 180 µg/m3 ist seit Jahrzehnten rückläufig (Grafik: Umweltbundesamt)

Inzwischen wurde – vermutlich aufgrund von Pressionen linksgrüner politischer Kräfte – der MAK-Wert für NO2 in Deutschland drastisch um einen Faktor von fast 10 auf nur noch 0,950 mg/m3 heruntergesetzt. Für die beiden Einzelbestandteile gelten weiterhin auch separate MAK-Werte. Beim NO liegt dieser in Deutschland bei 0,63 mg/m3, in der Schweiz dagegen bei 3 mg/m3 [NOMA]. Die oft vertretene Ansicht, dass Asthma-Patienten und Menschen mit chronischer Bronchitis auf erhöhte NO2-Werte empfindlicher reagieren als Gesunde, wird in relevanten Datensammlungen zu den Gesundheitsrisiken nicht unterstützt [NO2GE]. Auch in den Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 [NOAEL] ist nachzulesen, dass trotz intensiver Überprüfung der Literatur keine eindeutigen Erkenntnisse bezüglich einer nachteiligen klinischen Wirkung von NO2 auf Personen mit Asthma, chronischen Lungenerkrankungen oder Bronchitis vorliegen. In der dort aufgeführten Literatur finden sich Studien über Bergarbeiter in einem Salzbergwerk. Diese waren Dieselabgasen (Ruß + NO + NO2) in Kombination mit den im Bergbau üblichen Belastungen (Staub) unter bergbautypischen körperlichen Belastungen bei NO2-Gehalten bis zu 7,6 mg/m3 ausgesetzt waren. Dabei konnte kein Zusammenhang mit Atembeschwerden oder Husten festgestellt werden.

Noch ungefährlicher als NO2 ist das NO, das im primären Dieselabgas den weit überwiegenden Anteil des NOx ausmacht. NO bewirkt keine Reizerscheinungen an den Schleimhäuten und ist zudem ebenso wie NO2 weder reproduktionstoxisch noch mutagen oder krebsauslösend [NOMA]. Es stellt sich daher die Frage, warum man überhaupt NOx-Werte (d.h. die Summe aus NO und NO2) heranzieht, statt lediglich den NO2-Gehalt zu bestimmen. Möglicherweise vor allem deshalb, weil die gemessenen Werte dadurch im „grünen“ Sinne aufgebläht werden und man leichter zu Grenzwertverletzungen kommt.

Fasst man das ungefährlichere NO mit NO2 zu NOx zusammen, so erhält man deutlich höhere Werte als bei reiner Betrachtung des NO (Grafiken: [UBA])

 

Konzentrierte Dieselabgase im Tierversuch

Dass die Abgase moderner Dieselfahrzeuge mit Feinstaubfilter bei weitem nicht so schädlich sind wie vielfach behauptet, wurde in den USA 2015 von McDonald et al. durch eine eingehende experimentelle Untersuchung an Ratten nachgewiesen [MCDO]. Hierbei wurden die Versuchstiere über Zeiträume von bis zu 30 Monaten für 16 Stunden am Tage und an 5 Tagen in der Woche in einer kontrollierten Abgasatmosphäre gehalten, die auf der höchsten Stufe einen NO2-Gehalt von 8,4 mg/m3 aufwies, das ist rund das neunfache des deutschen MAK-Werts. Dabei ergaben sich kaum Hinweise auf karzinogene Wirkungen. Selbst bei den höchsten Abgaskonzentrationen zeigten sich an den Lungen der Versuchstiere nur minimale bis leichte Schädigungen….

wird fortgesetzt…




FakeNews: ..Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten!

Die Wahrheitspostille Nr 1 (oder ist es Nr. 2, oder 3 oder,,,) der deutschen Medienlandschaft FOCUS Online meldet am 21.8.17

„Elektrische Streetscooter Brand nach technischem Defekt: Drei Elektro-Transporter der Post zerstört!“

In einem relativ sachlichen Bericht wird erläutert, dass…

Drei Lieferwagen vom Typ Streetscooter fingen wegen eines technischen Defekts Feuer.

Und weiter

Nach Auskunft der Polizei entstand ein Sachschaden in Höhe von 250.000 Euro. 30 weitere Transporter wurden durch Ruß und Hitzeeinwirkung beschädigt, so die Polizei. Verletzt wurde niemand.

Dann –man schreibt mal eben die Fakten bei Kollegen ab…

Wie die „Rhein-Neckar-Zeitung“ unter Berufung auf die bisherigen Ermittlungen berichtete, sollen die Akkus der elektrischen Postautos die Ursache des Feuers sein. Dem widerspricht allerdings jetzt ein Sprecher der Deutschen Post: Der Akku sei bisherigen Erkenntnissen nach nicht die Brandursache gewesen…

Soweit so klar, der eine glaubt es seien die Akkus gewesen, der andere mit seinem speziellen (Förder)-Interesse widerspricht. Soweit so fair.

Dann aber der Hammer: So schreibt der/die anonyme AutorIn und besinnt sich dabei auf seine unmittelbare Pflicht Propaganda für das einzig Gute, Wahre, Schöne zu machen, Und dichtet :

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten und lassen sich meistens auf zwei Ursachen zurückführen: Entweder durch aufgerissene Akkus bei schweren Unfällen oder durch technische Probleme beim Aufladeprozess.

Das muss man sich auf der Zunge zergehen lassen:

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten

Ein einfacher Dreisatz zeigt, dass bei nur 3 (1) von ca. 25.000 E-Fahrzeugen (Bestand 2016) auf deutschen Straßen ca. 5.040 (korr. 23.8.17) Auto-Bränden von im wahrsten Sinne des Wortes Verbrennern (bei 42 Mio KfZ) auf deutschen Straßen entsprechen?

Das vorhersehbare Ergebnis dieser Massenzerstörung:

Die Medien würden Amok laufen, alle Zeitungen wären voll, Sondersendungen Tag und Nacht berichten, die Grünen hätten es schon immer gewusst, die Deutsche Umwelthilfe sowieso und würde nach strengeren Brandschutzgrenzwertregeln rufen, dann alle anderen abmahnen und Schadensersatzklagen einreichen, die anderen Parteien die Manager beschimpfen und die Kanzlerin würde sofort einen weiteren Verbrenner-Verbots-Gipfel mit sofortiger Verbotswirkung einberufen.

Nur, so etwas passiert beim Lieblingskind aller Grün-Bewegten – dem E-Auto- in diesem Land nicht. Und sei es noch so gefährlich.

Trotzdem stelle ich meine bisher ungeklärte Frage:

Wie kommt der AutorIn auf „relativ selten“?

Einzig mögliche Antworten

  1. Er/sie kann nicht rechnen

und

  1. Er/sie will verdummen, d.h die Leser auf sein(ihr Niveau herabziehen.

Ich fürchte es wird ihm/ihr sogar gelingen.

 

(1) Die anderen Brände bei E-Autos- über die so gut wie nicht berichtet wird- sind in diesem Vergleich nicht berücksichtigt. Eine aussagefähige Erhebung dazu liegt mir nicht vor.

 

 

 




Gefährliche Ladung – Die E-Auto sind Energieverschwender, die Batterien giftige Umweltsünder erster Klasse

In Zeiten, in denen Industrie, Politik und Justiz versuchen, die Dieselkrise zu bewältigen, scheint es keine löblichere Fortbewegungsart zu geben als die mit Elektrizität. Diesen Eindruck erwecken zumindest all die Politiker- und Zeitungskommentare, die den Stromantrieb als bessere Alternative zum Verbrennungsmotor preisen. Elektroautos seien ökologischer und schonten die Ressourcen, so der Tenor. So propagierte der Tages-Anzeiger die E-Mobilität mit dem Argument, es brauche «einen effizienteren und sparsameren Umgang mit Energie». Bereits plant der Verein E-Mobil Züri, mitten in der grössten Schweizer Stadt ein Elektroauto-Rennen zu veranstalten. Wäre Gleiches mit Kraftstoff-Boliden geplant, würde man eine solche Idee wohl als Aprilscherz erachten.

In anderen Weltgegenden scheint man von den Vorteilen der E-Mobilität weniger überzeugt zu sein. So brummten die Verkehrsbehörden von Singapur letztes Jahr dem Käufer eines Tesla S eine Umweltsteuer von umgerechnet über 10 000 Franken auf – mit dem Hinweis, das Fahrzeug brauche besonders viel Energie, nämlich über 44 Kilowattstunden (kWh) Strom pro 100 Kilometer. Dabei benötigt die elektrische Luxuskarosse aus dem Silicon Valley gemäss Katalog doch nur 18 kWh. Singapurs Behörden sind aber nicht etwa von allen guten Öko-Geistern verlassen, sondern mit einer Extraportion Sachverstand gesegnet. Denn Elektroautos verschlingen tatsächlich besonders viel Energie. Dies zeigt folgende Berechnung.

Tieferer Wirkungsgrad im Winter

Gemäss den Prospekten ihrer Produzenten benötigen gängige Elektroautos – vom Nissan Leaf über den VW E-Golf, den Mitsubishi i-MiEV bis hin zum neuen Tesla 3 – bloss rund 15 kWh Strom pro 100 km, manche etwas mehr, manche etwas weniger. Grundsätzlich weiss jeder Autofahrer, sei er nun mit Strom oder Brennstoff unterwegs, dass solche Herstellerangaben bloss Theorie sind. Die Werte werden unter Bedingungen ermittelt, die mit dem realen Strassenverkehr fast nichts gemeinsam haben: Die Prüfzyklen finden auf Rollen statt und sind von tiefen Geschwindigkeiten und sanften Beschleunigungen geprägt. Zusatzverbraucher wie etwa Scheinwerfer sind ausgeschaltet. Fahrtwind gibt es im Labor auch keinen. Laut dem Forschungsverband ICCT (International Council on Clean Transportation) liegt der tatsächliche Verbrauch von Autos mit Verbrennungsmotor im Schnitt happige 42 Prozent über den offiziellen Angaben. Bei Elektrofahrzeugen klaffen Realität und Theorie aber noch viel weiter auseinander: Das deutsche Prüfunternehmen TÜV Süd ermittelte 2014 den Verbrauch einiger gängiger Elektroautos bei realen Testfahrten. Es zeigte sich, dass im Schnitt 31 kWh Strom für 100 km nötig sind, wenn man je zur Hälfte auf Landstrassen und auf Autobahnen fährt – also rund doppelt so viel als von den Herstellern angegeben.

Doch das ist erst die halbe Wahrheit, denn TÜV Süd testete bei Temperaturen von 23 Grad. Bei Kälte steigt der Strombedarf von Elektrofahrzeugen jedoch deutlich: Der Wirkungsgrad der Batterie ist dann viel tiefer, und die Fahrerkabine kann nicht wie bei konventionellen Autos durch die Abwärme des Verbrennungsmotors geheizt werden. Dänemarks Technische Universität zeigte 2016 anhand von Messungen, dass Elektroautos im Winter ein Drittel mehr Energie benötigen als im Sommer. Davon kann man ableiten, dass der Verbrauch bei ganzjährigem Gebrauch in der Schweiz (Durchschnittstemperatur etwa neun Grad) 11 Prozent höher liegt als bei den Tests von TÜV Süd.

Beträchtliche Ladeverluste

Weiter sind Ladeverluste zu beachten. Hängt ein Elektroauto an der Steckdose, kann die Batterie nur einen Teil der übertragenen Energie speichern. Gemäss Tests, etwa des deutschen Wuppertal-Instituts, gehen zwischen 10 und 30 Prozent als Wärme verloren, wobei die Verluste bei Schnellladungen grösser sind. Wird bei tiefer Aussentemperatur geladen, kann der Verlust sogar fast 50 Prozent betragen. In diesem Artikel soll ein durchschnittlicher Ladeverlust von 20 Prozent angenommen werden.

Geht man also von einem Verbrauch von rund 31 kWh (gemäss TÜV Süd) bei Sommerbetrieb aus und addiert 11 Prozent bei Ganzjahresbetrieb und 20 Prozent wegen Ladeverlusten, müssen an den Ladestationen rund 41 kWh Strom bereitstehen, damit ein Elektroauto 100 Kilometer weit fahren kann. Der reale Verbrauch ist somit über 2,5-mal so hoch als von den Herstellern angegeben.

Für eine Bilanz ist nicht nur die Betriebsenergie massgebend, sondern auch diejenige für die Fahrzeugherstellung. Bei Elektrofahrzeugen ist insbesondere die Produktion der Batterien sehr energieintensiv. Wegen Erschöpfung müssen diese Batterien zudem nach einigen Jahren Betrieb ersetzt werden. Bei einer durchschnittlichen Nutzung des Fahrzeugs müssen mindestens 15 kWh pro 100 Kilometer Fahrt dazugerechnet werden. Batterien enthalten zudem hochgiftige Stoffe, von denen auch bei konsequentem Recycling ein Teil entsorgt werden muss. Lithium, das besonders häufig verwendet wird, ist ähnlich toxisch wie schwach bis mittel radioaktive Stoffe. Das bedeutet, dass eine ebenso sichere Endlagerung wie bei Atomabfällen nötig ist (siehe Artikel rechts) – was mit beachtlichem Energieaufwand verbunden ist: Für 100 Kilometer Elektrofahrt kommen darum mindestens 3,5 kWh dazu. Insgesamt beträgt der Energieaufwand für Elektroautos auf Schweizer Strassen somit etwa 60 kWh pro 100 km.

Dieser Wert soll mit einem Auto mit Benzinmotor verglichen werden: Für dieses wird ein durchschnittlicher Verbrauch von acht Litern pro 100 Kilometer angenommen – bei realen Nutzungsbedingungen und ganzjährigem Gebrauch. Um diesen Verbrauch mit demjenigen von Elektromobilen in Relation zu setzen, muss man den Energiegehalt von Benzin heranziehen und beachten, dass die Produktion von Strom mit beträchtlichen Energieverlusten einhergeht (Wirkungsfaktor für die Erzeugung von Elektrizität aus Primärenergie gemäss  BP: 0,38). Insgesamt kann ein Liter Benzin so mit 3,4 kWh Strom gleichgesetzt werden. Ein Verbrauch von acht Litern entspricht somit rund 27 kWh Strom pro 100 km. Ein Zuschlag für Herstellung und Entsorgung des Benzinantriebs drängt sich nicht auf, da der entsprechende Energieaufwand vernachlässigbar klein ist. Ein Elektrofahrzeug mit 60 kWh pro 100 km verbraucht somit mehr als doppelt so viel Energie wie ein Fahrzeug mit Benzinmotor. Ein Vergleich mit einem Dieselfahrzeug dürfte noch schlechter ausfallen. Elektromobilität bedeutet also Energieverschwendung der Extraklasse.

Auch bei den anderen ökologischen Vorteilen handelt es sich weitgehend um leere Behauptungen. Sogenannt sauber sind E-Mobile nur, wenn man lediglich den Betrieb beachtet. Berücksichtigt man die Produktion des Stroms für diesen Betrieb, schneiden E-Mobile bezüglich Klimagasen nur dann klar besser ab als konventionelle Autos, wenn der Strom weitgehend CO2-frei erzeugt wird (vergleiche Weltwoche Nr. 32/17). Das ist in der Schweiz heute dank Wasser- und Atomkraft zwar noch der Fall. Es braucht aber viel Optimismus, zu glauben, dass die Versorgung auch nach dem beschlossenen Atomausstieg ohne fossilen Strom erfolgen kann. Ein Umstieg auf Elektrofahrzeuge im grossen Stil würde zudem den Stromverbrauch deutlich erhöhen. Die Empa geht davon aus, dass die Nachfrage um einen Fünftel steigt, falls alle Autos in der Schweiz elektrisch betrieben würden. Ohne den Einsatz von CO2-intensivem Gas- oder Kohlestrom wäre diese Nachfrage kaum zu bedienen.

Wegen des erwähnten grossen Energieaufwands entstehen zudem bei der Herstellung der Batterien enorme Mengen an CO2. Gemäss einer neuen schwedischen Studie müssen Besitzer eines Tesla Model S acht Jahre lang fahren, bis das CO2, das bei der Batterienproduktion freigesetzt wurde, kompensiert ist. Nach acht Jahren Betrieb ist aber wohl längst ein erster Batterientausch fällig.

Die Grüne Partei verlangt, dass die Schweiz ab 2025 keine neuen Autos mit Verbrennungsmotor mehr zulässt, sondern nur noch Elektromobile. Der Schaden für die Umwelt wäre enorm, sollte Bundesbern dieser Forderung nachkommen.

*Ferruccio Ferroniist diplomierter Ingenieur ETH.

Batterien

Lithium, ade!

Setzen sich Elektroautos  im grossen Stil durch, gibt es ein Rohstoff- und Giftmüllproblem.

Bei Elektromobilen kommen meist Batterien auf Basis von Lithium zum Einsatz. Denn mit dem Alkalimetall kann, verglichen mit dem Gewicht, am meisten Energie gespeichert werden. Auch Lithium-Batterien erschöpfen sich aber. Nach etwa 500 Ladevorgängen muss man sie ersetzen. Ein Set Batterien für den neu auf den Markt gekommenen Tesla 3 benötigt elf Kilogramm Lithium. Ist das Fahrzeug zwölf Jahre in Betrieb und legt es dabei total 150 000 Kilometer zurück, müssen die Batterien wegen der Erschöpfung zweimal ersetzt werden. Für die Lebensdauer eines Tesla 3 sind somit 33 Kilogramm Lithium nötig.

Setzt sich die Elektromobilität durch, droht ein Rohstoffproblem: Gemäss der US-Behörde Geological Survey betragen die weltweiten Lithium-Reserven 14 Millionen Tonnen. Falls davon die Hälfte für Elektrofahrzeuge verwendet wird (Batterien werden auch für andere Zwecke benötigt), reichen die Reserven selbst bei idealem Re- cycling von Lithium nur für rund 400 Millionen Elektrofahrzeuge vom Typ Tesla 3 (inkl. Batterienersatz). Derzeit kurven aber 1,2 Milliarden Autos auf den Strassen der Welt herum. Es entsteht also ein Engpass, falls mehr als ein Drittel des motorisierten Verkehrs auf Elektroantrieb umstellt. Zwar könnte man Batterien anderen Typs verwenden. Der Aufwand für deren Produktion wäre aber noch höher als bei Lithium-Batte- rien, zudem stiege das Batteriengewicht. Die Energiebilanz der Elektromobilität würde nochmals deutlich schlechter.

Tödliche Gefahren

Dazu kommt, dass Lithium hochgiftig ist. Bereits bei einer Einnahme von wenigen Milligramm pro Tag drohen tödliche Gefahren für den Menschen. Setzt sich Elektromobilität breit durch, müssten jedoch mehrere Millionen Tonnen Lithium entsorgt werden, das nicht mehr recycelt werden kann. Der Aufwand, um eine sichere Isolation vor der Umwelt zu gewährleisten, ist vergleichbar mit dem für die Entsorgung schwach- bis mittelradioaktiver Abfälle. In der Schweiz müsste man wohl die Nagra mit der Endlagerung von Lithium beauftragen. Die entsprechend hohen Kosten hätten die Elektroautofahrer zu tragen.

Ferruccio Ferroni und Alex Reichmuth

übernommen von Die Weltwoche hier

Anmerkung der Redaktion

in einem Mailwechsel mit Autor Ferroni wurde festgestellt, dass gem. John Petersen von Seeking Alpha Rohstoffspezialist u.a. für Lithium und Kobalt und Kritiker von TESLA sowie  von Battery University and Avicenne Energy in einer TESLA Model 3 Batterie 93 Kg Kobalt verbaut sind,(d.h. 1.44 kg Co pro kWh Kapazität). Aus diesem Grund wird die Nachfrage nach Kobalt rasant steigen und die Schlussfolgerungen des Artikel in EIKE über die furchtbare völlig inakzeptable Lage der Kinderarbeiter darunter Kleinkinder ab 4 Jahren, die für den Abbau in Demokratischen Republik Kongo schuften müssen, evtl. nur der Anfang sind.




Der C-Kreislauf – ein neuer umfassender Ansatz!

Dr. Peter Vögele, Biologe

Zusammenfassung:

Das Standardmodell für den C-Kreislauf geht davon aus, dass die CO2-Konzentration der Atmosphäre seit 800 000 Jahren bis zu Beginn des Industriezeitalters niemals den Wert von 280 ppm überschritten habe und erst danach auf säkular einmalige Werte von ca. 400 ppm angestiegen sei (1). Ferner wird angenommen, dass der Austausch von CO2 zwischen Atmosphäre , Ozean und Biosphäre vor der Industrialisierung zu einem quasi stabilen Klimazustand geführt hätte, der erst durch die relativ kleine, aber zusätzliche menschliche Quelle aus der Kontrolle geraten sei (2). Der durch den Menschen verursachte Anteil an der globalen CO2-Emission wird auf lediglich 3% geschätzt, der aber über Hunderte von Jahren kumuliert, eine bedrohliche Prognose für die Zukunft liefern soll. Diese Prognose besteht erstens in einer globalen Temperaturerhöhung in Folge eines „Treibhauseffekts“ und zweitens in der „Versauerung“ des Meeres, weil ein Teil des zusätzlichen CO2 in Folge eines erhöhten Partialdrucks durch Diffusion auch in das Meer gelangt. Die dadurch verursachte Absenkung des pH-Wertes habe drastische negative Auswirkungen auf die Meeresorganismen (4,5).

Was ist falsch an diesem Modell?

  1. In der Erdgeschichte überwog der Verbrauch von CO2 durch die Photosynthese immer die CO2-Emission. Die Photosynthese hat eine CO2-Atmosphäre des Planeten in eine O2-Atmosphäre verwandelt. Ein „Gleichgewicht“ bzw. ein „stabiler Klimazustand“ sind fiktive Annahmen.
  2. Es ist pure Ideologie, den gegenwärtigen Anstieg des CO2 in der Atmosphäre auf einen marginalen anthropogenen Beitrag zurückzuführen. In einem guten Modell sollten alle, insbesondere die großen, Kohlenstoff-Flüsse berücksichtigt werden. Der schnelle gegenwärtige CO2-Anstieg (inclusive der C-Isotopenverschiebung) ist nicht einmalig.
  3. Das Modell ist statisch (Quellen, Senken), rein physikalisch und extrem simplifiziert. Die Ursachen der Kohlenstoff- Flüsse sind biologischer Art und variieren durch Rück-Kopplung, z.B. steigendes CO2 ergibt steigende Photosynthese. Die Änderungen der Flüsse gehen nicht in die Modelle ein.
  4. Der Austausch zwischen Meer und Atmosphäre wird von der biologischen und der physikalischen Pumpe getrieben. Die Annahme, dass der Austausch durch simple Diffusion wegen des marginal höheren Partialdrucks in Folge der anthropogenen Verbrennung stattfinde, ist nicht nur falsch, sondern lächerlich.
  5. Bei Abschätzung aller Flüsse ist es wahrscheinlich, dass der gegenwärtige CO2-Anstieg durch Emission aus dem Meer entsteht.

 

Erdgeschichtlicher CO2-Verlauf

Vor 3,8 Milliarden Jahren umfassten die Ozeane ca. 90% der Erdoberfläche, die wegen der ungehinderten (fehlende Ozonschicht) UVC-Strahlung ohne Leben war. Die Atmosphäre enthielt damals ca. 10% CO2 (100 000 ppm) und absolut keinen Sauerstoff. Heute enthält die Atmosphäre 21% Sauerstoff und nur noch 0,0% CO2. Diese Umwandlung der Erdatmosphäre ist das Werk eines einzigen Bakteriums ( Prochlorococcus), das die Blaulichtkomponente in Meerestiefen bis 200 m zur oxygenen Photosynthese ausnützt und so vor der UV-Strahlung geschützt ist. Dieses Cyanobacterium und sein Stickstoff-fixierender Artgenosse Synechococcus sind auch heute noch für 50% der globalen Photosynthese verantwortlich (6). Während ca. 1 Milliarde Jahren wurde der Sauerstoff, den Prochlorococcus produzierte, zur Oxidation von Eisen und Silizium verwendet, bis der Sauerstoffgehalt vor 2,2 Milliarden Jahren auch in der Atmosphäre anstieg. Die Ozonschicht entstand ca. vor 1,9 Milliarden Jahren (7).

Die weitere Entwicklung ab der Biologischen Explosion im Kambrium (vor 542 Millionen Jahren) zeigt die folgende Abb. (16)

Vereinfacht gesehen, fällt die CO2-Konzentration bis nahezu Null am Ende des Carbon und steigt dann wieder auf 2500 ppm vor 150 Millionen Jahren an, um dann wiederum auf fast Null im heutigen Quartär zu fallen. Wenn man davon ausgeht, dass ab dem Kambrium zweifellos biologische Respiration (Atmung, Gärung, Zersetzung) stattfand, aber offensichtlich die Photosynthese (mit CO2-Verbrauch) überwiegt und deshalb ein „Gleichgewicht“ nicht konstruiert werden kann, dann stellt sich die Frage, wieso ein Boden der CO2-Konzentration bei ca. 150-200 ppm zweimal in der Erdgeschichte erreicht wurde. Das liegt daran, dass alle photosynthetisierenden Lebewesen bei niedrigem CO2-Gehalt der Umgebung Mechanismen zur Anreicherung entwickelt haben und ein Enzym Carboanhydrase, das die Umwandlung von gelöster Kohlensäure in gasförmiges CO2 katalysiert, weil Letzteres im Calvin-Cyclus gebraucht wird (8). Unter 200 ppm werden die Photosyntheseraten von C3 und C4-Pflanzen , von Algen und Bakterien extrem niedrig. Der starke Anstieg von CO2 im Perm wird auf vulkanischen Ausstoß zurückgeführt.

Bezüglich der Meeresversauerung in der Erdgeschichte folgen einige Abschätzungen von Zeebe (15) :

Vor 450 Millionen Jahren : 6000 ppm CO2 in der Luft und pH 7,4 im Meer

Vor 65 Millionen Jahren : 3000 ppm CO2 in der Luft und pH 7,6 im Meer

Vor 4,5 bis 2 Millionen Jahren: 525 – 200 ppm CO2 in der Luft und pH 8,0-8,3 im Meer.

 

Eisbohrkerne zur indirekten Ermittlung von CO2 (proxy-Methoden)

Vor etwa 2 Millionen Jahren begann das Eiszeit-Alter, in dem einer Eiszeit von ca. 100 000 Jahren eine Zwischeneiszeit von ca. 20000 Jahren folgt. Der Vorsitzende der Arbeitsgruppe 1 im IPPC , Prof. Stocker , ein Eiskernspezialist aus Bern, hat publiziert, dass am Ende einer Eiszeit erst die Temperatur steigt und mit einem Nachlauf von 800 Jahren erst das CO2 (9).

Während der Eiszeit liegen die CO2-Konzentrationen bei 200 ppm, in den Zwischeneiszeiten bei 280 ppm. Das impliziert, dass bei Beginn einer Zwischeneiszeit während mindestens 1000 Jahren ein CO2-Fluß aus dem Meer in Richtung Atmosphäre stattfand.

Um die Aussagekraft von Eisbohrkernen zu beurteilen, muss man wissen, dass die Umwandlung von Schnee über Firn bis zum Eis 200 Jahre dauern kann, in denen Diffusion von Gasen möglich ist. Eisbohrkerne können schnelle An-und Abstiege von CO2 innerhalb von 100- 500 Jahren nicht auflösen (10). Ferner ist der CO2-Gehalt in Polargebieten ca. 25 ppm niedriger wie Satellitenaufnahmen zeigen. Schnelle Änderungen des CO2-Gehalts können dagegen mittels der Analyse von Spaltöffnungen von Pflanzenmaterial entdeckt werden, z. B. ein ähnlicher Anstieg wie heute kurz vor der Jüngeren Dryas (von 150 auf 400 ppm in ca. 200 Jahren), der allerdings nicht zu einer Erwärmung, sondern zum Rückfall in eiszeitliche Temperaturen führte (11). Die Autorin führt den Anstieg auf „altes“ CO2 aus den Meerestiefen zurück, das eine ähnliche C-Isotopen-Verschiebung in der Atmosphäre bewirkte, wie auch heute zu beobachten ist.

 

Das IPCC –Modell der CO2-Austauschvorgänge ist falsch

In der Atmosphäre (750 Gt C) werden CO2- Emission durch Verbrennung, Respiration etc. und CO2-Aufnahme durch Photosynthese in wenigen Tagen durchmischt. Die Photosynthese übertrifft fast immer die Verbrennung und die Respiration , z. B. in den borealen Wäldern (26).

In den Ozeanen existiert eine gut ( von Wind und Wellen) durchmischte und warme Deckschicht von ca. 75 Metern (12), die von dem tiefen Wasser durch eine kältere Thermokline getrennt wird. Diese Deckschicht enthält 1000 Gt C und hat eine Durchschnittstemperatur im 20. Jahrhundert von 16,3 °C (im Gegensatz zur Landtemperatur von 11,1 °C). Die Temperatur der Ozeanoberflächenschicht hat sich in 150 Jahren um 0,7°C erwärmt nach Angaben der NOAA . Die Erwärmung der Oberflächenschicht des Meeres kommt vermutlich dadurch zu Stande, dass das Sonnenlicht bis zu 200 m tief eindringt und das Wasser erwärmt.

Der Austausch mit dem tiefen Ozean, der 50 mal mehr Kohlenstoff gespeichert hat, erfordert Zeiträume von 1000 Jahren.

Laut dem rein physikalischen Standardmodell von Sabine (17) erfolgt der CO2-Austausch zwischen Meer und Luft durch Diffusion, die vom leicht höheren Partialdruck in der Luft ( 2 ppm CO2 jährlich wegen der industriellen Verbrennung) getrieben wird. Die Austauschzeit wird auf 1 Jahr beziffert. Das Modell nimmt an, dass die höchste Konzentration von gelöstem anorganischem Kohlenstoff (DIC) wegen der Diffusion an der Meeresoberfläche vorliege. Das Modell berücksichtigt weder steigende Photosynthese in Folge steigender CO2-Konzentration noch den raschen Export von Kohlenstoff in den tiefen Ozean (18).

Im warmen Meer in Äquatornähe entweicht CO2 aus dem Meer , während es von kalten Meeren aufgenommen wird. In der folgenden Abb., die auf Daten des Scripps Institute beruht, wurde in jedem Meßpunkt die CO2-Konzentration in der Luft und im Wasser gemessen. Was überrascht, ist die Höhe der Differenz. In der Luft über den Warmwasserzonen wurden über 50 ppmv höhere CO2-Konzentrationen gemessen und über den kalten Zonen über 50 ppmv niedrigere. Das kann man nicht mit dem anthropogenen jährlichen Anstieg des atmosphärischen CO2 von 2ppmv erklären. Der CO2-Austausch zwischen Meer und Atmosphäre ist die Bilanz von 2 Flüssen: Emission aus dem Wasser in äquatorialen Zonen und Aufnahme aus der Luft in kalten Zonen (13). Eine globale Bilanz dieser beiden Flüsse kann nicht aus den Partialdrücken ermittelt werden (14), da bei diesem rein physikalischen Modell (17) der Effekt der biologischen Pumpe fehlt. In der Abb. sieht man, dass in dem kalten Teil des Meeres (links < 17°C) der CO2-Gehalt bei steigender Temperatur sinkt und nicht steigt, wie intuitiv zu erwarten wäre. Wegen der biologischen Pumpe (Absinken von Kohlenstoff in den tiefen Ozean) bildet sich ein vertikaler Gradient an anorganischem Kohlenstoff (DIC) aus, bei dem die C-Konzentration an der Meeresoberfläche am kleinsten ist. In kalten Meeren misst man mit dem Partialdruck im Wesentlichen die Stärke der biologischen Pumpe, in warmen Meeren die temperaturbedingte CO2-Ausgasung und in bestimmten „upwelling“ Zonen das Aufsteigen der ozeanischen Tiefenströmung. Allerdings liegen CO2-Konzentrationen über den „upwelling zones“ bei über 1000 ppmv.

Es bleibt offen, ob in der globalen Bilanz die Ozeane CO2 aufnehmen oder abgeben.

Quelle: NOAA, upwelling, pict.1

Photosynthese, wie funktioniert ein Korallenriff?

Die modellierte pH-Änderung im Great Barrier Reef seit 159 Jahren beträgt minus 0,054 pH (27). Im seichten Wasser eines Riffs schwankt der pH zwischen 8,4 am Tag und 7,7 bei Nacht (28). Die Abweichung des pH-Wertes nach oben während der Photosynthese ist einfach zu erklären. Das umgebende Wasser verarmt an anorganischem Kohlenstoff, der in Biomasse umgewandelt wird. Die tierische Respiration ist weit niedriger. Die Koralle besteht aus einem tierischen Organismus, z.B. einem Polypen, der eine geschlossene Kammer ausgebildet hat, in dem sich die photosynthetisierenden Algen befinden. Eine Protonenpumpe des Polypen senkt den pH der Kammer auf ca. 5,5, bei dem weitgehend nicht dissoziierte Kohlensäure vorliegt. Diese wird durch das Enzym Carboanhydrase (ähnlich wie im Blut) zu gasförmigem CO2 umgewandelt, das zur Bildung von Biomasse dient. Je stärker die Photosynthese, umso mehr verarmen die oberflächlichen Meereszonen an anorganischem Kohlenstoff und das Wasser wird alkalischer, nicht saurer. Auch die Kalkbildung ist kein chemischer Prozess, der von der Konzentration der Carbonat-Ionen abhängt, sondern ein biologischer Vorgang, der mit der Photosynthese korreliert ist, und unabhängig von pH-Schwankungen und Calcit-Sättigungswerten ist (30). Bei sinkendem pH-Wert sollte eigentlich die Carbonat-Konzentration und die Pufferkapazität abnehmen. In den Riffen tritt als negative Rückkopplung eine Kalkauflösung statt, die CO2 absorbiert und Carbonat freisetzt (29).

 

Gibt es ein Gleichgewicht der vorindustriellen CO2-Flüsse ?

Zunächst ein Zitat von Prof.Sabine (NOAA)(18) : „ although ocean biology plays an integral role in the natural distribution of carbon in the ocean, there is no conclusive evidence that the ocean uptake and storage of anthropogenic carbon, thus far, involve anything other than a chemical and physical response to rising atmospheric CO2.”

Der kurzfristige C-Kreislauf ist doch in erster Linie eine Bilanz zwischen biologischer Photosynthese und Respiration ( biologische Zersetzungsvorgänge mit Freisetzung von CO2) an Land und Meer, und in zweiter Linie der biologischen Pumpe. Welche physikalischen Vorgänge sollen denn eine Rolle spielen außer der marginalen anthropogenen Verbrennung?

Viele Organismen reagieren auf höhere CO2-Konzentration und höhere Temperatur mit einer erhöhten Photosyntheserate. Das Cyanobacterium Synechococcus (für 25% der globalen Photosynthese zuständig) erhöht die Photosyntheserate bei 750 ppm CO2 und 19°C auf das 4fache (19). Die quantitative Erhöhung der globalen Photosynthese (gross primary production) ist quantitativ schwierig zu fassen. Campbell (20) ermittelte 31% im 20.Jahrhundert. Im Sargasso Meer nahm das Mesoplankton um 61% zu zwischen 1994 und 2006 (21). Coccolithophoren nahmen zwischen 1990 und 2012 im Atlantik um 37% zu (22). Pro Jahr ergibt das Zunahmen von 0,31% bis 5,1 %.

Wenn die Brutto-Primärproduktion 223 Gt C pro Jahr beträgt (23), so müsste eine jährliche Abnahme von 0,7 Gt C bis 11,4 Gt C in der globalen C-Bilanz berücksichtigt werden. Dies liegt in der Größenordnung der anthropogenen Emission, wird aber in den Modellen nicht berücksichtigt.

Woodward (23) gibt folgende Zahlen in Gt C für Land und Ozean an:

GPP (gross primary production ) : Land 120, Ozean 103

NPP (net PP = GPP – pflanzliche Respiration): Land 60, Ozean 65

NET (net ecosystem prod. = NPP – heterotrophe (tierische) Respiration) : Land 5, Ozean 11

Man sieht, dass der photosynthetische C-Verbrauch immer die durch biologische Zersetzung emittierte C übertrifft, wie es auch in erdgeschichtlichen Zeiträumen der Fall war. Die Zahlen der NPP sind recht zuverlässig, da sie auf Satellitenmessungen der photosynthetischen Pigmente (400-700 nm) beruhen. Was nicht berücksichtigt wird, weil es von den Satelliten nicht erfasst wird, sind 25% der globalen Photosynthese durch Prochlorococcus in Meerestiefen bis 200 m. Die heterotrophe Respiration in den tropischen klaren Meeren kann in diesen Tiefen gleich Null gesetzt werden. Das bedeutet, dass ca 26 Gt C pro Jahr zusätzlich zur obigen Rechnung aus dem C-Kreislauf verschwinden. Das Cyanobacterium verdoppelt sich jeden Tag, aber die Hälfte der Zellen wird durch einen Phagen aufgelöst und endet im tiefen Ozean (biol. Pumpe).

Die NET im Ozean wird von Woodward mit 11 Gt C angegeben. Dieser Wert entspricht weitgehend der biologischen Pumpe, ist aber zu niedrig angesetzt. Laut Prof. Riebesell (24) liegt das Ausmaß der biologischen Pumpe bei 9-15 Gt C/ Jahr, liegt aber seiner Meinung nach eher beim oberen Wert. Man könnte folgende Bilanz des C-Kreislaufs aufstellen, wobei + einer Zunahme und – einer Abnahme von Kohlenstoff bedeutet:

Die NET (net ecosystem production) in Gt C/ Jahr) addiert sich aus -5 (Land) – 12-15 (Ozean) – 1 (jährliche Zunahme) , was 17- 21 Gt C / Jahr ergibt (ohne den Effekt von Prochlorococcus = 26) und die anthropogene Emission von 10 Gt C/ Jahr weit übertrifft. Das bedeutet, dass jedes Jahr der Atmosphäre trotz anthropogener Emission ca 7-11 Gt C entzogen werden. Wenn nur der halbe Effekt von Prochlorococcus (der von mir geschätzt wurde) mitgerechnet wird, ergibt sich ein CO2-Verbrauch von jährlich 30-34 Gt C trotz der „anthropogenen „ Emission.

 

Biologische Pumpe

Die biologische Pumpe ist so definiert, dass ein Teil (25%) des durch Photosynthese gebildeten organischen Kohlenstoffs relativ schnell und ohne heterotrophe Respiration in den tiefen Ozean absinkt, wodurch er dem C-Kreislauf für ca. 1000 Jahre entzogen wird (25). Am Meeresboden findet dann der Abbau des organischen Materials in anorganischen Kohlenstoff statt.

Das falsche Modell, das Prof. Sabine beim IPPC anwendet wird, beruht auf seiner falschen Einschätzung der Sinkgeschwindigkeit des organischen Materials : „ because anthropogenic CO2 invades the ocean by gas exchange across the air-sea interface, the highest concentrations of anthropogenic CO2 are found in near surface waters. Away from deep water formation regions, the time scales for mixing of near-surface waters downward into the deep ocean can be centuries“ (18).

Die Literatur gibt relative unterschiedliche Sinkgeschwindigkeiten an, aber man kann mit 30 bis 1000 Metern pro Tag rechnen, was mir von Prof. Riebesell (24) bestätigt wurde. Für Bakterien (Aggregate) werden Sinkgeschwindigkeiten von 440-660 Metren angegeben (18).

Wie oben diskutiert, wird der von Prochlorococcus produzierte Anteil der Nettoprimärproduktion von Satelliten nicht erfasst . Deswegen wird auch der gleich große Anteil an der Biologischen Pumpe einfach nicht berücksichtigt.

Die Biomasse landet am Boden der Ozeane , wo sie von Bakterien zu anorganischem Kohlenstoff abgebaut wird. Dieser Kohlenstoff kommt nicht vor 1000 Jahren wieder an die Oberfläche.

 

Physikalische Pumpe: Tiefenströmung , „upwelling“

Die physikalische Pumpe sorgt für den Austausch zwischen der Oberflächenschicht des Meeres und dem tiefen Ozean.

Die globale Meeresströmung (siehe Abb.) wird angetrieben durch die thermohaline Zirkulation. Der warme Golfstrom strömt an der Oberfläche des Atlantiks nach Norden und gibt Wasserdampf ab, der zu einer Abkühlung und Aufsalzung des Wassers führt. Auf der Höhe Islands ist die Dichte dieses Stroms so hoch geworden, dass er wie ein Wasserfall bis zum Meeresboden fällt. Dort verteilt sich die Strömung flächig und fließt sehr langsam nach Süden zurück. Die Zeit für einen Kreislauf wird auf ca. 1000 Jahre geschätzt.

Das Austeigen von Tiefenwasser (upwelling) in Küstennähe wird dagegen hauptsächlich durch Winde verursacht, die die warme Oberflächenschicht wegtreiben und den Auftrieb des kalten und kohlenstoffreichen Tiefenwassers ermöglichen (30). In der Luft über den Auftriebsgebieten werden mehr als 1000 ppmv an CO2 gemessen (18).

Während der letzten Eiszeit war die Ventilation am Meeresboden unterbrochen, so dass sich dort Kohlenstoff ansammelte, der absolut frei von 14C war (31). Dieser Kohlenstoff kann bis zu 30 000 Jahren am Boden der Ozeane verbleiben (32).

 

Diskussion: woher kommt der gegenwärtige CO2-Anstieg in der Luft? 

  1. Die durch Photosynthese und biologische Pumpe verursachte Aufnahme von CO2 aus der Atmosphäre bis in den tiefen Ozean, kann nicht durch anthropogene Verbrennung kompensiert werden. Die gemessene Zunahme in der Atmosphäre muss zwangsläufig durch Ausgasung aus dem Ozean erklärt werden.
  2. Entweder hat sich das „upwelling“ seit ca. 100 Jahren verstärkt, was am ehesten durch Änderungen der Windbewegungen erklärt werden kann oder die Tiefenströmung bringt seit 100 Jahren kohlenstoffreicheres Tiefenwasser nach oben.
  3. Der Befund, dass es sich um „alten Kohlenstoff“ (14C arm) handelt, könnte auch dadurch erklärt werden, dass CO2 aus dem Erdinneren austritt.

 

Quellen:

  1. IPPC Synthesis Report 2014, Summary for Polcymakers, SPM 1.2, Seite 4
  2. D. Schönwiese “Klimatologie”, 3.Aufl. Ulmer Verlag 2008, Seite 346
  3. Le Quére et al. 2014; Earth Syst. Sci. Data Discuss. 7, 521-610
  4. Schulz & U.Riebesell , S.160-162 in : J.Lozan (Hg): Warnsignal Klima: Die Meere-Änderungen & Risiken (2012)
  5. J. Hardt , C.Safina , Spektrum der Wissenschaft, Feb. 2011, 82-89
  6. Partensky et al. , Microbiol.Mol.Biol.Rev. 63, 106-127 (1999)
  7. Kutschera: Tatsache Evolution, München 2009,313
  8. Wang et al. , The Plant J. 82, 429-448 (2015)
  9. Monnin, T.Stocker et al, Science 291, 112-114 (2001)
  10. Van Hoof et al. , Tellus 57B, 351-355 (2005)
  11. Steinthorsdottir et al. , Quaternary Science Rev. 99, 84-96 (2014)
  12. Roedel “Die Atmosphäre”, 2.Aufl. 1994, Springer , Seite346
  13. Scripps Institute, Seawater CO2 Data ,published by C.D.Keeling 1957-1963
  14. Takahashi et al. 2016 , “Global Ocean Surface Water Partial Pressure of CO2 database. Oak Ridge Nat. Laboratory, U.S. Dep. of Energy
  15. E.Zeebe, Ann.Rev.Earth Planet Sci. 2012, 141-165
  16. A.Berner+ Z. Kothavala, Am.J.Sci 301, (2001), 182-204
  17. IPPC: Climate Change 2013, 6.3 (C.Sabine)
  18. Steele, https://wattsupwiththat.com/2017/03/02/how
  19. Fu, J.Phycology 43, (2007),485-496
  20. J.E.Campbell, Nature 544, (2017), 84-87
  21. Hernández-Léon et al., Limnol.Oceanogr. 55, (2010), 2503-2512
  22. K.M.Krumhardt et al. , Biogeosciences 13, (2017), 1163-1177
  23. I.Woodward, Current Biol. 17, (2007), 269-273
  24. Mitt. von Prof. U. Riebesell , Geomar, am 20.07.2017
  25. Körtzinger in : „Der marine Kohlenstoffkreislauf“ , S.16 ( Springer, 2017)
  26. Gonsamo et al., J.Geophys.Res. 122, 1275-1293 (2017)
  27. Wei et al. , J.Geophys.Res. 120, 7166-7188 (2015)
  28. I.Kline et al. , PLos ONE 10 (6): e0127648 (2015)
  29. W.Morse et al. , Chem.Rev. 107, 342-381 (2007)
  30. National Ocean Service, NOAA
  31. Basak et al. , Nature Geoscience 3, 770-773 (2010)
  32. L.Follett et al. , proc. Nat. Acad. Sci. U.S.A. 111, 16706 (2014)

 




Die unheimliche Allianz von Politikern und Klimatologen

Heute ist es eine angebliche „Klimakatastrophe“ . Die Politiker haben die staatlichen Ausgaben für Klimaforschung heute weltweit auf über 5 Milliarden Dollar pro Jahr erhöht. Ganze Institute leben davon und werden alles tun, um die angebliche Klimabedrohung aufrechtzuerhalten. Niemand sägt gerne den Ast ab, auf dem er sitzt.

Stefan Rahmstorf vom PIK, der fanatisch den „menschengemachten Klimawandel“ verteidigt und dafür wider besseres Wissen auch das El-Nino-Ereignis von 2016 als Beweis anführt, fordert sogar eine Erhöhung des weltweiten Klimaforschungsbudgets auf 30 Milliarden US$ pro Jahr. „Damit wir schneller, besser und genauer sagen können, was hier eigentlich abläuft.“

Sein Chef, Prof. H. J. Schellnhuber, Chef des PIK – Potsdam Institut für Klimafolgenforschung (auch bekannt als „Institut für Klimamärchen“) hat dies sehr schön bestätigt mit der Aussage „Die Klima-Diplomatie hat eine riesige Maschinerie entwickelt, in der viele ein gutes Auskommen haben“ (1.12.06 – Leipziger Volkszeitung) – auch er. Hinzu kommt die Teilnahme an den alljährlichen Klimaparties von 10 000 bis 15 000 Klimafunktionären, die auch nach 21 Massenkonferenzen immer noch nichts bewirkt haben (keine CO2-Reduktion), aber immer mit dem Beschluss enden, sich nächstes Jahr an einem anderen schönen Ort wiederzutreffen.

Antragsteller können mit großer Sicherheit auf staatliche und stattliche Finanzmittel rechnen, wenn in ihrem Studienvorschlag ein Bezug zum (gefährlichen) Klimawandel dargestellt wird. Studien über das Klima der Vergangenheit, die den Unsinn der jetzigen Klimahysterie zeigen könnten, sind dagegen aussichtslos. Ein langjähriger Mitarbeiter der NOAA in den USA berichtete (nach seiner Pensionierung ), dass es dort ausdrücklich nicht erwünscht war, sich mit der Klima-Historie zu beschäftigen (denn das könnte den Unsinn der aktuellen Klima-Hysterie aufzeigen).

Das Gleiche gilt für den Deutschen Wetterdienst (DWD). Seine Klimaprojektion für die Zukunft basiert ausschließlich auf theoretischen Modellen und ihren (teilweise offensichtlich falschen) Annahmen, während die natürlichen, seit Jahrtausenden und Jahrmillionen existieren natürlichen Klimaschwankungen und Zyklen einfach ignoriert werden. Kein Wunder, dass sich aus dem gleichen Grund auch die Klimamodelle des IPCC als so völlig falsch erwiesen haben. Kein einziges war in der Lage, das Klima der Vergangenheit zu rekonstruieren, noch den Klima-Stillstand (den „Hiatus“) seit dem Jahr 1998 bis heute vorauszusehen, sondern produzierten nur einen tollen Anstieg basierend auf der CO2-Zunahme … als ob Klima derartig simpel wäre.

Prof. Dr. von Storch, einer der führenden deutschen Klimaforscher, kommentierte den Drang mancher seiner Klima-Kollegen wie folgt:

           „Eine Gruppe von Klimatologen ist der Versuchung erlegen, sich durch              medienwirksame dramatisch negative Aussagen nach vorne zu spielen. Sie werden mit größter öffentlicher Aufmerksamkeit bedacht, und einige von ihnen übernehmen die Rolle der wachsamen Sofortkritiker anders denkender Kollegen“.

Inzwischen ist das Paradigma vom „menschengemachten Klimawandel“ nicht nur mächtig geworden, es stattet auch mit Macht aus: mit Wählerstimmen, Forschungsorganisationen, öffentlicher Aufmerksamkeit, akademischer Reputation, Geld und Positionen. Es darf gar nicht mehr falsch sein. Der Zug ist abgefahren und in ihm sitzen viele Wissenschaftler und Politiker, für die es kein zurück mehr gibt. (Prof. Dr. Gerhard Schulze, Professor für Soziologie in Bamberg ,Die Welt, 12.1.07)

Wir verdanken es der Unwissenheit von Politikern und Journalisten, dass ignoriert wird, dass es schon vor 1000 und 2000 Jahren und viele Male davor höhere Temperaturen gegeben hat als heute – und das bei wesentlich geringerem CO2-Gehalt und ohne jeden anthropogenen Einfluss. Die Klima-Modelle des IPCC können diese Vergangenheit nicht nachvollziehen, da sie sich fast ausschließlich mit (falschen) Annahmen am CO2-Gehalt orientieren. Die natürlichen Klima-Einflussfaktoren , die seit Jahrtausenden und Jahrmillionen existieren – auch heute noch – werden systematisch ignoriert, da sie die aktuelle Klima-Hysterie ad absurdum führen.

Dipl.-Met.K-E.Puls schrieb im Aug.2008 hierzu:

Die Politik hat sich dieser Pseudo-Wissenschaft namens Klimakatastrophe bemächtigt mit dem Beelzebub CO2 als Ablass-Handels-Objekt. Das schwemmt Geld in den unersättlichen Moloch der Staatskassen und die Bürger zahlen (noch) gerne, denn einige Institute, der IPCC und europäische Politiker „retten die Welt für uns und unsere Kinder“. Das bringt nicht nur Geld für den Staat und einige Klima-Institute, sondern für diese auch Reputation, gelebte Eitelkeiten und zusätzliche Wähler für die Parteien, welche bei den Katastrophen-Prognosen mitsamt der mitgelieferten Menschheits-Rettungsplänen (nur durch CO2-Verminderung !) den Vogel abschneiden.

Dies wird voll bestätigt durch die Aussagen von Politikern wie Joschka Fischer (von der Grünen-Partei):

„Man muss den Leuten nur fortwährend Angst einflößen, dann kann man ihnen praktisch immer mehr Steuern und Abgaben aus der Tasche ziehen.“

(Quelle: Buch Einsichten eines Schwarms, F. Heintger, 2015)

und von Professor John Christy, Mitglied des IPCC (Intergovernmental Panel on Climate Change):

„Man muss eine gewisse Panik schüren, dann fließt das Geld!“

Prof. Eric Weede sagte dazu:

Während Wissenschaft von Kritik und Zweifel lebt – vom Wissen, dass es Gewissheit über den Besitz der Wahrheit nicht gibt und geben kann – verlangt die Politik eher die Unterdrückung von Zweifeln. Eine allzu große Nähe von Wissenschaft und Politik (wie beim IPCC) ist eher eine Gefahr als eine Verheißung.

Das deutsche Umwelt-Bundesamt hat sich z.B. im Jahr 2013 nicht gescheut, Journalisten, die es wagten, eine nicht vom UBA vorgeschriebene Meinung zu äußern, öffentlich zu diskreditieren. Und es gab auch ein Gerichtsurteil, das eine Klage dagegen zurückwies.

Die unheimliche Allianz von Politikern und Klimatologen

Nein, die Allianz zwischen Politikern und Klimatologen ist nicht heimlich, sondern offensichtlich, und zwar deshalb, weil beide Seiten davon profitieren. Das IPCC (oft auch fälschlicherweise in den deutschen Medien als „Weltklimarat“ bezeichnet), wurde als politisches Instrument von der Politik etabliert, wird von der Politik kontrolliert und für ihre Zwecke benutzt.

Es gibt nicht nur einige Klimatologen, die vom Klima-Alarmismus gut leben und deshalb von den Medien bevorzugt werden, sondern auch Politiker, Journalisten und Versicherungen unterstützen dies großzügig:

Politiker, weil sie sich durch die angeordnete Verringerung von CO2-Emissionen, die angeblich in naiver Annahme über das Klima entscheiden, als „Weltretter“ profilieren können,

Ideologen, weil sie das Klima als Argument gegen Konzerne und den Kapitalismus gebrauchen können: Maurice Strong, „Vater des Kyoto-Protokolls“:„Besteht nicht die einzige Hoffnung für diesen Planeten in dem Zusammenbruch der Industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?”

Versicherungen, weil sie sich von künstlichen Klimaängsten mehr Policen versprechen, sowie

Journalisten, weil es für sie nichts Schöneres gibt als eine echte oder erfundene Katastrophe, nach dem alten bewährten Motto „nur schlechte Nachrichten sind gute Nachrichten“. Auf so etwas wie die angebliche „Klimakatastrophe“ kann man auf keinen Fall verzichten, sie muss kommen, auch wenn die Fakten etwas anderes sagen. Auch wenn sich das als Unsinn herausstellt, wie damals das berühme „Waldsterben“, das real nie stattfand. Keine der größeren Publikationen haben je eine Statistik der globalen Temperaturentwicklung in den letzten 20 Jahren veröffentlicht, denn dann würden die Leser womöglich merken, welche unsinnigen Klima-Spekulationen und Behauptungen in den letzten Jahren veröffentlicht wurden.

Kein maßgeblicher Politiker in Deutschland hat die aufgekommene Klima-Hysterie erkannt und kritisiert – mit einer Ausnahme: Altkanzler Helmut Schmidt sagte dazu am 4.Juni 2007 : „Klimatischen Wandel hat es auf der Erde gegeben, seit es sie gibt. Und sich darüber aufzuregen und zu meinen, der Mensch könnte diesen Wandel durch gemeinsamen Beschluss aufhalten, das ist reine Hysterie, das ist dummes Zeug.

Dr. rer.nat. Siegfried Dittrich (Hamm) schrieb schon im Jahr 2009:

„Die Verbreitung von Angstpsychosen dient nur unlauteren, ganz auf Mitnahmeeffekte abzielenden Geschäftspraktiken, die inzwischen einen solchen Umfang angenommen haben, dass wir uns ihrer kaum erwehren können, zumal auch noch die Politik mit all ihren Fördermaßnahmen von der neuen Modewelle verblendet zu sein scheint. Je länger dieser Zustand andauert, um so mehr wird dies auf Kosten der Substanz unseres volkswirtschaftlichen Wohlstandes gehen. Auch die zahlreichen Klimainstitute haben hier zu ihrem großen Vorteil ein geldsprudelndes Schmarotzerfeld gefunden“.

Interview in der Tagesschau mit dem Klimawissenschaftler Prof.Dr. Hans von Storch

tagesschau.de (23.9.05): Gibt es denn Gruppen, die … ein Interesse an klimatischen Schreckensszenarien haben?

von Storch: Abgesehen von Umweltorganisation, die ein selbstverständliches Interesse haben, gibt es zwei weitere Gruppen, die von davon profitieren, mit den Szenarien im Gespräch zu bleiben. Die eine Gruppe sind die Klimaforscher selbst, die dann mehr Gelder zur Verfügung gestellt bekommen. Auch die Präsenz in den Medien kann ein persönlicher Anreiz für Wissenschaftler sein. Die zweite Gruppe ist die Versicherungswirtschaft. Für sie ist es nützlich, wenn in der Öffentlichkeit der Eindruck entsteht, man müsse sich gegen gewachsene Risiken versichern. Immerhin leben immer mehr Menschen in geographischen Gefahrenzonen, wie etwa unmittelbar am Meer oder in Flussniederungen. Ich unterstelle den Versicherungen jedoch nicht, dass sie bewusst übertreiben. Aber sie agieren sicher interessengeleitet. 

Wir hatten schon einmal eine kommende Klimakatastrophe: die Ankündigung einiger Klimatologen und begeisterter Journalisten über die bevorstehende Eiszeit – nachdem im Zeitraum 1940-75 die Globaltemperatur tatsächlich um 0,35°C abgenommen hatte (!). Und das trotz CO2-Anstieg um 30 ppm, der lt. IPCC eigentlich einen Temperaturanstieg von 0,3°C hätte verursachen sollen (siehe Anlage) Aber solche unbequemen Fakten werden natürlich ignoriert und unterdrückt, wenn sie „nicht passen“.

Was aber folgte, nachdem die Globaltemperatur nach 1976 wieder anfing zu steigen, war das rasche Umsteigen der Klima-Alarmisten von der „kommenden Eiszeit“ auf die „gefährliche Erwärmung“, die uns bevorstehen würde. Und das erwies sich als eine gute Geschäftsidee. Eine Vielzahl von Berufszweigen hängte sich an die angebliche neue „Klimakatastrophe“ dran und profitierte kräftig von Fördermitteln, CO2-Zertifikatehandel, Extremversicherungen und üppigen Vortragshonoraren.

Antragsteller können mit großer Sicherheit auf staatliche (und stattliche)Finanzmittel rechnen, wenn in ihrem Studienvorschlag ein Bezug zum (gefährlichen) Klimawandel dargestellt wird. Studien über das Klima der Vergangenheit, die den Unsinn der jetzigen Klimahysterie zeigen könnten, sind dagegen aussichtslos.

Das Gleiche gilt für den Deutschen Wetterdienst (DWD). Seine Klimaprojektion für die Zukunft basiert ausschließlich auf theoretischen Modellen und ihren (offensichtlich teilweise falschen) Annahmen, während die natürlichen, seit Jahrtausenden und Jahrmillionen existieren natürlichen Klimaschwankungen und Zyklen einfach ignoriert werden. Kein Wunder, dass sich aus dem gleichen Grund auch die Klimamodelle des IPCC als so völlig falsch erwiesen haben. Kein einziges war in der Lage, das Klima der Vergangenheit zu rekonstruieren, noch den Klima-Stillstand (den „Hiatus“) seit dem Jahr 1998 bis heute vorauszusehen, sondern produzierten nur einen tollen Anstieg basierend auf der CO2-Zunahme … als ob Klima derartig simpel wäre.

Und Uli Weber schreibt in seinem Buch “Klimahysterie gefährdet die Freiheit” :

Katastrophenszenarien haben sich zu den Gelddruckmaschinen der modernen Forschung entwickelt. Der Mainstream der globalen Klimaforschung macht sich gerade zum politischen Gefangenen einer CO2-Apokalypse, und aus Angst vor der prophezeiten Klimakatastrophe setzen wir unsere Marktwirtschaft außer Kraft. Dabei findet diese Klimakatastrophe vorerst nur in unseren Köpfen statt, denn es geht dabei weniger um den aktuellen CO2-Ausstoß der Menschheit, als vielmehr um den befürchteten Anstieg dieser Emissionen in der Zukunft.

Immer und zu jeder Zeit wurden der Menschheit Katastrophen vorhergesagt, insofern ist die Klimakatastrophe eigentlich gar nichts Neues. Neu ist eher, dass sich die Protagonisten dieser Katastrophe nicht mehr alter Weissagungen oder plötzlich auftauchender Kometen bedienen, um ihre Thesen unters Volk zu bringen, sondern mit grob vereinfachenden pseudo-wissenschaftlicher Modellrechnungen.

Den Religionsstiftern eines globalen Klimaglaubens war Anfang der 1990er Jahre mit der CO2-Hypothese ein ganz bedeutender Coup zu einer dauerhaften Stützung eines „menschengemachten“ Klimawandels gelungen. Den Adepten dieses globalen Klimaglaubens stehen nahezu unbegrenzte finanzielle und personelle Mittel zur Verfügung, um die Welt in ihrem Sinne zu missionieren. Und fachlich geschulte Hilfstruppen unterstützen sie, diese Botschaft ansprechend und verständlich verpackt zu vermitteln.

Denn anstatt nun endlich die tatsächlichen Probleme der Weltbevölkerung, also Armut und stetiges Bevölkerungswachstum, aufzugreifen und einer befriedigenden Lösung zuzuführen, hat sich inzwischen bereits wieder ein neureligiöser Ablasshandel etabliert. Der Reichtum der gesellschaftlich und wirtschaftlich Erfolgreichen soll danach einfach unter denjenigen verteilt werden, die angeblich unter dem von den Industriestaaten verursachten Klimawandel leiden.

Dr. Dietrich E.Koelle

 

 

 

 

Charles Cornwallis schreibt in „Die Welt“ vom 28.5.201

 

Wissenschaft (zumindest die praktisch orientierte) basiert auf Beobachtungen, aus denen man Thesen ableitet. Diese werden überprüft und letztendlich entweder bewiesen oder widerlegt. Das gilt beim Klimawandel nicht. Er hat gefälligst vom Menschen erzeugt zu sein.

Das ist mittlerweile ein riesiges Geschäft. Was würde denn passieren, wenn man morgen bestätigt: der Klimawandel ist nicht beeinflussbar? Energiewende sinnlos gewesen, alle Hersteller von alternativen Energieerzeugern pleite, Elektroauto sinnlos, alle Jobs und Investitionen weg.

Da wäre hier aber die Hölle los“

 

 

 

 

ANLAGE:

Die kommende Eiszeit in den Medien 1974/75:

 

1974 – Air Pollution May Trigger Ice Age, Scientists Feel (The Telegraph, December 5, 1974)

1974 – More Air Pollution Could Trigger Ice Age Disaster (Daily Sentinel – December 5, 1974)

1974 – Scientists Fear Smog Could Cause Ice Age (Milwaukee Journal, December 5, 1974)

1975 – Climate Changes Called Ominous (The New York Times, January 19, 1975)

1975 – Climate Change: Chilling Possibilities (Science News, March 1, 1975)

1975 – B-r-r-r-r: New Ice Age on way soon? (The Chicago Tribune, March 2, 1975)

1975 – Cooling Trends Arouse Fear That New Ice Age Coming (Eugene Register-Guard, March 2, 1975)

1975 – Is Another Ice Age Due? Arctic Ice Expands In Last Decade (Youngstown Vindicator – March 2, 1975)

1975 – Is Earth Headed For Another Ice Age? (Reading Eagle, March 2, 1975)

1975 – New Ice Age Dawning? Significant Shift In Climate Seen (Times Daily, March 2, 1975)

1975 – There’s Troublesome Weather Ahead (Tri City Herald, March 2, 1975)

1975 – Is Earth Doomed To Live Through Another Ice Age? (The Robesonian, March 3, 1975)

1975 – The Ice Age cometh: the system that controls our climate (The Chicago Tribune, April 13, 1975)

1975 – The Cooling World (Newsweek, April 28, 1975)

1975 – Scientists Ask Why World Climate Is Changing; Major Cooling May Be Ahead (PDF) (The New York Times, May 21, 1975)
1975 – In the Grip of a New Ice Age? (International Wildlife, July-August, 1975)

1975 – Oil Spill Could Cause New Ice Age (Milwaukee Journal, December 11, 1975)

1976 – The Cooling: Has the Next Ice Age Already Begun? [Book] (Lowell Ponte, 1976)

1977 – Blizzard – What Happens if it Doesn’t Stop? [Book] (George Stone, 1977)

1977 – The Weather Conspiracy: The Coming of the New Ice Age [Book] (The Impact Team, 1977)
1976 – Worrisome CIA Report; Even U.S. Farms May be Hit by Cooling Trend (U.S. News & World Report, May 31, 1976)

1977 – The Big Freeze (Time Magazine, January 31, 1977)

1977 – We Will Freeze in the Dark (Capital Cities Communications Documentary, Host: Nancy Dickerson, April 12, 1977)

1978 – The New Ice Age [Book] (Henry Gilfond, 1978)

1978 – Little Ice Age: Severe winters and cool summers ahead (Calgary Herald, January 10, 1978)

1978 – Winters Will Get Colder, ‘we’re Entering Little Ice Age’ (Ellensburg Daily Record, January 10, 1978)

1978 – Geologist Says Winters Getting Colder (Middlesboro Daily News, January 16, 1978)

1978 – It’s Going To Get Colder (Boca Raton News, January 17, 1978)

1978 – Believe new ice age is coming (The Bryan Times, March 31, 1978)

1978 – The Coming Ice Age (In Search Of TV Show, Season 2, Episode 23, Host: