Wo Klimaschutz­programme bestimmen, spielen Sinn und Geld über­haupt keine Rolle mehr

Die Berliner Stadtreinigung reinigt nun auch die Luft vom Pflanzendünger CO2

Beispiele zum Beleg gräbt in schöner Regelmäßigkeit die (Des-)Informationsseite unserer Klimaberaterin aus, allerdings – im Gegensatz zum Autor – um damit die großen Erfolge im Klimakampf zu preisen.
Klimaretter.Info: [1] Stadtreinigung will sich von CO₂ reinigen
wollen die Berliner Stadtreinigungsbetriebe (BSR) bis 2025 weitere 67.000 Tonnen CO2 einsparen. Dazu unterzeichneten der mit rund 5.000 Beschäftigten größte kommunale Entsorger Deutschlands und der Berliner Senat am Donnerstag ihre dritte Klimaschutzvereinbarung, wie beide Partner am Donnerstag mitteilten.

In der Pressemitteilung der Stadt Berlin kann man es dann in Fakten und Zahlen nachlesen. Je mehr (Geld-)Sorgen ein Bundesland hat, um so, mehr muss es sich zur Weltrettung verpflichten. Denn das Geld der Armen ist ja ein Mehrfaches dessen der Reichen wert.

Senat Berlin, Pressemitteilung: [2] Auf freiwilliger Basis verpflichtet sich darin die BSR zum dritten Mal in Folge, die Kohlendioxidemissionen zu reduzieren. So soll durch gezielte Investitionen und Maßnahmen in verschiedenen Bereichen bis 2025 eine CO2-Entlastung von 67.000 Tonnen erreicht werden.
… Berlin will bis zum Jahr 2050 klimaneutral werden … Klimaschutzvereinbarungen mit landeseigenen Unternehmen wie der
BSR setzen ein Zeichen für diese gemeinsame Anstrengung für mehr Klimaschutz in Berlin.

Für eine so wichtige Aufgabe müssen sogar Wahlversprechen hintenangestellt werden. Wer dachte, mit der Wahl von GRÜN in Berlin würde sich (Wahl-)Politik ändern, sieht sich getäuscht (dass GRÜN beim Versuch, Diäten heimlich zu erhöhen, ebenfalls sofort mit dabei ist, kann man wiederum in BW sehen [6]):
DER TAGESSPIEGEL: [3] Rot-Rot-Grün Wasser und BSR werden nicht billiger

… Nein, in diesem Jahr steigen die Gebühren der BSR für die Müllabfuhr nicht noch einmal – die Stadtreinigung hat schon erhöht im Januar. Und die Wasserbetriebe bekommen nicht noch mehr Geld – deren Tarife waren schon so hoch, dass das Bundeskartellamt einschreiten musste…. Und früher wetterten die Grünen auch gegen die hohen Gebühren. Zumal diese Haushalte mit kleinem Budget besonders hart treffen.

Man muss das verstehen. Schließlich sind 130 Millionen EUR zur CO2-Minderung auch kein Pappenstiel. Wie gut, dass man sich da wenigstens beim Geld-Ausgeben zuverlässig auf Kollegialität verlassen kann.
Stefan Tidow (Bündnis 90/Die Grünen, Politologe) erklärt: [2] „Die BSR bleibt ein verlässlicher Partner des Landes. Das gilt auch, wenn es darum geht, die ehrgeizigen klimapolitischen Ziele Berlins zu erreichen … Für BSR-Chefin Dr. Tanja Wielgoß ist Klimaschutz Teil der Strategie des Unternehmens: „Wir ruhen uns nicht auf den Erfolgen der letzten Jahre aus, sondern legen nochmal eine Schippe drauf … Dafür werden wir in den nächsten Jahren 130 Millionen Euro investieren.“
Die „Erfüllungsgehilfen“ – nein, natürlich die Fachmannschaft der unteren Ebenen, hat man dafür schon gebildet:
EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden,
und mit diesen soll es gelingen, den neuen Treppenwitz der Geschichte, von Klimaretter freudig verkündet: Reinigen der Atmosphäre vom lebensnotwendigen Pflanzennährstoff CO2, umzusetzen. Schmutz bleibt Schmutz und der Auftrag ist Schmutz zu entfernen, Denken findet sich nicht unter der Rubrik Beauftragung.

Zum Glück gelingt dies auf diese Art nicht, aber die Kosten dafür sind trotzdem mehr als nur Peanuts.

Wieder ein grober Nutzen- / Kosten-Vergleich

Maßnahme der Berliner Stadtreinigung: 130 Millionen Euro Ausgaben zur Vermeidung von 67.000 Tonnen CO2 bis zum Jahr 2025!
Man rechne einmal kurz nach:
67.000 Tonnen CO2 ergeben 8,7 x 10-6 ppm CO2-Anteil in der Atmosphäre (Anmerkung: 1 ppm = 0,000001).
Pro Jahr „entgiftet“ die Berliner Stadtreinigung die Atmosphäre damit um 0,0000011 Stück CO2-Moleküle pro 1 Millionen Luftmolekülen, an denen die klimaerhitzende Strahlung nicht mehr zurückprallt und die Welt aufheizen könnte.

Die segensreiche Wirkung auf das Weltklima ist entsprechend fulminant:
Der aktuelle Wert von ca. 400 ppm CO2-Anteil in der Atmosphäre „verringert“ sich dank der BSR in den 8 Jahren auf 399,9999913 ppm; oder um ca. 0,0000011 ppm / pa.
Als Nutzen ergibt sich eine (rechnerische) Temperaturverhinderung beim (zu hohen) IPCC-Forcing in den acht Jahren von:
-93 x 10-9 °C, ausgetippt ca. minus 0,0000001 °C, oder minus 0,0000000116 °C / pa, sehr wahrscheinlich davon jedoch nur ein Drittel, wenn das realistischere Forcing von 1 °C / ppm-Verdopplung angesetzt wird.

Würde die BSR diese Maßnahme konsequent bis zum Jahr 2100 weiterführen (rein hypothetisch, aber wenn man diese mit dem Jahr 2025 enden lässt, wird die Anzahl an Nullen nach dem Komma viel zu lang), würde durch die generöse Maßnahme der Berliner Stadtreinigung die Welttemperatur um ganz, ganz grob maximal:
0,0000006 °C*,
aber eher unter 0,0000002 °C* „verringert,
und das zu (fiktiven) Kosten von 10,8 Milliarden EUR.
Anm.: Hoffentlich haben sich beim Schätzen nicht irgendwo Nullen verschoben. Aber auf ein paar Nullen mehr oder weniger kommt es (sprichwörtlich) wirklich nicht an.
*Zur Abschätzung: pauschaliert die Hälfte eines Einmalimpulses dieser CO2-Menge, die in diesem Zeitraum bereits erhebliche Rückdiffusion nicht berücksichtigt.

Fester Glaube kann Berge versetzten

Diese wirklich monströsen Erfolge im Klimakampf der Stadt Berlin werden von einem ehemaligen Büroleiter der Frau C. Roth und einer geschichtspolitisch promovierten BSR-Chefin vollmundig proklamiert:
Stefan Tidow erklärt: [2] „Die BSR bleibt ein verlässlicher Partner des Landes … Das gilt auch, wenn es darum geht, die ehrgeizigen klimapolitischen Ziele Berlins zu erreichen ...
… Für BSR-Chefin Dr. Tanja Wielgoß ist Klimaschutz Teil der Strategie des Unternehmens: „Wir ruhen uns nicht auf den Erfolgen der letzten Jahre aus … Dafür werden wir in den nächsten Jahren 130 Millionen Euro investieren.“

Man erkennt überdeutlich, dass diese „Eliten“ noch nie über ihre auswendig gelernten Sprechblasen nachgedacht haben und Fake-News in Reinkultur präsentieren. Leider verhalten sich die berichtenden Redakteure ebenso, womit diesen „Führungskräften“ die Blamage einer reflektierenden Argumentation erspart bleibt.
Für einen noch nicht so schlimm denkruinierten Bürger stellt sich jedoch die Frage, ob Abwarten und Anpassung an das sich stetig verändernde Klima nicht die bei Weitem sinnvollere Variante wäre.

Solche gedanklichen Abweichungen wären allerdings für Personen, welche im politisch beeinflussten Umfeld etwas werden möchten, höchst gefährlich. Denn unsere Kanzlerin hat mit ihrer Bestätigung des „Stern-Reports“ in ihrer Rede am 5.Juli 2016 beim VII. Petersberger Klimadialog genau dieses verneint:
Fr. Merkel: … Ich will diese Mehrkosten nicht kleinreden. Aber wir wissen spätestens seit dem Stern-Report, dass sie sich langfristig – eigentlich schon mittelfristig – bezahlt machen. Wenn wir sehen, wie viele Folgen des Klimawandels wir ansonsten zu gewärtigen haben, dann wissen wir, dass sich das allemal lohnt.
Und wenn es unsere Kanzlerin so sicher weiß. Wer wagt es, dieser ausgewiesenen Fachfrau und einem von einem leibhaftigen „Sir“ geschriebenem Report ([8]: … Auftragsarbeit eines Beamten für eine Regierung mit einem politischen Programm …“) zu widersprechen? – nur jemand, der seinen sicheren, politischen Selbstmord als Planziel vorhat.
Im Achgut-Artikel [8] Unbequem ist stets genehm, ist beschrieben, wie ein Bundespräsident dieses „Problem“ eigenständigen Denkens vorbildlich gar nicht erst aufkommen lässt.

Fast freut man sich inzwischen über „ehrlichen“ Beschiss

Eine Anmerkung kann sich der Autor nicht verkneifen. Ihm sind Versorger-Vorstände wie der hoch-bezahlte der Nürnberger N-Ergie da fast schon „lieber“. Bei solchen merkt man, dass sie aus persönlichen Vorteilen (bekommt, wie ein SPD-Verantwortlicher der Stadt extra in der Zeitung betonte „bewusst“ ein so hohes Gehalt) heraus ihre Kunden und den politisch besetzten Aufsichtsrat mit ihren „Weltrettungsmaßnahmen“ einfach nur über den Tisch ziehen wollen [4] [5]. Dagegen lässt sich sachlich argumentieren.

Wenn Politologen – die modernen Theologen der Ideologien -, inzwischen scheinbar „massenhaft“ von UNIs produziert, es „vollbringen“, weiß man nie so recht, wie argumentativ dagegen anzugehen wäre. Man fragt sich immer: Glauben die das wirklich – fiele ihnen in aller Regel ja nicht schwer, da selten eine Ausbildung zum Fachgebiet vorliegt – oder machen sie es auch nur zu ihrem Vorteil? Das Ergebnis: Hohe, gut bezahlte Posten im Einflussbereich der Politik, ist allerdings das Gleiche:
BSR Vorstandsvorsitzende, Tanja Wielgoß: WIKIPEDIA Studium: Politik-, Geschichts- und Wirtschaftswissenschaften, Dissertation: „Der Parti socialiste und die Sozialdemokratische Partei Deutschlands im europäischen Integrationsprozess – 1989-1999“,
Stefan Tidow (Bündnis 90/Die Grünen, Politologe): Politikwissenschaft, Volkswirtschaftslehre und Pädagogik, ehemals Büroleiter von C. Roth und J. Trittin.

Als Trost hilft da nur: Nicht alles von dem ausgegebenen Geld ist verpuffender Öko-Weihrauch. Zumindest ein Teil des Invests hat ja auch einen praktischen Nutzen. Zudem entstehen bei den nach Gewerkschaftsmeinung sowieso viel zu „schlanken“ öffentlichen Unternehmen neue Arbeitsplätz, die vorher unbekannt waren und welcher (dafür zahlende) Bürger könnte etwas gegen Arbeitsplätze haben:
[2] … Dazu gehören BSR-Beschäftigte, die als Klimalotsen in ihren jeweiligen Organisationseinheiten für „Gutes Klima“ sorgen, indem sie die Energiesparziele der BSR mit Tipps und Kniffs vor Ort voranbringen …
EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden

Und immer daran denken: Die Grünen fordern in jedem Bundesland ein Klimaschutzgesetz. Dann kann jedes Kind das Land zu mehr Aktivismus verklagen und wird von den entsprechenden NGOs und Interessenverbänden dazu hofiert:
Klimaretter.Info: [7] Indisches Mädchen verklagt Regierung
Richter entscheiden nach dem Gesetz und nicht nach dem Verstand. Hier gibt es wirklich einen der ominösen Kippunkte, ab dem Wahnsinn eine Eigendynamik entfalten kann, wie es aus der Geschichte bekannt ist.

Quellen

[2] Berlin, Senatsverwaltung für Umwelt. Verkehr und Klimaschutz: Pressemitteilung vom 20.04.2017 BSR will bis 2025 weitere 67.000 Tonnen CO2 einsparen

[3] DER TAGESSPIEGEL: Rot-Rot-Grün Wasser und BSR werden nicht billiger

[4] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

[5] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – koste es was es wolle

[6] STUTTGARTER ZEITUNG: Rückkehr zur Abgeordneten-Pension Vor Jahren eine Großtat, heute nur Murks

[7] Klimaretter.Info: Indisches Mädchen verklagt Regierung

[8] Achgut.com: Unbequem ist stets genehm: Die Irrtümer des Klimawarners Joachim Gauck




Eine erste komplette Fach­information über Klima und Energie in Youtube

Der Anlass

„Klima, Energiewende und Kernkraftnutzung“ stehen seit geraumer Zeit im Fokus von Politik, Medien und zahlreicher wirtschaftlicher oder ideologischer Interessengruppen. Alle drei Themen sind komplex und in ausreichender Tiefe ohne Weiteres nur Fachleuten zugänglich. Sie verändern aber unser Leben. Die aktuelle Politik, und mehrheitlich die ihr folgenden Medien, beanspruchen trotz ihrer fachlichen Unkenntnis die Deutungshoheit. Mit den ihnen zur Verfügung stehenden, vom steuerzahlenden Konsumenten unfreiwillig aufgebrachten Mitteln ist dies leicht durchsetzbar.

Video Folge 1: Ist der Klimawandel vom Menschen verursacht? Das Klimagespräch mit Anton und Beate  (Extremwetter, Weltklimarat IPCC, Gletscher, Meeresspiegel)

Und es wird tatsächlich mit einer Konsequenz durchgesetzt, die fatal an die mediale Propaganda der ehemaligen DDR erinnert. Diese Deutungshoheit geht beispielsweise so weit, dass für das öffentlich rechtliche Fernsehen die Kernenergie gar nicht mehr existiert. Allenfalls über ihren deutschen Abbau und deren Kosten gibt es noch vereinzelt Meldungen. Die interessanten Weiterentwicklungen hin zu neuer, inhärent sicherer Reaktortechnik (Schnellspaltreaktoren) in Russland, China und den USA, die keinen nennenswerten radioaktiven Abfall mehr erzeugen und die Brennstoffreichweite auf viele hundert Millionen Jahre ausdehnen, werden hierzulande totgeschwiegen.

Mit „Klima“ verhält es sich nicht viel besser. Der Gegensatz zwischen umfangreicher Klimafachliteratur und dem, was die Medien zu berichten für richtig erachten, hat inzwischen absurde Ausmaße erreicht. Selbst  korrekte Berichtsteile in den IPCC – Reports werden verschwiegen, wenn sie nicht in das gewünschte politisch/ideologische Konzept der deutschen Energiewende passen. Neutrale Fachleute in Interviews oder Talk Shows, die fachlich fundierte Gründe gegen die Hypothese eines anthropogenen Klimawandels anführen können, werden erst gar nicht zugelassen.

Klima-Alarmisten behaupten zudem permanent, dass sich Klimakritiker nicht auf Diskussionen einlassen. In Wirklichkeit verhält es sich genau umgekehrt. Alle Aufforderungen und Einladungen von EIKE an Fachvertreter des poltischen Mainstreams beispielsweise, sich doch bitte einer öffentlichen Diskussionen mit anderen Meinungen zu stellen, wurden nicht einmal einer Antwort für Wert befunden. Ein wenig besser stellt sich allenfalls die Situation bei der Energiewende dar. Der Bürger (infolge steigender Stromkosten) und die energieintensive Industrie (infolge zunehmend einschneidender, gesetzlich erzwungener Energiesparmaßnahmen) bekommen es nämlich hautnah zu spüren. Nicht nur in qualitativ guten Medien ist daher bereits deutliche Kritik zu vernehmen.

Die Ursachen

Trotz zahlreicher kritischer Beiträge in Internetblogs ist die Informationslage der uninformierten Bevölkerung in allen drei genannten Themenbereichen noch völlig unzureichend. Auf die vielfältigen Ursachen einzugehen verbieten Platzgründe. Immerhin trägt die stetig abnehmende technische Kompetenz und auch das geringe Interesse der Bürger an technischen Zusammenhängen zu dieser Misere maßgeblich bei. Stoffvermittelung und Spaß der Schüler an technischen und naturwissenschaftlichen Fächer in den Schulen nehmen ab, weil gut ausgebildete Fachlehrer inzwischen zu den bedrohten Spezies zählen.

Wer sich die Mühe macht, über Jahre die einschlägigen Pisa-Studien zu verfolgen, erkennt dann auch die Folgen. Wir erleben einen dramatischen Kompetenzverfall deutscher Schüler in Technik, Naturwissenschaften und Mathematik. Entwicklungsländer wie beispielsweise Vietnam oder auch Länder wie Estland haben uns hier schon lange den Rang abgelaufen. Man erkennt es an der zunehmenden Zahl von Spitzenforschern dieser Nationen an US-Universitäten. Die deutschen Kultusminister kümmert dies wenig und die Medien schon gar nicht: Fußball ist hierzulande wichtiger. Deutschland ist zwar immer noch stark in der industriellen Fertigung, die wirklichen Innovationen finden aber zunehmend nicht mehr in unserem Lande statt. Ganz Zukunftsfelder, stellvertretend seien nur die Gentechnik genannt, werden in Deutschland verteufelt. In Deutschland ansässige Weltfirmen wie BASF oder Bayer haben hier schon lange die Konsequenz gezogen und diese Sparten ins Ausland verlegt.

Umso mehr sollte korrektes Informieren des normalgebildeten Bürgers zur Pflichtaufgabe derjenigen zuständigen Fachleute gehören, die noch nicht resigniert und sich mit den Verhältnissen abgefunden haben. Fachlich korrekte Sachinformation wird im Internet zwar angeboten, aber die Spreu vom Weizen zu trennen ist für den Laien schwierig.  EIKE gehört zu den wenigen Institutionen dieses Landes, die bei der Öffentlichkeitsaufklärung über die in Rede stehenden Themen an erster Stelle stehen – zumindest den Besucherzahlen seines Blogs nach. Erreicht wurde hier schon viel, aber noch lange nicht genug. Angesichts dieser misslichen Situation dachten wir über einen neuen Ansatz nach.

Unsere Idee einer Lösung

Unser Ansatz besteht darin, mit dem leicht konsumierbaren „Video“ eine Kost anzubieten, die mit anderer Darreichung wegen der Komplexität des Themas nur schwer verdaulich wäre. Unsere Bemühungen bestehen darin, fachlich einwandfrei aber doch allgemeinverständlich und vor allem unterhaltsam die Hauptlinien unserer drei Themen nachzuzeichnen und verständlich zu machen. Ziel ist es, eine fachlich korrekte Informationsplattform zu bieten. Dem Zuschauer werden die wichtigsten Ergebnisse, Entwicklungen aber auch die vorhandenen Lücken im aktuellen Wissensstand vermittelt. Besondere Wichtigkeit wird der Angabe von Quellen gewidmet. Der Zuschauer des Videos erhält auf diese Weise ein zutreffendes Bild vom aktuellen Stand der Forschung und Entwicklung. Von Meinungen oder nicht objektiven Wertungen sehen wir so weit als möglich ab. Die selbständige Meinungsbildung des Zuschauers steht an erster Stelle.

Mit dem ersten Video, einer Amateurarbeit, die nur unsere Mühe, Zeit und fast keine Kosten in Anspruch nahm, ist nun der Anfang gemacht. Wenn es Ihnen gefällt und Sie der Meinung sind, dass es weiterer Verbreitung wert ist, gibt es nur den folgenden Weg: Geben Sie es bitte an so viele Bekannte wie möglich weiter und sprechen Sie dabei genau wieder diese gleiche Bitte aus. Wichtig wäre insbesondere die Weitergabe über Facebook, falls die betreffenden Weitergeber dieses Medium benutzen.

Wem der Youtube Link nicht ausreicht und das Video gerne auf dem eigenen Rechner abspeichern oder es per CD verschenken oder verschicken möchte, wird die Möglichkeit geboten, es per Dropbox für sich herunterzuladen. Hier können Sie es herunterladen – ein bisschen Geduld ist bei 184 MB allerdings angebracht. Die „abgespeckte“ Version für Smart Phones hier. Wir weisen an dieser Stelle auch auf den Video-Kanal von EIKE hin, den Sie auf der Hauptseite, rechte Spalte unter „Kategoien – Videos“ finden. An diesem Youtube – Kanal wird noch gearbeitet (Erstellung einer übersichtlichen Struktur), was wegen der wichtigeren Umstellungsarbeiten von TYPO3 auf WORDPRESS und begrenzter manpower nicht von Anfang an möglich war.

Wir danken abschließend den zahlreichen Kollegen, die mit ihren Veröffentlichungen, Vorträgen, Kritiken und Vorschlägen direkt und indirekt am Gelingen der Videos beigetragen haben und auch weiterhin an den Folgevideos mitwirken. Da wir aus Platzgründen nicht alle Helfer nennen können, beschränken wir uns auf

Dipl.-Ing. Michael Limburg, Dipl.-Meteorologe Klaus Puls, Prof. Dr. Carl Otto Weiss, Prof. Dr. Friedrich-Karl Ewert, Dr. Siegried Dittrich, Dr. Dietmar Ufer, Dr. Rainer Link, Dr. Ing. Andreas Geisenheiner, Dipl.-Ing. Michael Principato, Dr. Götz Ruprecht und Dr. Armin Huke

Die Autoren und Hersteller der Videos

Prof. Dr. Horst-Joachim Lüdecke                                                                                           Dipl.-Ing. Klaus Maier




Das Gute, das Schlechte und die Null-Hypothese

*CAGW = katastrophale anthropogene globale Erwärmung.

**„Strohmann-Trugschluss“: Eine gute Erklärung dazu gibt es hier.

Dies ist gleichbedeutend mit der Argumentation, dass man Konvektion widerlegen muss, um die Plattentektonik zu falsifizieren, oder die Genetik, um die Evolution zu falsifizieren. Plattentektonik und Evolution sind äußerst haltbare wissenschaftliche Theorien, welche auf einer Kombination empirischer und korrelativer Beweise beruhen. Keine der beiden Theorien kann direkt getestet werden mittels eines kontrollierten Experimentes. Allerdings sind beide Theorien mit Jahrzehnte langen Beobachtungen überprüft worden. Nachfolgende Beobachtungen haben diese Theorien voll und ganz bestätigt.

Anmerkung: Ich werde mich hier nicht in Debatten ergehen über die Validität der wissenschaftlichen Theorien der Plattentektonik oder der Evolution!

Die Macht derartiger wissenschaftlicher Theorien wird demonstriert durch ihre Vorhersagbarkeit: Theorien sind Vorhersagen zukünftiger Beobachtungen. Darum ist eine robuste wissenschaftliche Theorie sogar noch stärker als Fakten (lies Messungen/Beobachtungen).

CAGW ist ein ähnlicher Typ theoretischer Hypothese. Sie hängt ab von empirischen („guten“) und korrelativen („schlechten“) Beweisen.

Die Guten

Kohlendioxid ist ein so genanntes „Treibhausgas“. Es verlangsamt Strahlungsabkühlung. Hält man alle anderen Faktoren konstant, wird eine steigende atmosphärische CO2-Konzentration zu irgendwie höheren Temperaturen führen. Allerdings sind alle anderen Dinge in der Erd- und Atmosphären-Wissenschaft niemals konstant… Die Atmosphäre ist nicht Luft in einem Gefäß; Verweise auf Arrhenius haben keine Bedeutung.

Abbildung 1: Treibhausgas-Spektren. Quelle. Der atmosphärische CO2-Gehalt ist seit dem 19. Jahrhundert gestiegen.

 

Abbildung 2: Atmosphärischer CO2-Gehalt aus instrumentellen Messungen, Eisbohrkernen aus der Antarktis und Pflanzen-Stomata. Die Menschen sind zumindest für die Hälfte dieses CO2-Anstiegs in der Atmosphäre verantwortlich.

Abbildung 3: Rund 50% des atmosphärischen CO2-Anstiegs seit 1750 ist natürlichen Quellen geschuldet.

Während anthropogene Quellen nur einen winzigen Bruchteil der Gesamtquellen ausmachen, holen wir Kohlenstoff aus der geologischen Abscheidung wieder hervor und führen ihn zurück in den aktiven Kohlenstoff-Zyklus.

[Anmerkung des Übersetzers: Hier habe ich selbst mir Gedanken gemacht, warum der Mensch die Verpflichtung hat, den Kohlenstoff in den aktuellen Kohlenstoff-Kreislauf zurückzuführen!]

Abbildung 4: Kohlenstoffzyklus. Quelle.

Die mittlere Temperatur an der Oberfläche der Erde und in der Troposphäre ist während der letzten 150 Jahre allgemein gestiegen.

Abbildung 5: Temperaturanomalien: BEST (nur Festland), HadCRUT4 & GISTEMP. Satellitendaten der unteren Troposphäre: UAH & RSS.

Atmosphärisches CO2 ist gestiegen, und eine Erwärmung fand statt.

Die Schlechten

Die moderne Erwärmung begann lange vor dem jüngsten Anstieg der atmosphärischen CO2-Konzentration, und vor dem 19. Jahrhundert waren Temperatur und CO2 entkoppelt:

Abbildung 6: Temperatur-Rekonstruktion (Moberg et al. 2005) und Law Dome* CO2 (MacFarling Meure et al. 2006). [*Law Dome = ein antarktischer Eisbohrkern]

Der jüngste Temperaturanstieg ist nicht anomaler als die Mittelalterliche Warmzeit oder die Kleine Eiszeit:

Abbildung 7: Temperatur-Rekonstruktion (Ljungqvist 2010), instrumentelle Temperaturen der Nordhemisphäre (HadCRUT4) und Law Dome CO2 (MacFarling Meure et al. 2006). Temperaturen sind 30-jährige Mittelwerte, um die sich ändernde Klimatologie zu reflektieren.

Während der letzten 2000 Jahre war die Temperatur der Nordhemisphäre drei mal über die natürliche Variabilität hinausgegangen (definiert als zwei Standard-Abweichungen des Mittels vor 1865): 1) der Höhepunkt der Mittelalterlichen Warmzeit, 2) der Tiefpunkt der Kleinen Eiszeit und 3) seit 1998. Menschliche Aktivitäten waren eindeutig nicht der Grund für die ersten beiden Abweichungen. 70% der Erwärmung seit Anfang des 17. Jahrhunderts liegen eindeutig innerhalb der natürlichen Variabilität.

Zwar kann es sein, dass es während der gegenwärtigen Warmphase etwa 0,2°C wärmer ist als zum Höhepunkt der Mittelalterlichen Warmzeit, doch könnte dies auch der unterschiedlichen Auflösung der Proxy-Rekonstruktion und der instrumentellen Daten geschuldet sein:

Abbildung 8: Die instrumentellen Daten zeigen eine höhere Frequenz und eine höhere Amplitude der Temperaturvariationen als die Proxy-Rekonstruktionen:

Die Amplitude der rekonstruierten Temperatur-Variabilität im Zeitmaßstab von Jahrhunderten ist größer als 0,6°C. Diese Rekonstruktion ist die erste, welche eine ausgeprägte Römische Warmzeit der Jahre 1 bis 300 zeigt und die das Temperaturniveau des Zeitraumes 1961 bis 1990 erreicht hatte. Dieser Warmzeit folgte die Kaltzeit des Dark Age der Jahre 300 bis 800. Die Mittelalterliche Warmzeit erkennt man von 800 bis 1300 und die Kleine Eiszeit tritt klar hervor von 1300 bis 1900, gefolgt von einer rapiden Erwärmung im 20. Jahrhundert. Die höchsten Mitteltemperaturen in der Rekonstruktion trifft man von Anfang bis Mitte des 10. Jahrhunderts an, die niedrigsten Mitteltemperaturen Ende des 17. Jahrhunderts. Dekadische Mitteltemperaturen scheinen das mittlere Temperaturniveau der Jahre 1961 bis 1990 erreicht oder überschritten zu haben während längerer Zeiträume der Römischen und der Mittelalterlichen Warmzeit. Die Temperatur der letzten beiden Jahrzehnte jedoch ist möglicherweise höher als zu irgendeiner Zeit der letzten beiden Jahrtausende, obwohl dies nur aus den instrumentellen Temperaturdaten hervorgeht und nicht aus der Multi-Proxy-Rekonstruktion selbst.

(…)

Die Proxy-Rekonstruktion selbst zeigt eine solche beispiellose Erwärmung nicht, aber dabei muss man berücksichtigen, dass nur wenige bei der Rekonstruktion verwendete Aufzeichnungen bis in die neunziger Jahre des vorigen Jahrhunderts reichen. Nichtsdestotrotz muss man das Wärmeniveau seit dem Jahr 1990 im Vergleich zu den Höhepunkten der Römischen bzw. der Mittelalterlichen Warmzeit auf jeden Fall sehr vorsichtig interpretieren.

(…)

Die hier rekonstruierte Amplitude der Temperatur-Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten sollte man als das mutmaßliche Minimum der wahren Variabilität jener Zeitmaßstäbe betrachten.

(…)

Ljungqvist, 2010

Abbildung 9: Ljungqist zeigt, dass die Erwärmung der Gegenwart nicht eindeutig über die Bandbreite der natürlichen Variabilität hinausgeht. Die dick schwarz gestrichelte Linie sind die Instrumentenaufzeichnungen. Ich habe die roten Linien hinzugefügt, um die Fehlerbandbreite hervorzuheben.

Das Klima im Holozän war gekennzeichnet durch einen grob Jahrtausende langen Zyklus von Erwärmung und Abkühlung (all jenen, die das Wort „Zyklus“ nicht mögen, lesen bitte statt dessen „quasi-periodische Fluktuation“):

Abbildung 10: Ein Jahrtausend-Zyklus zeigt sich in der Rekonstruktion von Ljungqist

Abbildung 11: Der Tausend-Jahre-Zyklus tritt auch in der Rekonstruktion von Moberg hervor:

Diese Zyklen haben sogar Nahmen:

Abbildung 12: Klimazyklen zum Ende des Holozäns (quasi-periodische Fluktuationen).

Schon lange wurden diese Zyklen von Quaternary-Geologen erkannt (Abbildung 13):

Abbildung 13: Eine Fourier-Analyse des Eisbohrkerns GISP2 zeigt klar, dass der Klimazyklus im Jahrtausend-Maßstab das dominante Signal im Holozän ist (Davis &Bohling 2001):

 

Abbildung 14: Das Klima des Holozäns wurde dominiert von einem Klimazyklus im Jahrtausend-Maßstab.

Das Klima der industriellen Ära hat sich in keiner Weise verändert, die nicht zum gut belegten Jahrtausend-Zyklus passt. Unter der Annahme, dass die Erkenntnisse bzgl. CO2 in dem Eisbohrkern zuverlässig sind, hatte der gegenwärtige CO2-Anstieg kaum einen Einfluss auf das Klima, falls überhaupt irgendeinen.

Die Null-Hypothese

Was ist eine ,Null-Hypothese‘?

Eine Null-Hypothese ist ein in der Statistik angewendeter Typ von Hypothese, der davon ausgeht, dass bei einem Satz gegebener Beobachtungen keine statistische Signifikanz vorhanden ist. Die Null-Hypothese versucht zu zeigen, dass es zwischen Variablen keine Variation gibt oder dass eine Einzel-Variable sich nicht von seinem Mittelwert unterscheidet. Sie setzt voraus zu stimmen, bis statistische Beweise auftauchen, die sie ungültig machen zugunsten einer alternativen Hypothese.

Mehr: Null Hypothese http://www.investopedia.com/terms/n/null_hypothesis.asp#ixzz4eWXO8w00

Da es unmöglich ist, mit dem Klima der Erde ein kontrolliertes Experiment durchzuführen (gibt es doch keinen Kontroll-Planeten), ist die einzige Möglichkeit des „Tests“ der CAGW-Hypothese mittels Modellen. Falls die CAGW-Hypothese stimmt, sollten die Modelle Vorhersage-Fähigkeiten zeigen. Daran sind die Modelle grandios gescheitert:

Abbildung 15: „95% aller Modelle stimmen überein: Die Beobachtungen müssen falsch sein!“ Quelle

Abbildung 16: „Klima-Modelle versus Klima-Realität“: Michaels & Knappenberger. Quelle.

Die Modelle haben versagt, weil sie von einer Klimasensitivität ausgehen, die zwei bis drei mal höher ist als aus Beobachtungen hervorgeht:

Abbildung 17: Gleichgewichts-Klimasensitivität: Realität vs. Modelle. Quelle

Von Hansen 1988 über jeden IPCC-Zustandsbericht folgten die gemessenen Temperaturen konsistent den starken Abschwächungs-Szenarien, welchen zufolge der atmosphärische CO2-Anstieg verlangsamt und/oder angehalten wurde.

Abseits der starken El Niño-Ereignisse der Jahre 1998 sowie 2015-16 folgte GISTEMP dem Szenario C, nach welchem das CO2-Niveau ab dem Jahr 2000 nicht mehr gestiegen ist und bei 368 ppm verharrt.

Abbildung 18: Hansens Modell aus dem Jahr 1988 und GISTEMP.

Das völlige Scheitern dieses Modells tritt am klarsten hervor aus dem klimarelevanteren gleitenden 5-Jahre-Mittel:

Abbildung 19: Hansens Modell 1988 und GISTEMP, gleitendes Mittel über 5 Jahre. Aus dem Ersten IPCC.Zustandsbericht:

 

Abbildung 20: Aus dem Ersten Zustandsbericht des IPCC (FAR). Modell vs. HadCRUT4.

HadCRUt4 lag unter Szenario D.

Abbildung 21: Szenarien aus IPCC-FAR.

Im Dritten Zustandsbericht (TAR) finden wir:

Abbildung 22: IPCC-Modell aus TAR vs. HadCRUT4.

HadCRUT4 folgte den starken Abschwächungs-Szenarien trotz eines allgemeinen Fehlens von Abschwächung.

Die Klimamodelle haben niemals irgendeine Vorhersage-Fähigkeit an den Tag gelegt.

Und die Modelle werden nicht besser. Selbst wenn man den Modelllauf im Jahre 2006 beginnen lässt, liegen die gemessenen Temperaturen permanent beim oder unter dem unteren Ende der Bandbreite 5% bis 95%. Die gemessenen Temperaturen kamen dem Modell-Mittel (P50) nur während der Jahre 2006, 2015 und 2016 nahe.

Abbildung 23: Climate Lab Book. Vergleich CMIP5 mit Beobachtungen.

Das Ensemble besteht aus 135 Modellläufen, welche eine Reihe von repräsentativen Konzentrations-Verläufen anwenden (RCP). Sie reichen vom Worst-Case-Scenario RCP5, oftmals als „Business as Usual“ bezeichnet, bis zu variierenden Graden von Abschwächungs-Szenarien (RCP 2.6, 4.5 und 6.0).

Abbildung 24: Abbildung 23 mit individuellen Modelläufen. Quelle.

Wenn wir Löcher bohren, berechnen wir Wahrscheinlichkeiten, um die Öl- und Gasreserven zu schätzen, falls sich die Bohrung als erfolgreich erweist. Der Input für die Modelle besteht aus einer Bandbreite von Schätzungen der Dicke des Reservoirs sowie aus Gebiets- und petrophysikalischen Charakteristiken. Der Modelloutput enthält eine Wahrscheinlichkeits-Verteilung von P10 bis P90.

P10 = Maximum-Fall. Es gibt eine Wahrscheinlichkeit von 10%, dass das Loch mindestens so viel Öl und/oder Gas ergibt.

P50 = Mittlerer Fall. Es gibt eine Wahrscheinlichkeit von 50%, dass wir mindestens so viel Öl und/oder Gas erzeugen. Mögliche Reserven sind >P50.

P90 = Minimum-Fall. Es gibt eine Wahrscheinlichkeit von 90%, dass das Loch mindestens diese Menge Öl und/oder Gas erbringen wird. Nachgewiesene Reserven sind P90.

Mit der Zeit sollte ein Bohrprogramm nahe P50 liegen. Falls die Bohr-Ergebnisse nahe P10 oder P90 liegen, hat das Modell ernsthaft versagt.

Falls das CMIP5-Modellensemble Vorhersagefähigkeiten besäße, sollten die Beobachtungen um P50 liegen, d. h. die Hälfte aller Modelle sollte mehr und die andere Hälfte weniger Erwärmung prophezeien als tatsächlich beobachtet. Während des Vorhersage-Laufes des Modells lag HadCRUT4.5 nicht einmal ansatzweise irgendwo nahe P50…

Abbildung 25: Hervorhebung einer Modelllauf-Periode mit kommentierten Wahrscheinlichkeits-Verteilungen.

Ich habe die instrumentellen Messungen „beleuchtet“, um eine Wahrscheinlichkeits-Verteilung der Vorhersagefähigkeit des Modelllaufes zu schätzen.

Prediction Run Approximate Distribution

2006 P60 (60% der Modelle prophezeiten eine höhere Temperatur)
2007 P75
2008 P95
2009 P80
2010 P70
2011-2013 >P95
2014 P90
2015-2016 P55

Man beachte, dass die Messungen während des El Niño von 1998-99 einen Spitzenwert über P05 erreichten (weniger als 5% der Modelle hatten dies prophezeit). Während des El Niño 2015-16 erreichte HadCRUT4 nur einen Spitzenwert bei P55. El Niño-Ereignisse sind keine P50-Bedingungen. Starke El Niño- und La Niña-Ereignisse sollten Spitzenwerte bei den P05 und P95-Grenzen erreichen.

Die Temperaturmessungen folgen eindeutig viel eher den starken Abschwächungs-Szenarien als dem RCP 8.5, dem simulierten „Business as Usual“-Szenario.

Das rot schraffierte Trapez zeigt, dass HadCRUT4.5 weiterhin zwischen weniger als P100 und P50 verlaufen wird. Dies ist ein Hinweis auf ein erhebliches Scheitern der Modelle und ein ziemlich aufschlussreicher Hinweis darauf, dass die Modelle nach unten adjustiert werden müssen.

In jedem anderen Bereich der Wissenschaft wäre CAGW eine schon lange ausgesonderte, falsifizierte Hypothese.

Schlussfolgerungen

Behauptungen, denen zufolge AGW oder CAGW eine Ausnahme vom Prinzip der Null-Hypothese darstellen, sind offenkundig lächerlich:

In der Wissenschaft eine breite natürliche Erklärung einer großen Bandbreite von Phänomenen. Theorien sind prägnant, kohärent, systematisch, vorausschauend und breit anwendbar. Oftmals integrieren und generalisieren sie viele Hypothesen. Theorien, welche von der wissenschaftlichen Gemeinschaft akzeptiert sind, werden generell durch viele unterschiedliche Beweislinien gestützt – aber selbst Theorien können modifiziert oder widerlegt werden durch neue Beweise und Perspektiven. – UC Berkeley

Dies ist keine wissenschaftliche Hypothese: mehr CO2 verursacht Erwärmung. Es ist Schaumschlägerei.

Das hier ist eine wissenschaftliche Hypothese:

Eine Verdoppelung des atmosphärischen CO2-Gehaltes wird die untere Troposphäre sich um ___°C erwärmen lassen.

Über 30 Jahre lang gescheiterte Klimamodelle waren niemals in der Lage, die Lücke zu füllen. Im 5. IPCC-Zustandsbericht wurde essentiell festgestellt, dass das Füllen der Lücke nicht mehr erforderlich war.

Während es recht wahrscheinlich ist, dass menschliche Aktivitäten zumindest teilweise während der letzten 150 Jahre ursächlich für einen Anteil der Erwärmung waren, gibt es dafür keine robuste statistische Korrelation. Das Scheitern der Klimamodelle zeigt eindeutig, dass die Null-Hypothese immer noch auch für atmosphärisches CO2 und Temperatur gilt.

Selected References

Davis, J. C., and G. C. Bohling, The search for patterns in ice-core temperature curves, 2001, in L. C. Gerhard, W. E. Harrison, and B. M. Hanson, eds., Geological perspectives of global climate change, p. 213–229.

Finsinger, W. and F. Wagner-Cremer. Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach. The Holocene 19,5 (2009) pp. 757–764

Grosjean, M., Suter, P. J., Trachsel, M. and Wanner, H. 2007. Ice-borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations. J. Quaternary Sci.,Vol. 22 pp. 203–207. ISSN 0267-8179.

Hansen, J., I. Fung, A. Lacis, D. Rind, Lebedeff, R. Ruedy, G. Russell, and P. Stone, 1988: Global climate changes as forecast by Goddard Institute for Space Studies three-dimensional model. J. Geophys. Res., 93, 9341-9364, doi:10.1029/88JD00231.

Kouwenberg, LLR, Wagner F, Kurschner WM, Visscher H (2005) Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsuga heterophylla needles. Geology 33:33–36

Ljungqvist, F.C. 2009. N. Hemisphere Extra-Tropics 2,000yr Decadal Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2010-089. NOAA/NCDC Paleoclimatology Program, Boulder CO, USA.

Ljungqvist, F.C. 2010. A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

MacFarling Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins. 2006. The Law Dome CO2, CH4 and N2O Ice Core Records Extended to 2000 years BP. Geophysical Research Letters, Vol. 33, No. 14, L14810 10.1029/2006GL026152.

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005. Highly variable Northern Hemisphere temperatures reconstructed from low-and high-resolution proxy data. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Instrumental Temperature Data from Hadley Centre / UEA CRU, NASA Goddard Institute for Space Studies and Berkeley Earth Surface Temperature Project via Wood for Trees.

Link: https://wattsupwiththat.com/2017/04/17/the-good-the-bad-and-the-null-hypothesis/

Übersetzt von Chris Frey EIKE




Fahrverbot für Diesel?

So oft, dass sich der baden-württembergische Verkehrsminister Franz Untersteller (der Partei der Grünen angehörend) zu der Drohung veranlasst sah, dass er bei Fortbestehen dieser Situation die Stuttgarter Innenstadt demnächst für ältere Dieselfahrzeuge- ohne blaue Euro 6 Plakette – sperren werde. Nach derzeitigem Stand wären  von den 113.000 Dieselautos in Stuttgart nicht weniger als 93.000 von einem Fahrverbot betroffen! (Unterstellers Chef, der Ministerpräsident Winfried Kretschmann, denkt jedoch wegen der heftigen Reaktionen bereits über eine Rücknahme dieser Ankündigung nach.)

Neben dem Stickoxid stehen auch die Feinstaubemissionen der meist betagten Diesel-PKW am Pranger. Der Dieselruß und die Dieselpartikel sind schon lange ein Feindbild der Lungenärzte und der Beatmungsmediziner. Aber beim Staub gibt es noch viele andere Quellen, beispielsweise den Reifenabrieb aller Autotypen und insbesondere die Holzöfen der Bürger bis hin zu den „Komfort“- Kaminen. Von letzteren soll es in Stuttgart mehr als 20.000 Anlagen geben, welche die Romantikgefühle ihrer Besitzer beflügeln. Weil diese nicht so ohne weiteres zu sanktionieren sind, beschränken sich die Behörden beim Feinstaub vorläufig auf Fahrverbote für die Autobesitzer. Ist einfacher.

Das Stickstoffdioxid: ein altbekanntes Problem

Stickoxide gelangen aus Dieselfahrzeugen vor allem in Form von Stickstoffmonoxid (NO) in die Atmosphäre, wo sie mit Sauerstoff zum giftigen Stickstoffdioxid (NO2) reagieren. Dieses ätzende Reizgas kann Atemnot, Kopfweh und Herzbeschwerden auslösen. Bereits 1999 führte die Europäische Union (EU) dafür Grenzwerte ein, inklusive langer Übergangszeiten. 240 verkehrsnahe Messstellen wurden deshalb in Deutschland eingerichtet. Sie beweisen, dass die Dieselfahrzeuge mit 67 Prozent am gesamten NO2-Austoß beteiligt sind, die Benziner nur mit 4 Prozent. An den Hauptverkehrsstraßen, z. B. am Stuttgarter Neckartor, werden seit fast 20 Jahren die NO2-Grenzwerte drastisch überschritten. Geschehen ist dort seitdem nur wenig.

Inzwischen klagen die Bürger nicht nur verbal, sondern zunehmend vor den zuständigen Verwaltungsgerichten. Das Bayerische Verwaltungsgericht verlangte bis Ende des Jahres 2017 für München von den Behörden entsprechende Fahrverbote, falls andere Maßnahmen nicht wirken. Die Städte stehen vor einem Dilemma: auf der einen Seite gilt das Recht der Bürger auf saubere Luft, auf der anderen Seite gibt es die Ansprüche der modernen mobilen Gesellschaft mit Pendlern, Gewerbe und Besuchern. Die Hauptschuld an dieser Situation trägt jedoch die (hohe) Politik: sie hat die Brüsseler Richtlinien jahrelang praktisch negiert und nicht in entsprechende Gesetze umgewandelt. Gleichermaßen zu kritisieren sind die Autohersteller: sie haben ihre Dieselmotoren technisch nicht gesetzesgemäß ausgestattet. Inzwischen wird eine neue Norm, dargestellt durch die E 6-Plakette, propagiert, mit der jeder Dieselbetreiber sein Fahrzeug angeblich überall gesetzeskonform nutzen kann. Jedenfalls nach den Behauptungen des Verbands der Deutschen Automobilindustrie.

Das wird vom Automobilclub ADAC aber bereits bestritten. Seine Messungen (bei Straßenbetrieb!) beweisen, dass gut ein Drittel der Diesel-PKW, welche mit der bereits seit Jahren bestehenden E 5-Plakette ausgestattet sind, im realen Straßenverkehr besser sind als das schlechteste Drittel der zukünftigen E 6-Norm. Beispiel: der Volvo V 40 mit E 5-Plakette stieß bei ADAC-Messungen 12o Milligramm pro Kilometer aus, der Volvo S 60 mit E 6-Plakette dagegen satte 1167 mg/km! Letzterer dürfte also in Stuttgart das Neckartor durchfahren, der weitaus sauberere V 4o hingegen nicht. Die Experten des ADAC erwarten, dass erst mit der im Straßenverkehr überprüften E 6-Norm die Kunden hinreichend sicher sein können, dass sie ihr neues Fahrzeug überall benutzen dürfen. Diese Dieselkategorie wird jedoch in den meisten Fällen erst im Herbst bei den Händlern stehen.

Fazit: Bis dahin müssen die Dieselnutzer Fahrverbote oder City-Maut (wie in Köln) fürchten. Außerdem droht ihnen auf jedem Fall ein hoher Wertverlust ihres Fahrzeugs beim Wiederverkauf. Das Aussperren von knapp 13 Millionen Diesel-Autos in der City wirkt sich wie eine kalte Enteignung aus. Für die Automobilindustrie ist es gleichzeitig ein gigantisches Konjunkturprogramm.

Das Feinstaubproblem: dem Autofahrer zugeschoben

Eine andere Sau wird seit Jahren mit dem Feinstaubproblem (PM10) durchs Dorf getrieben. Feinste Staubteilchen mit einem Durchmesser bis zu 10 Mikrometer können bis in die Lungenbläschen vordringen. Dort lagern sie sich ab und rufen Entzündungen hervor, bzw. erhöhen das Risiko für einen Herzinfarkt. Noch in den 70er Jahren lagen in Deutschland ganze Regionen unter einer Smog-Wolke, wie heute noch Peking oder Schanghai in China. Hierzulande ist das Feinstaubproblem  inzwischen drastisch gesunken. Das liegt vor allem an den Partikelfiltern, die mit Einführung der E 4-Norm in die Dieselautos eingebaut sind.

Im Stuttgarter Talkessel jedoch, wo sich der Feinstaub bei Inversionswetterlagen sammelt, werden diese Grenzwerte weiterhin alljährlich überschritten. Die Stadtverwaltung setzt nun um, was die Landesregierung unter Ministerpräsident Winfried Kretschmann Anfang 2017 beschlossen hat: sie verhängt Fahrverbote für alle Diesel-PKW, welche die neueste Abgasnorm E 6 nicht erfüllen. Zehntausende Autofahrer müssen, nach Abschätzungen des ADAC ,vor den Toren der Stadt bleiben. Sogar all jene, die sich noch 2015 einen Neuwagen mit der Norm E 5 zugelegt haben.

Inzwischen ist wohl bekannt, dass Feinstaub nicht nur in KFZ-Motoren, sondern auch in Industrieanlagen, wie Kraftwerken, und vor allem in den kaum zur Gänze überprüfbaren Holzöfen vieler Bürger entstehen. Aber auch durch den Abrieb an Reifen und Bremsen der Autos, wie oben bereits erwähnt. Deshalb hat ein anderer Grüner, der Stuttgarter OB Fritz Kuhn, eine neue Variante der „Schwäbischen Kehrwoche“ angekündigt: spezielle Kehrfahrzeuge durchfahren nun die Stuttgarter Innenstadt und kehren maschinell den dort abgelagerten Feinstaub (samt Dreck) auf. Offensichtlich mit Erfolg, denn der Stadtrat hat bereits eine Ausschreibung zur Beschaffung weiterer Kehrmaschinen veranlasst.

Das Ende des Diesels?

Die anhaltende Diskussion über die Zukunft des Dieselmotors sorgt bereits für sinkende Verkaufszahlen. Die Deutschen kaufen wieder mehr Autos mit Benzinmotoren. Im März sind die Neuzulassungen für Dieselneuwagen um fast 3 Prozent gegenüber dem Vorjahresmonat gefallen. Der Dieselanteil liegt damit nur noch bei 40 Prozent, früher waren es fast 50 %. Die Experten erwarten, dass die Verkaufszahlen für Diesel weiter zurück gehen werden, u. a. wegen der strengen Abgasvorschriften , welche die Fahrzeuge verteuern werden.

Das Problem mit den Millionen alter Dieselmodelle der Abgasnormen E 4 und E 5 wird jedoch bleiben. Ihre Besitzer werden happige Wertverluste erleiden, denn die eventuelle Nachrüstung mit Motoren der Klasse E 6 wäre viel zu teuer. Ein Abgesang auf den Dieselantrieb kommt jedoch noch zu früh: denn noch trägt der Dieselmotor wegen seiner Sparsamkeit viel zur Einhaltung der Grenzwerte beim Kohlendioxid bei.

Einigen Trost findet die verunsicherte Dieselgemeinde einstweilen bei der Bundeskanzlerin Angela Merkel. Beim saarländischen Wahlkampf in St. Wendel hat sie den Diesel wie folgt gelobt:
Wenn ihr ein Dieselauto kauft, dann kauft ihr ein Auto, das umweltfreundlich ist. Für den Klimaschutz ist das Dieselauto heute ein genauso gutes Auto, wie es gestern und vorgestern war“

Die Kanzlerin muss es wissen. Sie fährt Diesel – neben Benzinern.




Update zu: Trumps Team – die unterschätzte Macht; eine Lektion für Deutschland“

Auszug aus den Bemerkungen zum Kabinett von Obama:

Sehr auffallend ist, dass Obama zwei politisch wichtige Positionen nicht mit ausgewiesenen Fachleuten, sondern mit Aktivistinnen besetzt hat. In einem Fall (G. McCarthy) verfügte die Amtschefin ausschließlich über Verwaltungserfahrung und wurde als Umwelt-Extremistin angegriffen. Im zweiten Fall (M. Smith) verfügte die Technologieberaterin des Präsidenten ganz offensichtlich gleichfalls nicht über ein breites Wissen und über ausreichende Erfahrungen zu ihrem Aufgabenbereich.

Wie deren Beratung ausgesehen haben mag, kann man sich anhand der Biografie annähernd vorstellen.
An diesen Personalentscheidungen wird deutlich, dass Präsident Obama zu diesen Themen vorgefasste Meinungen hatte, für deren Umsetzung er willfährige Vollstrecker einstellte, die von vornherein seine Meinung teilten und keine Schwierigkeiten machten. Wozu das nötig war, zeigte sich bei der Prüfung der EPA-Aktivitäten und der von dieser Behörde angewendeten Methoden durch Journalisten; insbesondere durch Steven J. Milloy, der die Website „JunkScience.com“ (Müll-Wissenschaft) betreibt und die EPA zwei Dekaden lang beobachtete. Er brachte Ende 2016 ein neues Buch heraus: „Scare Pollution: Why and how to Fix the EPA“, siehe Lit.1. sowie ein Kommentar in Lit.2.

  1. e) Die in den deutschen Medien völlig ausgeblendeten, also redaktionell zensierten Ziele von Barack Obama waren der Grund für seine 8 Jahre andauernde spezielle Nutzung der EPA als Vollzugsinstrument für massive Eingriffe vor allem in die Wirtschaft, die er im Kongress trotz seiner Mehrheit der Demokraten nicht durchbringen konnte.
    Diese Ziele waren:
    Obamas „War on Coal“ (Krieg gegen die Kohle)
    2. Obamas Kampf gegen den angeblich vom Menschen verursachten Klimawandel.Die EPA ist eine extrem mächtige Bundesagentur – ohne den eigentlich zu ihrer Kontrolle nötigen Kabinettsrang. Sie war bereits 1991 auf unglaubliche 16.000 Mitarbeiter angewachsen; ihr Jahresbudget beträgt ebenso unglaubliche 8,3 Milliarden Dollar. Sie benutzt dieses Steuergeld, um „ihre Freunde und Alliierten zu finanzieren, die sich als politische Aktivisten und „politische „ Wissenschaftler erwiesen haben“ und die für die EPA-Pläne die verlangten wissenschaftlichen Begründungen liefern (Lit.1).
    Die EPA nutzt ihre Macht und die bisherige präsidiale Unterstützung, um im Sinne der beiden Obama-Ziele einen politischen Feldzug gegen große Teile der US-Industrie zu führen, der längst nicht mehr allein die Kohleindustrie zum Ziel hat. Die ist schließlich durch diese Umweltagentur schon erfolgreich zerstört worden: Tausende von Jobs gingen in der Kohleindustrie verloren; weitere Zehntausende bei den Zulieferern. Arbeitslosigkeit und Steuereinbußen in den vormals wohlhabenden Kommunen waren die Folge. Jetzt zielt die EPA auf Öl, Erdgas, Produktionen, Wälder, Papier, LKW’s und weitere.

EPA’s wichtigste Waffe ist heute die Angsterzeugung vor Ruß und Feinstaub (in den USA mit PM2,5) bezeichnet, die aufgrund äußerst dubioser „wissenschaftlicher“ Erkenntnisse 570.000 Amerikaner jährlich umbringen.

EPA-geförderte Wissenschaftler haben dazu unethische Menschenversuche (z.B. mit Dieselabgasen an Kindern) durchgeführt, um ihre Horrorprognosen zu stützen. Steve Milloy, der die EPA und ihre Methoden seit 20 Jahren kritisch beobachtet, resümiert: „Ich kenne keine Agentur, die der US-Wirtschaft mehr grundlosen Schaden zugefügt hat, als die EPA – alles auf Grund von Junk Science (Anm.: Bezeichnung für eine ethisch herunter gekommene, unseriöse Gefälligkeits-„Wissenschaft“), wenn nicht sogar durch offenen wissenschaftlichen Betrug“(1)

 

Literatur:
1. Steven J. Milloy: „Scare Pollution: Why and How to Fix the EPA“, 2016, Bench Press, ISBN 978-0-9982597-1-0
2. Julie Kelly : “Meltdown at the EPA”, 31.Jan. 2017;
http://www.nationalreview.com/article/444415/epa-meltdown-reform-junk-science-agency-causes-freakout