Das Gute, das Schlechte und die Null-Hypothese

*CAGW = katastrophale anthropogene globale Erwärmung.

**„Strohmann-Trugschluss“: Eine gute Erklärung dazu gibt es hier.

Dies ist gleichbedeutend mit der Argumentation, dass man Konvektion widerlegen muss, um die Plattentektonik zu falsifizieren, oder die Genetik, um die Evolution zu falsifizieren. Plattentektonik und Evolution sind äußerst haltbare wissenschaftliche Theorien, welche auf einer Kombination empirischer und korrelativer Beweise beruhen. Keine der beiden Theorien kann direkt getestet werden mittels eines kontrollierten Experimentes. Allerdings sind beide Theorien mit Jahrzehnte langen Beobachtungen überprüft worden. Nachfolgende Beobachtungen haben diese Theorien voll und ganz bestätigt.

Anmerkung: Ich werde mich hier nicht in Debatten ergehen über die Validität der wissenschaftlichen Theorien der Plattentektonik oder der Evolution!

Die Macht derartiger wissenschaftlicher Theorien wird demonstriert durch ihre Vorhersagbarkeit: Theorien sind Vorhersagen zukünftiger Beobachtungen. Darum ist eine robuste wissenschaftliche Theorie sogar noch stärker als Fakten (lies Messungen/Beobachtungen).

CAGW ist ein ähnlicher Typ theoretischer Hypothese. Sie hängt ab von empirischen („guten“) und korrelativen („schlechten“) Beweisen.

Die Guten

Kohlendioxid ist ein so genanntes „Treibhausgas“. Es verlangsamt Strahlungsabkühlung. Hält man alle anderen Faktoren konstant, wird eine steigende atmosphärische CO2-Konzentration zu irgendwie höheren Temperaturen führen. Allerdings sind alle anderen Dinge in der Erd- und Atmosphären-Wissenschaft niemals konstant… Die Atmosphäre ist nicht Luft in einem Gefäß; Verweise auf Arrhenius haben keine Bedeutung.

Abbildung 1: Treibhausgas-Spektren. Quelle. Der atmosphärische CO2-Gehalt ist seit dem 19. Jahrhundert gestiegen.

 

Abbildung 2: Atmosphärischer CO2-Gehalt aus instrumentellen Messungen, Eisbohrkernen aus der Antarktis und Pflanzen-Stomata. Die Menschen sind zumindest für die Hälfte dieses CO2-Anstiegs in der Atmosphäre verantwortlich.

Abbildung 3: Rund 50% des atmosphärischen CO2-Anstiegs seit 1750 ist natürlichen Quellen geschuldet.

Während anthropogene Quellen nur einen winzigen Bruchteil der Gesamtquellen ausmachen, holen wir Kohlenstoff aus der geologischen Abscheidung wieder hervor und führen ihn zurück in den aktiven Kohlenstoff-Zyklus.

[Anmerkung des Übersetzers: Hier habe ich selbst mir Gedanken gemacht, warum der Mensch die Verpflichtung hat, den Kohlenstoff in den aktuellen Kohlenstoff-Kreislauf zurückzuführen!]

Abbildung 4: Kohlenstoffzyklus. Quelle.

Die mittlere Temperatur an der Oberfläche der Erde und in der Troposphäre ist während der letzten 150 Jahre allgemein gestiegen.

Abbildung 5: Temperaturanomalien: BEST (nur Festland), HadCRUT4 & GISTEMP. Satellitendaten der unteren Troposphäre: UAH & RSS.

Atmosphärisches CO2 ist gestiegen, und eine Erwärmung fand statt.

Die Schlechten

Die moderne Erwärmung begann lange vor dem jüngsten Anstieg der atmosphärischen CO2-Konzentration, und vor dem 19. Jahrhundert waren Temperatur und CO2 entkoppelt:

Abbildung 6: Temperatur-Rekonstruktion (Moberg et al. 2005) und Law Dome* CO2 (MacFarling Meure et al. 2006). [*Law Dome = ein antarktischer Eisbohrkern]

Der jüngste Temperaturanstieg ist nicht anomaler als die Mittelalterliche Warmzeit oder die Kleine Eiszeit:

Abbildung 7: Temperatur-Rekonstruktion (Ljungqvist 2010), instrumentelle Temperaturen der Nordhemisphäre (HadCRUT4) und Law Dome CO2 (MacFarling Meure et al. 2006). Temperaturen sind 30-jährige Mittelwerte, um die sich ändernde Klimatologie zu reflektieren.

Während der letzten 2000 Jahre war die Temperatur der Nordhemisphäre drei mal über die natürliche Variabilität hinausgegangen (definiert als zwei Standard-Abweichungen des Mittels vor 1865): 1) der Höhepunkt der Mittelalterlichen Warmzeit, 2) der Tiefpunkt der Kleinen Eiszeit und 3) seit 1998. Menschliche Aktivitäten waren eindeutig nicht der Grund für die ersten beiden Abweichungen. 70% der Erwärmung seit Anfang des 17. Jahrhunderts liegen eindeutig innerhalb der natürlichen Variabilität.

Zwar kann es sein, dass es während der gegenwärtigen Warmphase etwa 0,2°C wärmer ist als zum Höhepunkt der Mittelalterlichen Warmzeit, doch könnte dies auch der unterschiedlichen Auflösung der Proxy-Rekonstruktion und der instrumentellen Daten geschuldet sein:

Abbildung 8: Die instrumentellen Daten zeigen eine höhere Frequenz und eine höhere Amplitude der Temperaturvariationen als die Proxy-Rekonstruktionen:

Die Amplitude der rekonstruierten Temperatur-Variabilität im Zeitmaßstab von Jahrhunderten ist größer als 0,6°C. Diese Rekonstruktion ist die erste, welche eine ausgeprägte Römische Warmzeit der Jahre 1 bis 300 zeigt und die das Temperaturniveau des Zeitraumes 1961 bis 1990 erreicht hatte. Dieser Warmzeit folgte die Kaltzeit des Dark Age der Jahre 300 bis 800. Die Mittelalterliche Warmzeit erkennt man von 800 bis 1300 und die Kleine Eiszeit tritt klar hervor von 1300 bis 1900, gefolgt von einer rapiden Erwärmung im 20. Jahrhundert. Die höchsten Mitteltemperaturen in der Rekonstruktion trifft man von Anfang bis Mitte des 10. Jahrhunderts an, die niedrigsten Mitteltemperaturen Ende des 17. Jahrhunderts. Dekadische Mitteltemperaturen scheinen das mittlere Temperaturniveau der Jahre 1961 bis 1990 erreicht oder überschritten zu haben während längerer Zeiträume der Römischen und der Mittelalterlichen Warmzeit. Die Temperatur der letzten beiden Jahrzehnte jedoch ist möglicherweise höher als zu irgendeiner Zeit der letzten beiden Jahrtausende, obwohl dies nur aus den instrumentellen Temperaturdaten hervorgeht und nicht aus der Multi-Proxy-Rekonstruktion selbst.

(…)

Die Proxy-Rekonstruktion selbst zeigt eine solche beispiellose Erwärmung nicht, aber dabei muss man berücksichtigen, dass nur wenige bei der Rekonstruktion verwendete Aufzeichnungen bis in die neunziger Jahre des vorigen Jahrhunderts reichen. Nichtsdestotrotz muss man das Wärmeniveau seit dem Jahr 1990 im Vergleich zu den Höhepunkten der Römischen bzw. der Mittelalterlichen Warmzeit auf jeden Fall sehr vorsichtig interpretieren.

(…)

Die hier rekonstruierte Amplitude der Temperatur-Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten sollte man als das mutmaßliche Minimum der wahren Variabilität jener Zeitmaßstäbe betrachten.

(…)

Ljungqvist, 2010

Abbildung 9: Ljungqist zeigt, dass die Erwärmung der Gegenwart nicht eindeutig über die Bandbreite der natürlichen Variabilität hinausgeht. Die dick schwarz gestrichelte Linie sind die Instrumentenaufzeichnungen. Ich habe die roten Linien hinzugefügt, um die Fehlerbandbreite hervorzuheben.

Das Klima im Holozän war gekennzeichnet durch einen grob Jahrtausende langen Zyklus von Erwärmung und Abkühlung (all jenen, die das Wort „Zyklus“ nicht mögen, lesen bitte statt dessen „quasi-periodische Fluktuation“):

Abbildung 10: Ein Jahrtausend-Zyklus zeigt sich in der Rekonstruktion von Ljungqist

Abbildung 11: Der Tausend-Jahre-Zyklus tritt auch in der Rekonstruktion von Moberg hervor:

Diese Zyklen haben sogar Nahmen:

Abbildung 12: Klimazyklen zum Ende des Holozäns (quasi-periodische Fluktuationen).

Schon lange wurden diese Zyklen von Quaternary-Geologen erkannt (Abbildung 13):

Abbildung 13: Eine Fourier-Analyse des Eisbohrkerns GISP2 zeigt klar, dass der Klimazyklus im Jahrtausend-Maßstab das dominante Signal im Holozän ist (Davis &Bohling 2001):

 

Abbildung 14: Das Klima des Holozäns wurde dominiert von einem Klimazyklus im Jahrtausend-Maßstab.

Das Klima der industriellen Ära hat sich in keiner Weise verändert, die nicht zum gut belegten Jahrtausend-Zyklus passt. Unter der Annahme, dass die Erkenntnisse bzgl. CO2 in dem Eisbohrkern zuverlässig sind, hatte der gegenwärtige CO2-Anstieg kaum einen Einfluss auf das Klima, falls überhaupt irgendeinen.

Die Null-Hypothese

Was ist eine ,Null-Hypothese‘?

Eine Null-Hypothese ist ein in der Statistik angewendeter Typ von Hypothese, der davon ausgeht, dass bei einem Satz gegebener Beobachtungen keine statistische Signifikanz vorhanden ist. Die Null-Hypothese versucht zu zeigen, dass es zwischen Variablen keine Variation gibt oder dass eine Einzel-Variable sich nicht von seinem Mittelwert unterscheidet. Sie setzt voraus zu stimmen, bis statistische Beweise auftauchen, die sie ungültig machen zugunsten einer alternativen Hypothese.

Mehr: Null Hypothese http://www.investopedia.com/terms/n/null_hypothesis.asp#ixzz4eWXO8w00

Da es unmöglich ist, mit dem Klima der Erde ein kontrolliertes Experiment durchzuführen (gibt es doch keinen Kontroll-Planeten), ist die einzige Möglichkeit des „Tests“ der CAGW-Hypothese mittels Modellen. Falls die CAGW-Hypothese stimmt, sollten die Modelle Vorhersage-Fähigkeiten zeigen. Daran sind die Modelle grandios gescheitert:

Abbildung 15: „95% aller Modelle stimmen überein: Die Beobachtungen müssen falsch sein!“ Quelle

Abbildung 16: „Klima-Modelle versus Klima-Realität“: Michaels & Knappenberger. Quelle.

Die Modelle haben versagt, weil sie von einer Klimasensitivität ausgehen, die zwei bis drei mal höher ist als aus Beobachtungen hervorgeht:

Abbildung 17: Gleichgewichts-Klimasensitivität: Realität vs. Modelle. Quelle

Von Hansen 1988 über jeden IPCC-Zustandsbericht folgten die gemessenen Temperaturen konsistent den starken Abschwächungs-Szenarien, welchen zufolge der atmosphärische CO2-Anstieg verlangsamt und/oder angehalten wurde.

Abseits der starken El Niño-Ereignisse der Jahre 1998 sowie 2015-16 folgte GISTEMP dem Szenario C, nach welchem das CO2-Niveau ab dem Jahr 2000 nicht mehr gestiegen ist und bei 368 ppm verharrt.

Abbildung 18: Hansens Modell aus dem Jahr 1988 und GISTEMP.

Das völlige Scheitern dieses Modells tritt am klarsten hervor aus dem klimarelevanteren gleitenden 5-Jahre-Mittel:

Abbildung 19: Hansens Modell 1988 und GISTEMP, gleitendes Mittel über 5 Jahre. Aus dem Ersten IPCC.Zustandsbericht:

 

Abbildung 20: Aus dem Ersten Zustandsbericht des IPCC (FAR). Modell vs. HadCRUT4.

HadCRUt4 lag unter Szenario D.

Abbildung 21: Szenarien aus IPCC-FAR.

Im Dritten Zustandsbericht (TAR) finden wir:

Abbildung 22: IPCC-Modell aus TAR vs. HadCRUT4.

HadCRUT4 folgte den starken Abschwächungs-Szenarien trotz eines allgemeinen Fehlens von Abschwächung.

Die Klimamodelle haben niemals irgendeine Vorhersage-Fähigkeit an den Tag gelegt.

Und die Modelle werden nicht besser. Selbst wenn man den Modelllauf im Jahre 2006 beginnen lässt, liegen die gemessenen Temperaturen permanent beim oder unter dem unteren Ende der Bandbreite 5% bis 95%. Die gemessenen Temperaturen kamen dem Modell-Mittel (P50) nur während der Jahre 2006, 2015 und 2016 nahe.

Abbildung 23: Climate Lab Book. Vergleich CMIP5 mit Beobachtungen.

Das Ensemble besteht aus 135 Modellläufen, welche eine Reihe von repräsentativen Konzentrations-Verläufen anwenden (RCP). Sie reichen vom Worst-Case-Scenario RCP5, oftmals als „Business as Usual“ bezeichnet, bis zu variierenden Graden von Abschwächungs-Szenarien (RCP 2.6, 4.5 und 6.0).

Abbildung 24: Abbildung 23 mit individuellen Modelläufen. Quelle.

Wenn wir Löcher bohren, berechnen wir Wahrscheinlichkeiten, um die Öl- und Gasreserven zu schätzen, falls sich die Bohrung als erfolgreich erweist. Der Input für die Modelle besteht aus einer Bandbreite von Schätzungen der Dicke des Reservoirs sowie aus Gebiets- und petrophysikalischen Charakteristiken. Der Modelloutput enthält eine Wahrscheinlichkeits-Verteilung von P10 bis P90.

P10 = Maximum-Fall. Es gibt eine Wahrscheinlichkeit von 10%, dass das Loch mindestens so viel Öl und/oder Gas ergibt.

P90 = Minimum-Fall. Es gibt eine Wahrscheinlichkeit von 90%, dass das Loch mindestens diese Menge Öl und/oder Gas erbringen wird. Nachgewiesene Reserven sind P90.

Mit der Zeit sollte ein Bohrprogramm nahe P50 liegen. Falls die Bohr-Ergebnisse nahe P10 oder P90 liegen, hat das Modell ernsthaft versagt.

Falls das CMIP5-Modellensemble Vorhersagefähigkeiten besäße, sollten die Beobachtungen um P50 liegen, d. h. die Hälfte aller Modelle sollte mehr und die andere Hälfte weniger Erwärmung prophezeien als tatsächlich beobachtet. Während des Vorhersage-Laufes des Modells lag HadCRUT4.5 nicht einmal ansatzweise irgendwo nahe P50…

Abbildung 25: Hervorhebung einer Modelllauf-Periode mit kommentierten Wahrscheinlichkeits-Verteilungen.

Ich habe die instrumentellen Messungen „beleuchtet“, um eine Wahrscheinlichkeits-Verteilung der Vorhersagefähigkeit des Modelllaufes zu schätzen.

Prediction Run Approximate Distribution

2006 P60 (60% der Modelle prophezeiten eine höhere Temperatur)
2007 P75
2008 P95
2009 P80
2010 P70
2011-2013 >P95
2014 P90
2015-2016 P55

Man beachte, dass die Messungen während des El Niño von 1998-99 einen Spitzenwert über P05 erreichten (weniger als 5% der Modelle hatten dies prophezeit). Während des El Niño 2015-16 erreichte HadCRUT4 nur einen Spitzenwert bei P55. El Niño-Ereignisse sind keine P50-Bedingungen. Starke El Niño- und La Niña-Ereignisse sollten Spitzenwerte bei den P05 und P95-Grenzen erreichen.

Die Temperaturmessungen folgen eindeutig viel eher den starken Abschwächungs-Szenarien als dem RCP 8.5, dem simulierten „Business as Usual“-Szenario.

Das rot schraffierte Trapez zeigt, dass HadCRUT4.5 weiterhin zwischen weniger als P100 und P50 verlaufen wird. Dies ist ein Hinweis auf ein erhebliches Scheitern der Modelle und ein ziemlich aufschlussreicher Hinweis darauf, dass die Modelle nach unten adjustiert werden müssen.

In jedem anderen Bereich der Wissenschaft wäre CAGW eine schon lange ausgesonderte, falsifizierte Hypothese.

Schlussfolgerungen

Behauptungen, denen zufolge AGW oder CAGW eine Ausnahme vom Prinzip der Null-Hypothese darstellen, sind offenkundig lächerlich:

In der Wissenschaft eine breite natürliche Erklärung einer großen Bandbreite von Phänomenen. Theorien sind prägnant, kohärent, systematisch, vorausschauend und breit anwendbar. Oftmals integrieren und generalisieren sie viele Hypothesen. Theorien, welche von der wissenschaftlichen Gemeinschaft akzeptiert sind, werden generell durch viele unterschiedliche Beweislinien gestützt – aber selbst Theorien können modifiziert oder widerlegt werden durch neue Beweise und Perspektiven. – UC Berkeley

Dies ist keine wissenschaftliche Hypothese: mehr CO2 verursacht Erwärmung. Es ist Schaumschlägerei.

Das hier ist eine wissenschaftliche Hypothese:

Eine Verdoppelung des atmosphärischen CO2-Gehaltes wird die untere Troposphäre sich um ___°C erwärmen lassen.

Über 30 Jahre lang gescheiterte Klimamodelle waren niemals in der Lage, die Lücke zu füllen. Im 5. IPCC-Zustandsbericht wurde essentiell festgestellt, dass das Füllen der Lücke nicht mehr erforderlich war.

Während es recht wahrscheinlich ist, dass menschliche Aktivitäten zumindest teilweise während der letzten 150 Jahre ursächlich für einen Anteil der Erwärmung waren, gibt es dafür keine robuste statistische Korrelation. Das Scheitern der Klimamodelle zeigt eindeutig, dass die Null-Hypothese immer noch auch für atmosphärisches CO2 und Temperatur gilt.

Selected References

Davis, J. C., and G. C. Bohling, The search for patterns in ice-core temperature curves, 2001, in L. C. Gerhard, W. E. Harrison, and B. M. Hanson, eds., Geological perspectives of global climate change, p. 213–229.

Finsinger, W. and F. Wagner-Cremer. Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach. The Holocene 19,5 (2009) pp. 757–764

Grosjean, M., Suter, P. J., Trachsel, M. and Wanner, H. 2007. Ice-borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations. J. Quaternary Sci.,Vol. 22 pp. 203–207. ISSN 0267-8179.

Hansen, J., I. Fung, A. Lacis, D. Rind, Lebedeff, R. Ruedy, G. Russell, and P. Stone, 1988: Global climate changes as forecast by Goddard Institute for Space Studies three-dimensional model. J. Geophys. Res., 93, 9341-9364, doi:10.1029/88JD00231.

Kouwenberg, LLR, Wagner F, Kurschner WM, Visscher H (2005) Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsuga heterophylla needles. Geology 33:33–36

Ljungqvist, F.C. 2009. N. Hemisphere Extra-Tropics 2,000yr Decadal Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2010-089. NOAA/NCDC Paleoclimatology Program, Boulder CO, USA.

Ljungqvist, F.C. 2010. A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

MacFarling Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins. 2006. The Law Dome CO2, CH4 and N2O Ice Core Records Extended to 2000 years BP. Geophysical Research Letters, Vol. 33, No. 14, L14810 10.1029/2006GL026152.

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005. Highly variable Northern Hemisphere temperatures reconstructed from low-and high-resolution proxy data. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Instrumental Temperature Data from Hadley Centre / UEA CRU, NASA Goddard Institute for Space Studies and Berkeley Earth Surface Temperature Project via Wood for Trees.

Link: https://wattsupwiththat.com/2017/04/17/the-good-the-bad-and-the-null-hypothesis/

Übersetzt von Chris Frey EIKE




Fahrverbot für Diesel?

So oft, dass sich der baden-württembergische Verkehrsminister Franz Untersteller (der Partei der Grünen angehörend) zu der Drohung veranlasst sah, dass er bei Fortbestehen dieser Situation die Stuttgarter Innenstadt demnächst für ältere Dieselfahrzeuge- ohne blaue Euro 6 Plakette – sperren werde. Nach derzeitigem Stand wären  von den 113.000 Dieselautos in Stuttgart nicht weniger als 93.000 von einem Fahrverbot betroffen! (Unterstellers Chef, der Ministerpräsident Winfried Kretschmann, denkt jedoch wegen der heftigen Reaktionen bereits über eine Rücknahme dieser Ankündigung nach.)

Neben dem Stickoxid stehen auch die Feinstaubemissionen der meist betagten Diesel-PKW am Pranger. Der Dieselruß und die Dieselpartikel sind schon lange ein Feindbild der Lungenärzte und der Beatmungsmediziner. Aber beim Staub gibt es noch viele andere Quellen, beispielsweise den Reifenabrieb aller Autotypen und insbesondere die Holzöfen der Bürger bis hin zu den „Komfort“- Kaminen. Von letzteren soll es in Stuttgart mehr als 20.000 Anlagen geben, welche die Romantikgefühle ihrer Besitzer beflügeln. Weil diese nicht so ohne weiteres zu sanktionieren sind, beschränken sich die Behörden beim Feinstaub vorläufig auf Fahrverbote für die Autobesitzer. Ist einfacher.

Das Stickstoffdioxid: ein altbekanntes Problem

Stickoxide gelangen aus Dieselfahrzeugen vor allem in Form von Stickstoffmonoxid (NO) in die Atmosphäre, wo sie mit Sauerstoff zum giftigen Stickstoffdioxid (NO2) reagieren. Dieses ätzende Reizgas kann Atemnot, Kopfweh und Herzbeschwerden auslösen. Bereits 1999 führte die Europäische Union (EU) dafür Grenzwerte ein, inklusive langer Übergangszeiten. 240 verkehrsnahe Messstellen wurden deshalb in Deutschland eingerichtet. Sie beweisen, dass die Dieselfahrzeuge mit 67 Prozent am gesamten NO2-Austoß beteiligt sind, die Benziner nur mit 4 Prozent. An den Hauptverkehrsstraßen, z. B. am Stuttgarter Neckartor, werden seit fast 20 Jahren die NO2-Grenzwerte drastisch überschritten. Geschehen ist dort seitdem nur wenig.

Inzwischen klagen die Bürger nicht nur verbal, sondern zunehmend vor den zuständigen Verwaltungsgerichten. Das Bayerische Verwaltungsgericht verlangte bis Ende des Jahres 2017 für München von den Behörden entsprechende Fahrverbote, falls andere Maßnahmen nicht wirken. Die Städte stehen vor einem Dilemma: auf der einen Seite gilt das Recht der Bürger auf saubere Luft, auf der anderen Seite gibt es die Ansprüche der modernen mobilen Gesellschaft mit Pendlern, Gewerbe und Besuchern. Die Hauptschuld an dieser Situation trägt jedoch die (hohe) Politik: sie hat die Brüsseler Richtlinien jahrelang praktisch negiert und nicht in entsprechende Gesetze umgewandelt. Gleichermaßen zu kritisieren sind die Autohersteller: sie haben ihre Dieselmotoren technisch nicht gesetzesgemäß ausgestattet. Inzwischen wird eine neue Norm, dargestellt durch die E 6-Plakette, propagiert, mit der jeder Dieselbetreiber sein Fahrzeug angeblich überall gesetzeskonform nutzen kann. Jedenfalls nach den Behauptungen des Verbands der Deutschen Automobilindustrie.

Das wird vom Automobilclub ADAC aber bereits bestritten. Seine Messungen (bei Straßenbetrieb!) beweisen, dass gut ein Drittel der Diesel-PKW, welche mit der bereits seit Jahren bestehenden E 5-Plakette ausgestattet sind, im realen Straßenverkehr besser sind als das schlechteste Drittel der zukünftigen E 6-Norm. Beispiel: der Volvo V 40 mit E 5-Plakette stieß bei ADAC-Messungen 12o Milligramm pro Kilometer aus, der Volvo S 60 mit E 6-Plakette dagegen satte 1167 mg/km! Letzterer dürfte also in Stuttgart das Neckartor durchfahren, der weitaus sauberere V 4o hingegen nicht. Die Experten des ADAC erwarten, dass erst mit der im Straßenverkehr überprüften E 6-Norm die Kunden hinreichend sicher sein können, dass sie ihr neues Fahrzeug überall benutzen dürfen. Diese Dieselkategorie wird jedoch in den meisten Fällen erst im Herbst bei den Händlern stehen.

Fazit: Bis dahin müssen die Dieselnutzer Fahrverbote oder City-Maut (wie in Köln) fürchten. Außerdem droht ihnen auf jedem Fall ein hoher Wertverlust ihres Fahrzeugs beim Wiederverkauf. Das Aussperren von knapp 13 Millionen Diesel-Autos in der City wirkt sich wie eine kalte Enteignung aus. Für die Automobilindustrie ist es gleichzeitig ein gigantisches Konjunkturprogramm.

Das Feinstaubproblem: dem Autofahrer zugeschoben

Eine andere Sau wird seit Jahren mit dem Feinstaubproblem (PM10) durchs Dorf getrieben. Feinste Staubteilchen mit einem Durchmesser bis zu 10 Mikrometer können bis in die Lungenbläschen vordringen. Dort lagern sie sich ab und rufen Entzündungen hervor, bzw. erhöhen das Risiko für einen Herzinfarkt. Noch in den 70er Jahren lagen in Deutschland ganze Regionen unter einer Smog-Wolke, wie heute noch Peking oder Schanghai in China. Hierzulande ist das Feinstaubproblem  inzwischen drastisch gesunken. Das liegt vor allem an den Partikelfiltern, die mit Einführung der E 4-Norm in die Dieselautos eingebaut sind.

Im Stuttgarter Talkessel jedoch, wo sich der Feinstaub bei Inversionswetterlagen sammelt, werden diese Grenzwerte weiterhin alljährlich überschritten. Die Stadtverwaltung setzt nun um, was die Landesregierung unter Ministerpräsident Winfried Kretschmann Anfang 2017 beschlossen hat: sie verhängt Fahrverbote für alle Diesel-PKW, welche die neueste Abgasnorm E 6 nicht erfüllen. Zehntausende Autofahrer müssen, nach Abschätzungen des ADAC ,vor den Toren der Stadt bleiben. Sogar all jene, die sich noch 2015 einen Neuwagen mit der Norm E 5 zugelegt haben.

Inzwischen ist wohl bekannt, dass Feinstaub nicht nur in KFZ-Motoren, sondern auch in Industrieanlagen, wie Kraftwerken, und vor allem in den kaum zur Gänze überprüfbaren Holzöfen vieler Bürger entstehen. Aber auch durch den Abrieb an Reifen und Bremsen der Autos, wie oben bereits erwähnt. Deshalb hat ein anderer Grüner, der Stuttgarter OB Fritz Kuhn, eine neue Variante der „Schwäbischen Kehrwoche“ angekündigt: spezielle Kehrfahrzeuge durchfahren nun die Stuttgarter Innenstadt und kehren maschinell den dort abgelagerten Feinstaub (samt Dreck) auf. Offensichtlich mit Erfolg, denn der Stadtrat hat bereits eine Ausschreibung zur Beschaffung weiterer Kehrmaschinen veranlasst.

Das Ende des Diesels?

Die anhaltende Diskussion über die Zukunft des Dieselmotors sorgt bereits für sinkende Verkaufszahlen. Die Deutschen kaufen wieder mehr Autos mit Benzinmotoren. Im März sind die Neuzulassungen für Dieselneuwagen um fast 3 Prozent gegenüber dem Vorjahresmonat gefallen. Der Dieselanteil liegt damit nur noch bei 40 Prozent, früher waren es fast 50 %. Die Experten erwarten, dass die Verkaufszahlen für Diesel weiter zurück gehen werden, u. a. wegen der strengen Abgasvorschriften , welche die Fahrzeuge verteuern werden.

Das Problem mit den Millionen alter Dieselmodelle der Abgasnormen E 4 und E 5 wird jedoch bleiben. Ihre Besitzer werden happige Wertverluste erleiden, denn die eventuelle Nachrüstung mit Motoren der Klasse E 6 wäre viel zu teuer. Ein Abgesang auf den Dieselantrieb kommt jedoch noch zu früh: denn noch trägt der Dieselmotor wegen seiner Sparsamkeit viel zur Einhaltung der Grenzwerte beim Kohlendioxid bei.

Einigen Trost findet die verunsicherte Dieselgemeinde einstweilen bei der Bundeskanzlerin Angela Merkel. Beim saarländischen Wahlkampf in St. Wendel hat sie den Diesel wie folgt gelobt:
Wenn ihr ein Dieselauto kauft, dann kauft ihr ein Auto, das umweltfreundlich ist. Für den Klimaschutz ist das Dieselauto heute ein genauso gutes Auto, wie es gestern und vorgestern war“

Die Kanzlerin muss es wissen. Sie fährt Diesel – neben Benzinern.




Update zu: Trumps Team – die unterschätzte Macht; eine Lektion für Deutschland“

Auszug aus den Bemerkungen zum Kabinett von Obama:

Sehr auffallend ist, dass Obama zwei politisch wichtige Positionen nicht mit ausgewiesenen Fachleuten, sondern mit Aktivistinnen besetzt hat. In einem Fall (G. McCarthy) verfügte die Amtschefin ausschließlich über Verwaltungserfahrung und wurde als Umwelt-Extremistin angegriffen. Im zweiten Fall (M. Smith) verfügte die Technologieberaterin des Präsidenten ganz offensichtlich gleichfalls nicht über ein breites Wissen und über ausreichende Erfahrungen zu ihrem Aufgabenbereich.

Wie deren Beratung ausgesehen haben mag, kann man sich anhand der Biografie annähernd vorstellen.
An diesen Personalentscheidungen wird deutlich, dass Präsident Obama zu diesen Themen vorgefasste Meinungen hatte, für deren Umsetzung er willfährige Vollstrecker einstellte, die von vornherein seine Meinung teilten und keine Schwierigkeiten machten. Wozu das nötig war, zeigte sich bei der Prüfung der EPA-Aktivitäten und der von dieser Behörde angewendeten Methoden durch Journalisten; insbesondere durch Steven J. Milloy, der die Website „JunkScience.com“ (Müll-Wissenschaft) betreibt und die EPA zwei Dekaden lang beobachtete. Er brachte Ende 2016 ein neues Buch heraus: „Scare Pollution: Why and how to Fix the EPA“, siehe Lit.1. sowie ein Kommentar in Lit.2.

  1. e) Die in den deutschen Medien völlig ausgeblendeten, also redaktionell zensierten Ziele von Barack Obama waren der Grund für seine 8 Jahre andauernde spezielle Nutzung der EPA als Vollzugsinstrument für massive Eingriffe vor allem in die Wirtschaft, die er im Kongress trotz seiner Mehrheit der Demokraten nicht durchbringen konnte.
    Diese Ziele waren:
    Obamas „War on Coal“ (Krieg gegen die Kohle)
    2. Obamas Kampf gegen den angeblich vom Menschen verursachten Klimawandel.Die EPA ist eine extrem mächtige Bundesagentur – ohne den eigentlich zu ihrer Kontrolle nötigen Kabinettsrang. Sie war bereits 1991 auf unglaubliche 16.000 Mitarbeiter angewachsen; ihr Jahresbudget beträgt ebenso unglaubliche 8,3 Milliarden Dollar. Sie benutzt dieses Steuergeld, um „ihre Freunde und Alliierten zu finanzieren, die sich als politische Aktivisten und „politische „ Wissenschaftler erwiesen haben“ und die für die EPA-Pläne die verlangten wissenschaftlichen Begründungen liefern (Lit.1).
    Die EPA nutzt ihre Macht und die bisherige präsidiale Unterstützung, um im Sinne der beiden Obama-Ziele einen politischen Feldzug gegen große Teile der US-Industrie zu führen, der längst nicht mehr allein die Kohleindustrie zum Ziel hat. Die ist schließlich durch diese Umweltagentur schon erfolgreich zerstört worden: Tausende von Jobs gingen in der Kohleindustrie verloren; weitere Zehntausende bei den Zulieferern. Arbeitslosigkeit und Steuereinbußen in den vormals wohlhabenden Kommunen waren die Folge. Jetzt zielt die EPA auf Öl, Erdgas, Produktionen, Wälder, Papier, LKW’s und weitere.

EPA’s wichtigste Waffe ist heute die Angsterzeugung vor Ruß und Feinstaub (in den USA mit PM2,5) bezeichnet, die aufgrund äußerst dubioser „wissenschaftlicher“ Erkenntnisse 570.000 Amerikaner jährlich umbringen.

EPA-geförderte Wissenschaftler haben dazu unethische Menschenversuche (z.B. mit Dieselabgasen an Kindern) durchgeführt, um ihre Horrorprognosen zu stützen. Steve Milloy, der die EPA und ihre Methoden seit 20 Jahren kritisch beobachtet, resümiert: „Ich kenne keine Agentur, die der US-Wirtschaft mehr grundlosen Schaden zugefügt hat, als die EPA – alles auf Grund von Junk Science (Anm.: Bezeichnung für eine ethisch herunter gekommene, unseriöse Gefälligkeits-„Wissenschaft“), wenn nicht sogar durch offenen wissenschaftlichen Betrug“(1)

 

Literatur:
1. Steven J. Milloy: „Scare Pollution: Why and How to Fix the EPA“, 2016, Bench Press, ISBN 978-0-9982597-1-0
2. Julie Kelly : “Meltdown at the EPA”, 31.Jan. 2017;
http://www.nationalreview.com/article/444415/epa-meltdown-reform-junk-science-agency-causes-freakout

 




Nachträgliche Artikeländerung bei der New York Times – leider nicht nur bei Rechtschreibfehlern

Vor kurzem stolperte ich über einer dieser Revisionen. Innerhalb von Stunden änderte sich die Beschreibung von Scott Pruitt, dem neu ernannten EPA-Chef, in der NY Times von einem „Verbündeten der fossilen Brennstoffindustrie“ zu einem „Klimawandel-Dissident“, zu einem „Klimawandel-Leugner“.

Etwas später erhielt ich einen Hinweis auf eine hilfreiche Website. Newsdiffs.org archiviert mehrere Versionen von Nachrichten und zeigt die Unterschiede zwischen ihnen. Dieser Artikel wurde mindestens sechsmal nach seiner ursprünglichen Publikation überarbeitet oder umgeschrieben, alles ohne Notiz an die Leser.

Zum Thema Klimadiskussion ist die bedeutendste Revision der Ersatz des Begriffs „Klimaskeptiker“ durch „Klima-Leugner“. Bezeugt ist auch der Versuch, eine Schadensbegrenzung zu machen, wie z.B. „Obamas neue Klimaschutzbestimmungen“ durch „Obamas neuen saubere Luftregulierung“ zu ersetzen, was Reportern vermutlich aus erster Hand von Regierungsbeamten aufgezeigt wurde.

 

Beispiele, auf die Klimadebatte beschränkt

Der folgende Artikel wurde komplett gegenüber seiner ursprünglichen Version vom 14.-15. Januar neu geschrieben. Dann, am 18. Januar, der Satz, „Obamas neue Klimaschutzverordnungen zwingen elektrische Versorgungsunternehmen zum Abschalten von Kohlekraftwerken“, wurde umgeschrieben, indem sie den Begriff „Klimawandel“ durch „saubere Luft“ ersetzten und so wurde: „Obamas neue Vorschriften für saubere Luft treiben elektrische Versorgungsunternehmen zum Stilllegen von Kohlekraftwerken „:

http://newsdiffs.org/article-history/www.nytimes.com/2016/01/15/us/politics/in-climate-move-obama-to-halt-new-coal-mining-leases-on-public-lands.html

(Von CORAL DAVENPORT)

Mehrfache Änderungen, inklusive Änderung des Wortes  Skeptiker  in  Leugner  im Titel:

http://newsdiffs.org/diff/1376719/1376823/https%3A/www.nytimes.com/2017/04/12/climate/scott-pruitt-epa-endangerment-finding.html (Von CORAL DAVENPORT) Der Artikel wurde 14-mal revidiert:

http://newsdiffs.org/article-history/www.nytimes.com/2016/11/22/us/politics/donald-trump-visit.html

(Von MICHAEL D. SHEAR, JULIE HIRSCHFELD, MAGGIE HABERMAN)

Mehrfache Änderungen, einschließlich der Autoren:

http://newsdiffs.org/article-history/www.nytimes.com/2017/01/18/science/earth-highest-temperature-record.html (Von JUSTIN GILLIS und JOHN SCHWARTZ). In diesem Beispiel werden mehrfache Änderungen des Hauptteils gezeigt:

http://newsdiffs.org/diff/1337675/1337968/www.nytimes.com/2017/01/18/science/earth-highest-temperature-record.html

Der Beitrag wurde komplett umgeschrieben:

http://newsdiffs.org/diff/1335678/1336522/www.nytimes.com/2017/01/15/business/world-economic-forum-davos-shifting-us-stance-on-climate

Ein anderer Beitrag der komplett umgeschrieben wurde:

http://newsdiffs.org/diff/1309853/1309964/www.nytimes.com/2016/12/02/science/global-warming-daily-mail-breitbart.html (Von HENRY FOUNTAIN)

Mehrfache substantielle Änderungen:

http://newsdiffs.org/article-history/www.nytimes.com/2016/10/15/world/africa/kigali-deal-hfc-air-conditioners.html (Von CORAL DAVENPORT)

Zum Zeitpunkt dieses Schreibens, sind einige dieser Artikel bereits anders als ihre letzten Versionen in Newsdiffs. Wahrscheinlich überwacht Newsdiffs die Nachrichtenartikel nur für kurze Zeit. Auch der Online Dienst der NY Times kann verschiedene Versionen des gleichen Artikels an verschiedene Leser senden.

 

Erinnerung an den BBC-Skandal im Jahr 2008

Dies erinnert an den bekannten BBC-Skandal, als die BBC einen veröffentlichten wetterbezogenen Artikel veränderte, um mehr klimaalarmistisch zu sein, nach dem Wechsel einiger E-Mails mit Jo Abbess, einem Klimaaktivisten, der sich danach damit brüstete. (Siehe auch JM1 und JM2). Eine Sache, die der Aufmerksamkeit entging: Jo Abbess war aktiv an der lokalen Agenda 21 (Poole Agenda 21) beteiligt und war mit anderen britischen Alarmisten Organisationen verbunden. Der veröffentlichte E-Mail-Austausch zwischen dem armen Roger Harrabin [Redakteur NYT] und Jo Abbess war nur ein kleiner Teil der Druck- und Gehirnwäsche-Kampagne, der die BBC erlag.

[Einschub vom Übersetzer:

Der obige Link JM1 führt zu einer Beschreibung des Schriftwechsels eines Alarmisten mit der BBC, der solange drängte, bis die BBC ihre Nachricht geändert hat.

Anstatt die von der World Meteorological Organization erhaltene Information zu berichten [beizubehalten!], veränderte die BBC die von dem Aktivisten geforderte Aussage, die in ihrer ursprünglichen Form die korrekte Beobachtung der „Skeptiker“ unterstützte, dass es seit 1998 keine Erwärmung gab. Hier nur ein E-Mail der Serie.

from Roger Harrabin

to Jo Abbess ,

date Fri, Apr 4, 2008 at 10:23 AM

subject RE: Angeforderte Korrektur: Globale Temperaturen „gehen zurück”

Dear Jo

Es ist keine Korrektur nötig

Wenn der Generalsekretär der WMO mir sagt, dass die globalen Temperaturen zurückgehen werden, werden wir das berichten.

Es gibt Wissenschaftler, die in Frage stellen, dass die Erwärmung so wie vom IPCC projiziert weitergehen wird.

Best wishes

RH

***

WMO World Meteorological Organization

Ende Einschub]

 

Fußnoten

Kurioserweise wurde newsdiffs.org mit der Finanzierung von der linken Knight-Stiftung gegründet, vor allem mit der Absicht, die Umarbeitungen zu entdecken, die Konservative anspricht. Newsdiffs.org wurde von der NY Times im Jahr 2012 abgedeckt. Anscheinend hatte NY Times damals noch einige Integrität. Die NY Times hat spätestens seit 2015 eine heimliche Revision durchgeführt und scheint nach den Wahlen ihre Häufigkeit und den Schärfegrad zu erhöhen. Auf meiner Website werde ich werde weitere Beispiele posten, für verdeckte Überarbeitung von Inhalten und falsche Nachrichten.

 

Newsdiffs.org überwacht nur fünf Webseiten und ist nicht einfach zu durchsuchen (Anthony Watts schlägt vor, https://web-beta.archive.org/web/*/newsdiffs.org zu verwenden), aber die Software ist offen und unter https: //github.com/ecprice/newsdiffs erhältlich.

Danke an H.J. für die Zusammenarbeit bei der Recherche und dem Schreiben dieses Artikels.

 

Fußnote von Anthony Watts zu Änderungen

WUWT hat gelegentlich Änderungen an [bereits veröffentlichten] Beiträgen und hat eine Richtlinie dafür:

Geschichten, die gepostet wurden, können in der ersten Stunde nach dem ersten Erscheinen bearbeitet werden. Manchmal werden Fehler oder Irrtümer (vor allem bei der Formatierung) nicht gesehen, bis der Post veröffentlicht ist. Wenn etwas nicht richtig aussieht und der Post brandneu ist, probieren wir es gleich zu verbessern. Natürlich, wenn nach einer Stunde noch etwas falsch ist, zögern Sie nicht, uns einen Kommentar zu hinterlassen.

Der Hauptgrund für die Nacharbeit von Artikeln bei WUWT sind die Rechtschreibung und Formatierungsfehler und diese werden in der Regel in der ersten Stunde entdeckt. Manchmal werden nur einfache Fehler gemacht, im Text oder im Titel und die Leser entdecken sie fast sofort. Ein gutes Beispiel ist in New ‘Karl-buster’ paper confirms ‘the pause’, and climate models failure.. Das Wort „sleight“ [Kunststück, Trick] wurde als “ slight“ [gering] falsch geschrieben und das wurde sofort korrigiert und mit Dank an den Kommentator, der das entdeckte, notiert.

Manchmal gibt es Fehler in Bezug auf die Rechtschreibung im Titel, wie bei dem Beitrag: AL.com thinks ‘global warming’ is increasing ticks in Alabama, except it’s cooled over the last century there

Ich vertippte mich mit AI anstatt ursprünglichem AL, also musste ich das beheben. Ich habe eine Notiz am unteren Rand des Artikels hinterlassen:

Anmerkung: ca. 5 Minuten nach der Veröffentlichung wurde der Titel geändert, um ein Rechtschreibfehler zu korrigieren.

Und gelegentlich haben wir einen sachbezogenen Fehler in dem Artikel. Diese werden entweder über „Durchstreichungen“ behandelt (wenn der Fehler über mehrere Wörter geht) oder als ein oder zwei Wörter in [Klammern], wenn es eine einfache Korrektur ist.

Wir sind hier nicht perfekt bei WUWT, niemand, der online veröffentlicht, ist es, aber ich versuche, dafür zu sorgen, dass Fixes den Lesern bekannt werden.

*** Dem vorstehendem kann ich mich nur anschließen, Demmig ***

 

Erschienen auf WUWT am 19. April 2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/04/19/proof-the-new-york-times-stealthily-revises-its-articles-after-publication/




US-Klimasite für Kinder fällt durch

Der Artikel begann mit dem Versuch, den Leser davon zu überzeugen, dass das Hinzufügen von Kohlendioxid zum Wasser dieses immer versauert. Während dies für Süßwasser zutreffend ist – Süßwasser kann leicht versauern mit einem pH-Wert unter 7 infolge des gelösten Kohlendioxids – ist dies für Meerwasser definitiv falsch. Meerwasser enthält hohe Salzkonzentrationen. Und während die meisten Leute glauben, dass das Salz im Meerwasser Tafelsalz ist (Natriumchlorid) enthält es aber auch hohe Konzentrationen von Salzen wie Karbonaten und Bikarbonaten. Dies sind Säure bindende Substanzen, welche das Meerwasser alkalisch machen (basisch: pH über 7) und nicht sauer. Der Säurebinder Alka-Seltzer ist im Wesentlichen Natrium-Bikarbonat.

Wenn sich CO2 in Meerwasser löst, bildet sich Kohlensäure, chemisch als eine schwache Säure klassifiziert. Allerdings sind Karbonate und Bikarbonate Salze dieser schwachen Säure, und wenn eine schwache Säure mit einem dieser Salze zusammenkommt, bildet sich etwas, das als Puffer-System bekannt ist. Puffersysteme halten den pH (welcher festlegt, ob etwas sauer oder alkalisch ist) konstant. Unsere Ozeane sind gigantische Puffersysteme, bis zu einem pH-Wert von etwa 8,2. Der tatsächliche pH-Wert eines jeden Puffersystems hängt ab vom Verhältnis der Konzentrationen schwacher Säuren oder schwacher Basen zu ihren Salzen.

Komischerweise ist das CO2-Bikarbonat-Puffersystem genau das gleiche Puffersystem, welches den pH des menschlichen Blutes auf einem konstanten Wert von 7,4 hält. Unser Blut ist etwas weniger alkalisch (und liegt nahe an einem neutralen pH-Wert von 7) als Meerwasser, weil die Konzentration gelösten CO2 im Blut etwa 130 mal größer ist als im Meerwasser. Um Meerwasser tatsächlich mit CO2 zu versauern (d. h. dessen pH-Wert unter 7 zu drücken), müsste das CO2-Niveau in der Atmosphäre auf etwa 70.000 ppmv zunehmen, verglichen mit den 400 ppmv von heute.

Ich möchte allen Pingeligen darauf hinweisen, dass diese Zahlen Näherungswerte sind, weil der pH abhängig ist von der Temperatur und anderen Lösungseigenschaften. Zum Beispiel liegt die Temperatur des Blutes bei etwa 37°C; die von Meerwasser dagegen schwankt zwischen etwa 2°C nahe den Polen und etwa 30°C am Äquator. Die Trennung zwischen saurem und alkalischem Wasser (neutral) liegt bei nur 25°C.

Außerdem gilt im Gegensatz zum allgemeinen Glauben, dass falls eine Lösung weniger alkalisch ist, sie deswegen noch lange nicht saurer ist. Es ist nicht so wie bei „heiß oder kalt“, was immer relativ zur Umgebung gilt. Laut Definition kann eine Lösung nicht gleichzeitig sauer und alkalisch sein. Bei 25°C ist eine Lösung sauer, falls der pH-Wert unter 7 liegt, und alkalisch, falls er über 7 liegt. Eine Lösung nahezulegen, die mit einem pH von 8,1 saurer ist als eine mit einem pH von 8,4 ist eine komplette Fehlinterpretation des Konzeptes von sauer und basisch.

James Barrante of Cheshire is a retired college professor of physical chemistry.

Link: http://icecap.us/index.php/go/icing-the-hype vom 5. April 2017

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Unabhängig vom fachlichen Inhalt des beschriebenen Tatbestandes, derfür sich vor dem Hintergrund aktueller Diskussionen auch ziemlich interessant ist: Die Indoktrination von Kindern scheint umfassend und vollständig zu sein. Und inzwischen schlägt das auch auf die hiesige Grundschule durch, an der ich bei der Betreuung der SchülerInnen ehrenamtlich arbeite. – C. F.