Statt Klimakonferenz – Schnorchelkurs für Barbara Hendricks

 Stattdessen muss ich jetzt in der Süddeutschen Zeitung vom Untergang der letzten Paradiese lesen: „Da stehen Menschen in ihren Wohnzimmern zum Teil bis zu den Knöcheln im Wasser, wenn sie morgens aufstehen“, berichtet in dem Blatt ein Entwicklungshelfer der Deutschen Gesellschaft für Internationale Zusammenarbeit (GIZ) über die Insel Ono. Die Lage sei dramatisch: „Ein ganzes Dorf soll deshalb umgesiedelt werden.“
Die Süddeutsche sieht bereits eine Katastrophe globalen Ausmaßes: „Bei insgesamt 106 bewohnten Inseln dürfte das erst der Anfang sein, die Regierung arbeitet bereits an einem Umsiedlungsplan, der auf der Klima-Konferenz in Bonn vorgestellt werden soll.“ Deo Saran, Fidschis Sondergesandter für den Klimaschutz, wisse: „Viele Inseln sind schon verloren.“ Und die Süddeutsche assistiert: „Den gut 1200 Kilometer entfernten Nachbarn in Samoa hat seine Regierung sogar schon Klimaasyl angeboten: Dort sind die Auswirkungen noch spürbarer als auf den Fidschi-Inseln.“ Auch die deutsche Umweltministerin Barbara Hendricks weiß Bescheid: „Mit Fidschi leitet erstmals ein Mitglied jener Staatengruppe den Weltklimagipfel, die vom Klimawandel in besonders akuter Weise betroffen ist.“
Ja, da muss man doch was tun! Auf der Suche nach Hilfe für die Dorfbewohner bin ich sofort auf die Website der internationalen Fluchthelfer „tripadvisor“ gegangen und habe zunächst mal auf Ono nach geeigneten Not-Unterkünften gesucht. Empfehlen kann ich das  Mai Dive Astrolabe Reef Resort, es liegt gleich um die Ecke direkt am Strand, kleiner Fußmarsch für die Flutopfer von nebenan. Auf der Homepage des Hotels heißt es: „You can take it easy. Relax on our beach, an environment that is medicine for your sole.“ Ono hat sieben Dörfer und gerade mal fünf Kilometer Durchmesser, die höchste Erhebung ist immerhin 354 Meter über dem Meeresspiegel (viele der Fidschi Inseln sind vulkanischen Ursprungs). „Auf den beiden großen Inseln liegen zerklüftete Gebirgsketten, die sich über schmalen Küstenebenen und vorgelagerten Korallenriffen erheben,“ beschreibt Wikipedia die Geographie Fidschis. Der höchste Berg ist 1324 Meter hoch. Uff, es kann also noch ein paar tausend Jahre dauern mit dem Untergang. Ich werde die Paradiese also doch noch sehen, im gleichen Licht wie Gaugin. 

Die Tourismusbranche hat den Untergang nicht mitgekriegt

Es gibt offenbar eine gewisse Diskrepanz zwischen der regierungsamtlichen Schilderung und derjenigen der örtlichen Tourismus-Branche. Letztere scheint den Untergang des Eilands bislang nicht bemerkt zu haben, die Gäste auch nicht, denn die meisten Läden sind ausgebucht. Und von Beschwerden ist nichts bekannt, trotz 200 Euro pro Nacht aufwärts. In einer Bewertung eines Gastes heißt es aufmunternd und auf Deutsch: „Ich empfehle dieses Abenteuer sehr für Familien mit Kindern.“
Den Fachleuten des Umweltministeriums kann ich Tripadvisor für die nächste Minister-Vorlage zum Thema Fidschi nur wärmstens empfehlen. Möglicherweise würde ein Schnorchelkurs auf Ono den Horizont der deutschen Umweltministerin erweitern. Falls das nicht luxuriös genug ist, gibt es auf Fidschi noch hunderte andere wunderbare Strand-Unterkünfte, an denen der akute Meeresspiegel-Anstieg auf mysteriöse Weise vorüber geht, mein Favorit ist der hier.  Das wäre sicherlich „medicine for Barbara Hendricks sole“ und fürs Klima deutlich weniger schädlich, als wenn die halbe Welt auf Spesen nach Bonn fliegt, um klimamäßig einen drauf zu machen. Denn dort beginnen am Montag die großen Klimafestspiele unter dem Motto „Karneval ohne Grenzen“. Die Feierlichkeiten werden mit Festumzügen, Rathauserstürmungen und dem ausgelassenen Treiben der Jecken auf den Straßen und in den Kneipen begangen. Den Höhepunkt der Session bildet morgen der große Montagsumzug in der Innenstadt.
Möglicherweise hängt die Aufregung um das Abtauchen der Südsee also gar nicht mit der Südsee zusammen, sondern mit der Klimakonferenz. Die Tage und Wochen vor einer solchen Veranstaltung sind stets von anschwellendem Alarm-Pegel gekennzeichnet, der aus einer Schwemme von düsteren Studien besteht, die von garantiert unabhängigen Wissenschaftlern rein zufällig so termingerecht gebacken werden, wie die Brötchen fürs Frühstückbüffet im Bonner Hilton. „Der größte Weltklimagipfel aller Zeiten“ (FAZ), kurz  GröWaz, sichert eindrucksvoll die Stellung Deutschlands als führende Exportnation von Weltuntergangs-Szenarien.
Beim Untergang der Südsee handelt es sich gewissermaßen um ein in unregelmässigen Abständen wiederkehrendes Phänomen, so ähnlich wie die warme Meeresströmung El Niño („Das Christkind“). Während El Niño die Menschheit meist so um Weihnachten heimsucht, gehen die Südsee-Inseln stets vor Klimakonferenzen unter, tauchen dann aber wieder auf.  Vor der Klimakonferenz in Doha 2012 und der Klimakonferenz in Lima 2014 versanken sie im deutschen Medienwald bereits in gleichlautenden Worten, etwa auf Focus Online („Massenmigration wegen steigenden Meeresspiegels“) und  ZEIT ONLINE ( „Vor dem Untergang“). Zwischenzeitlich erhoben sie sich dann wieder aus den Fluten, auch dieses Mal müssen die Südseeinseln wieder auftauchen, um dann pünktlich 2018 zur nächsten Kilmakonferenz im polnischen Kattowitz wieder untergehen zu können.

Herrn Tongs Gespür für Kohle

In diesem Jahr sind die Kappensitzungen auch deshalb von großer dramaturgischer Bedeutung, weil der Gipfel zwar in Bonn stattfindet, Fidschi aber der Gastgeber der Klimafestspiele ist. Südsee-Politiker haben den Klimawandel längst als Goldesel entdeckt und können damit wunderbar von selbst verursachten Problemen ablenken. Das trifft sich mit der ideologischen Agenda von westlicher Depressionisten, die der Industriegesellschaft an den Kragen wollen. Koste es, was es wolle.
Die Rechnung fürs Bankett zahlt deshalb, klar doch, Berlin, es ist von vorsichtig geschätzten 117 Millionen Euro Steuergeldern die Rede. Hinzu kommen noch – zur Unterstützung der Präsidentschaft von Fidschi – rund sieben Millionen Euro aus dem Haushalt des Entwicklungsministeriums.
Wollen Sie, dass wir zu Ihnen kommen?“ drohte Anote Tong Präsident der Inselstaates Kiribati schon 2015, ein echtes PR-Talent (und in Bonn tönt es im Refrain: Wolle mer se reinlasse?). Mal verlegen die Herrschaften aus der Südsee eine Kabinettsitzung unter Wasser, mal jetten sie erster Klasse um die halbe Welt und sehen sich vor laufenden Kameras die kalbenden Gletscher in Grönland an, sie sind also immer genau da, wo sie gebraucht werden. Mit Herrn Tongs Frage deutet sich bereits der nächste Plot an, der in deutschen Weltretter-Kreisen sicherlich dankbar aufgenommen wird. Künftigen Asylsuchenden kann ich nur den Rat geben, ihren Pass wegzuwerfen und in einfacher Sprache die beiden Worte  „Ich Fidschi“ auszusprechen. Der Klimaflüchtling erlaubt die Fortsetzung der bisherigen Politik aus anderen Gründen, ist das nicht wunderbar? 
Ansonsten steht eher zu befürchten, dass nicht Fidschi, sondern Bonn landunter geht (nur 60 Meter über dem Meeresspiegel!). „Klimagipfel bringt Bonn an Grenzen“, berichtet die online-Ausgabe der „Rheinischen Post“, denn bis zu 30.000 Klimatiker aus aller Welt werden sich zu diesem Konzil vom 6. bis 17. November an den stoischen Ufern des Rheins treffen. Es ist im übrigen ein kleines Wunder, dass dies überhaupt möglich ist. Schließlich sah DER SPIEGEL doch auf seinem Cover schon 1986 voraus, dass der Kölner Dom demnächst im Meer versinken werde. Erstaunlicherweise hat der Dom immer noch keine nassen Füße.

Hinweis auf die Faktenlage als olympisches Unterfangen

Ein Hinweis auf die Faktenlage ist in diesen Angelegenheiten nur noch von begrenzter Wirkung, der Versuch ist aber olympisch. Oder mit Albert Camus gesprochen: „Wir müssen uns Sisyphos als einen glücklichen Menschen vorstellen, der Kampf gegen Gipfel vermag ein Menschenherz auszufüllen.“
„Es gibt neue Nachrichten von den untergehenden Inseln: Sie gehen nicht unter“, schrieb Achse-Autor Ulli Kulke schon 2014 hier. Von einem generellen dramatischen Anstieg des Meeresspiegels in der Südsee kann keine Rede sein. Viele Inseln wachsen sogar. Des Rätsels Lösung ist nach Angaben von Forschern das Material, aus dem die Inseln bestehen. Viele setzten sich aus Korallentrümmern zusammen, die von den umliegenden Riffen angespült werden. Weil die Korallen lebende Organismen sind, wird immer neues Material produziert. Atolle bestehen aus einst lebendem Material, deshalb wachsen sie beständig.
Die Malediven wuchsen vor 5.000 Jahren auf einem untergetauchten Korallenriff bis über die Wasseroberfläche. Seitdem ist der Meeresspiegel bereits um zweieinhalb Meter gestiegen, ohne dass die Inseln verschwunden wären. Sie wachsen einfach mit. Zwar gibt es an manchen Inseln an den Küsten durchaus Schäden, Erosion sowie die Versalzung von Trinkwasser-Reservoiren.
Dies ist aber menschlichen Eingriffen geschuldet. Etwa der Entnahme von Sand für den Hausbau (oder für den von Touristen-Ressorts), unbedachter Straßenbau oder auch der Vernachlässigung von Deichen und anderen Schutzbauten. Hinzu kommt das rasche Bevölkerungswachstum, das zahlreiche soziale Probleme erzeugt. Auch auf Fidschi wurden über Generationen hinweg Mangrovenwälder an der Küste abgeholzt – um damit zu heizen, zu kochen, zu bauen. Vielerorts löst sich der Sandboden jetzt auf wie Strickzeug, aus dem jemand die Nadeln gerissen hat. Nichts mehr hält das Wasser auf.
Ein anderer Klassiker der Weltuntergangsliteratur, der dieser Tage wieder aus der Gruft aufsteigt, lautet: „Luft so verpestet wie seit 800.000 Jahren nicht mehr“. Das war schon vor fast zehn Jahren eine Top News „C02-Konzentration auf Höchststand seit 800.000 Jahren“, macht sich aber immer wieder gut als letzter Alarmisten-Schrei. Die Aussage „Luft so verpestet wie seit 800 000 Jahren nicht mehr“ deutet im übrigen tatsächlich auf einen Notstand hin: In deutschen Schulen fallen offenbar zu viele Biologiestunden aus.

Ohne Kohlendioxid nix Möhre und schon gar nix Banane

Kohlendioxid verpestet mitnichten die Luft (und hat auch nichts mit Smog zu tun), sondern ist ein natürlicher Bestandteil derselben. Simpel erklärt wandeln Pflanzen mit Hilfe der Photosynthese und der Nutzung des Sonnenlichts energiearme Stoffe, in diesem Fall Kohlenstoff und Wasser, in energiereiche Stoffe um. Für fast alle Lebensformen dieses Planeten ist Kohlendioxid unentbehrlich. Auch dieser Umstand sei hier noch einmal in einfacher Sprache formuliert, besonders für Veganer und Vegetarier: Ohne Kohlendioxid nix Möhre und schon gar nix Banane (die kommt ja mit dem Schiff).
„Künftige Generationen erben einen deutlich unwirtlicheren Planeten“, sagt WMO-Generalsekretär Petteri Taalas. Da drängt sich natürlich auch die Frage auf, wie die Menschheit, die ja immerhin mindestens zwei Millionen Jahre auf dem Buckel hat (die gesamte Entwicklungsgeschichte des Hominiden umfasst sogar 15 Millionen Jahre), die Zeit vor 800.000 Jahren ohne UN-Klimasekretariat überleben konnte.
Sie hat wärmere und kältere Zeiten, Zeiten mit mehr und weniger Kohlendioxid in der Luft als heute weggesteckt. Besonders übel waren übrigens die Kaltzeiten. Genetische Analysen legen nach Ansicht von Molekularbiologen nahe, dass die Zahl unserer frühen Vorfahren während der letzten Eiszeit des Pleistozän um 90 Prozent auf nur etwa 10.000 Urmenschen zurückgegangen sein könnte (vor etwa 100.000 Jahren). Ja wie hätten sie es denn gerne bei der WMO? Die Aussage „Unsere Zeit ist nun die wärmste in der Geschichte der modernen Zivilisation“, sagt für sich genommen zunächst mal gar nichts. Derzeit leben auf dem Planeten gut 7,5 Milliarden Erdenbewohner, seit 1900 – also dem Beginn der Industrialisierung – sind 6 Milliarden hinzugekommen. So lebensfeindlich scheint unsere Klima-Epoche also nicht zu sein. Den Klimarettern, die mitunter ja sogar Babies als Klimaschädlinge besteuern wollen, wären bloße 10.000 Menschen natürlich lieber, vorausgesetzt es handelt sich dabei um die Klimagipfel-Delegierten.
Die Lastwagenladungen voll wissenschaftlicher Klima-Studien, die den verängstigten Bürger unter sich begraben, sind mittlerweile vollkommen selbstreferenziell. Annahmen türmen sich auf Annahmen, Schätzungen auf Schätzungen, Hochrechnungen auf Hochrechnungen. Nur im zentralen entscheidenden Punkt, auf dem das ganze provisorische Gebäude aufbaut, ist man nicht viel weiter gekommen. Und deshalb spricht auch keiner darüber: Die Rede ist von der sogenannten „Klimaempfindlichkeit“. Sie ist die Schlüsselgröße der gegenwärtigen Treibhaus-Hypothese – und über deren Größenordnung wird nach wie vor heftig gestritten.

Wir lassen uns unsere Klimakatastrophe nicht kaputt machen

Sie gibt an, um wie viel sich die Luft erwärmt, wenn man ihren Kohlendioxidgehalt verdoppelt. Der Wert ergibt sich nun aber nicht aus der Treibhauswirkung des Kohlendioxids allein – die ist nämlich relativ gering. Vielmehr vermutet man eine „positive Rückkopplung“ mit dem Wasserdampf, der mit mindestens zwei Dritteln Anteil das weitaus wichtigste Treibhausgas ist. Die Reaktionskette muss man sich in etwa so vorstellen: Mehr Kohlendioxid führt zu höheren Temperaturen, die wiederum mehr Wasser verdunsten lassen, was die Luft noch weiter erwärmt. Doch um wie viel?
Wie erwähnt, liegen die Schätzungen der Klimasensitivität seit beinahe 30 Jahren im Bereich zwischen 1,5 und 4,5 Grad. Der „Erfinder“ der Treibhausthese, Svante Arrhenius, schätzte sie Anfang des 20. Jahrhunderts auf 5 bis 6 Grad Celsius, war also gar nicht so weit vom heutigen oberen Schätzwert entfernt. Die tatsächliche Temperatur-Entwicklung deutet jedoch auf einen Wert hin, der am unteren Ende der Skala, also bei undramatischen 1 bis 1,5 Grad liegt. Die Schätzungen werden mit jeder neuen Studie immer geringer.
Auf Nature-Geoscience, einem Fachmagazin, erschien Mitte September eine Studie, in der die Horror-Szenarien des  IPCC von der angeblichen, durch menschliches Zutun zu erwartenden, globalen Erwärmung von bis zu fünf Grad in diesem Jahrhundert zurückgenommen werden mussten. „Wir haben die schnelle Erwärmung nach dem Jahr 2000, die wir in den Modellen sehen, in der Realität nicht beobachten können“, ­sagte Mitautor Myles Allen von der ­University of Oxford.
Dahinter stecken nicht etwa sogenannte Klimaskeptiker. sondern Wissenschaftler, die sich maßgeblich beim Weltklimarat engagieren. Ihr Fazit in einfacher Sprache: Sorry, wir haben uns verrechnet, unsere Klima-Simulationen waren fehlerhaft. Die Menschheit darf – theoretisch – noch viermal mehr CO2 ausstoßen, als bisher geschehen und berechnet, bevor sich die Steigerung der Erdtemperatur (vermutlich) der 1,5 Grad Marke nähert. Keine Rede mehr von fünf Grad und einem unglaublichen Meeresanstieg.
Ihre Erkenntnisse haben sie so gut versteckt wie eine Elster die geklaute Perlenkette. Die Studie heißt: „Emissionsbudget und Emissionspfad vereinbar mit dem Ziel, die Erwärmung auf 1,5 Grad zu begrenzen“. Dennoch sind die Kassandras vom Potsdamer Institut für Klimafolgenforschung schon ganz aufgebracht. Die wollen sich auf keinen Fall ihre Klima-Katastrophe kaputt machen lassen. Vielleicht sollte Barbara Hendricks sie zum Tauchkurs mitnehmen, damit die Jungs ein bisschen entspannter werden.
Übernommen von ACHGUT hier




Diesel: Die Lückenmedien im Glashaus (7)

Bild 1. [Aufmacher] Vergangenheit: Primitiver, „schmutziger“ Verbrenner-Dino ohne Platz, Komfort oder Sicherheit (oben), Zukunft: Modernes E-Mobil, das keine Wünsche offen lässt (unten) (Foto: Wikimedia JoachimKohlerBremen)
In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im jetzigen siebten Teil wird anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten nachgewiesen, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen.
 
Wie man den Diesel-PKW-Fahrer zum Sündenbock macht
An dieser Stelle kommen nochmals Aspekte zur Sprache, die in früheren Teilen dieses Berichts nur gestreift werden konnten. Zu den perfiden Hinterhältigkeiten der aktuellen, auch und gerade von diversen Behörden geförderten Kampagne gegen die Automobilindustrie gehört der Versuch, dem privaten Fahrer eines Diesel-PKW die Hauptverantwortung für die NO2-Werte in der Luft unserer Städte in die Schuhe zu schieben, um ihm dann mit Verboten auf die Pelle zu rücken. Wie dabei vorgegangen wird, sieht man recht anschaulich bei einer umfassenden Untersuchung des Bayerischen Landesamtes für Umwelt [BLFU]. Dort findet sich zu den Stickoxid-Emissionen von PKW und schweren Nutzfahrzeugen (SNFz) auf Seite 20 die folgende Teilgrafik, Bild 2.

Bild 2. Absolute und prozentuale Werte zu den NO2-Emissionen der verschiedenen Fahrzeugkategorien an der besonders hoch belasteten Messstelle Landshuter Allee in München im Jahr 2014 (Grafik: [BLFU])
Mit dieser Darstellung scheinen sich die Behauptungen industriefeindlicher Kräfte, dass Diesel-PKW die Hauptsünder bei der Befrachtung der Stadtluft mit dem angeblich schädlichen NO2 sind, zu bestätigen. Allerdings gibt es eine dazugehörende zweite Teilgrafik zu Stickoxidemissionen, die paradoxerweise ganz andere Zahlen enthält, Bild 3.

Bild 3. Absolute und prozentuale Anteile der NOx-Emissionen der verschiedenen Fahrzeugkategorien an der besonders hoch belasteten Messstelle Landshuter Allee in München im Jahr 2014 (Grafik: [BLFU])
Vergleicht man die Absolutwerte von Bild 2 und Bild 3, so fällt auf, dass die SNFz zwar 29,8 g/(Tag*m) an NOx  und damit 50 % der Gesamtemissionen an Stickoxiden ausstoßen, ihr Anteil beim NO2 jedoch bei lediglich 2,82 g/(Tag*m) bzw. 23 % liegt. Beim Diesel-PKW liegt der NOx -Anteil dagegen mit 25,56 g/(Tag*m) bei nur 43 %, ihr NO2-Ausstoß erreicht dagegen mit 9 g/(Tag*m) volle 75 %. Grund für diese erheblichen Unterschiede sind die Charakteristiken der jeweiligen Motor- und Abgasnachbehandlungstechnologien. Derartige Diskrepanzen sollten investigative Journalisten eigentlich sofort misstrauisch machen. Sind NO-Emissionen etwa harmlos? Ist der Kfz-Verkehr die einzige Ursache für Stickoxid-Emissionen? Hier erscheint ein Faktencheck dringend geboten.
 
Tricksereien mit NO, NOx und NO2
Um die hier angewandten Tricks nachvollziehen zu können, müssen wir uns nochmals kurz einige Grundlagen zum Thema Stickoxide vor Augen führen. Dieser Begriff umfasst eine ganze Gruppe von Gasmolekülen, die aus Stickstoff und Sauerstoff in unterschiedlichen Kombinationen bestehen. Für Autoabgase und auch für die Immissionen in Städten sind jedoch nur zwei Moleküle von Bedeutung, und zwar das Stickstoffmonoxid NO und das Stickstoffdioxid NO2. Zusätzlich wird auch noch häufig der Begriff NOx verwendet. Er bezeichnet die Summe aus NO und NO2. Somit kann man aus den Zahlen in den Bildern 2 und 3 die Emissionen der drei Fahrzeugkategorien wie folgt errechnen, Tabelle 1.

Fahrzeug kategorie NO- Ausstoß
g/(Tag*m)
%-Anteil NO2– Ausstoß
g/(Tag*m)
%-Anteil NOx– Ausstoß
g/(Tag*m)
%-Anteil
Benzin-PKW 4,24 9 0,25 2 4,49 7
Diesel-PKW 16,56 35 9 75 25,56 43
SNFz 26,98 56 2,82 23 29,80 50
Gesamt 47,78 12,07 59,85

Tabelle 1. Mengen und prozentuale Anteile der Stickoxidemissionen der verschiedenen Fahrzeugkategorien (Daten: [BLFU])
 
Eine grafische Darstellung der massiv höheren Anteile von NO in den Abgasen von Benzin-PKW und SNFz im Vergleich zum Diesel PKW zeigt Bild 4.

Bild 4. Sowohl beim Benzin-PKW als auch bei SNFz sind die NO-Anteile im Abgas auffallend höher als beim Diesel-PKW (Daten: [BLFU])
Das äußerst schlechte Abschneiden des Diesel-PKW bei den NO2-Emissionswerten (siehe Bild 2) hängt nicht etwa damit zusammen, dass dieser besonders große Mengen an Stickoxiden erzeugt, sondern damit, dass sich hier das Verhältnis von NO2 zu NO besonders ungünstig auswirkt, wenn man zur Beurteilung lediglich den NO2-Ausstoß heranzieht. Letzteres ist in der Diesel-Debatte zur Regel geworden und wird weidlich zur Panikmache ausgenutzt, weil sich die deutschen Immissionsschutzvorschriften ebenso wie die Horrormeldungen zahlreicher epidemiologischer Veröffentlichungen zum Thema Stickoxide nahezu ausschließlich auf das NO2 beziehen. Das als weniger schädlich eingestufte NO wird dagegen weitgehend ausgeklammert. Dies gilt auch für die 39. Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes [BIMS], wo NO im Zusammenhang mit dem Schutz der menschlichen Gesundheit nicht einmal erwähnt wird. Lediglich im Zusammenhang mit dem Schutz der Vegetation wird ein Grenzwert für NOx – also für den Gesamtgehalt an NO und NO2 – definiert. Nach dem NO – das ebenfalls ein Reizgas ist, für das gesetzliche Obergrenzen gelten – fragt dagegen kein Mensch und vor allem kein Gericht. Dank dieses „Scheuklappeneffekts“ sind sowohl Benzin-PKW als auch SNFz wegen des besonders geringen Anteils an NO2 in ihren Abgasen bei allen Diskussionen fein raus, während der Diesel-PKW als Sündenbock herhalten muss. Diejenigen, die dem deutschen Bürger das private Autofahren vermiesen und im nächsten Schritt dann ganz verbieten wollen, haben natürlich ein Interesse daran, diese Einseitigkeit nach Kräften auch weiterhin aufrechtzuerhalten, damit technische Laien – zu denen auch Richter zählen – möglichst nicht merken, wie sie hinter die Fichte geführt werden.
 
Emissionen und Immissionen
Dieser Betrug am Volk ist erschreckend einfach durchzuführen: Man hält dem Bürger den NO2-Grenzwert aus dem Bundesimmissionsschutzgesetz vor die Nase wie der Torero dem Stier das rote Tuch. Und dann argumentiert man mit der Zusammensetzung der Emissionen. Wer weiß denn schon, dass NO sich auf dem Weg vom Auspuff bis zur Lunge aufgrund von chemischen Gesetzmäßigkeiten in NO2 umwandelt?
Der Trick besteht also darin, den NO-Anteil in den Abgasen von Benzin-PKW sowie SNFz nicht zu erwähnen bzw. davon abzulenken, was hinter dem Auspuff damit geschieht. Man muss nur darauf achten, dass niemand auf die Idee kommt, nach dem Unterschied zwischen Emissionen und Immissionen überhaupt zu fragen. Dabei ist der Unterschied eigentlich leicht zu verstehen. Emissionen sind das, was man direkt am Auspuff eines Fahrzeugs messen kann. Immissionen sind dagegen das, was davon tatsächlich an der Nase der Bürger ankommt. Der Unterschied ist deshalb bedeutsam, weil sich dazwischen ein erheblicher Teil des NO in NO2 umwandelt. Dies liegt an der Temperatur: Je weiter sich die am Auspuffendrohr noch sehr heißen Abgase abkühlen, desto mehr des darin enthaltenen NO wandelt sich unter Aufnahme eines Sauerstoffatoms in NO2 um. An der freien Atmosphäre läuft diese Umwandlung bei Temperaturen unterhalb von 25 °C fast vollständig ab [MARX], Bild 5.

Bild 5. Naturgesetze sorgen dafür, dass der größte Teil der aus dem Auspuff entweichenden NO-Emissionen bis zum Ort und Zeitpunkt der Immissionsbestimmung zu NO2 umgewandelt ist
Die Umwandlung beginnt sofort und läuft innerhalb von einigen Stunden ab. Dies kann man auch anhand entsprechender Messwerte leicht nachweisen. Den Angaben in Bild 4 kann man entnehmen, dass das Verhältnis von NO und NO2 bei den Verkehrsemissionen im Mittel bei 4:1 liegt. Würde es nicht zu dieser Umwandlung kommen, so müsste entsprechend Bild 4 das Verhältnis zwischen NO und NO2 bei Immissionsmessungen auch bei rund 4:1 liegen. Misst man jedoch z.B. am frühen Sonntagmorgen in etwas ruhigeren Straßen, d. h. zu einem Zeitpunkt, wo die Umwandlung (auch wegen des Sonntagsfahrverbots für LKW) Zeit hatte, recht weitgehend abzulaufen, so stellt man fest, dass das Verhältnis stattdessen zwischen 1:3 und 1:5 liegt, Bild 6.

Bild 6. In den ruhigeren Stunden am frühen Sonntagmorgen geht das Verhältnis von NO zu NO2 von ursprünglich 4:1 am Auspuff auf Werte zwischen 1:3 und 1:5 zurück (Grafik: [BLFU])
Das Bild 6 veranschaulicht sehr eindrücklich den in Bild 5 dargestellten Zusammenhang. Die Messungen erfolgten in der Münchner Schlörstraße, einer etwas ruhigeren Seitenstraße der berüchtigten Landshuter Allee. Gegen etwa 4 Uhr am Sonntagmorgen, wenn kaum noch Neuemissionen durch Fahrzeuge hinzukommen, sinkt das Verhältnis zwischen NO und NO2 auf bis zu 1:5 ab. Man kann daraus folgern, dass zu diesem Zeitpunkt bereits etwa 80-90 % des ursprünglich vorhandenen NO zu NO2 umgewandelt wurden. Dass das Niveau des NO2 dennoch ebenfalls weiter absinkt, liegt daran, dass die Verdünnung dieser Gase ständig weitergeht. Sie verbreiten sich über ein immer weiteres Gebiet, wodurch die Konzentration abnimmt. Zudem werden beide Gase ständig an Oberflächen absorbiert sowie durch Regen aus der Atmosphäre ausgewaschen.
Eine Vorstellung davon, wie schnell die Umwandlung von NO in NO2 anläuft, bekommt man zudem, wenn man sich den Zeitversatz zwischen Maxima des Verkehrsaufkommens sowie den Scheitelpunkten der an gleicher Stelle gemessenen NO2-Konzentrationen ansieht, Bild 7.

Bild 7. Gegenüberstellung von Fahrzeugaufkommen und NO2-Messwertverlauf (Grafik: [BLFU])
In Bild 7 ist zu erkennen, dass die NO2-Maxima bzw. Minima gegenüber dem Verkehrsgeschehen mittags und abends einen Zeitversatz von 2-3 Stunden haben. Die naheliegende Erklärung hierfür dürfte sein, dass dies durch den Zeitaufwand für die Umwandlung des ursprünglich in wesentlich größeren Mengen erzeugten NO in NO2 bedingt ist. Der fehlende Versatz am Morgen könnte auf Messprobleme zurückzuführen sein.
Am Rande sei angemerkt, dass es zu dieser Umwandlung recht unterschiedliche mathematische Ansätze gibt, die z.T. auf Weiterentwicklungen basieren. Auch gibt es noch weitere Reaktionen als die direkte Umwandlung von NO in NO2 gibt. In manchen Publikationen wird den diversen möglichen Reaktionen zwischen Stickoxiden und Ozon viel Aufmerksamkeit gewidmet. Die Hypothese, dass diese Reaktionen, die auch noch die Anwesenheit bestimmter Stäube und Kohlenwasserstoffe sowie UV-Licht erfordern, in der chaotischen Realität der städtischen Atmosphäre tatsächlich in der Weise und in dem Umfang ablaufen, wie es seitens mancher ideologielastiger Quellen wie Wikipedia behauptet wird, wird von Fachleuten der Ozonchemie nicht so ohne weiteres mitgetragen. So findet sich dazu in einer entsprechenden Veröffentlichung des Arbeitskreises Ozon die Aussage: „Ozon…verwandelt sich unter bisher noch nicht genau definierten Reaktionen mit Stickoxiden zu Sauerstoff zurück [OZON].
Generell ist festzuhalten, dass die mathematische Modellierung all dieser möglichen Umwandlungsreaktionen, egal ob direkt oder unter Einbeziehung von Ozon, bei näherer Betrachtung eher empirisch als exakt physikalisch-chemisch begründet zu sein scheint. Da diese unterschiedlichen Modelle bei Simulationen zur Luftbelastung zum Einsatz kommen, die Belastbarkeit der entsprechenden Ergebnisse nicht allzu hoch.
 
Abgase: Entscheidend ist das reale NO2-Potenzial
Die hier gezeigten Zusammenhänge zeigen, dass die plumpen Unterstellungen, dem Diesel-PKW seien aufgrund seiner höheren NO2-Emissionsanteile 75 % des NO2-Anteils an der Luftbefrachtung in den Städten anzulasten, schlicht falsch sind. Zwangsmaßnahmen zur Luftreinhaltung wie die geplanten Fahrverbote haben ernste und weitreichende Konsequenzen. Man sollte vorher sicherstellen, dass man die Hauptquellen unerwünschter Immissionen zweifelsfrei identifizieren konnte. Sonst hat man keine Rechtfertigung derart schwerwiegende Eingriffe. Ideologisch statt sachlich begründete Argumente sind nicht nur unangebracht, sondern ein recht zweischneidiges Schwert, wenn sich der Bürger hinterher als der Betrogene sieht. Deshalb ist jedem Verantwortlichen anzuraten, sich mit dem Einfluss von NO-Emissionen auf die Luftbefrachtung mit NO2 genauer zu beschäftigen, siehe auch Bild 8.

Bild 8. Mittlere Tagesgänge von NO und NO2 am Münchner Brennpunkt Landshuter Allee an Wochentagen sowie an Samstagen und Sonntagen (Grafik: [BLFU])
Der Unterschied zwischen den Teilbildern zeigt, dass an Werktagen der zeitlich sehr eng gestaffelte Start des Gewerbeverkehrs zwischen 6.00 und 8.00 zu einem drastischen Hochschnellen des NO-Anteils von um die 25 µg/m3 auf bis zu etwa 210 µg/m3 führt. Diese Fahrzeuge dürften zu vermutlich über 95 % Dieselmotoren mit hohem NO-Anteil im Abgas haben. Nach 8.00 Uhr haben offensichtlich die Handwerker ihre Baustellen und die Spediteure entweder die Stadt verlassen oder ihre ersten Lade- bzw. Abladestationen erreicht, so dass der Anstieg mit einem abrupten Knick in einen Abfall übergeht. Die Umwandlung zu NO2 erfolgt anschließend über mehrere Stunden und hält dementsprechend den NO2-Gehalt hoch. Ab etwa 17.00 kommt der gewerbliche Verkehr zum Erliegen, und dementsprechend sinkt der NO-Anteil etwa 2-3 Stunden später unter den NO2 ab. Am Sonntag hingegen, wenn der gewerbliche Diesel-Verkehr weitgehend entfällt und dementsprechend weit weniger NO emittiert wird, verbleibt dessen Gehalt ganztägig unterhalb desjenigen des NO2.
Die Bilder 6 bis 8 belegen anschaulich, warum es unzulässig ist, sich bei der Beurteilung von Immissionsursachen auf die Zusammensetzung von Emissionen zu stützen. Statt das NO weitgehend zu ignorieren, muss vielmehr sein NO2-Potenzial aufgrund der eintretenden Umwandlung ins Kalkül gezogen werden. Es erscheint realistisch, hier von einer effektiven Umwandlungsquote von 90 % auszugehen. Aus ursprünglich 100 Teilen NO werden demnach 10 Teile NO und 90 Teile NO2. Zusätzlich ist noch zu beachten, dass sich bei dieser Umwandlung das Molekülgewicht durch die Aufnahme eines zusätzlichen Sauerstoffatoms um 53 % erhöht. Das Ergebnis einer entsprechenden Neuberechnung der Werte aus Tabelle 1 zur Bestimmung des tatsächlichen NO2-Potenzials zeigt Bild 9.

Bild 9. Das tatsächliche NO2-Immissionspotenzial des Abgases der verschiedenen Fahrzeugkategorien unter Berücksichtigung der Umwandlung von NO in NO2, berechnet auf Basis der Daten der Bilder 2 und 3
Die Neuberechnung zeigt, dass es nicht die Diesel-PKW, sondern die Nutzfahrzeuge sind, welche den größten Beitrag zur NO2-Immissionsfracht aus den Abgasemissionen des städtischen Verkehrs liefern. Doch auch mit dieser Korrektur ist der tatsächliche Beitrag der diversen Verkehrsteilnehmer noch nicht vollständig erfasst, denn zusätzlich ist auch noch der Beitrag des städtischen Hintergrunds einzubeziehen, der sich aus Quellen wie Heizungen, Kaminen und Industrie etc. speist. Angaben zu diesem Hintergrund liefert Bild 10.

Bild 10. Wochenmittel der NO2-Immissionsfracht an der Landshuter Allee im ersten Halbjahr 2014 mit zusätzlicher Angabe der Temperatur (Grafik: [BLFU])
Zu den Angaben in Bild 10 ist anzumerken, dass für die Betrachtung wegen Zweifeln an der „Ozonhypothese“ der Verfasser der BLFU-Studie lediglich die tatsächlich gemessene Gesamtmenge sowie der Wert für den städtischen Hintergrund zur Auswertung herangezogen wurden. Um die Veränderungen des Hintergrunds zwischen Heizperiode und Sommer zu berücksichtigen, wurden die ersten 26 Werte genommen, da auf diese Weise je zwei Wochen des kältesten und des wärmsten Jahresmonats einbezogen wurden. Als Durchschnittswert für den städtischen Hintergrund ergab sich damit ein Wert von 23 µg/m3. Angesichts des gesetzlichen Grenzwerts von lediglich 40 µg/m3 lässt dies einer heutigen Stadt viel zuwenig Spielraum. In der Heizperiode lag der Hintergrundwert während fünf Wochen sogar zwischen 35 und 38 µg/m3. Im Prinzip bliebe der Stadt München angesichts der von den Quälgeistern der Deutschen Umwelthilfe (DUH) geforderten strengen Auslegung des Grenzwerts keine andere Wahl, als ihren Bürgern über Wochen entweder das Heizen oder das Autofahren zu verbieten: Beides zusammen ist unter den geforderten Voraussetzungen nicht möglich.
 
Unbegreifliche Versäumnisse der Politik
Bei nüchterner Betrachtung fällt es schwer zu begreifen, wieso ein Rechtsstaat mit über 80 Millionen Einwohnern sich durch eigene Dummheit in eine Lage gebracht hat, die es einem winzigen Verein gestattet, seine Großstädte im Interesse ausländischer Industriekonzerne – die DUH wird massiv u.a. von Toyota unterstützt – derart in die Enge zu treiben. Die Politiker, die einen von US-Interessen diktierten Grenzwert von nur 40 µg/m3 akzeptierten, haben Deutschland massivst geschadet. Die Situation ist unerträglich und darf so nicht weitergehen. Es ist kaum vorstellbar, dass die DUH-Leute keinen Dreck am Stecken haben. Hier sollte man die Gesetze, welche gegen die Bildung krimineller Vereinigungen erlassen wurden, mit voller Konsequenz zur Anwendung bringen, einschließlich der heutzutage möglichen und in anderen Fällen ja extensiv eingesetzten Mittel zur Überwachung. Aber wenn natürlich ein ehemaliger DUH-Verbandschef aktuell als hochgeehrter Staatssekretär in Amt und Würden ist…
Doch zurück zur Analyse der Beiträge der verschiedenen Verkehrsteilnehmer zu den NO2-Immissionen. Berücksichtigt man bei der Betrachtung des NO2-Potenzials die 23 µg/m3 des städtischen Hintergrunds, so erhält man mit den bisher errechneten Daten aus den Bildern 2 und 3 den tatsächlichen Beitrag der einzelnen Fahrzeugkategorien zum Immissionsgeschehen, Bild 11.

Bild 11. Prozentuale Anteile der verschiedenen Emissionsquellen an den NO2-Immissionswerten der Landshuter Allee in München im Jahr 2014, berechnet auf Basis der Daten der Bilder 2, 3 und 10
Bezieht man zusätzlich zur Berücksichtigung von NO-Emissionen auch noch den städtischen Hintergrundwert in die Analyse der Beiträge zum Immissionsgeschehen an der Landshuter Allee in München ein, so liegt der Beitrag der Diesel-PKW nur noch bei 38 %. Der Unterschied zu den „amtlichen“ Zahlenangaben von Bild 2 ist frappierend. Aussagen wie die der Präsidentin des Deutschen Städtetags, der CDU-Politikerin Eva Lohse, vor laufender Kamera (Bild 12) sollten unterbleiben. Die Städte sägen damit selbst am Ast der Gewerbeeinnahmen, von denen sie leben.
Unsicherheiten
Bei der Beurteilung der hier ermittelten Ergebnisse ist zu beachten, dass es hierbei etliche Unsicherheitsfaktoren gibt. Während die mithilfe der verschiedenen Messsysteme erfassten Immissionswerte als gesichert angesehen werden können, gibt es bei den Angaben zu den Emissionen sowie zum städtischen Hintergrund erhebliche und schwer zu quantifizierende Fehlerquellen. Dies betrifft zunächst die Verkehrsdaten, die als Rohdaten für eine Simulation der Emissionen gedient haben. Die vorgenommene Einteilung nur in die Kategorien PKW und SNFz ist viel zu grob. Durch diese Rasterfestlegung werden die zahlreichen kleineren Transport- und Lieferfahrzeuge sowie Kleinbusse aus den Bereichen Dienstleistungen, Handel, Handwerk und Logistik zu einem erheblichen Teil der Kategorie Diesel-PKW zugeordnet. Dabei sind gerade solche Fahrzeuge wegen ihrer langen Abschreibungszeiträume meist mit älteren und damit weniger effizienten Abgasbehandlungssystemen ausgestattet als private Diesel-PKW. Zudem haben sie höhere Verkehrsanteile.
Weitere Unsicherheiten ergeben sich zwangsläufig aus der Simulationssoftware bzw. den hierfür verwendeten Parametern. So erhebt sich die Frage, ob und falls ja mit welchen Parametern die Umwandlung von NO zu NO2 im Modell berücksichtigt wurde. Prinzipiell sind solche Simulationen zwar nützlich, sie können jedoch auch sehr in die Irre führen. Ein blindes Vertrauen auf Zahlen, weil sie ein Computer errechnet hat, ist heutzutage leider allzu weit verbreitet. Es ist bezeichnend, dass in der Untersuchung des Bayerisches Landesamt für Umwelt keine Angaben zu einer eventuell durchgeführten Kalibrierung aufgeführt sind.
Weiterer Schwachpunkt ist das völlige Fehlen von Angaben zur Herkunft der Hauptbestandteile des städtischen Hintergrunds. Dessen Jahresgang lässt erkennen, dass er zu einem erheblichen Anteil durch den Betrieb von Heizungen verursacht ist. Die schlechte Korrelation mit dem Verlauf der Temperaturkurve in Bild 10 spricht jedoch dafür, dass es hier erhebliche Störgrößen gibt.
 
Verantwortungslosigkeit der Medien
Den Medienvertretern und Politikern, die uns durch jahrelange Kampagnen gegen das Automobil zu dem aktuellen „Dieselskandal“ verholfen haben, muss man den Vorwurf machen, den Unsinn von „Diesel tötet“ als Dauerschleife in endlosen Variationen wiederholt zu haben. Ohne diese jahrelange Dauerberieselung über angebliche Todesopfer durch Abgase wäre es vermutlich nicht zu dem unsinnig niedrigen, rein ideologisch begründeten Grenzwert von 40 µg/m3 gekommen, den sich die deutsche Politik ohne nennenswerte Gegenwehr durch die EU aufoktroyieren ließ. Dieser ist die Ursache des derzeitigen Wahnsinns. Hier haben die Vertreter der Medien ihrer journalistischen Sorgfaltspflicht gröblich zuwidergehandelt. Man darf als Journalist ruhig etwas nicht wissen: Es gibt aber keine Ausrede dafür, sie sich nicht alle Seiten einer Angelegenheit anzusehen bzw. anzuhören. Es gibt in Deutschland genug Fachleute, die Auskunft darüber geben können, was im Bereich von Kfz-Abgasen realistisch ist und was nicht. Entsprechende Namen sind unter anderem im Bericht des Bundestagsausschusses zur Dieselaffäre zu finden [BUTA]. Journalisten, die ständig nur Meldungen aus dem alarmistischen Lager veröffentlichen und die Positionen der anderen Seite konsequent nicht zur Sprache bringen, machen sich im Endeffekt mitschuldig am Niedergang der Automobilbranche und der Enteignung von Millionen Bürgern.
 
Fakten und „Faktenfinder“
Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die sich jetzt abzeichnende „Jamaika“-Koalition ist dafür ein sehr schlechtes Omen.
Fred F. Mueller
 
Demnächst folgt Teil 8
 
Quellen
[BIMS] Neununddreißigste Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes Verordnung über Luftqualitätsstandards und Emissionshöchstmengen (39. BImSchV) vom 02.08.2010
[BLFU] Bayerisches Landesamt für Umwelt: Untersuchung der räumlichen Verteilung der NOX-Belastung im Umfeld von vorhandenen, hochbelasteten Luftmessstationen. Abschlussbericht. September 2015.
[BUTA] Drucksache 18/12900 – 492 – Deutscher Bundestag – 18. Wahlperiode
[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html
[MARX] https://www.eike-klima-energie.eu/2017/10/02/ueber-stickoxide-und-den-dieselmotor/
[OZON] http://www.ak-ozon.de/ozon.htm
[ZDF] ZDF Heute – Sendung vom 2.9.2017, Sendeminuten 03:55 bis 04:11




Eilmeldung zu COP 23: Fidji geht doch nicht unter (wegen des westlichen CO2), es war nur ein alter Datensatz

BR Info: Hintergrund Klimawandel

Der Bayerische Rundfunk weiß, was die bayerischen Untertanen wissen dürfen. Entsprechend umfassend informiert er sie über Wichtiges aus aller Welt. Aktuell natürlich über das derzeitige Weltereignis, COP 23 in Bonn. Zwar kommt die Information schon in allen Zeitungen, aber den Staatsfunk hat man ja bezahlt und dafür erhält man die Information, welche die hohe Politik für den Bürger herausgibt, damit diese deren fürsorgliche, volksnahen Taten verstehen lernen, wie zum Beispiel das weltweite Verschenken ihres Geldes an „Klimaschaden-anspruchsberechtigte“ Potentaten [5].
BR: [1] Vom 6. bis 17. November tagt in Bonn die 23. UN-Klimakonferenz. Ihr Ziel: Den Fahrplan aufsetzen, mit dem die ehrgeizigen Ziele des Paris-Protokolls auch wirklich erreicht werden können.

Bild 1 [1] Screenshot BR Info zu COP 23

Die Einleitungsinformation beim Bayerischen Rundfunk bietet das, was man auf KLIMARETTER.INFO und in der Süddeutschen Zeitung ständig liest: Konsequenten Klimaalarm. Doch erscheint dazu eine Detailinformation.

Fidschi … Seit 1993 ist der Meeresspiegel pro Jahr um durchschnittlich sechs Millimeter angestiegen

Bild 2 [1] Angaben zum Meeresspiegelanstieg bei Fidji. Quelle: Screenshot BR Info zu COP 23

Sechs Millimeter pro Jahr sind erheblich mehr Pegelanstieg, als ihn der Tidenpegel, welcher weltweit zwischen 1,17 … 1,67 mm / pa beträgt [7] und in der Pazifikgegend von Fidji im Mittel 2,17 mm / pa [6] ausweist. Bei der Klimakonferenz werden diese Daten (6mm / pa) ihre „Wirkung“ entfalten, denn sie „berechtigen“ die Regierung von Fidji, als Forderer, weil Klimaopfer, aufzutreten.
Genügend Anlass, dem Pegeltrend (wieder) nachzuspüren und (wieder) zu sehen, wie der Klimawandel seine Fortsetzungs-Krimis schreibt.

Der Datenursprung für die 6 mm / pa ist schnell gefunden

Bei der NOAA ist eine Tidengrafik für Fidji hinterlegt. Und der berechnete Pegelanstieg weist 6,3 mm / pa aus. Man kann davon ausgehen, dass dies (eine) Quelle der Pegelangaben vom Bayerischen Rundfunk ist.

Bild 3 Fiji Pegelbild und Daten. Quelle NOAA Tides and Currents


Nun ist in der BR-Information angegeben, der Trend wäre seit dem Jahr 1993 so hoch. Ausgerechnet ab diesem Zeitraum gibt es eine wesentlich bessere Pegelangabe, die vor allem nicht mit dem Jahr 2010 aufhört, sondern bis aktuell (6.2017) reicht.
Zu finden ist diese bei der Regierung von Australien, welche ein eigenes Pazifik-Pegelüberwachungsprogramm betreibt. Pegelbilder daraus sind bereits aus den Artikeln [2] [7] bekannt, anbei jedoch nochmals die Informationen.

Aktuelle Daten weisen ab dem Jahr 1993 nur einen „natürlichen“, 2,4 mm / pa Mittelwert-Pegelanstieg aus

Australien hat erkannt, dass die Pegel-Datenqualität gerade bei den angeblich untergehenden Inseln (und auch sonst rund um die Welt) katastrophal ist und deshalb für ihren Bereich ein eigenes Pegel-Überwachungsprojekt aufgesetzt: [3] Australien Government Pacific Sea Level Monitoring Project
Dort finden sich im Gegensatz zu den teils veralteten und oft fehlerbehafteten vom PSMSL, aktuelle und überprüfte Daten zu den Inseln des Süd-Pazifik und natürlich auch von Fidji.

Bild 4 Pegelverlauf Fidji. Quelle Australien Government Pacific Sea Level Monitoring Project


Der Autor hat sich die Mühe gemacht, die zum Glück zusätzlich als Datensatz hinterlegten Daten weiter auszuwerten.

Bild 5 Fidji, Pegelverlauf-Mittelwert von 1993 – 6.2017, ergänzt um die Regressionsgerade und Endwertniveau. Vom Autor aus den Daten erstellt. Datenquelle: Australien Government Pacific Sea Level Monitoring Project (Mittelwertdaten von Bild 4)


Und der dort hinterlegte Pegelverlauf von Fidji liefert nun interessante Daten:
Der Pegelanstieg seit dem Jahr 1993 berechnet sich zu lediglich 2,4 mm / pa
Der Pegelwert im Juni dieses Jahres war genau so (niedrig) wie im Jahr 1993 zu Beginn der Messreihe
Eine Pegeländerung von (angeblichen – schlimmen) 15 cm sagt bei der Pegelspanne selbst über diesen Zeitraum gesehen überhaupt nichts aus
Nicht einmal ein steigender Trendkanal lässt sich einzeichnen
Die gleiche Auswertung für den Maximalpegel, der sicher die wirkliche Vulnerabilitätsbelastung kennzeichnet, sieht wie folgt aus:

Bild 6 Fidji, Pegelverlauf-Maximalwerte von 1993 – 6.2017, ergänzt um die Regressionsgerade und Endwertniveau. Vom Autor aus den Daten erstellt. Datenquelle: Australien Government Pacific Sea Level Monitoring Project


Daten des Maximalwertverlaufes aus Bild 6:
Pegelanstieg seit dem Jahr 1993 3,8 mm / pa
-Zwar weist die Regressionsgerade eine Pegelzunahme aus, es ist jedoch kein zunehmender Pegel-Trendkanal erkennbar

Ohne Trend beim Pegelanstieg auch keine Pegelbedrohung

Bei diesem niedrigen Pegelanstieg und aktuellen Pegelwert käme kaum jemand auf die Idee, der Regierung von Fidji ihr penetrant berichtetes (angeblich westlich-CO2-bedingtes) Pegel-Bedrohungsszenario abzunehmen. Und es stellt sich die Frage, warum der mit vielen Milliarden EUR GEZ-Zwangsgebühren finanzierte Staatsfunk so wichtige – aktuelle und bessere – Daten den Untertanen verheimlicht.

Die NOAA-Daten von Fidji repräsentieren diese Pazifikgegend nicht

In der BR-Info steht konkret, ab 1993. Damit ist die bisherige Ableitung sachgerecht durchgeführt und die Daten aus Australien die aktuell richtigen. Doch auch zu der Fragestellung des langfristigen Verlaufs in diesem Pazifikgebiet hat der Autor schon öfters berichtet und in einem dieses Thema bereits behandelt [4]. Daraus die wichtige Information:
Aus irgend einem Grund weist fast nur der Pegel von Fidji in diesem Pazifikbereich einen größeren Pegelanstieg aus. Die überwiegende Anzahl (brauchbarer) Langfrist-Pegelverläufe zeigt diesen Anstieg nicht.
Extrem erkennt man es am Vergleich der Verläufe von Fidji mit Kiribati (Bild 7).

Bild 7 [4] Pegeldaten von Fidschi und Kiribati mit linearen Regressionsgeraden. Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Dass Fiji „untergeht“, könnte eher an einem Datenproblem, als an westlichem CO2 liegen

Dass dies auch großräumig gilt, sieht man bei der nächsten langfrist-Pegelverlaufsdarstellung. Seit 1966 (davor gibt es keine verwertbaren Pegeldaten) gibt es keinen kontinuierlich-alarmistischen Pegelanstieg. Der (restliche) Anstieg bei Fidji ist ein Einzelfall und es wäre eher zu untersuchen, ob es Messfehler, oder sonstige (damalige) Probleme mit der Station waren.
Auf jeden Fall lässt sich zeigen, dass auch für Fidji keine konkrete Untergangsgefahr messbar ist. So eine solche gemeldet wird, stammt sie (wie üblich) aus Computersimulationen und nicht aus der wahren Natur.

Die aktuellen Pegelverläufe vom Pacific Sea Level Monitoring Project

Eine gute Methode um zu prüfen, wie die Pegelverhältnisse in einem Seengebiet wirklich „aussehen“ hat es sich bewährt, die (Pegelverläufe) aus der Umgebung auf einen geeigneten Endwert zu normieren und einfach übereinander zu legen. Man erkennt dann ohne viel Rechnerei sofort den wirklichen Zustand, und vor allem die enormen Variabilitäten, welche selbst bei Zeitspannen von 30 Jahren keine wirklichen Trendaussagen erlauben – und zeigt, dass Aussagen von Einheimischen mit ihren teils erschütternden Erlebnisberichten [8] für die Bewertung eines Pegelverhaltens überhaupt keinen Sinn ergeben.
Der Autor hat es vor einiger Zeit (mit den damaligen PSMSL-Daten) durchgeführt [4] (Bild 8):

Bild 8 [4] Pegeldaten-Mittelwerte des Pazifikbereiches um Fidi beginnen mit dem Jahr 1966 bis 2015 (ohne Normierung). Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Und es nun zur Sicherheit mit den aktuellen Daten von der Homepage der Australischen Behörde wiederholt. Diesmal mit den Verläufen der Maximalpegel, welche ja die Überflutungen verursachen.

Bild 9 Maximal-Pegeldaten Pazifikatolle im Gesamtraum Pazifik um Fiji, beginnend mit dem Jahr 1992 bis 6.2017. Alle Daten auf den Endwert Fidji (rot) normiert. Grafik vom Autor anhand der [4] Australien Government Pacific Sea Level Monitoring Project-Daten erstellt

Fazit
Beide Pegel-Verlaufsbilder zeigen eine hohe, aber keinesfalls zunehmende Pegelspanne. Es kann damit nicht stimmen, dass die Überflutungen bedingt durch einen Klimawandel zugenommen haben. Ein Trendkanal mit stetiger Pegelhöhen-Zunahme – wie es immer berichtet wird – ist ebenfalls nicht erkennbar
Stark erinnert das Ganze den Autor an bereits früher bereits öfter Beschriebenes. Immer, wenn man „untergehenden Inseln“ nachrecherchiert, findet man die Inseln, aber keinen (Klimawandel-bedingten) Untergang:
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
EIKE 06.06.2017: [7] Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 1: Pegelinformationen
EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht
EIKE 14.05.2016: EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

Nicht nur der Bayerische Rundfunk informiert seine Untertanen tendenziell, natürlich auch die Propagandaseite der Klimaberaterin

Früher gab es einen ganz dämlichen Witz: „Warum werden Kühe nicht gescheiter? Weil sie bei den Bauern wohnen“. Das stimmt heutzutage überhaupt nicht mehr, weil es die ländlichen Zwergschulen – welche eigentlich Notschulen waren – nicht mehr gibt und man auch auf dem Landwohnend ins Gymnasium gehen kann – und vor allem das Geld dazu hat.
Warum erwähn der Autor so einen Schwachsinn? Weil er Parallelen bei der Beratung unserer Politikkaste sieht. Wie sollen unsere Politiker informierter werden, wenn sie Berater*innen wie Herrn Schelnhuber [11] und Frau C. Kemfert haben, die zu einem wesentlichen Teil über diesen Weg eigene Politik machen wollen und an eine neutrale Beratung gar nicht denken?
KLIMARETTER.INFO 04. November 2017: [9] Auf ein Talanoa mit dem Klimakiller
Nazhat Shameem ist Chefverhandlerin beim Klimagipfel in Bonn für ihr Heimatland Fidschi, das den Gipfel offiziell ausrichtet. Sie ist entschlossen, den Geist der Fidschi-Inseln ins kalte Bonn zu bringen, und weiß auch schon, wie sie mit Kohleländern und mit den USA umgehen will.
Eine Herzensangelegenheit ist für sie der Gender Action Plan, der auf dem Gipfel verabschiedet werden soll. Es geht vor allem darum, den Frauenanteil in den Klimaverhandlungen zu erhöhen. Im vergangenen Jahr waren nicht einmal 20 Prozent der Delegationsmitglieder Frauen.
Die Propagandaseite der Beraterin für Energie und Klima weiß, was unseren Politikern an Information fehlt und vor allem, welche sie nicht erfahren dürfen.

Wie kommen „Wissenschaftler“ überhaupt darauf, dass sich der Meeresspiegel nicht (mehr) verändern darf

Alleine, wenn man die Rekonstruktion des Pegelverlaufs bei den Malediven betrachtet, sieht man, dass der Meerespegel auch in historischen Zeiträumen größeren – natürlichen – Schwankungen unterworfen war – und es bestimmt auch weiter sein wird.

Bild 10 [10] Pegelverlauf der Malediven über die letzten 5000 Jahre

Die aktuelle Diskussion um wenige Millimeter oder auch Zentimeter in kurzen Zeiträumen kann das Thema überhaupt nicht erklären, geschweige lösen. Und die vollkommen ungeeigneten Klimasimulationen können es schon gar nicht.
Nachtrag
Nach Absendung dieses Artikels zum Einpflegen erschien einer zum gleichen Thema auf ACHGUT. Er bestätigt die Aussagen des Autors und ist als Ergänzung zum Thema unbedingt lesenswert.
Achgut.com, 05.11.2017, Dirk Maxeiner: Der Sonntagsfahrer: Schnorchelkurs für Barbara Hendricks
… Möglicherweise hängt die Aufregung um das Abtauchen der Südsee also gar nicht mit der Südsee zusammen, sondern mit der Klimakonferenz. Die Tage und Wochen vor einer solchen Veranstaltung sind stets von anschwellendem Alarm-Pegel gekennzeichnet, der aus einer Schwemme von düsteren Studien besteht, die von garantiert unabhängigen Wissenschaftlern rein zufällig so termingerecht gebacken werden, wie die Brötchen fürs Frühstückbüffet im Bonner Hilton. „Der größte Weltklimagipfel aller Zeiten“ (FAZ), kurz  GröWaz, sichert eindrucksvoll die Stellung Deutschlands als führende Exportnation von Weltuntergangs-Szenarien.
Beim Untergang der Südsee handelt es sich gewissermaßen um ein in unregelmässigen Abständen wiederkehrendes Phänomen, so ähnlich wie die warme Meeresströmung El Niño („Das Christkind“). Während El Niño die Menschheit meist so um Weihnachten heimsucht, gehen die Südsee-Inseln stets vor Klimakonferenzen unter, tauchen dann aber wieder auf.  Vor der Klimakonferenz in Doha 2012 und der Klimakonferenz in Lima 2014 versanken sie im deutschen Medienwald bereits in gleichlautenden Worten, etwa auf Focus Online („Massenmigration wegen steigenden Meeresspiegels“) und  ZEIT ONLINE ( „Vor dem Untergang“). Zwischenzeitlich erhoben sie sich dann wieder aus den Fluten, auch dieses Mal müssen die Südseeinseln wieder auftauchen, um dann pünktlich 2018 zur nächsten Kilmakonferenz im polnischen Kattowitz wieder untergehen zu können …

Quellen
[1] Bayerischer Rundfunk Stand: 03.11.2017: Hintergrund Klimawandel UN-Klimakonferenz 2017 Klimagipfel COP 23 tagt ab Montag in Bonn
[2] EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen
[3] Australien Government Pacific Sea Level Monitoring Project Monthly Sea Level and Meteorological Statistics
[4] EIKE 20.12.2016: Der Klimawandel wird bildlich gesprochen immer schöner, die Daten darüber nicht
[5] EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?
[6] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)
[7] EIKE 06.06.2017: Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 1: Pegelinformationen
[8] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel
[9] KLIMARETTER.INFO 04. November 2017: Auf ein Talanoa mit dem Klimakiller
[10] Nils-Axel Mörner: SETTING THE FRAMES OF EXPECTED FUTURE SEA LEVEL CHANGES BY EXPLORING PAST GEOLOGICAL SEA LEVEL RECORDS
[11] EIKE 20. Oktober 2017: „Kippt unser Klima ?“ bei Maischberger/ARD am 10. Oktober 2017: Eine kleine Nachlese über großen Unsinn, sachliche Fehler und wenig Richtiges




Programmhinweis – Die Story im Ersten: Der Klimareport

Am 6.11.17 um 23:25 Uhr sendet Das Erste  innerhalb der Serie „Die Story“ ein Feature mit dem Titel „Klimareport“. Darin werden auch zwei Klimarealisten zu Worte kommen, nämlich Dr. Phillip Lengsfeld CDU MdB der vergangenen 18. Wahlperiode und Michael Limburg Vizepräsident EIKE. Details dazu hier
Da zu erwarten ist, dass beide als Leute dargestellt werden, die – evtl. aus Lobbygründen- Unsinn reden, werden wir im Anschluss eine Kritik unter Berücksichtigung der interessanten Vorgeschichte veröffentlichen.




Was Sie in der neuen US-Klimabilanz nicht finden werden

Dr. Pat Michaels
Nach dem US-amerikanischen Global Change Research Act von 1990, wurde die Bundesregierung mit der Erstellung großer National Climate Assessments (NCA) [nationale Klima-Bewertungen; …~Abschätzungen] beauftragt, und heute ist die jüngste Wiederholung eingetroffen. Es ist typisch für diese Art von Dokumenten – viel darüber, wie die Zukunft die Menschheit dazu verurteilt, durch immer unregelmäßigeres Wetter und andere Beschwerlichkeiten zu leiden. Wie immer fehlen auch ein paar Informationen, die überzeugen, dass alles, was Bezug auf das kommende Klima des 21. Jahrhunderts nimmt, mit äußerster Vorsicht zu genießen ist.
Die Projektionen in der NCA basieren alle auf Klimamodellen. Wenn es darin etwas Wesentliches gibt, das systematisch darin nicht stimmt, dann sind die daraus abgeleiteten Projektionen es nicht wert, gemacht oder geglaubt zu werden.
 
Hier ist das erste bisschen an fehlenden Informationen:

Das Diagramm zeigt die vorhergesagten und beobachteten tropischen (20⁰North-20⁰South) Temperaturen in der Mitte der aktiven Wetterzone der Erde – technisch gesehen die mittlere Troposphäre, ungefähr von 1.500m bis 9.100m Höhe. Die vorhergesagten Werte stammen aus den 102 Klimamodell-Realisierungen von 32 verschiedenen Basismodellgruppen. Diese Modelle stammen aus dem neuesten wissenschaftlichen Kompendium des Weltklimarats der Vereinten Nationen (IPCC) und sind das umfassendste verfügbare Set. Die Daten für die Grafik wurden vor kurzem im Bulletin der American Meteorological Societ veröffentlicht.
 
Die Quadrate zeigen den Durchschnitt der drei vorhandenen Datensätze für satellitengesteuerte globale Temperaturen in derselben Zone, die Kreise sind der Durchschnitt der vier Wetterballonaufzeichnungen und die Diamanten [Quadrate auf Spitze gestellt] sind die ausgefallenen neuen „Reanalysedaten“, die ein physikalisches Modell verwenden. um die Tatsache auszugleichen, dass nicht alle dreidimensionalen „Sondierungen“ der Atmosphäre jeden Tag von den gleichen Stationen kommen.
Der Unterschied zwischen den vorhergesagten Veränderungen und den beobachteten ist auffällig, wobei nur ein Modell, das russische INCM4, realistisch erscheint. In der jüngsten Iteration beträgt die Klimasensitivität (die Nettoerwärmung berechnet für eine Verdopplung der Kohlendioxid-konzentration in der Atmosphäre) 1,4 ⁰C (2,5 ⁰F) im Vergleich zum Durchschnitt von 3,2 ⁰C (5,8 ⁰F) in der Modellfamilie der nationalen Klimabewertung. In der Tat wird die Temperaturkurve, auf der sich die Erde befindet, zusammen mit einer erwarteten großen Verlagerung von Kohle zu Gas zur Stromerzeugung (die bereits in den USA und Kanada stattfindet) die vom Menschen verursachte Erwärmung auf weniger als 2,0 ° C (3,6 ° F) beschränken, für den Zeitraum zwischen 1950 und 2100, was das Ziel des Pariser Klimaabkommens ist.1
Das ist weit entfernt vom Extremismus der Nationalen Bewertung.
 
Das zweite Bit fehlender Informationen reicht aus, um die meisten Vorhersagen des Abschätzung ungültig zu machen. Es ist ein bisschen komplizierter als der erste.

Die vertikale Achse ist die Höhe (gemessen durch den barometrischen Druck) und die horizontale Achse ist die Temperaturänderung in Grad C pro Dekade. Die durchgezogene grüne Linie ist der beobachtete Durchschnitt unserer vier Sätze von vertikal sondierenden Daten von Ballons. Sie können sehen, dass die beobachtete Erwärmungsrate an der Oberfläche (angegeben als „1000 hPa“ auf der linken Achse) etwas über 0,1° C / Dekade liegt, während der vorhergesagte Wert (1979-2016) unter 0,2 ° C liegt. Mit anderen Worten, in dieser Region, die für das globale Klima extrem wichtig ist, wird eine fast doppelt so hohe Erwärmung vorhergesagt als gemessen. Dies ist Abbildung S-2 im jüngsten Bericht über das Klima von 2016 des Bulleting der American Meteorological Society.
Aber die Situation wird wirklich entsetzlich [lächerlich], wenn man in der Atmosphäre aufsteigt. Die Modelle sagen voraus, dass es einen riesigen „Hot Spot“ über den gesamten Tropen geben sollte, was knapp 40% der Erdoberfläche ausmacht. Auf halber Höhe in der Atmosphäre (bestimmt durch den Druck) oder bei 500 hPa ist die vorhergesagte Erwärmung auch das Doppelte von dem, was beobachtet wird, und weiter oben wird siebenmal mehr Erwärmung vorhergesagt als beobachtet wird.
Dieses ist von größter Bedeutung. Die vertikale Temperaturverteilung in den Tropen bestimmt die Niederschlagsbildung. Wenn der Unterschied zwischen der Oberfläche und den oberen Schichten groß ist, ist die Oberflächenluft schwimmfähiger und wölbt sich aufwärts wie die Kumulonimbus-Wolke eines schweren Gewitters. Ist die Differenz geringer, wird die Sturmaktivität unterdrückt. Wie aus der Grafik hervorgeht, soll der Unterschied immer geringer werden, was in der generellen Tendenz zum tropischen Trocknen führen würde. In der Realität tritt das Gegenteil über einen großen Teil der Tropen auf, was eher zu einer Zunahme des Niederschlags als zu dem von den Klimamodellen prognostizierten Rückgang führt.
Das Fehlen des tropischen Hot Spots provoziert eine zusätzliche Kaskade von Fehlern. Eine große Menge der Feuchtigkeit, die hier den Niederschlag bildet, stammt aus den Tropen. Macht man das falsch, wird die Niederschlagsvorhersage mit zusätzlichen Folgewirkungen, diesmal für die Temperatur, reiner Müll.
Scheint die Sonne auf eine nasse Oberfläche, trägt der überwiegende Teil der einfallenden Energie eher zur Verdunstung von Wasser bei, als auf die direkte Erwärmung der Oberfläche. Deshalb herrschen im heißesten Monat in Manaus, Brasilien, mitten im tropischen Regenwald und nur drei Grad vom Äquator entfernt, hohe Temperaturen von nur 33°C (nicht nennenswert anders als das feuchte Washington, DC mit 31°C. Um die Wirkung von Wasser auf die Oberflächenerwärmung von Landgebieten abzuschätzen – es wurden im Juli im knochentrockenen Death Valley hohe Temperaturen von durchschnittlich 47°C gemessen.
Eine falsche Bestimmung der Oberflächentemperatur hat zusätzliche Konsequenzen für Vegetation und Landwirtschaft. Im Allgemeinen ist eine feuchteres Wetter gut für Rekordernten und eine gute Wasserversorgung im Westen der USA, was sich jedoch in der Abschätzung nicht wiederfindet.
So leidet diese Abschätzung, wie seine Vorgänger, unter ernsten und offensichtlichen Mängeln, die einfach ignoriert werden. In unserem 2004 erschienenen Buch Meltdown dokumentierten wir die ersten Bewertungsmodelle , die schlechter als eine Tabelle mit Zufallszahlen waren , die für das 20te Jahrhundert angrenzenden US Temperaturen und der Leitende Wissenschaftler des Bericht wusste es und kam damit durch! Die letzte (dritte) Veröffentlichung in Buchlänge – brachte öffentliche Kommentare, alle mit einem Sinn für Klimahumor, und die zweite Veröffentlichung war so schlecht, dass wir ein ein beinahe spiegelbildliches Dokument veröffentlichten.
 
Das Ignorieren der oben erwähnten massiven und kritischen Fehler – zusammen mit der aufkommenden Geschichte über die Willkürlichkeit der Klimamodelle – wird [hoffentlich] sicherlich dazu führen, dass das „Endangerment Finding“ der EPA [Feststellung der Gefährdungen] erneut überprüft wird, was die Basis ist für die Regulierung von Treibhausgasen.
1  Michaels, Patrick J. „Gemeinsamkeiten bei Klimaschutz und Anpassung finden“ 2017.
Erschienen auf WUWT am 03.11.2017
Übersetzt durch Andreas Demmig

What You Won’t Find in the New National Climate Assessment