Fossile Treibstoffe unter Feuer

Ölunternehmen stehen jetzt vor einer Fülle von Gerichtsverfahren – diese reichen von Klagen seitens Kindern (finanziert radikalen, anti-fossilen Umweltgruppen) bis zur kommunalen Ebene. Die Vorwürfe laufen darauf hinaus, dass Öl-, Gas- und Kohleunternehmen seit Jahrzehnten wussten, dass sie den Klimawandel verursachen (und vermutlich den Kindern ihre Zukunft rauben), aber konspiriert haben, um die Beweise zu verschleiern oder zu leugnen.

Alsup forderte von Klägern und Beklagten Briefings zum Thema Klimawandel an und konzentrierte sich auf acht Fragen, welche er beiden Seiten vorlegte. Er räumte beiden Teams 60 Minuten ein, eine historische Studie des Klimawandels zu präsentieren, und eine weitere Stunde, um die beste verfügbare Wissenschaft zu Klimawandel zu diskutieren, zu schmelzendem Eis, Meeresspiegelanstieg und Überflutung küstennaher Gebiete.

Von den beklagten Ölunternehmen nahm nur Chevron an der Anhörung teil. Sehr zum Missfallen der in dem Prozess beteiligten Städte und Umweltaktivisten bekräftigte Chevron die Ergebnisse des IPCC. Den Protokollen zufolge rasten die Kläger vor Wut und verdammten die IPCC-Berichte, welche sie doch zuvor als den goldenen Standard der Klimaforschung gepriesen hatten.

Chevron hat die gesamten Forschungen des IPCC durchgearbeitet, nicht nur die von Aktivisten, Autoren und Politikern zusammengestellten Schlagworte in der „Summary for Policymakers“. Darin wurden die Zweifel heruntergespielt und die Möglichkeit einer Klimakatastrophe auf den Schild gehoben. Klimarealisten haben schon lange darauf hingewiesen, dass die IPCC-Berichte grundlegende Forschung enthielten. Und obwohl die Berichte nicht umfassend sind, sind sie doch weitaus weniger apokalyptisch als die so oft zitierten Summaries.

Joe Bast, ehemaliger Präsident des Heartland Institutes hebt viele positive Aspekte der Teilnahme von Chevron an der Anhörung hervor.

Wir haben schon lange gesagt, dass die vollständigen IPCC-Berichte viele Hinweise auf Unsicherheiten und Zweifel enthalten (siehe z. B. Seite 39 im Kapitel Why Scientists Disagree About Global Warming). Die „Summaries for Policymakers“ dagegen sind politische Dokumente, in welchen sämtliche Zweifel ausgeschlossen und die von Umweltaktivisten und Politikern editiert worden sind, um politischen Zwecken zu dienen. Chevron nahm die tatsächlichen Studien genau unter die Lupe und dokumentierte die Passagen bzgl. Unsicherheiten während der Zeit, in der sie der Anklage zufolge einen wissenschaftlichen Konsens verschleiert hätten. Das ist ein gutes und sicheres Argument.

Chevron wies außerdem nachdrücklich darauf hin, dass die Kläger und die daran Beteiligten (Städte samt deren Industrien und Bewohnern) – aber nicht die Ölunternehmen – mit den fossilen Treibstoffen die meisten Treibhausgase in die Atmosphäre freisetzen. Bast weiter: „Chevron forderte das Gericht auf zu unterscheiden zwischen den Aktivitäten der Beklagten – die Extraktion fossiler Treibstoffe aus dem Boden – und der Aktivität, welche Klimawandel verursachen kann – die Verbrennung fossiler Treibstoffe“.

Chevron wies auch nach, dass die IPCC-Berichte ausdrücklich auf den fehlenden Konsens bzgl. Anstieg des Meeresspiegels hinwiesen, welcher vermeintlich vom anthropogen verursachten Klimawandel ausgelöst werden soll – ebenso wie bzgl. wie stark und wann Kalifornien davon betroffen sein soll. Dies ist konsistent mit den Veröffentlichungen des Heartlands Institutes und jenen des NIPCC. Außerdem betonte Chevron „die eigenen Worte der Kläger, enthalten in städtischen Angeboten, mit denen eingeräumt wurde, dass der künftige Anstieg des Meeresspiegels nicht vorhergesagt werden kann“.

Kommentatoren wiesen auf die Ironie hin, dass Chevron die IPCC-Berichte hervorhebt, während die Klima-Aktivisten das, was sie zuvor als beste verfügbare Klimaforschung priesen, jetzt leugnen. Prof. Roger Pielke Jr. von der University of Colorado stellte fest: „Dieser Tweet zeigt, wie sehr sich die Klimadebatte verändert hat. Ein Ölunternehmen hebt den IPCC-Konsens hervor, während deren Opponenten, also Umweltaktivisten (einschließlich einiger Klimawissenschaftler) den IPCC-Konsens leugnen. Bizarre Welt!“

Zwei Briefings von „Freunden des Gerichtshofes“, geschrieben von verschiedenen Klimaforschungsgruppen, stützten und erweiterten die Präsentation von Chevron für Alsup. Diese Briefings stellten die Myriaden Unsicherheiten dar, ebenso wie die Tatsache, wie sehr Klimamodelle unzuverlässige Temperaturprognosen erzeugten und Klimadaten falsch anwenden. In einem dieser Briefings heißt es:

Die Gutachten werden zeigen, dass es eben keinen ,Konsens‘ unter den Wissenschaftlern gibt, dem zufolge die jüngste globale Erwärmung hauptsächlich anthropogenen Ursprungs war, geschweige denn dass eine nicht abgeschwächte anthropogene Erwärmung gefährlich oder katastrophal war oder sein wird. Unter dem Terminus ,Konsens‘ versteht das IPCC nichts weiter als das der größte Teil der beobachteten globalen Erwärmung seit 1950 den Menschen geschuldet ist. Darin nicht enthalten ist die Schlussfolgerung, dass die globale Erwärmung insgesamt schädlich war oder sein wird“.

Diese beiden Briefings stellen eine solide Grundlage für Skeptizismus hinsichtlich der vermeintlichen Gefahren des Klimawandels dar.

Bast argumentiert, dass die Befürworter fossiler Treibstoffe in die Offensive gehen sollten und die vielfache Forschung bekannt machen, welche das Narrativ des gefährlichen anthropogenen Klimawandels unterminieren:

Chevron mag nur so viele Argumente hervorgebracht haben, wie das Unternehmen glaubt nötig waren, um diesen Prozess zu gewinnen, und ich denke, dass das genau das ist, was gute Anwälte tun. Das Unternehmen hat gute Argumente vorgebracht, und vielleicht können sie sogar einen linken Richter davon überzeugen, ein belangloses Verfahren einzustellen. Aber Chevron stellte vor Gericht viele falsche und irreführende Behauptungen auf – Behauptungen, welche die öffentliche Debatte um den Klimawandel kontaminieren können und die Industrie fossiler Treibstoffe verfolgen. Sie können unsere Energie-Freiheit bedrohen, bis man sich ihnen stellt und sie widerlegt“.

Angesichts der Reaktionen seitens Journalisten und Aktivisten vor Gericht kann Chevron eines seiner Hauptziele erreicht haben: nämlich die Auffassung zu zerstreuen, dass Ölunternehmen konspiriert haben, um die Klimawissenschaft zu unterdrücken.

Alsup verwirft den Gedanken, dass es eine irgendwie geartete Konspiration der Unternehmen fossiler Treibstoffe gibt, um Klima-Informationen zu unterdrücken“, twitterte Amy Westervelt von Climate Liability News.

Der Richter rügte die Anwälte der kalifornischen Städte und sagte, dass diese das Gericht in die Irre geführt hätten – und dass das von den Klägern vorgebrachte Dokument, welches die ,Konspiration zeigt‘, tatsächlich nichts dergleichen zeigt“, twitterte der Dokumentarfilmer Phelim Mcaleer.

Es gibt keine Konspiration unter den Unternehmen fossiler Treibstoffe, um Informationen bzgl. Klimawissenschaft zu unterdrücken“, twitterte Amy Johl, eine sich selbst als „Klima-Organisatorin“ bezeichnende Dame.

Es ist zu hoffen, dass dies das Ende dieser Gerichts-Farce ist – nicht nur in diesem Fall, sondern auch in ähnlich gelagerten Fällen im ganzen Land. Falls das so sein sollte, können Öl- und Gasunternehmen aufhören, kostbare Zeit zu verschwenden, um belanglosen Behauptungen vor Gericht entgegenzutreten, und sich statt dessen auf das konzentrieren können, was sie am Besten können: zuverlässige und preiswerte Energie zur Verfügung zu stellen, welche die Menschen brauchen und wünschen.

H. Sterling Burnett

SOURCES: The Heartland Institute, The Daily Caller, CO2 Coalition, Watts Up With That,  McClatchy, Energy In Depth

Übersetzt von Chris Frey EIKE

Anmerkung: Auch hier wird anstelle eines festen Links zu Prüfzwecken das Original als DOC beigefügt:

fossil




Die wunder­same Speiche­rung des EEG-Zappel­stroms, oder: Die nächste Abzocke privater Strom­kunden durch die EEG-Energie­ernter

Wer die Welt rettet, kann bei Ökoflaute ja auf konventionelle Grundlastversorgung zurückgreifen

Wer eine eigene Solaranlage besitzt, weiß, dass er für die weite Welt etwas Gutes tut. Aber nicht nur das: Inzwischen haben die Kosten des Haushaltsstromes eine Dimension erreicht, welche – dank billiger, chinesischer Module – die Eigenversorgung langsam durchaus rentabel gestaltet.
Ein Wehrmutstropfen bleibt dabei jedoch übrig: Die Sonne scheint nachts immer noch nicht und auch tagsüber kann es recht wenig werden. Im Winter ist eine erhebliche Minderung ebenfalls nicht zu verhindern. Zur vollständig autarken Eigenversorgung wäre also ein teurer Akkuspeicher erforderlich. Alle bisher im Großversuch getesteten Projekte sind daran kläglich gescheitert (als Letztes Pellworm). Private scheitern nicht so spektakulär, rechnen sich aber trotzdem ebenfalls nicht:
[3] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht
[1] … Die Rendite der eigenen Solaranlage wird vornehmlich durch die Eigenverbrauchsquote bestimmt. Je mehr Strom selbst verbraucht wird, desto weniger muss man an den Stromversorger für seinen Haushaltsstrom bezahlen. Um den Eigenverbrauch zu optimieren, kann man seinen Verbrauch ohne oder mithilfe von Energiemanagementsystemen anpassen oder auch zusätzlich einen Stromspeicher installieren. Trotz dieser Hilfsmittel müssen in der Praxis immer rund 30% bis 40% des Stromverbrauchs extern vom Energieversorger gedeckt werden.
Im EEG-System ist dieses Problem „gelöst“. Man lässt einfach zu den Erzeugern des EEG ein zweites Energiesystem parallel mitlaufen, welches in den Öko-Flautezeiten die fehlende Grundlast-Versorgung liefert. Zusammen mit der erforderlichen, zusätzlichen Infrastruktur kostet es viel Geld, aber das bezahlt ja zwangsweise der private Stromkunde.
Bei der solaren Eigenversorgung kostet das Lösen ebenfalls viel Geld (für Akkuspeicher). Dies kann man sich sparen, denn durch Bezahlen der Grundgebühr beim Versorger kann man fehlenden Strom ja jederzeit auch von dort beziehen. In der restlichen Zeit – wo das eigene Solar wieder ausreichend liefert – stellt man um und die für das EEG-System erforderlichen, hohen Kosten, zusätzlich dem des Backupsystems, verteilen sich auf die restlichen Strombezieher.

Grundlastversorgung auch für Solar-Selbstverbraucher, aber bitte ohne Zusatzkosten

Wer eine eigene Solaranlage hat, sieht aber auch dies nicht so wirklich ein. Schließlich ist der eigenerzeugte Ökostrom ideell viel hochwertiger als der aus den „dreckigen“ Backup-Kraftwerken in Deutschland. Und da Strom nach der Überzeugung GRÜNER Fachpersonen sich selbst im Netz speichert [6], muss es reichen – wie es die EEG-Vorrangeinspeisung auch befürwortet – mit Ökostrom in beliebiger Menge die Netze zu fluten. Und es ist nach GRÜNER Denke naheliegen, diesen im Netzt „geparkten“, persönlichen Ökostrom, bei Bedarf wieder dem Versorgungsnetz entnehmen zu dürfen, natürlich ohne die für den dreckigen, konventionellen, zu bezahlenden Aufschläge.

Speichern kann man den Strom weiterhin nicht, aber man kann den Mangel andere bezahlen lassen

E.ON – dessen CEO die Lösung des Speicherproblems „sexy“ findet [2] – ist dazu der Durchbruch gelungen. Solaranlagenbesitzer können „ihren“ Ökostrom dank E.ON zwischenspeichern [2] und billig rund um die Uhr“ zurückholen“:
energie-experten.org: [1] Lohnt sich die E.ON SolarCloud?
[1] … In der E.ON SolarCloud lässt sich Strom wie auf einem Bankkonto anlegen und bei Bedarf jederzeit wieder zum eigenen Verbrauch abheben. So kann der selbst produzierte Solarstrom zu 100% selbst verbraucht werden.

So funktioniert das SolarCloud-Stromkonto

Die E.ON SolarCloud ist seit Anfang April 2017 im Komplettpaket mit einer PV-Anlage und dem Batteriespeicher E.ON Aura verfügbar. Das E.ON Aura Komplettpaket kostet ab 14.699 Euro und besteht aus der Photovoltaikanlage mit Solarmodulen und Wechselrichter, der Aura Speicherbatterie, einem Controller, der Installation und der Inbetriebnahme der Solaranlage.
Durch eine Speicherung
im Aura und in der virtuellen SolarCloud lässt sich der selbst erzeugte Sonnenstrom das ganze Jahr selbst an bewölkten und regnerischen Tagen zum Eigenverbrauch nutzen. Die SolarCloud funktioniert dabei wie ein Stromkonto, auf das man Strom „einzahlt“ und rund um die Uhr an 365 Tagen im Jahr wieder abrufen kann. Vor allem in den Sommermonaten lässt sich dadurch mit der E.ON SolarCloud kontinuierlich eine Rücklage an ökologisch erzeugten Kilowattstunden ansparen, um den Strom beispielsweise in den Wintermonaten zu nutzen …
…. Der physische Solarstromspeicher
speichert den Großteil des Stroms der eigenen PV-Anlage dezentral, effizient und kostengünstig vor Ort in der eigenen Wohnung. Der virtuelle SolarCloud-Speicher ergänzt diesen optimal, um bilanziell eine 100%ige Versorgung mit eigenem Solarstrom zu realisieren …

Die Digitalisierung löst alle „alte-Herren-Physik“ Probleme im Nu

E.ON hat nichts von den erforderlichen Speichern gelöst, oder gar welche errichtet:
EIKE 03. April 2018: [2] EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie
Wie beim EEG üblich, wurde jedoch wohl ein Weg gefunden, durch Vertragskniffe die regulären Preise für den Bezug von (rund um die Uhr bereitgestelltem) Haushaltsstrom zu umgehen. Und das funktioniert wie folgt:
Ein „Sonnenstromernter“ mit Eigenverbrauch speist Überschussstrom ins Netz und kann dafür später zu beliebiger Zeit konventionellen Grundlaststrom ohne die hohen Haushaltsstromkosten „zurückfließen“ lassen, als wäre sein Überflussstrom wirklich gespeichert worden. Je mehr dieser Solar-Bevorzugten das machen, umso höher steigt dadurch der Preis für die restlichen Stromkunden.

[1] Wieviel Stromkosten lassen sich mit der SolarCloud einsparen?

Noch lohnt sich das Model etwas wenig. Konkurrenz wird dieses „Speichergeschäft“ aber bestimmt beleben. Und wenn die GRÜNEN (und auch SPD-) Energieexpert*innen erst einmal erfahren – beziehungsweise glauben – dass sich das EEG-Speicherproblem einfach so durch Parken des Stromes auf einem „Stromkonto“ lösen lässt, wird es an Subventionierungen dieser grandiosen „Alte-Herren-Physik-Überrumpelungs-Erfindung“ nicht mangeln. Startups werden entstehen (und gefördert) und alle werden verkünden, was doch alles dank der „Digitalisierung Deutschlands“ möglich geworden ist.
Eine Vorwegnahme von dem, was ein Schüler bei der Frage nach den Vorteilen der Digitalisierung einmal sinngemäß sagte: … dann denkt der Computer und man braucht(s) nicht mehr zu lernen … und das Geld verdient er auch …
[1] Soll- oder Habenzinsen gibt es beim SolarCloud-Konto nicht. Wer also Strom auf das Konto einspeist und später abruft, spart insbesondere PV-Anlagen, die in den letzten vergangen 3 bis 4 Jahren zu der deutlich abgesunkenen Einspeisevergütung errichtet wurden. Die Differenz aus Haushaltsstrompreis und PV-Gestehungskosten übersteigt in diesen Fällen deutlich die Vergütung, die man über das EEG bekommen würde. Lediglich Kontoführungsgebühren werden fällig. Diese sind gestaffelt nach dem individuellen Jahresstromverbrauch und fangen bei 21,99 Euro pro Monat für eine E.ON SolarCloud für kleinere PV-Anlagen an.
Müsste ein
Drei-Personen-Haushalt mit einem Jahresstromverbrauch von 4.000 kWh und einem Eigenverbrauch des Solarstroms (Autarkie) von angenommen 60% bisher noch 40% Strom bzw. rund 1.600 kWh aus dem Netz beziehen, so spart diese Familie mit Hilfe der SolarCloud bei einem Strompreis von 30 Cent 480 Euro pro Jahr ein. Abzüglich der PV-Gestehungskosten von durchschnittlich rund 12 Cent ergibt sich mit der SolarCloud eine Nettoersparnis von 288 Euro. Zieht man hiervon noch die monatliche Gebühr für die E.ON SolarCloud ab, so ergibt sich letztlich ein Jahresgewinn von 24,12 Euro. Die Einspeisevergütung für den Strom, den man selbst verbraucht, tritt der Kunde an E.ON ab.

Der lokale Versorger wird nicht mehr benötigt

[1] Wer die SolarCloud nutzt, braucht aber auch keinen klassischen Stromvertrag mehr, da der SolarCloud-Nutzer ja 100 Prozent seiner selbst erzeugten Energie durch die SolarCloud auch selbst nutzen kann und in der Regel keinen Strom mehr aus dem Netz beziehen muss. Somit entfällt auch die Grundgebühr von in der Regel mehr als 100 Euro pro Jahr. SolarCloud-Nutzer mit einer kleinen Solaranlage profitieren somit von einer autarken Versorgung mit eigenem Solarstrom auch von einer Stromkostenersparnis von 125 bis 150 Euro pro Jahr.

Gibt es Einschränkungen bei der Nutzung der SolarCloud?

Da natürlich das Speichern des Solarstroms im eigenen Batteriespeicher auch Kosten verursacht und diesen auch altern lässt, denkt eventuell der ein oder andere über Schlupflöcher nach, die es ermöglichen, die SolarCloud auch ohne Stromspeicher zu nutzen. Aktuell empfiehlt E.ON jedoch aus wirtschaftlichen Gründen die Kombination aus physischem Speicher im Haushalt und virtueller SolarCloud. Grundsätzlich gibt es aber keine Vorschriften zum Betrieb des Stromspeichers.

Ein weiterer Meilenstein im Betrug am regulären Stromkunden

So sieht es der Autor. Wenn dieses virtuelle „Speichermodell“ rechtlich zulässig ist, kann in Zukunft jeder – der das Geld und die Fläche hat – in Zukunft eine beliebig überdimensionierte Solarfläche errichten. Ihn brauchen dann weder Speicherprobleme, noch um die rasant steigenden EEG-Strompreise zu kümmern. Davon ist er abgekoppelt, während ihm die billige „Rückspeisung“ seines „Eigenerzeugungs-Überbudgets“ gesichert bleibt.
Bestimmt auch eine neue Vorlage für „Bürgermodelle“ der Zukunft, um den stagnierenden Solarausbau wieder anzukurbeln.
Bisher ist diese zusätzliche Subventionierung der Solarbesitzer auf Kosten der restlichen Stromkunden anscheinend noch keiner Partei aufgefallen.
Nur die Sprecherin der GRÜNEN für Energiepolitik, Dr. Julia Verlinden (Dr. der Philosophie) monierte kürzlich Kosten für den Bürger. Dabei meinte sie aber nicht, Abzocken wie diese zu verhindern, sondern im Gegenteil, dass die „Öko-Energieernter“ – von ihr als „Bürgerenergie“ bezeichnet -, zu sehr belastet würden. Mehr als den LINKEN – wenn die eigene Ideologie ein Desaster anrichtet, dieses nicht abschaffen, sondern „den Reichen“ Geld wegnehmen, um es weiter bis zum Untergang betreiben zu können -, fällt ihr dabei allerdings auch nicht ein. Klientelpolitik auf GRÜN eben.
27.03.2018 Bundesregierung torpediert Bürgerenergie auf EU-Ebene
Julia Verlinden hat die Bundesregierung zu ihrer Haltung zum Vorschlag des EU-Parlaments gefragt, unnötige Belastungen der Bürgerenergie zu vermeiden. Die Antwort zeigt: Die Bundesregierung will der Bürgerenergie weiter Steine in den Weg rollen … Das ist ein Schlag ins Gesicht für die vielen engagierten Bürgerinnen und Bürger, ohne die die Energiewende in Deutschland im Stromsektor niemals so erfolgreich gewesen wäre.
… Die Ausrede der Bundesregierung hinkt: Wenn es ihr wirklich wichtig wäre, die Kosten des Stromsystems „gerecht“ zu verteilen, dann würde sie z.B. die Industrierabatte der energieintensiven Industrie deutlich reduzieren und nicht mehr von den privaten Haushaltskunden oder den kleinen und mittleren Unternehmen quersubventionieren lassen. Hier sieht man mal wieder, dass mit zweierlei Maß gemessen wird
.
Quellen
[1] energie-experten.org: Lohnt sich die E.ON SolarCloud?
[2] EIKE 03. April 2018: EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie
[3] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht
[4] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
[5] EIKE 03. April 2018: EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie
[6] EIKE 24.01.2018: GRÜNE Energieexpertin: Das Netz fungiert als Speicher
[8] EIKE 11.04.2018: Harald Leschs Klimavideo restlos widerlegt
EIKE 27.12.2016: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!
EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?




Zirkel­schluss: das Scheitern des Rück­kopplungs-Schwindels des IPCC

Meine Antwort auf Roy Spencers Kommentar, geschrieben auf seinem Blog drroyspencer.com, wurde inzwischen 1400 mal angeklickt, und die drei vorherigen Artikel wurden jeweils über 1000 mal, über 350 mal und über 750 mal angeklickt. Anderswo hat ein notorisch jähzorniger skeptischer Blogger auf die Frage, ob er zu unserem Ergebnis einen Kommentar schreiben will, geantwortet, er lasse sich nicht dazu herab, etwas so Einfaches zu diskutieren. Einfach ist es. Wie kommt man bloß darauf, dass es keine Klima-Rückkopplungs-Prozesse auf die große Emissionstemperatur gibt, jedenfalls nicht im gleichen Ausmaß, wie sie auf die geringe Erhöhung jener Temperatur reagieren, verursacht durch das Hinzufügen nicht kondensierender Treibhausgase in die Atmosphäre? Das ist ein einfacher Punkt. Aber einfach heißt nicht notwendigerweise falsch.

In diesem Beitrag wird die Mathematik hergeleitet, was weder einfach noch intuitiv, wenngleich auch nicht besonders komplex ist. Wie in Beiträgen zuvor möchte ich einige Fragen aus Kommentaren zu jenen Beiträgen beantworten. Wie zuvor akzeptieren wir ad interim, ad argumentum oder ad experimentum alle Ergebnisse der offiziellen Klimatologie – es sei denn, wir können nachweisen, dass diese Ergebnisse falsch sind.

Führen wir doch einfach ein simples Gedankenexperiment durch. Dabei kehren wir das Modell von Lacis et al. (2010) um. Lacis hatte herausgefunden, dass das Klima, nachdem man alle nicht kondensierenden Treibhausgase aus der Atmosphäre entfernt hatte, ein neues Gleichgewicht erreicht hätte. Dann wäre die Erde ein Schneeball oder ein Wasserplanet mit einer Albedo von 0,418, was eine Emissionstemperatur von 243,3 K impliziert. Kraft dieses Experimentes sollten wir folglich annehmen, dass es im Jahre 1800 keine Treibhausgase in der Atmosphäre gab. Für all jene, die mit wissenschaftlicher Logik nicht vertraut sind: Damit ist nicht gesagt, dass es im Jahre 1800 wirklich keine Treibhausgase gab.

Lacis zufolge soll die globale mittlere Temperatur 20 Jahre nach Entfernung aller nicht kondensierenden Treibhausgase aus der Atmosphäre auf 253 K sinken. Während der folgenden 30 Jahre soll die Temperatur um lediglich ein weiteres K zurückgehen auf 252 K oder 8,7 K über der Emissionstemperatur. Folglich erreicht die Temperatur in Lacis‘ Modell bereits nach 50 Jahren ihr neues Gleichgewicht.

Eine Frage, die nur Wenige in den bisherigen Beiträgen beantwortet haben, und keiner davon überzeugend, lautet: Aus welcher Quelle stammen diese zusätzlichen 8,7 K, wenn es doch keine nicht kondensierenden Treibhausgase als Antrieb gab? Unsere Antwort lautet, dass Lacit implizit die Existenz einer Rückkopplungs-Reaktion auf die Emissionstemperatur von 243,3 K eingeräumt hat, wenngleich dieser Wert viel zu klein ist, um realistisch zu sein. Viel zu klein deshalb, weil wie im vorigen Artikel gezeigt, Lacis die Temperaturdifferenz von 45,1 K zwischen der impliziten Emissionstemperatur von 243,3 K bei der spezifizierten Albedo von 0,418 einerseits und der heutigen globalen Mitteltemperatur andererseits von 288,4 K (ISCCP, 2018), wie folgt zuordnet: Rückkopplungs-Reaktion auf die Emissionstemperatur 252 – 243,3 = 8,7 K. Direkt von natürlich vorkommenden, nicht kondensierenden Treibhausgasen angetriebene Erwärmung (288,4 – 252)/4 = 9,1 K, und bei Anwendung der Rückkopplungs-Reaktion von 0,75 nach Lacis aus den nicht kondensierenden Treibhausgasen 27,3 K: insgesamt 45,1 K. Diese asymmetrische Zuordnung der Differenz zwischen Emissionstemperatur und gegenwärtiger Temperatur impliziert, dass die Rückkopplungsreaktion von 8,7 K auf die Emissionstemperatur lediglich 3,6% von 243,3 K ausmacht, während die Rückkopplungs-Reaktion von 27,3 K auf die Treibhaus-Erwärmung 300% der 9,1 K ausmacht. Später wird formell nachgewiesen, dass diese implausible Zuordnung irrig ist.

Es ist nützlich zu unterscheiden zwischen der vorindustriellen Lage im Jahre 1850 (dem ersten Jahr der HadCRUT-Reihe, dem längsten globalen Temperatur-Datensatz) und der industriellen Ära. Wir wollen annehmen, dass die gesamt globale Erwärmung vor 1850 natürlichen Ursprungs war. In jenem Jahr lag die Temperatur um etwa 0,8 K unter dem heutigen Wert von 287,6 K (HadCRUT4) oder um 44,3 K über der Emissionstemperatur. Lacis‘ Aufteilung der 44,3 K wäre also 8,7 K; 8,9 K und 26,7 K.

Nehmen wir einmal an, dass Lacis recht hatte damit, dass die direkt getriebene Erwärmung durch Hinzufügen der natürlich vorkommenden, nicht kondensierenden Treibhausgase 8,9 K betragen hatte. Lassen wir das Experiment ab 1850 umgekehrt laufen, können wir den Rückkopplungs-Anteil berechnen, der implizit in Lacis‘ Modell steckt nach der Korrektur, um eine ordentliche Rückkopplungs-Reaktion auf die Emissionstemperatur zuzulassen. Bevor wir das tun sei an die gegenwärtig vom IPCC verwendete Liste der Rückkopplungen erinnert, die relevant für die Ableitung sowohl der kurzlebigen als auch der Gleichgewichts-Sensitivitäten sind:

Die vom IPCC gewählte Luxus-Rückkopplungs-Summe [high-end feedback sum] impliziert eine Charney-Sensitivität irgendwo zwischen minus unendlich und plus unendlich pro CO2-Verdoppelung. Kein wirklich gewaltiges Ergebnis nach 30 Jahren und der Ausgabe von hunderten Milliarden Steuerzahler-Dollar. Die Rückkopplungssumme des IPCC in der Mitte der Bandbreite impliziert eine mittlere Charney-Sensitivität von nur 2,2 K und nicht die in den früheren IPCC-Berichten genannten 3,0 bis 3,5 K; und auch nicht die 3,3 K der CMIP3 und CMIP5-Modelle. Da ist es keine Überraschung, dass das IPCC im Jahre 2013 zum ersten Mal keine mittlere Schätzung der Charney-Sensitivität genannt hat.

Keine der vom IPCC gelisteten Rückkopplungen ist vom Vorhandensein irgendwelcher nicht kondensierender Treibhausgase abhängig. Daher wären alle diese Rückkopplungs-Prozesse in unserer Welt um das Jahr 1800 ganz ohne derartige Gase präsent. Um eine Rückkopplungs-Reaktion zu induzieren, so irgendein Rückkopplungs-Prozess präsent ist, bedarf es als einzige Notwendigkeit einer Temperatur, d. h. die Emissionstemperatur. Da Rückkopplungs-Prozesse präsent sind, ist eine Rückkopplungs-Reaktion unvermeidlich.

Die Emissionstemperatur hängt von lediglich drei Größen ab: Einstrahlung, Albedo und Emissivität. Man begeht kaum einen Fehler, falls man die Emissionstemperatur wie gewöhnlich als Einheit betrachtet. Damit beträgt die Emissionstemperatur bei der heutigen Einstrahlung von 1364,625 W/m² und einer Lacis-Albedo von 0,418: [1364,625(1 – 0.418) / d / (5,6704 x 10–8)]0.25 = 243.3 K. Dies steht in Übereinstimmung mit der fundamentalen Gleichung des Strahlungstransports, wobei d das Verhältnis ist zwischen dem Gebiet der sphärischen Oberfläche der Erde zu ihrem großen Kreis = 4 ist. Genauso läge die Emissionstemperatur bei der heutigen Albedo von 0,293 bei 255,4 K. Dieser Wert wird allgemein in der Literatur zur Klimasensitivität genannt.

Der Grund, warum die offizielle Klimatologie bis jetzt der Rückkopplungs-Reaktion auf die Emissionstemperatur nicht das angemessene Gewicht verliehen hat (oder besser, überhaupt kein Gewicht) ist, dass man eine entartete Form der Null-Dimensions-Modell-Gleichung verwendet hat, die da lautet ΔTeq = ΔTref / (1 – f ), wo die Gleichgewichts-Sensitivität ΔTeq nach Berücksichtigung von Rückkopplungen gleich ist dem Verhältnis der Referenz-Sensitivität ΔTref zu (1 minus Rückkopplungs-Anteil f). Das Rückkopplungs-Loop-Diagramm (unten) räumt der Emissionstemperatur keinen Raum ein und daher auch nicht irgendeiner Rückkopplungs-Reaktion.

Der Rückkopplungs-Loop in der von der offiziellen Klimatologie verwendeten Null-Dimensions-Modell-Gleichung ΔTeq = ΔTref / (1 – f )

Diese entartete Form der Null-Dimensions-Modell-Gleichung ist angemessen, wenn nicht sogar ideal, um Gleichgewichts-Sensitivitäten abzuleiten unter der Voraussetzung, dass zunächst eine Rückkopplungs-Reaktion auf die Emissionstemperatur zugelassen wird. Dennoch finden es viele Kommentatoren empörend, dass die offizielle Klimatologie eine so einfache Gleichung anwendet, um die Gleichgewichts-Sensitivitäten zu diagnostizieren, welche zu prophezeien von den komplexen Zirkulations-Modellen erwartet wird. Einige wenige haben versucht zu leugnen, dass diese Gleichung angewendet wird. Allerdings haben Hansen (1984), Schlesinger (1985), das IPCC (2007, p. 631 fn.), Roe (2009), Bates (2016) und einige andere Größen diese Gleichung angewendet:

f = 1 –Tref / Teq = 1 – (TE + ΔTB) / TN

= 1 – (255,4 + 8) / 287,6 = 0,08. (4)

Jetzt wollen wir beweisen, dass die Form dieser diagnostischen Gleichung, wie sie von der offiziellen Klimatologie angewendet wird, das offizielle Intervall der Charney-Sensitivitäten ergibt, wenn man die offiziellen Werte eingibt. Das IPCC (2013, Abb. 9.43) erwähnt Vial et al. (2013), der den CO2-Antrieb ΔQ0 diagnostiziert hat, ebenso wie den Planck-Parameter λ0 und die Rückkopplungs-Summe k bei einer abrupten Vervierfachung der CO2-Konzentration in 11 CMIP5-Modellen via des linearen Regressions-Verfahrens in Gregory (2004). Vial gibt die mittlere Schätzung kmid der Rückkopplungs-Summe aus 11 CMIP5-Modellen als 1,57 W/m²K an mit der Implikation fmid = kmidλ0 = 0,49 und der 2σ-Grenzen von f als fmid ± 40%, d. h. 0,49 ± 0,20.

Der implizite CO2-Antrieb ΔQ0, in welchen schnelle Rückkopplungen mit eingehen, betrug 4,5 W/m² im Vergleich zu den 3,5 W/m² in Andrews 2010. Die Referenz-Sensitivität ΔTS, von Vial mit 1,41 K bewertet, lag um 20% über der mittleren Schätzung der CMIP5-Modelle von 1,1 K. Verwendet man diese Werte erweist sich die Version der von der offiziellen Klimatologie herangezogenen Null-Dimension-Modell-Gleichung als gut kalibriert. Sie ergibt eine Charney-Sensitivität ΔT auf 3,3 (2,0; 4,5) K, fast genau inhaltsgleich mit vielen veröffentlichten offiziellen Intervallen der CMIP3 und CMIp5-Modelle (Tabelle 2):

Aus dieser erfolgreichen Kalibrierung folgt, dass obwohl die von der Gleichung vermuteten Rückkopplungen linear, einige aber auch nicht linear sind, sie immer noch die Gleichgewichts-Sensitivitäten korrekt aufteilt zwischen der erzwungenen Erwärmung und der Rückkopplungs-Reaktion. Im Besonderen reproduziert sie das von den CMIP5-Modellen projizierte Intervall der Charney-Sensitivitäten, welche Nicht-Linearitäten berücksichtigen. Die Kalibrierung bestätigt nicht, dass der Modellwert f ≈ 0,7 für den Rückkopplungs-Anteil oder ihr Intervall der Charney-Sensitivitäten korrekt ist. Sie bestätigt jedoch, dass die Gleichung mit den offiziellen Werten von f die offiziellen, von den komplexen CMIP-Modellen veröffentlichten Prognosen der Charney-Sensitivität bestätigt. Und das, obwohl keinerlei Berücksichtigung der großen Rückkopplungs-Reaktion auf die Emissionstemperatur erfolgte.

Die offizielle Klimatologie adjustiert ihre Modelle so lange, bis sie das Klima der Vergangenheit reproduzieren. Folglich wurden die Modelle so frisiert, dass sie der Differenz von 33 K Rechnung tragen zwischen der Emissionstemperatur von 255,4 K und der heutigen Temperatur von 288,4 K. Man hatte hypothetisiert, dass ein Drittel der 33 K der direkt getriebenen Erwärmung geschuldet war seitens natürlich auftretender, nicht kondensierender Treibhausgase, und die anderen zwei Drittel bis drei Viertel waren die Rückkopplungs-Reaktion auf diese direkte Erwärmung. Folglich haben sie hypothetisiert, dass der Rückkopplungs-Anteil zwei Drittel bis drei Viertel der Gleichgewichts-Sensitivität ausmacht: d. h. dass f irgendwo zwischen 0,67 und 0,75 liegt.

Als einen ersten Schritt zur angemessenen Berücksichtigung der Rückkopplungs-Reaktion auf die Emissionstemperatur kann die Version der offiziellen Klimatologie der Null-Dimension-Modell-Gleichung überarbeitet werden, um die Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, welche lediglich Änderungen der Temperatur sind. Man beachte, dass die korrekte Form jedweder Gleichung, welche natürliches Auftreten (oder jedwede Naturgesetzte) beschreibt, absolute Werte sind: Die Anwendung von Deltas ist nur zulässig, falls die Delta-Gleichungen korrekt abgeleitet sind aus der absoluten Gleichung. Demzufolge sollte ΔTeq = ΔTref / (1 – f ) werden zu Teq = Tref / (1 – f ). Das überarbeitete Rückkopplungs-Loop-Diagramm sieht so aus:

Nach Amendierung, um Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, wird die offizielle Version der Null-Dimension-Modell-Gleichung zu Teq = Tref / (1 – f ).

Um f bei bekannter Referenz- und Gleichgewichts-Temperatur zu berechnen, kann diese überarbeitete Gleichung umgeschrieben werden zu f = 1 – Tref / Teq. In dem umgekehrten Lacis-Experiment setzt sich die Referenz-Temperatur Tref vor der Rückkopplung zusammen aus Emissionstemperatur TE und der zusätzlichen Temperatur ΔTE = 8,9 K. Diese ist die direkte Erwärmung bei Hinzufügen der natürlich auftretenden, nicht kondensierenden Treibhausgase in die Luft. Folglich gilt: Tref = TE + ΔTE = 243.3 + 8.9 = 252.2 K. Die Gleichgewichts-Temperatur Teq ist einfach die Temperatur des Jahres 1850, nach 50 Jahren des umgekehrten Lacis-Experimentes. Dann ist f = 1 – Tref / Teq = 1 – 252.2 / 287.6 = 0.123, also nur ein Fünftel bis ein Sechstel des Wertes der offiziellen Klimatologie. Ursache dieser Differenz ist, dass wir anders als die offizielle Klimatologie die Rückkopplungs-Reaktion auf die Emissionstemperatur korrekt berücksichtigen.

Weiter. Wie viel der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K geht zurück auf die Rückkopplungs-Reaktion auf die Emissionstemperatur TE = 243,3 K und wie viel macht die Rückkopplungs-Reaktion auf die direkte Treibhausgas-Erwärmung ΔTE = 8.9 K aus? Man nehme einfach das Produkt von jedem Wert, und f / (1 – f) = 0,14. Folglich: 243,3 x 0,14 = 34,1 K und 8,9 x 0,14 = 1,3 K. Dass dies die korrekte Aufteilung ist, beweisen wir mittels der Standard-Mainstream-Form der Null-Dimension-Modell-Gleichung, die in allen dynamischen Systemen universell ist außer Klima. Die Mainstream-Gleichung separiert anders als die degenerierte Form der Klimawissenschaft explizit das Eingangssignal (bei Klima die Emissionstemperatur von 255,4 K) von jeder Verstärkung ( wie etwa die Erwärmung um 8,9 K durch Hinzufügen der nicht kondensierenden Treibhausgase zur Atmosphäre).

Die Mainstream-Null-Dimension-Modell-Gleichung lautet Teq = Tref μ / (1 – μβ), wobei Tref das Eingangssignal ist (hier: die Emissionstemperatur); μ = 1 + ΔTref / Tref der Verstärkungsfaktor, der jedwede Verstärkung von Tref repräsentiert wie etwa jenen, die verursacht wird durch die Präsenz der natürlich vorhandenen, nicht kondensierenden Treibhausgase; β ist der Rückkopplungs-Anteil; μβ ist der Rückkopplungs-Faktor, äquivalent zu f in der gegenwärtigen Version der offiziellen Klimatologie; und Teq ist die Gleichgewichts-Temperatur bei Re-Equilibration des Klimas, nachdem alle Rückkopplungen kürzer als ein Jahrzehnt wirksam geworden sind.

Der Rückkopplungs-Loop für diese korrigierte Form der Null-Dimension-Modell-Gleichung sieht so aus:

Das Rückkopplungs-Loop-Diagramm der Standard-Null-Dimension-Modell-Gleichung Teq = Tref μ / (1 – μβ)

Ein Vorteil der Anwendung dieser Form der Null-Dimension-Modell-Gleichung der Mainstream-Wissenschaft ist, dass sie explizit und separat das Eingangssignal Tref berücksichtigt und jede Verstärkung desselben via dem gain factor μ im Verstärker. Daher ist es nicht mehr möglich, entweder Tref oder die Rückkopplungs-Reaktion zu ignorieren oder zu gering zu bewerten, wozu es kommen muss, solange der Rückkopplungs-Anteil β ungleich Null ist.

Weiter unten wird nachgewiesen, dass die Aufteilung der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K im Jahre 1850, was wir aus unserem Gedankenexperiment zuvor abgeleitet haben, tatsächlich die korrekte Aufteilung ist. Beginnt man mit der Mainstream-Gleichung, führen wir zur rechten Zeit den direkten oder open-loop gain factor μ = 1 + ΔTref / Tref ein. Der Rückkopplungs-Faktor μβ, also das Produkt aus dem direkten oder open-loop gain factor μ und dem Rückkopplungs-Anteil β, hat genau die Form, welche wir angewendet haben, um unseren Rückkopplungs-Anteil f abzuleiten als 1 – (243,3 + 8,9) / 287,6 = 0,123. Dies bestätigt, dass unsere Aufteilung korrekt war.

Man beachte im Vorübergehen, dass f in der offiziellen Klimatologie sofort der Rückkopplungs-Anteil und der Rückkopplungs-Faktor ist, nimmt doch die offizielle Klimatologie an, dass der direkte oder open-loop gain factor μ = 1 ist. In der Praxis führt diese einzelne Hypothese die offizielle Klimatologie in die Irre, weil die Verstärkung der Emissionstemperatur, getrieben durch die Präsenz der nicht kondensierenden Treibhausgase, nur ein kleiner Anteil jener Temperatur ist.

Für uns war jedoch die Annahme vernünftiger, dass die Temperatur von 287,6 K im Jahre 1850 vor jedem potentiellen Einfluss des Menschen eine Gleichgewichts-Temperatur war. Wir wissen, dass sich die Welt während der 168 Jahre seit 1850 um nur 0,8 K erwärmt hat. Die offizielle Klimatologie ordnet diese gesamte Erwärmung dem Menschen zu, nicht der Natur.

War es sinnvoll von uns, mit der impliziten Emissionstemperatur von Lacis von 243,3 K anzufangen, welche die spezifizierte Albedo 0,418 auf einer Wasser-Erde beim Fehlen nicht kondensierender Treibhausgase reflektiert? Warum fingen wir nicht mit Pierrehumbert (2011) an, welcher sagte, dass eine Schneeball-Erde eine Albedo von 0,6 aufweisen würde, was eine Emissionstemperatur von 221,5 K impliziert? Rechnen wir mal. Der Rückkopplungs-Anteil f = μβ würde dann zu 1 – (221,5 + 8,9) / 287,6 = 0,20.

Folglich wäre der mittlere Rückkopplungs-Anteil einer Schneeball-Erde im Jahre 1850 0,20; derjenige von einer Wasser-Erde in jenem Jahr 0,12 und bei der heutigen Albedo 0,293 mit einer impliziten Emissionstemperatur von 255,4 K. Es ergibt sich 1 – (255,4 + 8,9) / 287,6 = 0,08. Damit begannen wir auch unsere Reihe. Man bemerkt, dass beim Schmelzen der großen Eisschilde die Dominanz der Albedo-Rückkopplung unaufhaltsam geringer wird, während der Rückkopplungs-Anteil mit der Zeit sinkt.

Obwohl die Albedo-Rückkopplung bis jetzt dominiert haben mag, was ist mit der größten aller heutigen Rückkopplungen, der Wasserdampf-Rückkopplung? Die Clausius-Clapeyron-Gleichung impliziert, dass der von der Atmosphäre eingenommene Raum bei Erwärmung derselben fast exponentiell mehr Wasserdampf enthalten kann, aber nicht muss. Wentz (2007) kam zu dem Ergebnis, dass die Gesamt-Säule Wasserdampf pro 1 K Erwärmung um etwa 7% zunimmt. Lacis (2010) kam aufgrund dieser Zuwachsrate zu der Aussage, dass falls man die nicht kondensierenden Treibhausgase aus der heutigen Atmosphäre entfernt und die Temperatur um 36 K, also von 288 auf 252 K sinken würde, sich etwa 10% des heutigen Wasserdampfes in der Atmosphäre befinden würde, also: 100% / 1.0736 = 9%.

Spezifische Feuchtigkeit (g/kg) in den Druckniveaus 300, 600 und 1000 hPa


Obwohl die Zunahme der Wasserdampf-Säule mit Erwärmung folglich als exponentiell angesehen wird, ist der daraus folgende Rückkopplungs-Antrieb jedoch in etwa logarithmisch (genau wie der direkte CO2-Antrieb logarithmisch ist). Was noch mehr zählt ist, dass ein substantieller Anteil der daraus folgenden Rückkopplungs-Reaktion ausgeglichen wird durch eine Reduktion der Rückkopplung des geringer werdenden vertikalen Temperaturgradienten. Demzufolge ist die Wasserdampf/lapse rate-Rückkopplung in etwa linear.

Während des Zeitraumes der NOAA-Aufzeichnungen der spezifischen Feuchtigkeit in drei verschiedenen Druckniveaus (oben) erfolgte eine globale Erwärmung von 0,8 K. Wentz hätte eine Zunahme des Wasserdampfes um etwa 5,5% erwartet. Tatsächlich fand sich nahe der Erdoberfläche, wo sich der meiste Wasserdampf befindet, ein Trend der spezifischen Feuchtigkeit mit etwa diesem Wert. Aber die Reaktion der Wasserdampf-Rückkopplung in niedrigen Höhen ist gering, weil die Luft alles andere als bereits gesättigt ist.

Allerdings sank die spezifische Feuchtigkeit mit der Höhe, wo die Luft trockener ist und zunehmender Wasserdampf die einzige in Frage kommende Quelle von Erwärmung ist. Das bestätigt die Nicht-Existenz des prophezeiten „Hot Spots“ in mittlerer Höhe der Atmosphäre über den Tropen, welcher angeblich durch zunehmenden Wasserdampf-Gehalt entstehen sollte. Also gibt es kaum Beweise dafür, dass die Temperatur-Reaktion auf einen gestiegenen Wasserdampf-Gehalt und die korrespondierende Verringerung der lapse rate nicht linear ist. Andere Rückkopplungen sind nicht groß genug, um einen großen Unterschied auszumachen, selbst wenn sie nicht linear sind.

Unser Verfahren prognostiziert eine Erwärmung von 0,78 K von 1850 bis 2011. Beobachtet worden waren 0,75 K.


Ein Kommentator hat sich darüber beklagt, dass der Planck-Parameter (die Quantität, mit der ein Strahlungsantrieb in W/m² multipliziert werden muss, um in eine Temperaturänderung konvertiert zu werden) weder konstant noch linear ist: stattdessen sei er die erste Ableitung einer Relation zur vierten Potenz, die fundamentale Gleichung des Strahlungstransports. Hier müssen wir eine kleine Berechnung durchführen. Übernimmt man die gewöhnliche harmlose und vereinfachende Hypothese der konstanten Einheit Emissivität ist die erste Ableitung, d. h. die Änderung ΔTref der Referenztemperatur pro Einheitsänderung ΔQ0 der Dichte des Strahlungsflusses einfach Tref / (4Q0), und das ist linear.

Eine einfache Approximation, um breitenabhängige Variationen des Planck-Parameters zu integrieren ist es, das Schlesinger-Verhältnis anzuwenden: d. h. das Verhältnis der Temperatur TS zum Vierfachen der Flussdichte Q0 = 241,2 W/m² in der Emissionshöhe. Bei den 255,4 K, welche ohne Rückkopplungen und Treibhausgase vorherrschen würden, wäre der Planck-Parameter 255,4 / (4 X 241,2) = 0,26 K/Wm². Bei der heutigen Temperatur von 288,4 K ist der Planck-Parameter 288,4 / (4 X 241,2) = 0,30. Da ist nicht sehr viel Nichtlinearität.

Es ist daher sinnvoll anzunehmen, dass so etwas wie der mittlere Rückkopplungs-Anteil 0,08; abgeleitet aus dem Experiment, in welchem man der Atmosphäre nicht kondensierende Treibhausgase hinzufügt, weiterhin vorherrschen wird. Falls das so ist, beträgt die Gleichgewichts-Erwärmung, die man aus dem anthropogenen Antrieb der 2,29 W/m² während der industriellen Ära bis 2011 (IPCC 2013, Abb. SPM.5) erwarten kann, 2,29 / 3,2 / (1-0,08) = 0,78 K. Und tatsächlich zeigt der Trend der linearen Regression kleinster Quadrate im Datensatz der globalen mittleren Temperatur von HadCRUT4 von 1850 bis 2011 eine Erwärmung um 0,75 K.

Aber warum zeigen die Temperaturmessungen der ARGO-Bojen dann ein „Strahlungsenergie-Ungleichgewicht“, was auf mehr Erwärmung in der Pipeline hindeutet, sondern dass die enorme Wärmekapazität der Ozeane diese für jetzt absorbiert hat?

Eine Möglichkeit ist, dass die ganze Erwärmung seit 1850 anthropogenen Ursprungs ist. Nehmen wir an, dass das Strahlungs-Ungleichgewicht bis 2010 0,59 W/m² betragen hat (Smith 2015). Die Erwärmung hat dann 2,29 – 0,59 = 1,70 W/m² in den Weltraum abgestrahlt. Die Gleichgewichts-Erwärmung sowohl durch anthropogene als auch durch natürliche Antriebe bis 2011 kann damit um 34,8% größer gewesen sein als die während der industriellen Ära gemessene Erwärmung von 0,75 K: d. h. 1,0 K. Falls 0,78 dieser 1 K anthropogenen Ursprungs wäre, dann gibt es nichts, um zu verhindern, dass die restlichen 0,22 K natürlichen Ursprungs sind, geschuldet der internen Variabilität. Dieses Ergebnis ist tatsächlich konsistent mit dem vermeintlichen „Konsens“, dass über die Hälfte der jüngsten Erwärmung anthropogenen Ursprungs ist.

Die Implikation für die Charney-Sensitivität – d. h. die Gleichgewichts-Sensitivität bei einer verdoppelten CO2-Konzentration – ist geradlinig. Den Modellen zufolge beträgt der CO2-Antrieb 3,5 W/m² pro Verdoppelung. Teilt man dies durch 3,2, um dem heutigen Planck-Parameter Rechnung zu tragen, konvertiert sich dieser Wert zu einer Referenz-Sensitivität von 1,1 K. Dann ist die Charney-Sensitivität 1,1 / (1 – 0,08) = 1,2 K. Und das ist die Grundlinie. Nicht die 3,3 K Schätzung der CMIP5-Modelle. Nicht die 11 K von Stern (2006). Nur 1,2 K pro CO2-Verdoppelung. Und das liegt weit unterhalb allem, weswegen man sich Sorgen machen muss.

Keiner der Einwände gegen unsere Ergebnisse hat sich als substantiell erwiesen. Als Beispiel seien hier Yahoo-Antworten angeführt (sogar noch unzuverlässiger als Wikipedia) mit der folgenden herrlich albernen Antwort auf die Frage „hat Monckton einen grundlegenden Fehler entdeckt?“

Damit treibt der Fragesteller das folgende unsinnige Argument vor sich her:

1. Falls ich die Temperatur von 255,4 K auf der Erde ohne Treibhausgase heranziehe und die 8 K mit Treibhausgasen dazu addiere, erhalte ich eine Temperatur von 263,4 K.

2. Was ich sagen will: diese Total-Temperatur (anstatt lediglich des Treibhausgas-Effektes) führt zu einer Rückkopplung. Und falls ich dies anwende, erhalte ich eine Rückkopplung von 1 – (263,4 / 287,6) = 0,08.

Das Problem: Wie kann die Temperatur des Planeten (255,4 K) ohne Treibhausgase dann zu einer Rückkopplung führen? Die Rückkopplung ist den Gasen selbst geschuldet. Man kann nicht argumentieren, dass die Rückkopplung und in der Folge die höhere Temperatur infolge der Treibhausgase tatsächlich der Temperatur des Planeten ohne die Treibhausgase geschuldet ist! Was er gemacht hat ist, dass er die Grundlinie, auf der die Zunahme und die Rückkopplung fußt, herangezogen hat und diese dann als Grundlinie der Quelle von Zunahme und Rückkopplung angewendet hat.

Also, ich fürchte, das ist totaler Unsinn …

Der von Yahoo Answers begangene Fehler liegt in der falschen Annahme, dass „die Rückkopplung den Gasen selbst geschuldet ist“. Nein: man muss unterscheiden zwischen den kondensierenden Treibhausgasen einerseits (eine Änderung des Wasserdampfgehaltes der Atmosphäre ist ein Rückkopplungs-Prozess) und den nicht kondensierenden Treibhausgasen andererseits wie etwa CO2 (fast alle Änderungen der Konzentration nicht kondensierender Treibhausgase sind Antriebe). Alle in Tabelle 1 gelisteten Rückkopplungs-Prozesse wären präsent sogar beim Fehlen irgendeines der nicht kondensierenden Treibhausgase.

Ein weiterer Einwand ist, dass die offizielle Klimatologie vielleicht die Rückkopplungs-Reaktion auf die Emissionstemperatur berücksichtigt. Diesem Einwand kann rasch begegnet werden. Hier ist die typische eingestampfte und verschleiernde Definition einer „Klima-Rückkopplung“ vom IPCC (2013):

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Änderung in einer Klima-Quantität eine Änderung in einer zweiten verursacht, und die Änderung in der zweiten Quantität ultimativ zu einer zusätzlichen Änderung in der ersten Quantität führt. Bei einer negative Rückkopplung wird die Änderung abgeschwächt durch die Änderungen, die sie verursacht; eine positive Rückkopplung ist eine solche, in welcher die initiale Änderung verstärkt wird. In diesem Zustandsbericht wird oft eine engere Definition angewendet, in welcher die Klima-Quantität, welche sich ändert, die globale mittlere Temperatur ist, was wiederum Änderungen des globalen Strahlungshaushaltes verursacht. In jedem Falle kann die initiale Änderung entweder externen Ursprungs sein oder als Teil der inneren Variabilität daher kommen.

Diese IPC-Definition schließt also explizit jedwede Möglichkeit einer Rückkopplungs-Reaktion aus auf eine zuvor herrschende Temperatur wie die 255,4 K Emissionstemperatur, welche auf der Erde beim Fehlen jedweder Treibhausgase und Rückkopplungen herrschen würde. Aus diesem Grunde dachte Roy Spencer, dass wir falsch lagen.

Unser einfacher Punkt bleibt: wie kann ein unbelebter Rückkopplungs-Prozess wissen, wie man zwischen der Eingangs-Emission der Temperatur von 255,4 K und weiteren 9 K unterscheidet, der sich aus dem Hinzufügen nicht kondensierender Treibhausgase zur Atmosphäre ergibt? Wie kann dieser Prozess wissen, dass er auf Ersteres schwächer reagieren sollte als auf Letzteres? Oder, falls man der IPCC-Definition folgt, auf Erstere überhaupt nicht und auf Letztere extravagant? Trotz einiger wackerer Versuche seitens der wahrhaft Gläubigen, alles zu komplizieren, ist am Ende unser Punkt so einfach – und in unserer Eingabe unwiderlegbar.

Link: https://wattsupwiththat.com/2018/04/06/looping-the-loop-how-the-ipccs-feedback-aerobatics-failed/
Übersetzt von Chris Frey EIKE




Rundbrief der GWPF vom 9. April 2018

1) 48.000 Kältetote in UK nach dem schlimmsten Winter seit 42 Jahren

In UK hat der vergangene Winter so viele Todesfälle verursacht wie seit 42 Jahren nicht mehr. Man schätzt, dass zwischen Dezember und März 20.275 Briten mehr als im Mittel zu erwarten gestorben sind. Das bedeutet, dass im vergangenen Winter insgesamt fast 48.000 Todesfälle auf das kalte Wetter zurückzuführen sind – oder rechnerisch ein Todesfall alle dreieinhalb Minuten. Campaigner haben diesen Umstand als „nationale Tragödie“ bezeichnet, zumal die Todesfälle bzgl. kalten Wetters hätten vermieden werden können – vor allem unter den Älteren. – Hayley Coyle, Daily Star, 7. April 2018

2) Energiepreise müssen sinken, um Todesfälle durch Kälte zu reduzieren

In UK hat die Anzahl exzessiver Todesfälle durch kaltes Winterwetter im vorigen Jahrhundert abgenommen, aber im vergangenen Jahrzehnt ist dieser Fortschritt zum Stillstand gekommen. Der Trend könnte sich sogar umkehren, steigen doch Rechnungen immer mehr, um Technologien unzuverlässiger erneuerbarer Energie zu stützen. Die Temperatur in zentral beheizten Wohnungen ist ebenfalls gesunken, was ein Indiz dafür ist, dass die steigenden Energiekosten die Menschen davon abhalten, ihre Wohnungen angemessen zu heizen. Angesichts der Verbesserungen bzgl. Dämmung ist dies umso überraschender, hätte doch dieser Vorgang zu wärmeren und nicht kälteren Wohnungen führen müssen. – The Conservative Woman, 9. März 2018

3) Energiearmut in UK: Kosten grüner Subventionen steigen auf 11,3 Milliarden Pfund

Das Office for Budget Responsibility hat jüngst ihr Frühjahrs-Gutachten veröffentlicht. Die wirtschaftlichen und finanziellen Aussichten darin enthüllen, dass die Kosten für Umweltabgaben in diesem Jahr auf 11,3 Milliarden Pfund steigen werden. Das ist ein Anstieg von 2 Milliarden Pfund im Vergleich zum Vorjahr. – Paul Homewood, Not A Lot Of People Know That, 7. April 2018

4) Solarparks erhalten mehr Geld durch grüne Subventionen als sie mit dem Verkauf der von ihnen erzeugten Energie einnehmen.

Die größten Solarparks in UK erhalten mehr Geld durch grüne Subventionen als durch den verkauften Strom, den sie erzeugen. Dies geht aus neuen Zahlen hervor. Energieerzeuger werden mittels großzügiger Garantien zum Bau weiterer Solarparks ermutigt, finanziert durch ,grüne Abgaben‘, welche den Rechnungen der Steuerzahler hinzugefügt werden. Aber viele der Erzeuger erzielen die Mehrheit ihrer Einkünfte durch die Subventionen – anstatt durch den Strom, den sie erzeugen. – Colin Fernandez, Daily Mail, 9. April 2018

5) Öl und Kohle verhinderten Stromausfälle in den USA während des vergangenen Winters

Neuen Daten und Analysen der US-Regierung zufolge konnten während des schweren Schneesturms im Osten der USA zum Jahreswechsel 2017/18 Stromausfälle nur durch verstärkte Stromerzeugung aus konventionellen Quellen verhindert werden, vor allem Kohle und – so unglaublich es klingt – Öl. Erneuerbare waren eine Enttäuschung auf der ganzen Linie. Die Warnung an Europa ist laut und deutlich! [Hervorhebung vom Übersetzer] – John Constable, GWPF Energy, 8. April 2018

Übersetzt von Chris Frey EIKE




Umwelt­behörden: Panik­mache mit „Voodoo-Wissenschaft“

Hilfe, Deutschland wird vergiftet!

Unsere Messergebnisse zeigen an 89 Prozent der Messstellen zu viel NO2 in der Luft! Hier verpesten Diesel-Abgase die Luft! Gemeinsam mit vielen hundert freiwilligen Helfern haben wir einen Monat lang an 559 Orten in Deutschland die Luftqualität nachgemessen. Die Ergebnisse sind erschreckend! 89 Prozent der Messstellen zeigen mit Werten über 20 Mikrogramm NO2 pro Kubikmeter Luft (µg/m3) gesundheitlich bedenkliche Belastungen der Atemluft mit dem Dieselabgasgift Stickstoffdioxid [DECKE]“. Mit dieser Panikmeldung wirbt die angeblich gemeinnützige DUH, in Wirklichkeit ein Lobby- und Abmahnverein mit dubiosen Finanzierungen durch amerikanische und japanische Konzerne sowie durch Industriestiftungen, auf ihrer Webseite um Freiwillige und um Spenden für ihre Aktivitäten gegen die deutschen Autofahrer, Bild 1.

Bild 1. Raffiniert im sonstigen Wortgeklingel verpackt unterstellt hier die DUH, dass bereits ein NO2-Wert von 20 µg/m3 eine „gesundheitlich bedenkliche Belastung“ darstelle


Das ist sehr geschickt gemacht, denn wer nicht aufpasst, hat den Köder schon geschluckt: Die DUH ist in einer anrüchigen Zusammenarbeit im Huckepackverfahren mit der „Abgasalarm“-Aktion des SWR sowie weiteren Sendern unterwegs auf der Jagd nach angeblich überhöhten NO2-Abgaswerten. Dabei versucht sie der Öffentlichkeit Grenzwertvorgaben unterzuschieben, die bei lediglich der Hälfte des gesetzlichen Limits von 40 µg/m3 liegen. So kann man wunderbar Panik schüren. Aber woher stammt eigentlich diese seltsame, in keinem europäischen oder US-Gesetz aufgeführte Angabe von 20 µg/m3? Denn einen derart niedrigen Wert findet man in keinem einzigen Gesetzestext beiderseits des „großen Teichs“, Bild 2.

Bild 2. Aktuelle Vorgaben und daraus abgeleitete Handlungsanweisungen für die Gehalte an NO2 in der Außenluft in der EU (links) sowie in den USA (Grafik: Autor)


Auftakt zur nächsten Stufe der Dieselverteufelung
Die Antwort auf diese Diskrepanz ist einfach: Die DUH interessiert sich für den aktuellen Stand der Gesetzgebung nur insoweit, wie es ihren Profitinteressen dient. Gleichzeitig ist sie längst dabei, dieses Geschäft, das sich bereits bisher als äußerst profitabel erwiesen hat, noch erheblich auszuweiten. Zusammen mit einer kleinen Clique von Beamten sowie den von diesen finanziell abhängigen sogenannten Forschungsinstitutionen arbeitet man intensiv daran, den deutschen Autofahrer in Zukunft noch viel weitergehender zu schädigen. Was wir im Moment erleben, ist die Vorbereitung der „Grenzwertfalle 2.0“, nachdem sich bereits die erste als erfreulich wirksam erwiesen hat. Die dabei verfolgte Strategie: Das Auto als gesundheitsgefährliches Übel darzustellen, das Menschen vergiftet und tötet. Wie das bei der ersten Grenzwerfalle gemacht wurde, zeigt Bild 3.

Bild 3. Das gesamte „Dieselproblem“ ergab sich erst durch die abrupte Absenkung des NO2-Grenzwerts von 100 auf 40 µg/m3 in den Jahren 2008 (EU) bzw. 2010 (DE) (Grafik: [GREFAL])

Erst die drastische Verschärfung des Immissionsgrenzwerts für NO2 von vorher 100 µg/m3 auf nur noch 40 µg/m3 führte zu jenem plötzlichen Anstieg der Grenzwertüberschreitungen, der heute der DUH ihre Klagewelle ermöglicht. In den USA blieb der Grenzwert dagegen selbst bei neuerlicher Begutachtung im Jahre 2017 unverändert bei 100 µg/m3, siehe auch Bild 2.
Diese massive Verschärfung durch die Brüsseler EU-Bürokratie ist ein durchschlagender Erfolg der intensiven Lobbyarbeit grünlinker NGO’s auf EU-Ebene. Dabei erhielten sie tatkräftige Unterstützung durch das von Trittin mit eigenen Leuten sowie Gesinnungsgenossen aus der SPD durchsetzte Umweltministerium und das diesem angegliederte Umweltbundesamt UBA. Letzteres hat soeben mit seiner neuesten „Studie“ den Startschuss für eine neue Verteufelungskampagne gegeben. Das Ziel ist hierbei, dem Diesel durch erneute drastische Absenkung von Immissionsgrenzwerten endgültig den Garaus zu machen.
Die neue Horrorstudie des UBA
Die neue UBA-Studie über angeblich neue Erkenntnisse bezüglich der „Giftigkeit“ von NO2 [UBASTU] wurde am 8. März 2018 präsentiert. Diese unterstellt knapp 6.000 im Jahr 2014 angeblich direkt mit dem NO2-Gehalt verknüpfte Todesfälle sowie einen Zusammenhang mit hunderttausenden weiteren Erkrankungen, Bild 4.

Bild 4. Aussagen der vom UBA vorgelegten Studie zu den angeblichen Auswirkungen von NO2 auf die Gesundheit in Deutschland


Noch weitaus erschreckender sind die Angaben zum Auftreten von Diabetes Typ 2. Zwar werden hier für 2014 „nur“ 1.492 (zusätzliche!) Todesfälle, aber volle 436.841 Krankheitsfälle dem NO2 zugeschrieben. Obwohl die Gesamtzahl der behaupteten Todesfälle damit immer noch unter derjenigen anderer Studien wie derjenigen der Europäischen Umweltagentur EEA liegt, übersteigt die Zahl der angeblichen Todesfälle die Gesamtzahl der Verkehrstoten um gut das Doppelte.
An der Studie fällt auf, dass es für nachteilige Auswirkungen von NO2 keine Untergrenze geben soll. Dieser sogenannte LNT-Ansatz (Linear-No-Threshhold) geht davon aus, dass jedes zusätzliche Mikrogramm/m3 einen schädlichen Einfluss hat, so dass es im Prinzip keinen unschädlichen unteren Grenzwert geben kann. Herr Resch von der DUH hat diese „regierungsamtliche“ Steilvorlage natürlich sofort genutzt und seine Kampagnen für das laufende Jahr sofort angepasst, indem er jetzt bereits Gehalt ab 20 µg/m3 als gesundheitsschädlich verteufelt.
Ein abstraktes Computer-Zahlenspiel…
Schon der erste Blick auf das vom Institut für Epidemiologie des Helmholtz-Zentrums in München sowie der IVU Umwelt GmbH in Freiburg vorgelegte Werk offenbart, dass es sich hierbei um eine reine statistische Zahlenspielerei ohne Realitätsbezug handelt. Man hat Messung und Erfassung durch Simulation und Statistik „ersetzt“, den Computer simulierte Jahresverteilungen für NO2-Gehalte in der Luft vor allen deutschen Haustüren ausrechnen lassen und diese NO2-Gehalte dann den in den jeweiligen Gebäuden wohnenden Bürgern zugeschrieben, Bild 5.

Bild 5. Einteilung der Bevölkerung nach Konzentrationsklassen (Grafik: UBA)


Interessant an Bild 5 ist der (so ganz bestimmt nicht beabsichtigte) Nachweis, dass nur ganz geringe Anteile der Bevölkerung in Bereichen mit NO2-Mittelwerten oberhalb von 40 µg/m3 wohnen. Zudem beweist es die Unsinnigkeit des Untersuchungsansatzes nach Wohnort. Der halb im Grünen bei 15-20 µg/m3 wohnende Bergmann in Datteln, der jedoch im Bergwerk jeden Arbeitstag acht Stunden mit einen NO2-Gehalt von 950 µg/m3 zu tun hat, gilt von vornherein als weit weniger exponiert als der Stuttgarter Buchhalter aus der Hohenheimer Straße (69 µg/m3), der beruflich in der siebten Etage eines reinen Bürogebäudes in Botnang den ganzen Arbeitstag lang höchstens 20 µg/m3 ausgesetzt ist. Dieser Ansatz ignoriert die Tatsache, dass unsere Bevölkerung ihre Zeit zu mehr als 90 % nicht etwa auf der Straße direkt vor dem Haus verbringt, sondern sich überwiegend in Innenräumen aufhält, wo sich die NO2-Gehalte drastisch von denjenigen auf der Straße unterscheiden. Dabei ist diese Erkenntnis schon seit mehr als zehn Jahren Stand der Wissenschaft, siehe z.B. die Arbeiten von Mitchell et al. [MITCH] oder Oglesby et al. [OGLE]. Die Verwendung derart sinnlos klassifizierter Eingangsdaten macht die Studie daher vorn vorherein wertlos. Schade um das Papier. Wieviel Steuergeld wurde dafür verschwendet?
mit sinnlosen „Ergebnissen“
Ein weiterer Kardinalfehler, der schon vom Ansatz her die Arbeit wissenschaftlich wertlos macht, ist das Ignorieren gesicherter toxikologischer Zusammenhänge. Toxikologen machen dasselbe wie Pharmazeuten, indem sie genau erforschen, wie der Körper auf Substanzen reagiert und welche Mengen welche Auswirkungen haben. Ohne diese Grundlagenforschung wäre es nicht möglich, Medikamente wirksam zu dosieren. In der UBA-Studie wird dagegen ausdrücklich erwähnt, dass „keine Tierstudien, In-vitro-Versuche und experimentelle oder toxikologische Studien berücksichtigt“ wurden. Stattdessen wurden Schlüsse rein aufgrund statistischer Auswertungen von mangelhaft selektierten Eingangsdaten gezogen. Dies kann man als äußerst fragwürdigen Umgang mit Statistik einstufen. Zu den wichtigsten Irrtümern bei statistischen Auswertungen zählen sogenannte Scheinkorrelationen, d.h. die Ermittlung von „Geister-Zusammenhängen“. Sehr bekanntes Beispiel ist der statistisch ermittelbare Zusammenhang zwischen der Storchenpopulation und der Geburtenrate, Bild 6.

Bild 6. Da Störche keine Kinder bringen, ist der statistisch nachweisbare Zusammenhang zwischen Storchenpopulationen und Geburtenraten eine Scheinkorrelation [STORCH]

Solche Scheinkorrelationen sind alltäglich. Sie kommen auch vor, wenn zwei verglichene Merkmale eine gemeinsame Ursache haben, z.B. die positive Korrelation zwischen zivilen Opfern und zerstörten Häusern in Kriegsgebieten. Beide sind – obwohl voneinander völlig unabhängig – auf die gemeinsame Ursache „Bombardierungen“ zurückzuführen. Dabei töten weder kaputte Häuser Zivilisten noch umgekehrt.
Bei jeder statistischen Untersuchung besteht eine der Hauptaufgaben darin, sich vorab zu vergewissern, dass man nicht solchen Scheinkorrelationen aufsitzt. Wichtigste Voraussetzung hierfür ist die genaue Untersuchung möglicher Wirkmechanismen. Korrelationen, für die es keine biologisch oder toxikologisch gesicherten Wirkzusammenhänge gibt, sollte mit größtem Misstrauen begegnet werden. Dies gilt umso mehr, wenn die Erfassung der Eingangsgrößen auf derart wackliger, um nicht zu sagen dubioser Basis beruht wie bei der UBA-Studie.
Warum wurden Raucher, Säufer & Co. „vergessen“?
Zu den wichtigsten Ursachen für zahlreiche der auch in der UBA-Studie aufgeführten Erkrankungen zählt beispielsweise auch das Rauchen. Starke Raucher leiden wesentlich häufiger an Krebs sowie anderen schweren Krankheiten insbesondere auch des Herz-Kreislaufsystems und sterben im statistischen Mittel wesentlich früher als andere Mitbürger [SPIRA]. Bei einer solchen Untersuchung hätte man daher in jedem Fall das Merkmal „Rauchen“ ebenfalls erfassen müssen, um dessen Einflüsse herauszurechnen. Im gesamten Bericht findet sich jedoch kein einziger diesbezüglicher Hinweis. Das Gleiche gilt auch für andere entscheidende Kriterien wie Einkommen, Sport, Arbeitsplatz, Arbeitslosigkeit, Stockwerk und Orientierung der Wohnung (siehe Bild 7 und Bild 8), Beruf, Alkoholkonsum oder geographische Herkunft.

Bild 7. Selbst in Straßen, wo der NO2-Gehalt auf EG-Niveau über dem Grenzwert liegt, liegen die Luftwerte der oberen Etagen im grünen Bereich (Grafik: [RBBAVR])

Bild 8. Bei größeren Mietshäusern macht es einen enormen Unterschied, ob die Fenster der Wohnung zur Straße oder zum Hinterhof hin orientiert sind (Grafik: [RBBAVR])

Die Forderung nach Erfassung der geografischen Herkunft hat nichts mit Rassismus zu tun, sondern mit der bekannten Tatsache, dass z.B. Diabetes genetisch und von den Essgewohnheiten her bei Menschen in Ozeanien, dem mittleren Osten und Nordafrika ein besonders hohes Erkrankungsrisiko ist und dort wesentlich häufiger auftritt als bei solchen aus Nordwesteuropa [DIABE]. In diesen Regionen sind die Diabetes-Raten heute fünf- bis zehnmal so hoch wie bei uns. Und die von dort kommenden Migranten müssen sich meist mit dem billigsten verfügbaren Wohnraum bescheiden. Den finden sie vor allem entlang der besonders stark verkehrsbelasteten Straßen mit entsprechend hohen NO2-Werten in der Luft. Mit Eingangsdaten, die dies nicht berücksichtigen, kann man keine vernünftige Statistik betreiben.
Ein weiterer, für die individuelle NO2-Beaufschlagung ganz entscheidender Punkt sind die NO2-Gehalte in der Wohnung selbst. Von außen eindringendes NO2 wird in Innenräumen sehr schnell in erheblichem Umfang abgebaut, so dass die Innenraumwerte nur äußerst selten über dem Grenzwert liegen. Sie können jedoch auch teils extrem höher liegen als auf der Straße, falls die Bewohner NO2-Quellen wie Zigaretten, Schischas, Räucherwerk, Kerzen, Gasherde, Gas-Zusatzheizungen etc. verwenden, Bild 9 und Bild 10.

Bild 9. Das Kerzenlicht eines Adventskranzes vermittelt ein starkes Gefühl von Heimeligkeit und familiärer Geborgenheit. Zugleich sind Kerzen jedoch regelrechte NO2-Schleudern (Foto: Autor)


Bild 10. Simulation der NO2-Konzentration in einem 50-qm-Wohnzimmer beim Abbrennen von Kerzen (Grafik: Uni Wuppertal/ Kleffmann) Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert. Die rote Linie markiert den Grenzwert für die Luft auf der Straße.


Der vom UBA vorgelegte Bericht enthält jedoch keinerlei Hinweise auf die Erhebung entsprechender Daten. Die Macher dieser Studie scheinen die Regeln ordentlichen wissenschaftlichen Arbeitens weitgehend ignoriert zu haben.
Degeneriert die Epidemiologie zur Voodoo-Gefälligkeitswissenschaft?
Die Wissenschaftler hinter dieser Studie – insbesondere die zuständige Professorin Annette Peters – müssen sich fragen lassen, was sie geritten hat, dass sie ihren wissenschaftlichen Ruf in derartiger Weise in Gefahr gebracht haben. Zusätzlich hat man sich durch den Versuch, die bestehende Untergrenze von 40 µg/m3 infrage zu stellen, gefährlich weit aus dem Fenster gelehnt. Die Tatsache, dass die DUH diese Folgerungen der Studie sofort und verschärfend in ihre politische Kampagne eingebunden hat, ist entlarvend und zeigt, wie sich deutsche Beamte, um Geld für Forschungsaufträge bemühte Institute sowie die DUH mit verteilten Rollen gegenseitig auf Kosten der auf’s Auto angewiesenen Bevölkerung die Bälle zuspielen. Dem Ruf der Epidemiologie als Ganzes sowie dem der beteiligten Institute haben die Autoren damit keinen Gefallen getan. Denn die Mängel dieser Untersuchung sind so eklatant, dass sie inzwischen eine ganz besondere „Auszeichnung“ erhalten hat.
Unstatistik des Monats: Eine Ohrfeige der peinlichsten Art
Die Auszeichnung als „Unstatistik des Monats“ gilt als eine der schlimmsten Peinlichkeiten, die einem Wissenschaftler widerfahren können. Verliehen wird sie vom RWI – Leibniz-Institut für Wirtschaftsforschung, einem hochkarätig besetzten Forschungs- und Beratungsinstitut mit einem breiten Betätigungsfeld in Politik, Wirtschaft und Gesellschaft. Mit der „Unstatistik des Monats“ hinterfragen Prof. Gerd Gigerenzer, Direktor des Harding-Zentrums für Risikokompetenz am Max-Planck-Institut für Bildungsforschung, Prof. Dr. Walter Krämer, Leiter des Sonderforschungsbereichs „Statistik nichtlinearer dynamischer Prozesse“ der TU Dortmund und RWI-Vizepräsident Prof. Thomas K. Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. Hier Zitate aus der Begründung:
Die Unstatistik März 2018 sind die 6.000 angeblichen Stickstofftoten im Jahr 2014 in Deutschland. Eine Studie, die im Auftrag des Umweltbundesamtes erstellt wurde, will herausgefunden haben, dass 5.996 Bundesbürger an Herz-Kreislauf-Krankheiten vorzeitig verstorben seien, die sie sich durch NO2-Belastung zugezogen hätten. Die methodischen und konzeptionellen Mängel dieser Studie wurden schon an anderer Stelle kritisiert…Die Zahl 6.000 ist das Produkt einer reinen Modellrechnung; es gibt zwar die Vermutung, aber keinen Nachweis, dass NOx zum Tod durch Herz-Kreislauf-Erkrankungen führt. Kaum ein Arzt hat bisher die NOx-Belastung als Todesursache angegeben“.

Bild 11. Stellungnahme des Statistikprofessors Krämer zur UBA-Studie über angeblich 6.000 Dieseltote in einem Interview [KRA1]

Dem ist kaum noch etwas hinzuzufügen. Sehr zu empfehlen sind in diesem Zusammenhang die Interviews von Prof. Krämer in den „Stuttgarter Nachrichten“ [KRA1] sowie in der WAZ [KRA2].
Fred F. Mueller
Quellen
[DECKE] https://www.duh.de/abgasalarm/
[DIABE] http://www.spiegel.de/gesundheit/diagnose/diabetes-bericht-der-who-die-welt-ist-zuckerkrank-a-1085458.html
[GREFAL] https://postimg.org/image/5m5xgtfth/
[KRA1] https://www.stuttgarter-nachrichten.de/inhalt.statistikprofessor-kritisiert-studien-zu-diesel-abgasen-die-abgastoten-sind-reine-panikmache.eccdfa2c-1441-49b9-88d5-c52735b9e41b.html
[KRA2] https://www.waz.de/staedte/essen/es-ist-panikmache-von-tausenden-abgas-toten-zu-sprechen-id213702577.html
[MITCH] http://www.healthyheating.com/Thermal_Comfort_Working_Copy/indoor_environmental_quality_health.htm#.WsefNpcuCUk
[OGLE] Oglesby, L., Rotko, T., Krutli, P., Boudet, C., Kruize, H., Nen, M.J., et al. (2000): Personal exposure assessment studies may suffer from exposure-relevant selection bias. J Expo Anal Environ Epidemiol 10(3): 251-266.
[RBBAVR] https://www.rbb24.de/politik/thema/2017/abgasalarm/beitraege/abgasalarm-Stickoxid-Werte-in-Berlin-flaechendeckend-zu-hoch.html#top
[SPIRA] http://www.spiegel.de/gesundheit/diagnose/rauchen-toetet-in-deutschland-vor-allem-die-sozial-schwachen-a-1201327.html
[STORCH] http://robertmatthews.org/wp-content/uploads/2016/03/RM-storks-paper.pdf
[UBASTU] https://www.umweltbundesamt.de/publikationen/quantifizierung-von-umweltbedingten
[UNSTA] http://www.rwi-essen.de/unstatistik/77/