Um Diesel ging es gar nicht

Die kleine Maus hatte keine Chance mehr. Sie bewegte sich unter einer Glasglocke, die, verschlossen, von außen keine Luft mehr hereinließ. Es kam, wie es kommen musste: Schon bald fiel das Versuchstier bewusstlos zu Boden und war tot. Das niedliche kleine Tier verbrauchte all den Sauerstoff, übrig blieb „schädliche Luft“, die weder Verbrennung noch Leben ermöglichte. Das Gleiche geschah mit einer Kerze; die ging im Glasbehälter ebenfalls aus. Daniel Rutherford, schottischer Chemiker, der dieses Experiment ausführte, nannte den Stoff „phlogistische Luft“, heute kennen wir den Stoff als Stickstoff. 78 Prozent, so wissen wir heute, sind in der Atmosphäre enthalten.

Das war 1772. Ein Tierversuch stand also am Anfang des Wissens um einen der wichtigsten Stoffe des Lebens. Es ist immer derselbe Ablauf: Am Anfang steht das Unwissen und macht daher ein Experiment, eine Frage an die Natur. Das beweist dann eine Erkenntnis – oder eben auch nicht. So gewinnt man Wissen, nicht durch Glauben.

Worum geht es heute? Es geht um die (Reiz-) Wirkung von NOx, aber ausdrücklich nicht im Zusammenhang mit dem Dieselskandal. Man weiß zwar grundsätzlich, wie Stickoxide auf den Organismus wirken. Es gibt eine ganze Reihe Stickstoff-Sauerstoff-Verbindungen, je nachdem, mit wieviel Sauerstoff-Atomen sich das Stickstoff-Molekül zu verbinden geruht. Wobei es sich eher nicht binden mag, es ist nicht besonders reaktiv, sagt man. Deswegen benutzt man es bei der Verpackung von Lebensmitteln beispielsweise, um die vor dem schädlichen Sauerstoff zu schützen und länger haltbar zu machen.

Je nachdem, wie sich die atomaren Legosteine zusammensetzen, entstehen vollkommen unterschiedliche Stoffe mit unterschiedlichen Wirkungen.
Eine lustige Wirkung kommt zum Beispiel zustande, wenn zwei Stickstoff-Atome mit einem Sauerstoff-Atom eine innige Beziehung eingehen. N2O heißt das dann, Lachgas. Früher, als die Menschen noch nicht solche Angst vor Chemie hatten, hat man auf Jahrmärkten Menschen Lachgas einatmen lassen und sich über die Reaktion gefreut: Ein zwanghaftes Lachen, eine Euphorie überfiel sie. Ähnliche Belustigungen hat man auch auf gesellschaftlichen Abenden veranstaltet, als vegane Ernährung und ähnliches noch nicht Gesprächsthemen dominiert haben. Üble Menschenversuche würden heute Kenntnisbefreite urteilen und zwar so lautstark, dass es gewiß Verbote hageln würde.

Lachgas wurde früher zur Betäubung beim Zahnarzt und vor Operationen verwendet. Wer sich heute Schlagsahne aus der Sprühdose auf den Kuchen spritzt, verbreitet damit auch Lachgas. Das dient als Treibgas.

Heute steigt der Gehalt an N2O in der Luft ausgerechnet dadurch an, dass Kohlekraftwerke „sauber“ gemacht werden sollen. Nicht nur der Übeltäter Nummer eins, Kohlendioxid, soll verschwinden, sondern auch die Stickoxide. Katalysatoren wurden in die Abgasstränge der Kohlekraftwerke eingebaut; die vermindern zwar die Stickoxide, sorgen aber ausgerechnet dafür, dass der Lachgasanteil ansteigt, und zwar ziemlich stark. Das gilt als viertwichtigstes Treibhausgas.

Die Welt kommt erst „in Ordnung“, wenn alle Kraftwerke abgeschaltet sind. Dann können nur noch Bakterien für erhebliche Stickstoff-Anreicherung der Luft sorgen.

Der menschliche Körper selbst stellt sogar Stickstoffmonoxid oder NO her. Das ebenfalls giftige Gas benutzt er als Botenstoff, als wichtigen Neurotransmitter im menschlichen Körper. Der sorgt dafür, dass sich Muskeln rund um Blutgefäße entspannen und der Blutfluß erhöht wird.

Um 1870 beobachtete man in den Dynamitwerken des Alfred Nobel, dass Arbeiter, die bei körperlicher Anstrengung aufgrund einer Herzkrankheit an Schmerzen in der Brust litten, eine Linderung ihrer Schmerzen erfuhren, wenn sie in der Woche wieder in der Fabrik arbeiteten. Die Fabrikluft enthielt Dämpfe von Nitroglycerin, denn diese Stickstoff-Verbindung ist der eigentliche Explosivstoff des Dynamits.

Diese hochexplosive Chemikalie benutzten dann Ärzte – stark verdünnt natürlich – als Standardarznei bei Angina pectoris. Menschenversuche?
Ganze 100 Jahre vergingen, bis man entdeckte, dass Nitroglycerin in der Muskulatur in NO umgewandelt wird – also in den Wirkstoff, der direkt für die Erweiterung der Blutgefäße verantwortlich ist.

Noch einmal 20 Jahre später erhielten drei Wissenschaftler den Medizin-Nobelpreis für ihre Erkenntnisse, auf welch komplizierte Weise NO die Herzgefäße beeinflußt. Verblüffend wiederum ist, dass sich der Organismus an NO-Gaben gewöhnt. Sie verlieren also ihre Wirkung. Herauszufinden wie genau dieser Prozeß der Desensibilierung verläuft, daran wird geforscht. Aber auch hier fallen die Früchte der Erkenntnis nicht vom Himmel, sondern mit harter detaillierter Arbeit und vielen Versuchen mit keinem brauchbaren Ergebnis. Und ja, mit Versuchen am lebenden Organismus. Anders geht es nicht.

Wenn sich aber – bei genügend Energie, sprich Hitze – zwei Sauerstoffatome mit einem Stickstoffatom verbinden, ergibt das jenes Stickstoffdioxid, NO2, das jetzt das Potential hat, den Schurkenstoff CO2 in der veröffentlichten Empörung abzulösen.

NO2 aus der Stickstoff-Sauerstoff-Connection ist für den Menschen tatsächlich schädlich. Es übt je nach Konzentration eine leicht bis stark ätzende Wirkung auf die Lunge aus, ist also in höheren Konzentrationen gefährlich. Wobei in der Fachwelt über Grenzwerte sehr heftig gestritten wird; sie beruhen selten auf Versuchen, sondern sind von Politik und Interessengruppen ausgehandelte Werte.

Die grün dominierte Weltgesundheitsorganisation WHO übrigens beruft sich auf aktuelle Tierstudien, die Gefahren schon bei niedrigen Dosierungen ergeben hätten. Also auch hier ging es nicht ohne Tierversuch.

Aus solchen Versuchsstudien leiteten Forscher eine Konzentration von 1,5 ppm oder 3000 μg/m3 als nicht gesundheitsschädlich ab. Basierend auf diesen Studien haben das Scientific Committee for Occupational Exposure Limits der Europäischen Kommission, die DFG-Arbeitsstoffkommission (MAK-Kommission) und der Ausschuss für Gefahrstoffe (AGS) für Arbeitsplätze einen noch niedrigeren Grenzwert für NO2, nämlich von nur von 0,5 ppm (950 μg/m3) festgelegt. 40 μg/m3 gelten laut EU für die Außenluft, am Arbeitsplatz 950 μg/m3, in Büroräumen 60 μg/m3. Arbeitenden Menschen wird mehr zugetraut. (Quelle: hier)

NO2 reagiert gern mit Wasser, wird zu „saurem Regen“, der nächste Regen aber wäscht die Luft wieder aus. NO2 entsteht bei vielen natürlichen Prozessen wie Gewittern, bei Verbrennungsprozessen aber auch zum Beispiel bei Betrieb von Elektromotoren und größeren Schweißarbeiten. Darauf hatten es die Aachener Forscher abgesehen. Denn erstaunlicherweise weiß man nicht sonderlich gut über die NO2-Wirkungen am Arbeitsplatz Bescheid. Die Grenzwerte wurden zwar in Deutschland im Gegensatz zu anderen Ländern deutlich abgesenkt, aber rein willkürlich, also ohne sie auf irgendeine Weise zu fundieren. Niemand kann also sagen, ob jene Grenzwerte sinnvoll sind oder nicht.

2013 und 2014, also lange vor dem „Diesel-Desaster“, haben die Aachener Forscher jene ominöse Studie erstellt; den Antrag dazu 2012 gestellt. Anlass war die Diskussion um die Absenkung der ‚Maximalen Arbeitsplatz-Konzentration‘ (MAK) für NO2. Denn wenn man über Grenzwerte redet, sollte man wissen, wie viel ist denn zu viel. Die Aachener wollten für neue Definitionen der maximalen Arbeitsplatzkonzentrationen mehr darüber herausfinden, wie NO2 wirkt. Die Versuche liefen nach den üblichen Prozeduren ab, also prüfen, ob Versuche notwendig sind, vorherige Ethikberatung, genaue medizinische Betreuung der Probanden.Soweit so normal. Grundlagenforschung, wie sie üblich und wichtig ist, um über neue Grenzwerte sinnvoll diskutieren zu können. Wer sie ablehnt, sorgt im Grunde für ein höheres Risiko für Menschen. Dass Menschen dabei bösen Diesel-Abgasen ausgesetzt oder gar „begast“ wurden ist, falsch. Es wurden die Aufnahmen von NO2 in verschiedenen geringen Konzentrationen gemessen, also nur von einem Bestandteil von Diesel-Abgasen.

Hier erklärt der Studienleiter der RWTH Aachen kurz gut verständlich seine Versuche:

Interview Prof. Dr. Thomas Kraus zur Aachener NO2 Studie

Die Ergebnisse wurden 2016 veröffentlicht, außer der Fachwelt nahm niemand Kenntnis. Nichts Geheimnisvolles, schon gleich gar nicht grausame Menschenversuche. Forschung über die Wirkung von Diesel-Abgasen gibt es schon länger. Dabei wurde gemessen, wie und was Menschen von Diesel-Abgasen aufnehmen. Auch die amerikanischen National Academies of Science betonen ausdrücklich, dass kontrollierte Experimente mit Freiwilligen, die Schadstoffen in der Luft ausgesetzt werden, berechtigt sind.

Kurz vor der Veröffentlichung der Aachener Geschichte hatte der Frankfurter Wirtschaftskorrespondent der New York Times über einen Versuch berichtet, Auswirkungen von Diesel-Abgasen auf einen Organismus zu erforschen, in diesem Fall an Affen. Diese Arbeiten haben nichts mit den Versuchen in Aachen zu tun.

2014, also auch bevor die Diesel-Affäre begann, sollen Wissenschaftler in einem Labor in Albuquerque als Beweis für die schädlichen Auswirkungen von Dieselabgasen auf die menschliche Gesundheit ein ungewöhnliches Experiment durchgeführt haben. Danach seien zehn Affen in luftdichte Kammern gesetzt worden. Sie hätten Abgase eines Diesel-VW-Käfers einatmen müssen, und durften dabei zur Unterhaltung Zeichentrickfilme anschauen.

Belege oder Quellen dafür werden nicht genannt, es wird lediglich auf Gerichtsakten und Regierungsdokumente Bezug genommen. Die Studie, um die es geht, liegt öffentlich nicht vor. Man kann daher nicht seriös Ziel und Arbeit der Forscher beurteilen. Das Labor Lovelace Respiratory Research Institute (LRRI) jedenfalls arbeitet seit langem in der Erforschung von Atemwegserkrankungen und untersucht Auswirkungen von Stoffen in der Luft auf die Atemwege und wird von der mächtigen Food and Drug Behörde (FDA) kontrolliert. Man darf davon ausgehen, dass keine Frankenstein-Scharlatane am Werk waren. Nur was genau geschah, ist nach außen hin nicht bekannt.

Automobilabgase haben wie Abgase bei allen Verbrennungsvorgängen zum Beispiel bei Heizungen bedenkliche Wirkungen. Nur würde niemand auf die Idee kommen, deswegen zu frieren. Die Autoabgase sind in den vergangenen Jahrzehnten erheblich „sauberer“ geworden. Doch die Absenkung eines Wertes zieht häufig die Erhöhung eines anderen Wertes mit sich. Erhöhen die Motorenbauer etwa die Verbrennungstemperaturen, so sinken zwar Verbrauch und CO2-Ausstoß, gleichzeitig steigt aber der NO2-Ausstoß an. Denn die höheren Temperaturen wiederum bewirken, dass sich Stickstoff und Sauerstoff besser verbinden.

Die Luft in den Städten wird immer sauberer. Stickoxid-Emissionen zum Beispiel wurden in Deutschland in den letzten Jahren mehr als halbiert. Sie sind von 1990 bis 2015 deutlich um immerhin 59 Prozent zurückgegangen. Diesel-PKW wiederum tragen zu den Stickoxiden in der Luft nur zu einem sehr geringen Anteil bei. Ein Verbot hätte also nur sehr geringe Auswirkungen. Von immer schlimmer verschmutzter Luft in den Städten zu reden, ist falsch.

Der Begriff „Schadstoff“ ist immer problematisch. Jeder Mensch gibt zum Beispiel mit den Darmgasen das faulig riechende Schwefelwasserstoffgas in die Luft ab. Es ist etwa so giftig wie Blausäure, nur riecht man es schon in weit kleineren, ungefährlichen Konzentrationen. Nur deshalb hat man nicht längst das Furzen verboten oder Gasfilter vorgeschrieben. Entscheidend sind immer die Konzentrationen etwaiger Schadstoffe. Daher will man Zahlen erfahren und wissen, vor allem, wenn man über Grenzwerte redet. Das geht nicht ohne Versuche. Sie sind Alltag. Dafür gibt es ausgefeilte Regularien, wie damit umgegangen werden muss. Sie wurden alle eingehalten.

Übrigens: Zu den nachweislich gefährlichsten Schadstoffquellen im Alltag zählt das Rauchen, worunter auch Passivraucher leiden. Hier ist die nachgewiesene Zahl an Toten (121.000 im Jahr 2013 allein in Deutschland) bei weitem höher als die den Diesel-Abgasen nachgesagte Opferzahl. Dazu gehört auch das immer beliebtere Shisha-Rauchen.

Die „Enthüllungen“ über angeblich grausamen Tierversuch kommen selbstverständlich nicht zufällig vor wichtigen Gerichtsentscheidungen. So steht am 22. Februar die Entscheidung des Bundesverwaltungsgerichtes über mögliche Fahrverbote von Dieselfahrzeugen an. Geklagt hatte der von Toyota unterstützte Abmahnverein Deutsche Umwelthilfe mit Vielflieger Jürgen Resch an der Spitze.

Der Beitrag erschien zuerst bei Tichys Einblick hier




«Diese Forscher haben eine politische Agenda»

Herr Mörner, Sie waren in letzter Zeit mehrmals auf der Inselgruppe ­Fidschi im Südpazifik, um dort Veränderungen der Küsten und des Meeresspiegels zu erforschen. Warum Fidschi?
Nils-Axel Mörner: Ich wusste, dass es im Juni 2017 in New York eine Wissenschaftskon­fe­­renz gibt, die sich mit Meeresspiegel-Veränderungen auf Fidschi befasst. Und es war bekannt, dass der Inselstaat den Vorsitz der 23. Weltklimakonferenz haben wird, die im letzten November in Bonn stattfand. Fidschi rückte also in den Fokus des Interesses. Man hörte, dass der steigende Meeresspiegel dort schon viel Schaden angerichtet habe. Ich wollte mit ­eigenen Augen überprüfen, ob das stimmt.

Was machte Sie skeptisch?
Ich habe mein ganzes Leben lang zu Veränderungen des Meeresspiegels geforscht und dazu 59 Länder bereist. Kaum ein anderer Forscher hat so viel Erfahrung auf diesem Gebiet. Der Weltklimarat (IPCC) aber hat die Fakten zu diesem Thema immer schon falsch dargestellt. Er übertreibt die Risiken eines Pegelanstiegs gewaltig. Das IPCC stützt sich insbesondere auf fragwürdige Computermodelle statt auf Feldforschung ab. Ich aber will immer wissen, was Sache ist. Darum ging ich nach Fidschi.

Laut ProClim, der Schweizer Plattform für Klimaforschung, gibt es auf Fidschi aber Messreihen, die einen starken Anstieg des Meeresspiegels in den letzten Jahrzehnten zeigen. Konkret sei der Pegel seit 1990 jährlich um 5,4 Millimeter gestiegen, was doppelt so viel wie im weltweiten Schnitt sei.
Ja, ich kenne diese Messungen. Es handelt sich um zwei Aufzeichnungsreihen der Gezeitenhöhen, also von Wasserständen bei Ebbe und Flut. Wir haben diese Daten überprüft – mit dem Ergebnis, dass sie von sehr schlechter Qualität sind. Die eine Reihe ist dadurch beeinflusst, dass in der Nähe der Messstation Hafen­anlagen auf lockerem Sedimentboden gebaut wurden, was die Gezeitenhöhen verändert haben könnte. Bei der anderen Reihe wurde die Messstation sogar örtlich verschoben. Die Forscher, die sich auf solche Daten verlassen, sind Bürotäter. Sie sind nicht spezialisiert auf küstendynamische Prozesse und Meereshöhen-Veränderungen. Viele von ihnen haben von den realen Verhältnissen keine Ahnung.

Wie sind Sie vorgegangen, um bessere Daten zu bekommen?
Wir sind einerseits den angeführten Beispielen nachgegangen, wo die Erhöhung des Meeresspiegels zu Küstenerosion geführt haben soll. Das Resultat war, dass die Erosion durch Eingriffe des Menschen ­verursacht worden ist – etwa durch neue Küstenbauten, die die Wasserströmungen veränderten, oder die verstärkte Ernte von Seegurken, was den Meeresuntergrund destabilisiert haben könnte. Um Veränderungen des Meeresspiegels der letzten 500 Jahre zu belegen, haben wir Sandablagerungen datiert, um zu sehen, wann sie entstanden sind. Zudem haben wir die Ausbreitung von Korallen in den letzten Jahrhunderten erforscht. Typischerweise wachsen Korallenriffe in die Höhe, wenn der Meeresspiegel steigt, und in die Breite, wenn dieser konstant bleibt. Sinkt der Pegel, sterben Korallen ab. Korallen lügen nicht, sie sind ein zuverlässiger Indikator – viel verlässlicher als Gezeitenmessungen.

Was war das Ergebnis?
Wir konnten nachweisen, dass der Meeresspiegel auf Fidschi ab 1550 bis etwa 1700 rund siebzig Zentimeter höher lag als heute. Dann sank er ab und war im 18. Jahrhundert etwa fünfzig Zentimeter tiefer als heute. Anschliessend stieg er auf etwa das heutige Niveau. In den letzten 200 Jahren hat sich der Pegel nicht wesentlich verändert. Während der letzten 50 bis 70 Jahre war er sogar absolut stabil.

Waren Sie überrascht?
Nicht wirklich. Es war ja nicht das erste Mal, dass sich die Behauptungen des Weltklimarats als falsch herausstellten.

Fidschi ist aber nur eine einzige Inselgruppe. Möglicherweise ist die Situation an anderen Orten anders.
Es gibt ja auch Daten von vielen anderen Orten der Welt. Diese bestätigen mitnichten das Bild, das der Weltklimarat zeichnet. An gewissen Orten steigt der Meeresspiegel zwar tatsächlich an, an anderen Orten aber ist er stabil, und anderswo sinkt er sogar. Im Indischen Ozean und an der Atlantikküste Südamerikas etwa ist der Spiegel konstant. Auch auf südpazifischen Inseln wie Tuvalu und Kiribati bestätigen Messungen die ständigen Warnungen vor einem Untergang dieser Inselgruppen nicht. Sicher trägt das Meer da und dort die Küsten ab, aber anderswo wachsen Inseln auch. Das war schon immer so.

«Das sind Bürotäter. Viele haben von den realen Verhältnissen keine Ahnung.»

Warum warnen denn viele Klimaforscher vor versinkenden Inseln?
Weil sie eine politische Agenda haben. Sie sind von der Deutung voreingenommen, der Mensch bewirke den Klimawandel, und das sei eine Bedrohung. Der Weltklimarat wurde ja mit dem Zweck gegründet, den menschengemachten Klimawandel darzustellen und vor ihm zu warnen. Sein Ziel stand also von Anfang an fest. Und er hält daran fest wie an einem Dogma – egal, wie die Fakten sind. Als Spezialist für Entwicklungen des Meeresspiegels stellte ich in den letzten Jahren immer wieder fest, dass das Team des IPCC zu diesem Aspekt keinen einzigen Experten auf diesem Gebiet umfasst.

Gibt es denn gar kein Problem mit dem Anstieg des Meeresspiegels?
Nein.

Keine Gefahr, dass Inseln untergehen könnten?
Die Untergangsszenarien beziehen sich ja meist auf das Jahr 2100. Ich schätze, dass der Meeresspiegel bis dann im Schnitt um fünf Zentimeter steigen wird, mit einer Unsicherheit von 15 Zentimetern. Die Veränderung geht also von plus 20 Zentimeter bis minus 10 Zentimeter. Das ist wahrlich keine Bedrohung. Wer behauptet, es drohe ein Anstieg um einen Meter oder ähnlich, hat keine Ahnung von Physik.

Aber er strömt doch viel Schmelzwasser von Gletschern und Eisschilden ins Meer.
Viel weniger, als man meint. In der Antarktis schmilzt insgesamt kein Eis. Wenn in der Arktis Eis schmilzt, verändert das den Meeresspiegel nicht – denn schwimmendes Eis beeinflusst gemäss den Gesetzen der Physik beim Schmelzen den Pegel nicht. Im Wesentlichen trägt damit nur schmelzendes Eis auf Grönland zu einer Pegelerhöhung bei. Aber dieser Beitrag ist klein.

Meerwasser erwärmt sich und dehnt sich dabei aus, was den Spiegel erhöht.
Das stimmt, aber es geht hier ebenfalls nur um wenige Zentimeter, nicht um Dezimeter oder gar Meter. Grundsätzlich gibt es viel wichtigere Einflüsse, die die Höhe des Meeresspiegels beeinflussen, insbesondere die Sonneneinstrahlung. Es gibt auch bedeutende horizontale Wasser­verschiebungen, von den einen Weltmeeren in andere. Wie die Daten auf Fidschi zeigen auch diejenigen von den Malediven, dass die Pegel im 17. Jahrhundert klar höher als heute lagen. Das war bezeichnenderweise die Zeit, als es auf der Nord­hemisphäre kalt war, man spricht von der Kleinen Eiszeit. Damals war die Sonneneinstrahlung geringer als heute. Es war das grosse solare Minimum. Es scheint so zu sein, dass tiefe Sonneneinstrahlung mit hohen Pegelständen in den Tropen einhergeht – und umgekehrt. Die Meerespegel scheinen vor allem von der Oszillation der Solarzyklen abzuhängen und kaum von schmelzendem Eis.

Sie gehören zu den profiliertesten Kritikern des Weltklimarats. Was war der Auslöser, dass Sie auf Distanz zu den Warnungen vor einem menschengemachten Klimawandel gegangen sind?
1991 hielt ich an einer Konferenz zu Meeresspiegel-Änderungen in den USA ein wissenschaftliches Referat. Der dort anwesende Vertreter des Weltklimarats reagierte mit grosser Wut auf meine Standpunkte. Diese Reaktion überraschte mich. Denn in Wissenschaftskreisen gilt, dass man sich gegenseitig zuhört und über unterschiedliche Standpunkte debattiert. In Folge fiel mir immer mehr auf, dass der Weltklimarat völlig falsche Informationen verbreitet und auch an offensichtlichen Fehlern festhält. Ich veröffentlichte dann einmal eine Arbeit über den Einfluss der Sonne auf den Meeresspiegel, hinter die sich 19 anerkannte Experten ­stellten. Doch der Weltklimarat attackierte die Arbeit mit hanebüchenen Behauptungen und bewirkte, dass die wissenschaftliche Zeitschrift, in der sie erschienen war, eingestellt wurde.

Man will Sie also stoppen?
Mich kann man nicht stoppen. Ich habe bis heute etwa 650 wissenschaftliche Arbeiten publiziert. Aber junge Kollegen, die kritisch denken, haben angesichts der Manipulationen keine Chance. Grundsätzlich ist es so, dass die meisten Herausgeber von Wissenschafts-Magazinen keine Arbeiten mehr akzeptieren, die den Behauptungen des Weltklimarats ­entgegenstehen – unabhängig von der Qualität dieser Arbeiten.

Aber 97 Prozent der Klimaforscher sind überzeugt, dass die Erderwärmung menschengemacht ist?
Das ist Unsinn. Diese Zahl beruht auf unseriösen Umfragen. In Wahrheit lehnt die Mehrheit der Forscher die Behauptungen des Weltklimarats ab, je nach Fachgebiet sind es zwischen 50 und 80 Prozent. Nur die Meteorologen stimmen fast zu hundert Prozent mit dem IPCC überein. Aber diese Leute sind finanziell vom Weltklimarat abhängig.

Ist es aber nicht grundsätzlich sinnvoll, den CO2 zu reduzieren?
Warum denn? Es ist offensichtlich, dass CO2 nicht der wesentliche Treiber der Temperaturen ist. Bemerkenswert ist, dass der Weltklimarat selber die angekündigte Erwärmung in den vergangenen Jahren mehrmals reduziert hat. Wenn aber nur mit 1,5 Grad höheren Temperaturen zu rechnen ist, ist das nun wirklich keine Bedeutung.

«Effektiv schadet der Kampf gegen den Klimawandel den Menschen sehr.»

Warum hört man denn so viele Warnungen vor dem Klimawandel?
Einige Leute haben sich mit ihren Behauptungen stark exponiert und können nun offensichtlich nicht mehr zurück. Zudem fliesst öffentliches Forschungsgeld fast ausschliesslich zu den Warnern vor dem Klimawandel. Wir haben es hier mit einer quasi-religiösen Bewegung zu tun, die behauptet, die Umwelt schützen zu wollen. Sie stellt mittlerweile die Bekämpfung der Erderwärmung vor die Bekämpfung der Armut.

Was wären die richtigen Prioritäten?
Wichtig wäre der Schutz der Menschen vor Naturkatastrophen wie Erdbeben, Vulkanausbrüche und ­Tsunamis. Zudem sterben jeden Tag 25’000 Menschen, weil sie keinen Zugang zu sauberem Trinkwasser haben. Die Versorgung mit Nahrungsmitteln ist oft ebenso katastrophal. Dennoch wird etwa Nigeria davon abgehalten, Kohle zu nutzen und damit zu wirtschaftlicher Entwick­lung und Wohlstand zu kommen, die Hunger und Armut verringern würden. Dabei gibt es heute effiziente Technologien, um Luftschadstoffe bei der Kohlenutzung herauszufiltern. Effektiv schadet der Kampf gegen den Klimawandel den Menschen sehr.

Was wird weiter geschehen?
Voraussichtlich nimmt die Sonneneinstrahlung in den nächsten Jahrzehnten ab, und es kommt zu einer Abkühlung. Spätestens dann wird wohl klar, wie falsch die Warnungen vor der Erderwärmung sind.

Nils-Axel Mörner, geboren 1938, blickt auf eine lange Forscherkarriere zurück. Er war Dekan der Fakultät für Paläogeophysik und ­Geodynamik an der Universität Stockholm, wo er als Professor lehrte. Von 1981 bis 1989 präsidierte er die ­Neotektonik-Kommission der Internationalen ­Vereinigung für Quartär-­Forschung (Inqua). Ab 1997 leitete er während sechs Jahren ein Wissenschaftsprojekt der EU zu Geomagnetismus und Klima. Von 1999 bis 2003 war Mörner zudem Präsident der Inqua-Kommission für Meeresspiegel-Veränderung und Küstenentwicklung. Er hat viele ­Hundert wissenschaftliche Arbeiten publiziert.

Mit Dank übernommen von der Basler Zeitung hier




Diesel: Merkel & Co. contra Grundgesetz

Einer Meldung von „Spiegel Online“ zufolge forderte hierbei auch Bundeskanzlerin Angela Merkel Aufklärung. Ihr Regierungssprecher Steffen Seibert wird mit folgender Aussage zitiert: „Diese Tests an Affen oder sogar Menschen sind ethisch in keiner Weise zu rechtfertigen“. Die Autokonzerne, so Merkels Sprecher, hätten Schadstoffemissionen zu begrenzen und Grenzwerte einzuhalten und nicht die vermeintliche Unschädlichkeit von Abgasen zu beweisen.

Vorbild für die deutsche Regierung zur Behandlung der Untertanen? Mit Dank an Leser Peter Meuser

 

Maul halten und kuschen

Abgesehen von der Tatsache, dass insbesondere die Versuche an Freiwilligen in Aachen überhaupt nichts mit der sogenannten Diesel-Abgasaffäre zu tun hatten, beweist unsere politische Führung mit diesen Aussagen, dass ihr die DDR-Verfassung vertrauter zu sein scheint als unser Grundgesetz. Denn hiermit wurde eklatant gegen eines unserer wichtigsten Grundrechte verstoßen: Das der Meinungsfreiheit. Der entsprechende Artikel 5 des Grundgesetzes stellt dazu in seinem Absatz 3 eindeutig fest: Kunst und Wissenschaft, Forschung und Lehre sind frei.

Diese Freiheit von Forschung und Lehre wird durch unsere Regierung ganz offensichtlich nicht respektiert. Zur Freiheit der Forschung bzw. der Universitäten gehört auch, dass sie ethische Aspekte ihrer Tätigkeit ohne regierungsamtliche Einmischung eigenverantwortlich abklären. Wenn dann eine Bundeskanzlerin erklären lässt, die Versuche seien in keiner Weise ethisch zu rechtfertigen, dann ist das Frontalangriff auf die Forschung. Versuche an Menschen und Tieren sind seit jeher fester Bestandteil des wissenschaftlichen Instrumentariums. Ihre Durchführung wird durch universitäre bzw. berufsständische Ethikkommissionen begleitet und beurteilt. Solange keine eindeutigen Rechtsverstöße nachgewiesen werden, hat der Staat sich herauszuhalten. Hiergegen wurde im vorliegenden Fall gravierend verstoßen.

 

Politik mit dem Rücken zur Wand

Hintergrund der ganzen Geschichte ist, dass unsere politischen Parteien inzwischen merken, dass sie sich mit ihrer Politik der „Dekarbonisierung zur Klimarettung“ in eine Sackgasse manövriert haben, aus der sie nicht mehr herausfinden. Angesichts der katastrophalen Stimmenverluste bei den letzten Wahlen versuchen die beiden größten Verlierer mit fast schon verzweifelten Manövern, sich irgendwie an der Macht zu halten und Sündenböcke zu finden, denen sie die Schuld für ihr eigenes Versagen aufbürden können. Vorzugs-Sündenbock ist hierbei die Autoindustrie.

Das Problem der Regierung: Die CO2-Emissionen des Landes gehen nicht so schnell zurück, wie die Klimakanzlerin sich das vorgestellt hatte. Neben einem massiven internationalen Gesichtsverlust drohen jetzt auch empfindliche Strafen seitens der EU. Die „bösen“ Kohlekraftwerke kann man nicht so schnell wie gewünscht stillsetzen, weil sonst massive Blackouts einen Volksaufstand provozieren und der Regierung ein jähes Ende bereiten würden. Also sucht man sich einen anderen Sektor, der ein lohnendes Ziel für verstärkte Maßnahmen zur „Dekarbonisierung“ darstellt, und das ist der Individualverkehr. Das ist jedoch nicht so einfach. Die goldenen Zeiten, in denen man den ungeliebten Individualverkehr wirksam eingrenzen konnte, indem man die Werktätigen mehr als 10 Jahre auf ihren Trabi warten ließ, sind leider vorbei. Angesichts der Widerstände hier im Westen hat man sich den hiesigen Verhältnissen kreativ angepasst.

 

Nieder mit dem Privatauto

Die entsprechende Kampagne läuft bereits seit etlichen Jahren und wurde auch längst mithilfe der EU in Gesetzesform gegossen. Die unsinnigen Grenzwertvorgaben bezüglich Emissionen – egal ob Feinstaub, NO2 oder CO2 – wurden schon vor mehr als einem Jahrzehnt auf Kiel gelegt. Automatische Verschärfungen alle paar Jahre sorgen dafür, dass den Automobilherstellern ebenso wie den Autofahrern die Luft schön langsam immer weiter abgedrückt wird. Egal welche unsinnigen Vorgaben die Ingenieure bei VW, BMW oder Daimler mit unendlichen Mühen und Kosten auch immer einzuhalten vermögen: Kaum ist das vorgehaltene Stöckchen übersprungen, wird es höher gehalten mit der Aufforderung, jetzt auch darüber zu springen. Es ist wie mit dem Hasen und dem Igel: Am Ende der Furche stellt man fest, dass man trotz aller Anstrengungen wieder verloren hat. Begleitet wird dies von einer seit vielen Jahren immer schriller werdenden Hass- und Verleumdungskampagne mit verlogenen Zahlen über angebliche Todeszahlen durch Stickoxide, Feinstaub, Klimagase etc. Die Medien machen bei diesem Spiel begeistert mit. Wenn die Gemobbten versuchen, sich zu wehren und beispielsweise diese immer schärferen Grenzwertvorgaben zu hinterfragen, tobt die Meute der Journaille – so wie in den letzten Tagen geschehen – erst recht mit massivsten Verleumdungen los. Und mitten in diesem Shitstorm kommt dann der Herr Regierungssprecher daher und stellt in arrogantem Tonfall fest, die Autokonzerne hätten Schadstoffemissionen zu begrenzen und Grenzwerte einzuhalten und nicht die vermeintliche Unschädlichkeit von Abgasen zu beweisen. Das beweist vor allem eines: Unsere Regierung tritt sowohl die Meinungsfreiheit als auch die Freiheit von Forschung und Lehre mit den Füßen.

 

Die Dekarbonisierung in ihrem Lauf…

Sowohl den Autoherstellern als auch den Bürgern sollte eigentlich klar sein, dass dieses Spiel weitergehen wird, bis das Volk auf seine individuelle Mobilität verzichtet hat. Dabei ist man sehr flexibel: Kaum hat die Automobilindustrie bezüglich der Versuche den Kotau gemacht, Buße gelobt und ein paar Unglückliche bestraft, da tauchen in der Presse Berichte über die „plötzlich“ entdeckte Schädlichkeit der (jedem Eingeweihten seit langem bekannten) Abgase von Benzinmotoren auf. Wie die Zulassungszahlen belegen, haben in letzter Zeit viele geglaubt, künftigen Enteignungen entgehen zu können, indem sie einen Benziner statt eines Diesels kauften. Das kann sich schon bald als erneuter teurer Reinfall erweisen. Und auch „Stromer“ sind keine sichere Zuflucht, denn es gibt inzwischen auch dazu bereits Studien, die eine erschreckende Umweltschädigung auch dieser Antriebsart belegen. Sobald es den Herrschenden passt, werden die netten Leute in den Radaktionsstuben auch diese Argumente nutzen, um E-Autobesitzer als Tier- und Menschenfeinde an den Pranger zu stellen. Vierjährige Kinder, die im Kongo die entsprechenden Rohstoffe aus der Erde buddeln, liefern schliesslich noch bessere Argumente als Affen oder menschliche Probanden.

Unsere Regierung ist eisern entschlossen, Deutschland zu „dekarbonisieren“. Koste es was es wolle. Und auf diesem Weg wird sie sich durch nichts aufhalten lassen. Nicht durch Arbeitsplätze im Automobilsektor und auch nicht durch das Grundgesetz. Die Bundestagssitzung am 2. Februar wird hierfür wieder Anschauungsunterricht liefern.

Fred F. Mueller




Gibt es Strahlengefahr durch Röntgen der Hand?

Das Gesetz verlangt, Menschen nicht unnötig ionisierenden Strahlen auszusetzen. Jede unnötige Strahlenexposition ist auch unterhalb der gesetzlichen Grenzen zu vermeiden (§ 28 der Strahlenschutzverordnung). Beim Röntgen wird die Hand der Strahlung ausgesetzt. Gibt es dadurch ein Risiko für die Gesundheit des jungen Menschen?

Bei dieser Maßnahme wird die Hand mit einer Strahlendosis von ca. 0,1 Milli-Sievert beaufschlagt — ist das nun viel oder ist das wenig? Hier drei Vergleiche, um diese Strahlendosis einordnen zu können:

  1. Bei einem Flug von Deutschland in die westlichen Regionen der USA oder nach Japan über die Polarregion hinweg werden die Menschen im Flugzeug ebenfalls einer Strahlendosis von 0,1mSv ausgesetzt, und zwar mit dem GANZEN Körper, und nicht nur mit einem Teilbereich wie z.B. der Hand [1].
    Jedermann darf sich nach Belieben ins Flugzeug setzen, niemals wird dabei von einem Risiko für die körperliche Unversehrtheit durch Strahlung gesprochen!!!
  2. Bei einer Radonkur bekommt der Patient eine Strahlendosis im Bereich von 1 bis 10 Milli-Sievert, also 10 bis 100-fach mehr als bei der Handdurchleuchtung. Diese Dosis bewirkt die gewünschte Heilung. Allein in Deutschland gibt es 8 Radonheilbäder, und in der EU profitieren pro Jahr etwa 80 000 Patienten von der nützlichen Wirkung der Strahlung durch die Radioaktivität des Radon.
    Bei der Radonkur wirkt die Strahlung ebenfalls nicht nur lokal wie beim Röntgen, sondern je nach Art der Kur auf den GANZEN Körper. Das ist kein RISIKO, sondern das ist nützlich für die Patienten. Also kann der 10-te Teil dieser Strahlung kein Risiko darstellen!!!
  3. Nach einer Krebs-OP erfolgt in der Regel eine Chemotherapie und Strahlentherapie. Bei der Strahlentherapie werden im allgemeinen über 6 Wochen hinweg täglich Organdosen von 2 Sievert gegeben. In der Summe sind es meist rund 60 Sievert, also das 600 000-fache einer Handdurchleuchtung. Das Krebsgewebe im Inneren des Körpers wird bekämpft, dabei wird auch das umliegende gesunde Gewebe getroffen. Dazu heißt es im Deutschen Ärzteblatt: „Gesundes Gewebe kann subletale Schäden in den Bestrahlungspausen weitgehend reparieren“ [2].
    Jedes Jahr werden in Deutschland 200 000 Krebspatienten oder mehr auf diese Weise behandelt, das ist ein Teil der heilenden Therapie. Der 600 000-ste Teil davon kann kein Risiko sein!!!

Aus den hier genannten Angaben zur Dosis in den drei Punkten geht unzweideutig hervor, daß das Röntgen der Handwurzelknochen niemals eine Gefahr darstellen kann. Damit kann die Diskussion um die Strahlengefahr beim Röntgen abgeschlossen werden, denn es gibt KEINE Gefahr. Es ist aber noch auf die nützliche Strahlenwirkung wie z.B. bei den Radonkuren einzugehen.

 

Strahlenschützer contra Strahlenbiologen

Die Strahlenbiologen wissen seit langen Zeiten, daß ionisierende Strahlung im Bereich niedriger Dosis bei niedriger Dosisleistung die körperlichen Abwehrkräfte trainiert, und damit für die Gesundheit von Lebewesen nützlich ist. Die oben genannten Radonkuren sind ein starkes Argument dafür. Durch einseitige Berichterstattung in den öffentlichen Medien wurde hingegen die „StrahlenGEFAHR“ in den letzten etwa 80 Jahren weltweit in die Gehirne der Menschen eingebrannt. In Deutschland haben sich die Professoren Klaus Becker (†) und Ludwig E. Feinendegen immer wieder in Fachbeiträgen zu Wort gemeldet, ihre Berichte wurden in den Fachmedien atw (= Atomwirtschaft, die Fachzeitschrift der Kerntechnische Gesellschaft) und SSP (= StrahlenschutzPRAXIS, Fachzeitschrift vom Fachverband Strahlenschutz Deutschland – Schweiz) abgedruckt, mit NULL Resonanz in den Printmedien und elektronischen Medien.

Öffentliche Aufmerksamkeit erhielten dagegen oft die Strahlenschützer, zum Beispiel Professor Edmund Lengfelder vom Umweltinstitut München. Strahlenschützer werden dafür bezahlt, vor Strahlen zu schützen. Daher müssen Strahlen doch gefährlich sein??? Diese Schlußfolgerung ist zwar naheliegend, aber dennoch falsch, denn es muß immer die Strahlendosis dazu benannt werden (Paracelsus). Eine öffentliche Diskussion zwischen Strahlenschützern und Strahlenbiologen fand nie statt. Diese ist jedoch erforderlich, um RICHTIG und FALSCH unterscheiden zu können. Natürlich gibt es seltene Ausnahmen, zu nennen sind zum Beispiel zwei Berichte vom SPIEGEL [3].

 

Dosis und Dosisleistung ist zu beachten

Es ist wie beim Alkohol, eine hohe Dosis in kurzer Zeit ist schädlich, z.B. eine Flasche Schnaps – das ist eine letale Dosis – schnell hinunter gekippt. Täglich ein Mon Chéri über ein ganzes Jahr bedeutet auch die Inkorporation einer „letalen Dosis“, sie wirkt aber nicht schädlich, weil sie über die Zeit verteilt ist. Es gibt andererseits auch gesundheitlich positive Effekte durch Alkohol, hin und wieder ein Gläschen Rotwein oder ein Glas Bier ist der Gesundheit förderlich. Es gibt bei Alkohol in ähnlicher Weise wie bei Strahlung Bereiche, wo Gefahr zu befürchten ist oder wo Nutzen zu erwarten ist.

Aus den Arbeiten von Strahlenbiologen [4] wurde eine Übersicht zum Strahlenpegel zusammengestellt:

Darstellung der Strahlenpegel mit den Bereichen:

  1. Normale Umwelt ohne erkennbare Wirkung
  2. Nützliche Wirkung bei 1000-fach höherem Strahlenpegel, Empfehlung von Doss und Luckey (blaue Pfeile) und Sanders [5] 40 bis 800 Mikro-Sievert pro Stunde
  3. Gefahr bei 100-Millionen-fach höheren Strahlenpegel als normal

 

Die nützliche Strahlenwirkung wird nur dann erreicht, wenn sich die Menschen genügend lange an den Orten mit höherem Pegel aufhalten. Das ist im Flugzeug oder an den wenigen kleinen Stellen mit erhöhter Bodenstrahlung wie in Ramsar, Guarapari, Kerala nicht der Fall. Allein beim Kobalt-60-Ereignis in Taiwan [6] und im Weltraum war es durch langen Aufenthalt der Fall [7], dort wurden deutliche bzw. gigantische Effekte beobachtet: In Taiwan wurde das Krebsrisiko fast bis auf NULL reduziert.

 

Was ist zu tun?

Es ist dringend erforderlich, die Erkenntnisse der Strahlenbiologen zur Wirkung ionisierender Strahlung zum Wohle der Menschen zu beachten. Bei einem Strahlenpegel, der beim 1000-fachen des natürlichen Pegels liegt, sind erstaunliche positive Gesundheitseffekte zu erwarten. Den Strahlenbiologen ist dieses seit langem bekannt. In der Natur wird den Menschen nirgends ein 1000-fach höherer Strahlenpegel geboten, nur mit Hilfe der Technik gibt es Möglichkeiten, dieses zu erreichen. In Taiwan ist das in glücklicher Weise geschehen. Die Strahlenschutzgesetze verbieten den Menschen jede Zusatzdosis und damit wird ihnen das Recht auf eine beste Gesundheit (Art. 2 GG) verweigert. Luckey sagte das bereits vor etwa 30 Jahren, es ist aber nichts passiert. Es ist eine Änderung der Strahlenschutzprinzipien erforderlich, und das ist auch genau das, was 2015 in einer Petition von Carol S. Marcus, Mark L. Miller und Mohan Doss an die NRC (Nuclear Regulatory Commission in USA) vorgeschlagen wurde [7].

 

Beim Betrieb von Kernkraftwerken ist es oberstes Gebot, jede Einwirkung von Strahlung auf Menschen zu vermeiden. Dadurch wird den Menschen eine nützliche Zusatzdosis verweigert. Die positiven Gesundheitseffekte wurden in der Anfangszeit bis ca. 1970 auch beobachtet, man nannte es den „Healthy Workers Effect“. Die „Todeszonen“ von Tschernobyl und Fukushima sind Zonen einer besseren Gesundheit, wenn man es den Menschen erlauben würde, dort zu leben.

Gesetze können falsch sein, denn sie werden von Menschen gemacht und Menschen können irren. Das ist bei der Strahlenschutzgesetzgebung ganz sicher der Fall, und viele Fachleute der Strahlenbiologie protestieren gegen diese Gesetze [4]. Die Strahlenschützer sehen das anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Medien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt, das ist bedauerlich.

 

Literatur

[1] Flug von Europa nach Japan und zurück: Strahlendosis = 0,14 Milli-Sievert, Prof. Wernli, PSI, Schweiz

[2] Deutschen Ärzteblatt Heft 17, 26.4.2013 auf Seite 720

[3] „Legenden vom bösen Atom“, SPIEGEL, 47/2007 und „Schön verstrahlt”, SPIEGEL, 17/2016

[4] Feinendegen, Becker, Calabrese, Cuttler, Luckey, Cohen, Doss, Tubiana, Muckerheide, Allison, Jaworowski, Sanders, Marcus, Miller, Winsor, Chen, und viele andere

[5] Ch. L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“, Springer-Verlag 2010

[6] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/

[7] DIE WELT vom 2.2.2017 auf Seite 1, „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“

[9] http://www.regulations.gov, dort suchen nach Docket ID NRC-2015-0057




Schweiz: Das dicke Ende der Energiewende

Sie sei «schon etwas baff» über gewisse Gegenargumente, sagte Doris Leuthard letztes Jahr vor der Abstimmung über das neue Energiegesetz. «Manche Behauptungen sind einfach Unsinn», so die Bundesrätin. Es ging damals um das erste Paket zur Umsetzung der Energiestrategie 2050, die der Bund nach dem AKW-Unfall in Fukushima aufgegleist hatte. Nebst dem Verzicht auf die Atomkraft sieht die Strategie vor, den Energiekonsum pro Kopf um satte 43 Prozent zu reduzieren.

Die Gegner der «Energiewende» hatten vor jährlichen Zusatzkosten von über 3000 Franken pro Haushalt und vor «staatlicher Umerziehung und Bevormundung» gewarnt. Die Energieziele seien nur mit Verzicht und Einschränkungen umzusetzen. Solche Aussagen entbehrten jeglicher Realität, entgegnete Stefan Batzli vom Verein «Schweizer Wirtschaft für die Energiestrategie 2050» in Übereinstimmung mit Leuthard. Das Volk hiess das Energiegesetz im Mai schliesslich mit 58 Prozent Ja gut

Zwei Millionen Franken pro Jahr

Vor wenigen Tagen hat nun eine Gruppe von Psychologen, Ökonomen und Marketingforschern ein sogenanntes Weisspapier veröffentlicht, in dem sie Empfehlungen geben, wie der Energiekonsum von Haushalten durch gezielte Beeinflussung der Bevölkerung verringert werden kann. Es handelt sich um eine Publikation des Competence Center for Research in Energy, Society and Transition. Der Bund finanziert dieses Kompetenzzentrum mit mehr als zwei Millionen Franken pro Jahr. Gezeichnet haben das Papier 14 Professoren, Dozenten und Assistenten von Schweizer Hochschulen unter der Leitung von Paul Burger, Leiter des Fachbereichs Nachhaltigkeitsforschung der Universität Basel.

Ob Energieministerin Leuthard angesichts der Empfehlungen dieser Arbeitsgruppe erneut «baff» ist, ist nicht bekannt. Anlass zu Stirnrunzeln geben die Tipps aber auf jeden Fall. «Die bisher unternommenen Bemühungen zur Effizienzsteigerung reichen (…) nicht aus, um eine substanzielle Reduktion des Energieverbrauchs zu erzielen», halten die Autoren eingangs fest. Der Weg, um den Energiekonsum bis 2050 um 43 Prozent pro Kopf zu reduzieren, sei «noch immer lang und steinig».

Den angestrebten Zielen stünden das Wachstum der Bevölkerung, die Zunahme von Einpersonen-Haushalten und der Einsatz von immer mehr elektrischen Geräten im Weg. Zudem existierten in der Bevölkerung «wichtige Barrieren zur Realisierung von Effizienzpotenzialen», wie etwa «schwierig aufzubrechende Routinen, fehlendes Wissen, Werthaltung oder Emotionen». Um die Ziele der Energiestrategie zu erreichen, seien darum Anstrengungen notwendig, «die weit über diejenigen hinausgehen, die bisher im Gesetz formuliert sind». Die Schweiz müsse auf «Reduktionsprogramme» setzen, wird im Papier gefordert. Es werden Möglichkeiten diskutiert, um die Bevölkerung zu manipulieren, damit sie Energie spart.

Mit der Reduktion des Verbrauchs verringere sich «nicht zwingend» die Lebensqualität, schreiben die Autoren. Ein Drittel der Energie in Haushalten werde heute ohne Nutzen verbraucht, etwa wegen der Standby-Funktionen von Geräten oder dem Beheizen unbenutzter Räume. Zudem zeige die Forschung, «dass ein Mehr an monetärer bzw. materieller Ausstattung ab einem gewissen Niveau die Menschen nicht wirklich glücklicher macht». Es gebe «Grenzen» punkto individueller Lebensweisen, denn die Energieversorgung sei «wenigstens partiell ein öffentliches Gut». Das legitimiere den Staat, auf eine Reduktion des Energieverbrauchs in den Haushalten hinzuwirken, steht im Papier.

«Die Menschen nutzen oft (…) vereinfachte Denkstrategie», stellen die Autoren mit paternalistischer Attitüde fest. Unter anderem seien Werte, soziale Normen und Emotionen der Grund für inkonsequentes Energieverhalten. Im Weisspapier empfehlen sie darum einerseits «zielgruppenspezifische Massnahmen». Die Bevölkerung sei in «Segmente» zu unterteilen, etwa punkto Alter, Einkommen, Charakter oder sozialer Gruppen, und diese Segmente müssten gezielt angesprochen werden….

 

Weiterlesen bei der Basler Zeitung hier