Hersteller von Solarpaneelen auf Dächern spielen nur mit, wenn die Spielregeln in ihrem Sinne sind

Da gab es Abengoa – was ich seit Jahren verfolgt habe – die den Bankrott erklärt hat.

Ivanpah, das größte Solarprojekt der Welt in der Wüste Kaliforniens ist von der Schließung bedroht wegen schlechter Ausbeute.

Und dann gibt es noch SunEdison, der weltgrößte Entwickler erneuerbarer Energie. Dieses Unternehmen steht am Rande des Bankrotts (hier), ist doch dessen Aktienwert von 30 Dollar unter 0,50 Dollar gefallen – ein Rückgang über 90% im vorigen Jahr.

Alle diese Pleiten vergrößern das blaue Auge, dass der Solarindustrie erstmals vor fünf Jahren verpasst worden ist mit dem Solyndra-Bankrott.

Weil sie sich Sorgen um ihren Selbsterhalt machen und in ihrem eigenen Interesse – anstatt im Interesse von Amerika allgemein und der Verbraucher im Besonderen zu handeln – sind Industrieverbände auf den Zug der Bevorzugung durch die Energiepolitik aufgesprungen und attackieren jeden, der dem Geschäftsmodell der finanziellen Anreize nicht zustimmt. Zwei derartige Gruppen sind TASC und TUSK – die beide gegründet worden sind und finanziert werden durch die Solarpaneel-Hersteller SolarCity und SunRun unter Beteiligung einiger kleinerer Solarfirmen (SolarCity hat sich jüngst von TASC getrennt).

Die Alliance for Solar Choice (TASC) wird von den führenden Lobbyisten der beiden großen Unternehmen betrieben – und beide haben offensichtliche Verbindungen mit den Demokraten.

Bryan Miller ist Vizepräsident von Public Policy & Power Markets bei SunRun (seit Januar 2013) sowie Präsident der TASC (seit Mai 2013). Seiner Website zufolge war er auch für das National Finance Committee von Obama tätig sowie als Finanz-Koordinator und Wegbereiter für Clinton Gore 1996. Er wurde auch als leitender politischer Berater in die Obama-Administration berufen und war auch Kandidat bei den Wahlen zum Repräsentantenhaus von Florida (allerdings erfolglos).

Vizevorsitzender John Stanton ist geschäftsführender Vizepräsident von Policy & Markets bei SolarCity. In dieser Rolle „obliegt ihm seiner Website zufolge die Zusammenarbeit von SolarCity mit internationalen, staatlichen und lokalen Regierungsorganisationen in einem großen Bereich politischer Dinge“. Zuvor war Stanton geschäftsführender Vizepräsident und General-Berater für die Solar Energy Industries Association (SEIA) – der nationalen Handelsgesellschaft für Industrien, die die Entwicklung von Solarenergie unterstützen – wobei er für die legalen und regierungsamtlichen Angelegenheiten der Gesellschaft zuständig war. Dort spielte er eine zentrale Rolle bei der Verlängerung der Steuervorteile für Solarinvestitionen um 8 Jahre. Er war auch Legislativ-Berater für die EPA unter der Clinton Administration.

In einem Bericht über die Gründung der TASC heißt es: „Zuallererst und am Wichtigsten: die Gruppe wird daran arbeiten, die Net-Energy-Metering-Vorschriften (NEM) in den 43 Staaten zu schützen, in denen es diese Vorschriften gibt“.

Am 25. März berichtete das Wall Street Journal: „Zwei Dutzend Staaten denken über Änderungen ihrer Anreize für Solarpaneele auf Dächern nach … derartige Anreize finanzieller Art waren das Rückgrat des Geschäftsmodells von Solarfirmen, die derartige Paneele herstellen“. Während der letzten Monate haben Nevada und Hawaii ihre NEM-Programme auslaufen lassen. Die TASC reagierte darauf mit Klagen vor Gericht. In Hawaii ist diese TASC-Klage bereits abgewiesen worden. In der Begründung heißt es: „Das Urteil im Sinne der Beklagten hat die TASC-Behauptungen obsolet gemacht“. Im vorigen Jahr hat Louisiana seine Solar-Steuervorteile gestrichen, die „unter den großzügigsten im ganzen Land“ waren. Der Arizona Public Service war der Pionier bei der Modifizierung generöser Solarpolitik, als die Arizona Corporation Commission im Jahre 2013 eine Abgabe für Solarverbraucher festgesetzt hatte.

Als einer der ersten Staaten, die gegen die generöse NEM-Politik vorgegangen war, ist Arizona immer noch ein Schlachtfeld. Dort formierte die TASC eine andere Gruppe – TUSK. Diese Abkürzung steht für Tell Utilities Solar won’t be Killed. Der Lobbyist und ehemalige Kongressabgeordnete Barry Goldwater Jr. wurde auf den Schild gehoben, um als Sprecher für die Industrie den Republikanern ein Gesicht zu geben. TUSK hat sogar einen Elefanten, das Maskottchen der Republikaner, in seinem Logo. Auf der Homepage von TUSK liest man: „Republikaner wollen die Freiheit, die beste Wahl zu treffen sowie den Wettbewerb zur Kostensenkung“. Das stimmt zwar, aber ein Kernwert der Republikaner ist es, die freien Märkte arbeiten zu lassen anstatt es der Regierung zu überlassen, Gewinner und Verlierer auszuwählen.

Obwohl in Arizona registriert, war TUSK jüngst auch in anderen US-Staaten aktiv – darunter Nevada, Oklahoma und Michigan.

Das immer wieder auftauchende Thema in den TASC/TUSK-Kampagnen ist es, das Wort „kill“ mit „solar“ in Verbindung zu bringen – obwohl die Bemühungen bzgl. Modifikationen von NEM nicht beabsichtigen, Solar zu töten. Stattdessen zielen sie darauf ab, die „Anreiz-Zahlungen“ zu adjustieren, um sie gerechter zu machen. Allerdings ist Rooftop Solar ohne diese Gefälligkeiten nicht ökonomisch, wie man in Nevada sehen konnte. Die Unternehmen lehnen es ab mitzuspielen, wenn das Spiel nicht nach den von ihnen gewünschten regeln gespielt wird.

TASC und TUSK sind nur zwei der Wege, auf denen die Rooftop-Solarindustrie versucht, die bevorzugte Politik zu halten. (Die beiden sind auch bekannt als „Koalition von Pächtern [rent seekers] und Wohlfahrts-Königinnen [welfare queens]“. So bezeichnete sie der größte konservative Blog von Louisiana, The Hayride).

Zusätzlich zu den spezifischen Industriegruppen wie TASC, TUSK und SEIA werden auch Dritt-Organisationen wie das Energy and Policy Institute (EPI) engagiert, um öffentlich Bedienstete und Akademiker einzuschüchtern. Das EPI, betrieben von Gabe Elsner, wird als eine Dark Money-Gruppe ohne legales Existenzrecht betrachtet. Es darf vermutet werden, dass EPI ein Ableger dessen ist, was als das Checks & Balances Project (C&BP) bekannt ist – welches ins Leben gerufen worden war, um gegen Organisationen und Politiker zu ermitteln, die nicht hinter den Regierungsprogrammen und hinter Subventionen für erneuerbare Energie stehen. C&BP hat Gelder von SolarCity erhalten. Elsner trat C&BP im Jahre 2011 bei – wo er als Direktor fungierte. Zwei Jahre später verließ er die Gruppierung, um EPI zu gründen – welche C&BP eine „pro-saubere-Energie-Website“ nennt. EPI liefert Material für Attacken auf etablierte Energie-Interessen und zur Diskreditierung von jedem, der Subventionen für Rooftop-Solar nicht unterstützt. Ich selbst war ebenfalls Ziel von Elsners Bemühungen.

Dann gibt es da noch die Solar Foundation – eng verbunden mit SEIA und Regierungsprogrammen zur Förderung von Solar – die jährlich einen Bericht zu Arbeitsplatz-Trends in der Solarbranche in den USA veröffentlicht. Solar-Arbeitgeber geben die Anzahl der Arbeitsplätze via E-Mail- und Telefon-Umfragen an. Diese Anzahl wird dann extrapoliert, um die Arbeitsplätze in der Industrie in der gesamten Nation abzuschätzen. Obwohl diese Berichte fragwürdige Ergebnisse zeitigen (hier), hat sich die Bedrohung durch Arbeitsplatzverluste als ein effektiver Weg erwiesen, Druck auf den Gesetzgeber auszuüben, eine die Industrie begünstigende Politik fortzusetzen – wie NEM.

Gemeinsam haben diese Gruppen eine Kampagne koordiniert, um eine öffentliche Meinung zu erzeugen, von der die Politiker von der öffentlichen Unterstützung für NEMs überzeugt werden sollen. Derartige Fälle findet man in Maine, Nevada, New Hampshire, Colorado und Kansas. Sie sammeln Unterschriften von Solar-Befürwortern (hier) und benutzen diese, um Gesetzgeber und Kommissionäre zu beeinflussen. Sie engagieren sich in gesetzgeberischen Prozessen – und erzeugen, wie ich selbst erfahren durfte, eine überwältigende Präsenz mit Unterstützung nach Art eines Mobs von T-Shirts tragenden und Wink-Elemente schwingenden Befürwortern. Sie schalten Werbeanzeigen und bezeichnen Versuche, die für Solar so generösen NRMs zu modifizieren, als eine „Steuer“ auf Solar. Und sie attackieren Versorger, wie zuvor schon erwähnt, „Solar zu töten“ zu versuchen. Sollte diese kombinierte Kampagne keine Früchte tragen und die NEM-Politik geändert werden, wird Anklage erhoben wie in Hawaii und Nevada geschehen.

Dieser Politik-Protektions-Prozess scheint sich nicht von Prozessen bei irgendwelchen Industrien zu unterscheiden – haben doch die Meisten Handelsgesellschaften und Befürworter-Gruppen, die ihr Anliegen vorantreiben. Man erinnere sich: „Rindfleisch, das gibt es zum Mittag“ und „Schweinefleisch, das andere weiße Fleisch?“ Nur wenige sind wirklich unabhängig, und Selbsterhaltung ist ein natürlicher Instinkt.

Ja,sogar die Fossile-Treibstoffe-Industrie hat Befürworter-Gruppen, wie Miller jüngst klagte.

Der Unterschied besteht darin, dass fossile Treibstoffe die USA mit effizienter, effektiver und ökonomischer Energie versorgen und immer versorgt haben. Deren Vielfalt hat zu niedrigeren Kosten für Verbraucher geführt und die Energiesicherheit Amerikas erhöht. Deren Befürworter kämpfen nicht für spezielle Bevorzugungen, die es dieser Ressource gestatten zu überleben, sondern sie versuchen, neue Regeln und Vorschriften abzuwehren, die darauf abzielen, diese Treibstoffe aus dem Geschäft zu drängen.

Zum Vergleich, die Bemühungen der Solar-Befürworter sind, wie es die TASC eingeräumt hat: „Zuallererst wird die Gruppe daran arbeiten, die Net-Metering-Vorschriften NEM zu schützen“, da ohne diese – und andere politisch korrekte Aktivitäten – Rooftop-Solarenergie wirtschaftlich unsinnig wäre. Weil Rooftop-Solar weder effizient noch effektiv ist, sind die vermeintlichen Einsparungen der Hauptpunkt bei der Werbung. Einige profitieren tatsächlich davon, während die Allermeisten in Gestalt von Steuern und Abgaben zahlen müssen.

Mit dem Potential einer Änderung des politischen Windes ist die Kampagne zu Amerikas Energie-Zukunft zentraler Bestandteil des Präsidentschafts-Wahlkampfes. Hintergrund: Alle Solar-Befürworter scheinen links zu stehen und Gläubige von Big Government zu sein, die höhere Energiepreise wollen.

Wird Big Government die Gewinner und Verlierer aussuchen, oder werden die freien Märkte das Überleben der besten Energiequellen für individuelle Zwecke erlauben?

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column.

Link: https://www.linkedin.com/pulse/rooftop-solar-companies-only-play-game-stacked-favor-marita-noon?published=u

Übersetzt von Chris Frey EIKE




Fünf Punkte zum Klimawandel

Es ist ein sehr großes FALLS. Wir könnten Billionen für nichts verschwenden. Tatsächlich hat Lord Stern geschätzt, dass es es wert wäre, jedes Jahr ein paar Billionen Dollar auszugeben, um ein mögliches Desaster in 200 Jahren zu vermeiden. Weil er mit der London School of Economics assoziiert ist, wird ihm geglaubt – zumindest von jenen, deren Erfahrungen mit Versicherungen begrenzt sind. All jene, die diese Erfahrung haben wissen, dass es es nicht wert ist, sich gegen etwas zu versichern, das in 200 Jahren eintreten könnte – es ist unendlich besser sicherzustellen, dass unsere Kinder damit fertig werden. Mit jedwedem Glück werden sie Gleiches mit ihren Kindern tun, und die Ur-Ur-Urenkel werden gute Individuen sein, die sehr gut mit Lord Sterns kleinem Problem umgehen können.

Also habe ich mich entschlossen, die Hypothese ausgehend von fünf Prinzipien zu untersuchen. Es gibt fünf Schritte zu der Hypothese:

1. Der CO2-Gehalt der Atmosphäre steigt.

2. Der CO2-Anstieg in der Atmosphäre geht zum großen Teil einher mit der Zunahme der Verbrennung fossiler Treibstoffe. Die Verbrennung fossiler Treibstoffe führt zu CO2-Emissionen, so dass es sehr angemessen scheint, die beiden Zunahmen in Verbindung miteinander zu bringen.

3. CO2 kann Infrarot streuen über Wellenlängen primär um etwa 15 µm. Infrarot dieser Wellenlänge, welche Energie von unserem Planeten wegführen sollte, wird in die untere Troposphäre zurück gestreut, wo der zusätzliche Energie-Input einen Temperaturanstieg verursachen sollte.

4. Die erwartete Zunahme der Energie der unteren Troposphäre kann langfristige Änderungen des Klimas und der Thermosphäre verursachen, was charakterisiert werden könnte durch eine Zunahme der Häufigkeit und Intensität von Extremwetterereignissen, durch steigende Wassertemperatur in den Ozeanen, eine Verringerung der Eisbedeckung und viele weitere Änderungen.

5. Die größte Bedrohung ist, dass der Meeresspiegel steigen und Gebiete überfluten könnte, die derzeit dicht besiedelt sind.

Sind diese Hypothesen in wissenschaftlichem Sinne haltbar? Gibt es eine solide Logik bei der Herstellung einer Relation zwischen jedem Schritt in dieser Kette?

Der CO2-Anstieg in der Atmosphäre ist unbestreitbar. Viele Messungen zeigen ihn. Zum Beispiel gab es seit dem Jahr 1958 kontinuierliche Messungen auf dem Mauna Loa-Observatorium in Hawaii:

Anstieg und Rückgang von Jahr zu Jahr ist dem je nach Jahreszeit unterschiedlichen Pflanzenwachstum geschuldet. Aber der langzeitliche Trend zeigt eine stetige CO2-Zunahme in der Atmosphäre.

Vor 1958 gab es nur sporadische Messungen des CO2-Gehaltes, keine kontinuierlichen. Nichtsdestotrotz gibt es ausreichende Informationen, eine diesbezügliche Rekonstruktion zurück bis in das Jahr 1850 vorzunehmen:

Es gab einen leichten Anstieg des atmosphärischen Niveaus um das Jahr 1900, dann eine Periode mit nahezu Stillstand bis nach 1950, als ein starker Anstieg einsetzte, der bis zum heutigen Tag anhält. Man behalte diese Graphik mal im Hinterkopf – sie wird in anderer Form noch einmal erscheinen.

Die Schlussfolgerung ist eindeutig – es gab eine Zunahme des CO2-Gehaltes in der Atmosphäre. Was könnte die Ursache dafür sein?

Nun, es gibt die gleiche Verteilung von CO2-Emissionen durch die Verbrennung fossiler Treibstoffe und anderer industrieller Quellen:

Eine ähnliche Verteilung ist kein Beweis – Korrelation ist nicht Kausalität. Aber falls man versucht, die Emissionen direkt mit der Zunahme des CO2 in der Atmosphäre in Verbindung zu bringen, wird man scheitern. Es gibt viele nur teilweise verstandene „Senken“, welche CO2 aus der Atmosphäre entfernen. Die Erkennung der Dynamik all dieser Senken hat sich als schwierig herausgestellt, und darum haben wir kein wirklich gutes chemisches Gleichgewicht zwischen dem, was emittiert wird und dem, was in die Luft kommt.

Glücklicherweise gibt es Isotope, die uns helfen. Es gibt zwei primäre Pflanzenbestandteile, C3 und C4. C3-Pflanzen sind sehr alt und tendieren dazu, eher das Kohlestoffisotop 12C zu bevorzugen als das Kohlenstoffisotop 13C. Pflanzen mit C4-Bestandteil sind vergleichsweise jünger, und sie sind bzgl. ihrer Isotopen-Diät nicht so anspruchsvoll. Fossile Treibstoffe stammen aus einer Zeit, bevor die Evolution C4-Bestandteile hervorgebracht hatte, so dass sie reicher an 12C sind als die heutige Biomasse. Emittiert man also 12C-reiches CO2 aus fossilen Treibstoffen in die Luft, sollte der 13C-Anteil in der Luft sinken, und das ist genau das, was beobachtet wird:

Der Beweis, dass die Verbrennung fossiler Treibstoffe die Ursache für die CO2-Zunahme in der Atmosphäre ist, ist also wirklich schlüssig. Aber hat das irgendwelche Auswirkungen?

Kohlendioxid verteilt Infrarot über eine geringe Energie-Bandbreite. Die Infrarot-Photonen, welche Energie vom Planeten entfernen sollten, werden in die untere Troposphäre zurück gestreut. Die zusätzliche Energie sollte einen Temperaturanstieg verursachen.


Die obere graue Linie zeigt das Spektrum, welches angenähert dem Spektrum der mittleren Albedo des Planeten Erde bei einer Temperatur von 280 K entspricht. Das ist die Temperatur etwa 5 km über der Oberfläche, wo sich einfallende und ausgehende Strahlung im Gleichgewicht befinden. Das tatsächliche Spektrum wird durch die blaue Linie repräsentiert. Der Unterschied zwischen beiden ist die verloren gegangene Energie durch die von Treibhausgasen verursachten Verteilungs-Prozesse. Wasserdampf hat bei Weitem die stärkste Auswirkung. CO2 trägt zum Verlust zwischen 13 und 17 μm bei, Ozon zwischen etwa 9 und 10 μm.

Der Effekt der CO2-Absorption nimmt logarithmisch mit der Konzentration ab. Die Verdoppelung der Konzentration wird nicht irgendwelche Auswirkungen verdoppeln. Tatsächlich befinden sich derzeit etwa rund 400 ppm in der Atmosphäre. Es ist unwahrscheinlich, dass die Welt mit einem Gehalt von 800 ppm sehr viel anders aussehen würde. Sie wird grüner sein – Pflanzen wachsen besser – und es könnte geringfügig wärmer und feuchter sein, aber sonst würde die Welt sehr wie unsere Welt jetzt aussehen.

So wir irgendwelche Auswirkungen jedoch proportional mit der Zunahme der Konzentration geringer werden, so werden sie mit jeder Abnahme proportional zunehmen. [Original: However, just as any effect will lessen proportionately with increase in concentration, so it will increase proportionately with any decrease.] Falls es dabei irgendwelche beobachtbaren Effekte gibt, sollte man sie in historischen Aufzeichnungen finden. Haben wir sie gesehen?

Es gibt „offizielle“ historische Temperaturaufzeichnungen. Eine Version aus jüngerer Zeit von der HadCRU sieht so aus:

Die vertikale Achse zeigt das, was unter dem Begriff „Temperatur-Anomalie“ bekannt ist, also die Abweichung von der mittleren Temperatur über den Zeitraum 1950 bis 1980. Man erinnere sich, dass der CO2-Gehalt erst nach 1950 signifikant wurde, so dass wir diese Abbildung mit diesem Faktum im Hinterkopf betrachten können:

• von 1870 bis 1910 sank die Temperatur, es gab keinen signifikanten CO2-Anstieg.

• von 1910 bis 1950 stieg die Temperatur, es gab keinen signifikanten CO2-Anstieg.

• von 1950 bis 1975 sank die Temperatur, der CO2-Gehalt war gestiegen.

• von 1975 bis 2000 stiegen sowohl die Temperatur als auch der CO2-Gehalt.

• von 2000 bis 2015 hat die Temperatur geringfügig, der CO2-Gehalt hingegen stark zugenommen.

Treibt das Kohlendioxid Temperaturänderungen an? Schaut man auf diesen Beweis, muss man sagen, dass falls es eine Relation gibt, diese sehr schwach sein muss. In einer Studie von den Eisbohrkern-Aufzeichnungen über 8000 Jahre fand ich, dass es eine Wahrscheinlichkeit von 95% gibt, dass sich die Temperatur aus natürlichen Gründen um bis zu ±2°C innerhalb von 100 Jahren ändern würde. Während des 20.Jahrhunderts änderte sie sich um 0,8°C. Schlussfolgerung? Falls das CO2 in der Luft wirklich globale Erwärmung verursacht, muss das Signal erst noch aus dem natürlichen Rauschen auftauchen.

Eines der Probleme mit den „offiziellen“ Temperaturaufzeichnungen wie die oben gezeigte Reihe von HadCRU ist, dass sie Gegenstand von „Adjustierungen“ waren. Während manche Adjustierungen von Rohdaten offensichtlich erforderlich sind, wie beispielsweise die Berücksichtigung der Seehöhe eines Messpunktes, war die Adjustierung in diesem Falle dergestalt, dass die Vergangenheit kälter und die Gegenwart wärmer gemacht worden ist, was die globale Erwärmung viel dramatischer aussehen lässt als es aus den Rohdaten hervorgeht.

Es könnte unvernünftig aussehen, sich auf die offiziellen Daten als „adjustiert“ zu beziehen. Allerdings ist die Grundlage der offiziellen Daten das, was als das Global Historical Climatology Network or GHCN bekannt ist, und es wurde willkürlich adjustiert. Zum Beispiel ist es möglich, die Rohdaten von Kapstadt von 1880 bis 2011 mit den Adjustierungen zu vergleichen, die an die Daten der sich entwickelnden GHCN-Reihen Version 3 angebracht worden waren:

Das Goddard Institute for Space Studies GISS ist verantwortlich für das GHCN. Das Institut befasste sich mit den den Adjustierungen zugrunde liegenden Metadaten. Sie zeigten eine einzelne Datenlinie, gaben die geographischen Koordinaten und die Seehöhe des Messpunktes an sowie eine kurze Reihe bedeutungsloser Daten einschließlich des Wörtchens „COOL“. Die Grundlage der Adjustierungen ist daher unbekannt, aber die Tatsache, dass etwa 40 aufeinanderfolgende Jahre lang Daten um genau 1,10°C „adjustiert“ worden sind, zeigt ziemlich eindeutig, dass hier die Methode „Pi mal Daumen“ angewendet worden ist anstatt von Algorithmen.

Es gab inzwischen so viele Manipulationen der „offiziellen“ Aufzeichnungen der globalen Erwärmung, dass sie keinerlei Glaubwürdigkeit mehr haben. Das soll nicht heißen, dass sich die Erde während der letzten Jahrhunderte nicht erwärmt hat. Gletscher zogen sich zurück, Schneefallgrenzen stiegen. Es gab Erwärmung, aber wir wissen nicht wie viel.

Interessanterweise sind die gemessenen Temperaturen nicht eindeutig. Zum Beispiel hat das Abschmelzen von Eis an Alpenpässen in Europa Wege ans Licht gebracht, die vor 1000 Jahren und noch früher regelmäßig benutzt worden waren. Danach waren sie von Eis bedeckt, das erst in jüngster Zeit wieder geschmolzen ist. Die Schutthalden neben den Wegen, die diese historischen Reisenden genommen haben, bieten eine reiche Vielfalt archäologischen Materials.

Folglich muss die Welt vor einem Jahrtausend mindestens so warm gewesen sein wie heute. Sie hat sich währen der letzten paar hundert Jahre erwärmt, aber die Erwärmung ist primär natürlichen Ursprungs und hat nichts mit menschlichen Aktivitäten zu tun. Wir haben nicht einmal eine Ahnung davon, ob es überhaupt irgendwelche Auswirkungen menschlicher Aktivitäten gibt, und wir können mit Sicherheit nicht sagen, ob irgendein Anteil der beobachteten Erwärmung anthropogenen Ursprungs ist. Die Physik sagt, dass wir eine Auswirkung haben sollten, aber wir können sie noch nicht von der natürlichen Variation unterscheiden.

All jene, die uns ob des Kohlenstoff-Verbrechens anklagen wollen, haben daher ein anderes Verfahren entwickelt – das Globale Zirkulations-Modell. Hierbei handelt es sich um eine Repräsentation der Atmosphäre, welche die Bedingungen innerhalb einer Schicht der Atmosphäre berechnet, typischerweise 5 km X 5 km X 1 km. Jede Schicht wird mit einer benachbarten Schicht in Beziehung gesetzt (falls man über ausreichend Computerleistung verfügt – wenn nicht, müssen die Schichten dicker sein).

Die Modellierer lassen ihre Berechnungen typischerweise einige Jahre in der Vergangenheit beginnen, in denen das Klima bekannt ist. Dann versuchen sie, damit das (bekannte) Klima zu prophezeien vom Startzeitpunkt bis heute. Es gibt viele adjustierbare Parameter in den Modellen, und dreht man an diesen nur ausreichend herum, kann man das Modell an die Historie „anpassen“.

Scheint das Modell erst einmal historische Daten gut genug reproduzieren zu können, wird es auf die Zukunft losgelassen. Dabei schwingt die Hoffnung, dass – selbst wenn die Modelle nicht perfekt sind – eine vernünftige Bandbreite von Prophezeiungen herauskommen wird, falls verschiedene Personen unterschiedliche Frisierungen zu unterschiedlichen Zeiten anbringen. Aus dieser Bandbreite könnte man vielleicht ein paar Hinweise auf die Zukunft gewinnen.

Unglücklicherweise wurden diese Hoffnungen nur zu oft immer wieder enttäuscht. Das El Nino-Phänomen ist ziemlich gut bekannt, es hat eine bedeutende Auswirkung auf das globale Klima – und dennoch ist kein einziges der Modelle in der Lage, dieses zu berücksichtigen. Genauso können die Modelle auch nicht Hurrikane abbilden – der Scale 5 km X 5 km ist einfach zu grob. Sie können lokale Klimate nicht abbilden – eine Stichprobe von zwei Gebieten, die nur etwa 5 km auseinander liegen und von denen es in dem einen Gebiet jährlich 2000 mm Regen gibt, in dem anderen aber nur um 250 mm scheiterte kläglich. Gut wurden die Wind- und Temperaturdaten sowie die lokale Topographie abgebildet. Man hatte mit einem sehr engen Netz gearbeitet, aber da gab es nicht ausreichend Regelknöpfe, um dieses Modell mit der Historie in Einklang zu bringen.

Sogar die in diesen Modellen angewandten Grundlagen der Physik scheitern. Die grundlegende Physik prophezeit, dass sich die obere Atmosphäre zwischen den beiden Wendekreisen schneller erwärmen sollte als die Oberfläche. Regelmäßig steigen Wetterballone mit Thermometern in diesem Gebiet auf. Es gibt drei separate Ballon-Datensätze, und sie alle stimmen darin überein, dass es keinerlei Anzeichen einer zusätzlichen Erwärmung gibt:


[Die Graphik erscheint auch im Original so unscharf. Anm. d. Übers.]

Die schwarzen Quadrate zeigen das Mittel der drei Datensätze. Die Höhe wird in Druckeinheiten angegeben; 100.000 Pascal am Boden und 20.000 Pascal in einer Höhe von etwa 9 km. Es gibt 22 verschiedene Modelle, und deren Mittel zeigt die schwarze Linie. Am Boden zeigt die Messung eine Erwärmung um 0,1°C pro Jahrzehnt, aber die Modelle prophezeien 0,2°C pro Jahrzehnt. In 9 km Höhe zeigen die Messungen immer noch eine Erwärmung um 0,1°C, die Modelle jedoch im Mittel 0,4°C, in Extremfällen bis 0,6°C. Modelle,die um einen Faktor 4 oder mehr falsch sind, können nicht als wissenschaftlich bezeichnet werden. Sie sollten nicht einmal zur Veröffentlichung angenommen werden – sie sind falsch.

Die Hypothese, dass wir auf der Grundlage von Modellen, die sich schon jetzt als falsch herausgestellt haben, das zukünftige Klima vorhersagen können, ist falsch. Internationale Abkommen, den zukünftigen Temperaturanstieg auf X°C über das vorindustrielle Niveau begrenzen zu können, hat mehr mit des Kaisers neuen Kleidern zu tun als mit Realität.

Der dritte Schritt zu unserem Verständnis der Klima-Zeitverschwendung kann also nur lauten, ja, die Welt erwärmt sich, aber um wie viel und warum – davon haben wir keine Ahnung.

Wie könnten die Klimaauswirkungen einer wärmeren Welt aussehen? Was ist „Klima“? Es ist das Ergebnis der Mittelung einer klimatologischen Variable wie etwa Regenmenge oder Luftdruck, gemessen typischerweise einen Monat oder eine Jahreszeit lang, woraus dann über viele Jahre hinweg ein Mittel gebildet wird, als ob man einen Hinweis auf das Wetter bekommen würde, das man in einem Monat oder während der nächsten Jahreszeit erwarten kann.

Zweitens, wir müssen die Bedeutung von „Änderung“ verstehen. In diesem Zusammenhang bedeutet Änderung eindeutig, dass der Mittelwert einer klimatologischen Variable über X Jahre von dem Mittelwert der gleichen Variable über einen anderen Zeitraum von X Jahren abweicht. Aber schon jetzt ist offensichtlich, dass sich das Wetter von Jahr zu Jahr ändert, weshalb es eine natürliche Variation des Klimas von einem Zeitraum von X Jahren zu einem anderen Zeitraum von X Jahren gibt. Daher muss man wissen, wie groß X sein muss, um die natürliche Variabilität zu berechnen und damit zuverlässig irgendwelche Änderungen des gemessenen Klimas zu entdecken.

Dieser Aspekt von „Klimawandel“ scheint in der gesamten bisherigen Debatte übersehen worden zu sein. Man scheint anzunehmen, dass es ein „präindustrielles“ Klima gab, welches man viele Jahre lang messtechnisch erfasst hatte, bevor die Industrie ein wesentlicher Faktor unserer Existenz geworden ist und dass sich das Klima, das wir heute messen, statistisch von jenem hypothetischen Klima unterscheidet.

Das Problem dabei ist natürlich, dass es nur sehr wenige tatsächliche Daten aus jenen präindustriellen Tagen gibt, so dass wir nichts in der Hand haben, um zu erkennen, wie das Klima damals wirklich war. Es gibt keine Grundlinie, von der aus wir eine Änderung messen können.

Angesichts dieser Schwierigkeit haben die Protagonisten des Klimawandels die Hypothese modifiziert. Es wird jetzt kolportiert, dass die beobachtete Erwärmung der Erde das Klima dergestalt ändern wird, dass Extremwetterereignisse immer öfter auftreten. Dies beseitigt die Schwierigkeit jedoch nicht, sondern verschlimmert sie noch.

Zur Illustration nehme man an, dass ein Extremereignis eines ist, dass außerhalb der 95%-Wahrscheinlichkeits-Bandbreite liegt. Also würde man im Verlauf von 100 Jahren im Mittel 5 solcher Extremereignisse erwarten. Anstatt dass man 100 Jahre mit Daten heranzieht, um das mittlere Klima zu ermitteln, gibt es jetzt nur fünf Jahre, um eine mittlere Schätzung des Extremereignisses zu erhalten, und der relative Fehler bei der Mittelung von 5 variablen Ereignissen ist offensichtlich viel größer als der relative Fehler bei der Mittelung von 100 variablen Ereignissen.

Die Daten der Regenmenge von England und Wales zeigen dies ziemlich überzeugend:

Die trendbereinigten Daten sind eng um die Normale verteilt, so dass es sinnvoll ist, hierfür die normale Statistik zu bemühen. Die 5%-Grenzen sind folglich zwei Standardabweichungen auf je einer Seite des Mittels. Im Laufe der 250-jährigen Aufzeichnung würde man 12,5 Extremereignisse erwarten (jene außerhalb der 95%-Grenze). Tatsächlich erfordert es 250 Jahre, um eine vernünftige Schätzung (innerhalb von 12%) nur bzgl. der Häufigkeit extremer Regenmengen vornehmen zu können. Es gibt keine Möglichkeit, irgendwelche Änderungen dieser Häufigkeit aufzufinden, was jedoch nötig wäre, um „Klimawandel“ zu zeigen.

Tatsächlich ist die Lebensspanne eines Menschen unzureichend, um auch nur die Häufigkeit von Extremereignissen herauszufinden. Während aufeinander folgenden 60-Jahre-Perioden gibt es 2, 4, 2 und 2 Ereignisse, ein Mittel von 2,5 Ereignissen mit einer Standardabweichung von 1,0. Es gibt eine Wahrscheinlichkeit von 95%, innerhalb von 60 Jahren zwischen 0,5 und 5,5 Ereignisse zu erleben, wo 3% (5% von 60) erwartet werden. Viele Lebensspannen sind erforderlich, um die Häufigkeit mit hinreichender Genauigkeit zu bestimmen, und noch viel mehr Lebensspannen, um irgendwelche Änderungen der Häufigkeit zu finden.

Man weiß, dass es seit mindestens 150 Jahren wärmer geworden ist. Falls die Erwärmung zu mehr Extremwetter geführt haben sollte, hätte man erwarten können, dass es einige Beweise für eine Zunahme von Extremereignissen während dieses Zeitraumes gebe. Die Main-Stream-Presse versucht uns das mit Sicherheit weiszumachen, wenn es zu einem offensichtlich heftigen Sturm kommt. Aber keiner der klimatologischen Indikatoren, von denen Daten seit mindestens 100 Jahren vorliegen, zeigt auch nur Spuren von Anzeichen einer Zunahme extremer Ereignisse.

Zum Beispiel gab es viele Behauptungen, dass tropische Zyklone an Häufigkeit und Stärke zunehmen. Die WMO berichtet: „Es bleibt unsicher, ob Änderungen der Aktivität tropischer Zyklone in der Vergangenheit über die aus natürlichen Gründen zu erwartende Variabilität hinausgeht“.

Es stimmt, dass die Schäden durch Zyklone zunehmen, aber dies liegt nicht an extremerem Wetter. Es ist die Folge einer immer stärkeren Bebauung, und jedes Bauwerk ist verwundbarer als vor 20 oder mehr Jahren. Daten aus über ein Jahrhundert wurden sorgfältig analysiert, um zu dieser Schlussfolgerung zu kommen. Der IPCC-Bericht stimmt hinsichtlich Extremereignisse damit überein.

Es ist sehr unwahrscheinlich, dass Extremwetter jedweder Art irgendeinen Teil unseres Planeten unbewohnbar macht – darunter sind Dürren, schwere Stürme und Orkane. Tatsächlich ist dies keine allzu große Überraschung – die Menschheit hat gelernt, mit Extremwetter umzugehen, und Menschen bevölkern Gebiete von den kältesten bis zu den heißesten Regionen, vom Meeresspiegel-Niveau bis in Höhen, wo man nach Luft ringen muss. Wir sind nicht nur anpassungsfähig, sondern wir haben auch gelernt, Strukturen zu schaffen, die uns vor den Kräften der Natur schützen.

Natürlich ist ein solcher Schutz nicht kostenlos zu haben. Nicht jeder kann sich die Strukturen leisten, die für ihren Schutz erforderlich sind. Dörfer werden regelmäßig von Stürmen schwer beschädigt, die in den meisten modernen Städten kaum Schäden hinterlassen würden. Flut-Kontrollmaßnahmen sind ausgelegt auf Ereignisse, die einmal während 100 Jahren auftreten, und im Allgemeinen funktionieren sie auch – während arme Länder, deren tief liegende Gebiete regelmäßig überschwemmt werden, sich dringend geeignete Schutzmaßnahmen wünschen.

Tatsächlich ist es eine Herausforderung für die Fähigkeit von Ingenieuren, Schutzmechanismen gegen alle Arten natürlicher Kräfte zu entwickeln. Beispiel: Das Erdbeben vor Japan mit der Magnitude 9 (welches den Tsunami auslöste, der die Reaktoren von Fukushima zerstörte), hat nur wenig Gebäudeschäden verursacht, während es zuvor im gleichen Jahr bei Erdbeben mit einer Magnitude von „nur“ 7 in Wellington, Neuseeland, zu schweren Gebäudeschäden gekommen war. Dabei wurde die Kathedrale von Wellington zerstört, die nicht darauf ausgelegt war, Erdbeben zu widerstehen.

Wir sollten keine Angst vor Extremwetterereignissen haben. Es gibt keinerlei Beweise, dass diese irgendwie stärker sind als in der Vergangenheit, und die meisten von uns können angemessen darauf reagieren. Natürlich werden unsere Schutzmaßnahmen irgendwann nicht ausreichen, aber normalerweise geht dies auf menschliches Versagen zurück und nicht auf exzessive Naturkräfte. Hier beim vierten Schritt unserer Reise können wir schon sehen, wie die Klimawandel-Hypothese strauchelt und zu Fall kommt.

In gleicher Weise erweisen sich die meisten der anderen Angst-Stories bzgl. „Klimawandel“ als Unsinn, wen sie mit realen Daten getestet werden. Die Eisbären verschwinden nicht von der Erde: tatsächlich kann die International Union for the Conservation of Nature während der letzten 400 Jahre keine Änderung der Verlustrate von Spezies erkennen. Die Temperatur war niemals ein starker Indikator für die Ausbreitung von Malaria – das Fehlen entsprechender Maßnahmen bzgl. der menschlichen Gesundheit ist hierbei eine kritische Komponente. Spezies wandern, aber ob die Temperatur dafür der Treiber ist, ist zweifelhaft – angesichts täglicher und jahreszeitlicher großer Temperaturänderungen ist es sehr unwahrscheinlich, dass eine kleine Änderung der Mitteltemperatur dafür die Ursache ist. Gletscher schmelzen, aber die Welt ist wärmer, so dass dies nicht unerwartet kommt.

Eine letzte Frage bleibt übrig: Wird der Meeresspiegel steigen und unsere Küstengebiete verschlucken?

Zunächst muss man erkennen, dass der Meeresspiegel steigt. Das hat er schon während der letzten 25.000 Jahre getan. Allerdings ist er während der letzten 7 Jahrtausende langsamer gestiegen als jemals zuvor:

Die kritische Frage lautet, ob die beobachtete geringe Anstiegsrate als Folge eines sich erwärmenden Klimas zugenommen hat. Es gibt viele Beweise dafür, dass dies nicht der Fall ist. Einer davon sind langzeitliche Daten von Tiden-Messstationen. Sie müssen mit Vorsicht behandelt werden, weil es Gebiete gibt, in denen sich das Land absenkt (wie der Golf von Mexiko, wo der vom Mississippi herangeschwemmte Schlamm schwer auf der Kruste liegt), während sich andere Gebiete heben (wie der größte Teil von Skandinavien, wo die Last eines viele tausend Meter dicken Eispanzers vor 10.000 Jahren verschwunden ist). Eine typische langzeitliche Tiden-Messreihe gibt es aus New York:

Der Trend von 1860 bis 1950 betrug 2,47 bis 3,17 mm pro Jahr; der Trend im Zeitraum 1950 bis 2014 2,80 bis 3,42 mm pro Jahr – beide mit einem 95%-Vertrauensniveau. Die Wahrscheinlichkeit, dass sich nach 1950 eine Beschleunigung zeigt,liegt unter 5%.

Ein weiterer Beweis kommt von den Satellitenmessungen des Meeresspiegels. Die folgende Abbildung zeigt die jüngsten verfügbaren Satelliten-Informationen – sie reichen aber nur bis zum Jahr 1993 zurück. Nichtsdestotrotz ist der Anstieg von 3,3 ± 0,3 mm pro Jahr vollkommen konsistent mit den Tidenmessungen:

Folglich weisen viele Beweislinien auf die gegenwärtige Rate des Anstiegs hin, die etwa 3 mm pro Jahr oder 30 cm pro Jahrhundert beträgt. Unsere bestehenden Schutzmaßnahmen gegen das Meer müssen mit täglichen Änderungen von vielen Metern fertig werden, und Sturmfluten mit einigen weiteren Metern. Die mittlere Höhe unseres Schutzes ist bis etwa 7 m über dem Meeresspiegel ausgelegt, so dass zusätzliche 0,3 m bis zum Ende dieses Jahrhunderts die Anzahl der Wellen etwas erhöhen wird, die über die Barrieren schwappen.

Das IPCC prophezeit, dass der Meeresspiegel in diesem Jahrhundert um 0,4 bis 0,7 m steigen wird. Angesichts der großen Bandbreite dieser Prophezeiung besteht die Möglichkeit, dass es recht hat. Wichtig ist jedoch, dass nicht einmal ein Anstieg um 0,7 m eine Katastrophe wäre, und zwar angesichts der Tatsache, dass unsere Schutzmaßnahmen schon jetzt meterhoch sind – sie um weitere 10% zu erhöhen während der nächsten 80 Jahre wäre kostspielig, aber wir hätten Jahrzehnte Zeit, diese Änderung vorzunehmen. Bis dahin sollte es mehr als hinreichend Warnungen geben, falls wirklich ein signifikanter Anstieg des Meeresspiegels erfolgt.

Unter dem Strich: Unsere fünf Schritte haben gezeigt:

● Die Verbrennung weiter zunehmender Mengen fossiler Treibstoffe hat die CO2-Konzentration in der Atmosphäre zunehmen lassen.

● Die physischen Auswirkungen dieser Zunahme sind auf keine wissenschaftliche Weise nachweisbar. Es mag eine gewissen Erwärmung der Atmosphäre gegeben haben, aber gegenwärtig liegt jedwede Erwärmung fast mit Sicherheit innerhalb der natürlichen Variation der Temperatur.

● Es gibt keine Beweise, weder für irgendeine Zunahme der Häufigkeit oder Magnitude von Wetterphänomenen noch für klimabezogene Änderungen der Biosphäre.

● Es ist unwahrscheinlich, dass jedweder Anstieg des Meeresspiegels in diesem Jahrhundert eine unüberwindbare Herausforderung ist.

Versuche, die globale Temperatur durch die Kontrolle von CO2-Emissionen zu beeinflussen, sind wahrscheinlich ebenso unnütz wie wirtschaftlich katastrophal.

Link: http://wattsupwiththat.com/2016/04/08/five-points-about-climate-change/

Übersetzt von Chris Frey EIKE




Gratis-Strom für alle: Warum kommt diese Erfindung erst jetzt? oder Generation Ökokuli

Bild rechts: Energiefahrrad „Free Electric“. Screenshot aus einem Werbefilm der Organisation Billions in Change

Was hat es mit diesem Gratis-Strom für alle auf sich?

Chip als technikaffine Zeitschrift beschreibt es wie folgt:

Die Strompreise steigen permanent – da kommt eine Erfindung wie diese genau richtig: Ein neu entwickeltes Fahrrad soll in nur einer Stunde so viel Energie erzeugen, dass sich damit ein einfacher Haushalt 24 Stunden betreiben lässt. Die Produktion startet noch in diesem Jahr.
Es klingt fast wie ein (Öko)Traum: Man schwingt sich eine Stunde aufs Fahrrad, verbessert die eigene Fitness, und produziert dabei genügend Strom, um damit den ganzen Haushalt betreiben zu können. Mit dem Bike “Free Electric” der Organisation Billions in Change soll genau das möglich sein. Die Idee dazu ist nicht neu, denn entsprechende Fahrräder sind seit Jahren auf dem Markt. Dennoch gibt es einen großen Unterschied: Die bisherigen Lösungen produzieren genügend Strom, um maximal eine Super-Öko-Energiespar-LED auf Sparflamme anzutreiben. Laut Manoj Bhargava, der hinter Billions in Change steht, soll sein Fahrrad in einer Stunde ausreichend Power für 24 Stunden Strom generieren. Ans Fahrrad angeschlossen ist ein Turbinengenerator, der eine Batterie speist.

Die ersten Geräte sollen im indischen Bundesstaat Uttarakhand getestet werden. Im Laufe des Jahres folgen laut Billions in Change 10.000 weitere Fahrräder, die ebenfalls in Indien zum Einsatz kommen.

Zum Schluss macht Chip ein paar Einschränkungen mit der Energiemenge, die sich so gewinnen lässt – aber an der guten Idee wird nicht gezweifelt.

Etwas Elektrotechnik

Wer auch nur ein bisschen etwas von Elektrotechnik versteht, ist gegenüber der Werbeaussage eher skeptisch. „Bisherige Lösungen“ waren schlecht und die neue ist bahnbrechend? Und das bei einer Technik, welche es seit über 100 Jahren gibt und seit mindestens 10 Jahren auch (Halbleiter-) technologisch praktisch nicht mehr zu verbessern ist – außer eben in der Werbung.

Im Werbefilm zeigt es sich ungewollt realistisch. Die Energie-radelnde Person generiert auf der (ganz kurz gezeigten) Anzeige ca. 11 V und 10 A, also 110 Watt. Wie man damit in einer Stunde mit dem Erradeln von 110 Wh einen „ausreichenden Enrgiebedarf für 24 h generiert, bleibt ein Geheimnis der Innovation.

Bild 2 Energieanzeige beim Energieradeln. Screenshot aus dem Werbefilm der Organisation Billions in Change

Eine einfache Elektrokochplatte für das Camping benötigt 1100 W. Um diese auf voller Leistung zu halten, müssten demnach 10 Personen parallel die Energie erradeln. Leider kann man damit nicht für 10 Personen gleichzeitig kochen, sondern vielleicht für zwei, drei. Also muss man länger radeln und nacheinander für die Radler kochen. Vielleicht sind dann nach ein paar Stunden alle bekocht – bis auf die Kochenden, denn die energieradeln ja nicht -. Wer nun mehrere Stunden ununterbrochen so fest energie-durchgeradelt hat bekommt dadurch aber bestimmt gleich wieder einen gewaltigen Hunger.

Schlimm wird es, wenn die Nacht beginnt. Denn nun muss man auch noch für die Beleuchtung der Kochstelle und des Ruheraumes mitradeln. Und nach einer so schweißtreibenden Öko-Kuli-Radelei will man vielleicht auch duschen. Also für die Duschpumpe noch etwas radeln, und wenn man dazu vielleicht etwas warmes Wasser will, eben noch einmal. Gerade zu ein Glück, dass man zum Schlafen nicht parallel weiter-radeln muss (ausser man stellt dabei so unökologische Ansprüche wie eine Heizung oder Klimaanlage).

Fazit: Die Energieradler befinden sich in einem endlosen Energieradel-Hamsterrad (gab es früher im Bergbau, wurde damals aber gelaufen und verschwand wohl deshalb).

Aber immerhin, designerisch erscheint das Energiefahrrad dagegen schon als Innovation.

Wie ist der monetäre Wert des Energieradelns zu bewerten

Der deutsche Mindestlohn beträgt Brutto 8,5 EUR. Somit beträgt der Netto-Energieradel-Abgabepreis einer einzigen KWh bei durchgängiger 100 % Radelleistung ohne auch nur ein Quentchen Gewinn gemacht zu haben abgerundet 77,2 EUR. Selbst wenn 1 EUR-Jobber dafür radeln, kostet die kWh mit 9,1 EUR noch immer viel zu viel. Daran würden sogar unsere Grünen mit dem Wunsch nach einem 1 EUR kWh-Preis nichts ändern.

Kohlestrom und auch jeder andere kostet so um die 4 … 6 ct / kWh, wenn es zwangsweise EEG sein muss aktuell eher 10 … 20 ct / kWh Gestehungskosten. Auch in armen Ländern ist Elektroenergie – so man sie bereitstellen will – nicht wesentlich teurer zu erzeugen.

Damit kann man ahnen, welchen Preis ein Energieradler in der dritten Welt (denn dafür ist die Innovation gedacht) erwirtschaften kann und auf welchem erbärmlichen Niveau damit sein Verdienst liegen wird.

Aber halt, es gibt doch den 100 Milliarden US$ Klimaopferfond. Bestimmt werden die künftigen Energieradler der dritten Welt daraus „versorgt“. Und dann wird daraus eine bewundernswerte, ökologische, nachhaltige, Welt-rettende WIN WIN WIN Situation für alle (werden) – ein innovatives Erfolgsmodell wie es das eben sonst nur noch in (sozialistischen) Märchen gibt.

Wahre Innovation erkennt nicht jeder

Irgend eine ganz besondere, Welt-rettende und vom Normalbürger bisher noch nicht erkannte Eigenschaft muss dem Fahrrad innewohnen. Warum wohl sonst radeln die Chinesen und Inder (und Holländer) so viel? Haben die unsere westliche Zeitrechnung ohne es zu wissen einfach überradelt? Bestimmt ist es kein Zufall, dass sich unsere – damit wieder einmal hoch-innovativ ausweisende – Klimawandel-Fachfrau Dr. Hendricks ebenfalls intensiv damit beschäftigt hat „Aktionsprogramm Klimaschutz – Frau Hendricks fördert Investitionen für Lastfahrräder zur CO2-Minderung“.

Das hat der Autor damals belächelt – eben nur ein Normalbürger und damit Asche aufs Haupt. Wahre Innovationen erkennen wirklich nur ökologisch nachhaltige Außerwählte. Vielleicht würde es auch helfen, Gehirn-Doping einzunehmen wie manche Grünen Politiker.

Ein Glück, dass wir hier nicht die Verhältnisse von Nordkorea haben. Nicht auszudenken was passiert wäre wenn der Autor es da gewagt hätte, eine solch innovative Eingebung einer großen Vorsitzenden nicht gleich als das was es wirklich ist erkannt zu haben.

Nachtrag

In den Zeitungen kam gerade, dass die United Nations Organization (UNO) als Millenniumsziel daran „arbeitet“, die bitterste Armut auf der Welt zu beseitigen. Als bitterarm gilt nach der UNO jemand, wenn er weniger als 1,25 US$ / Tag verdient.

Doch selbst dieses niedrige Einkommen ist durch Energieradeln niemals auch nur entfernt möglich – ein absolut treffendes Beispiel was Energiearmut wirklich bedeutet. Aber wenn Armut zur Klimarettung der Welt notwendig ist, muss man sie positiv sehen und umsetzen – und (in deutschen Medien) auch so publizieren.




Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?“

Zur BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich  Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?“

 

 

Bild 1, Startbild zur BR-Sendung

Um den Jahrestag von Fukushima erinnerte der BR in einer Reportagesendung auch an das Reaktorunglück von Tschernobyl. Ein junger, hyperaktiver Moderator fuhr durch Bayern und spürte die schlimmen Strahlenauswirkungen auf, welche das damalige Atomunglück in Bayern hinterlassen hat.

Jeder darf seine Meinung kundgeben. Wenn eine Sendung aber mit Wahrheit tituliert wird, sollte solche auch enthalten sein. Der Autor hat darin jedoch eine lupenreine Anti-Atomkraft-Propagandasendung gesehen welche darin gipfelte, dass der Moderator mit half, ein Anti-Atomkraft-Transparent an einem AKW-Zaun anzubringen.

Reportagebeispiele und inhaltliche Kritik

Sendungs-Startbild

Im Startbild zur Sendung hält jemand einen Geigerzähler mit der Anzeige 0,1 µSw in den Händen.

Kritik

0,1 µSw ergeben hochgerechnet 8,8 mS / pa.  Das ist nicht wenig, aber auch nicht übermäßig viel. Eine Gefahr für die Gesundheit ist dadurch nicht im Entferntesten vorhanden.

[1] Erst 100 Millisievert gelten als gefährlicher Grenzwert: Die Wahrscheinlichkeit für einen Anstieg von Krebserkrankungen steigt, wenn der Mensch mindestens in dieser Größenordnung ein Jahr lang durch Strahlen belastet wird. Eine Einzeldosis von 1000 Millisievert führt zu einer Strahlen-Erkrankung mit Symptomen wie Übelkeit, ist aber nicht tödlich.

Natürliche Strahlenbelastungen

Die natürliche Radioaktivitätsbelastung in Deutschland beträgt etwa 2,5 (mSv = Millisievert) im Jahr (Radon-Gas der Luft, kosmische und terrestrische Strahlung, Essen und Trinken sowie Baumaterialien). Doch gibt es große Unterschiede wie die folgenden Beispiele zeigen:

—  Im Schwarzwald bis zu 18 mSv [1]

—  In einigen Gegenden auf diesem Planeten sogar bis 200 mSv im Jahr (Brasilien und Iran)
—  Arbeitsrechtlich darf die Dosisleistung 20 mSv pro Jahr = 10 µSv/h (bei 2000 Arbeitsstunden), nicht überschreiten.

Szenen Umhergehen in „verstrahlter“ Landschaft

In der Reportage selbst wird viel mit einem Geigerzähler in der Landschaft „umhergegangen“, wobei ein ausgewiesener Anti-Atomkraft Aktivist und der Moderator abwechselnd über hohe Strahlenwerte klagen, nie jedoch Werte angegeben oder zeigen. Der Aktivist erklärt, dass es  10 Halbwertszeiten – also 300 Jahre – dauert, bis die Strahlung von Tschernobyl in Bayern verschwunden ist.

Kritik

Nach 10 Halbwertszeiten beträgt die Reststrahlung 0,1 %. Aktuell zeigt wohl ein „Hotspot“ (Startbild, in der Reportage selbst werden nirgends irgendwelche Daten zu Bodenwerten genannt) den der Moderator ausfindig gemacht hat 0,1 µSw (8,8 mS / pa). Nach 2 Halbwertszeiten, also 60 Jahren ist diese Strahlung auf das Maß der durchschnittlichen natürlichen Belastung gesunken. Ab diesem Wert und demnach nach 60 Jahren kann von „verschwunden sein“ gesprochen werden und nicht erst bei einer Reduzierung auf 0,1 % (0,088 mS / pa) mit 300 Jahren.

Das Bayerisches Landesamt für Umwelt hat bereits 2011 eine kleine Broschüre: FAQs zum Jahrestag „25 Jahre Tschernobyl“  veröffentlicht. Darin steht:

[2] Die Strahlenexposition des bayerischen Bürgers durch Tschernobyl ist heute kleiner als 0,01 mSv  (1 Hunderstel MilliSievert) pro Jahr. 

Zum Vergleich:   Die durchschnittliche Strahlenexposition des deutschen Bürgers durch die natürliche Radioaktivität beträgt ca. 2,4 mSv pro Jahr.

Dazu ein Bild aus einer LfU-Broschüre. Wo her wirkliche Gefahren kommen könnten ist darin gut zu sehen.

 

Bild 2 [3] Verschiedene Strahlenquellen im Vergleich

Von einer bedrohlichen, durch Tschernobyl oder auch durch Deutsche Kernkraftwerke verursachten Strahlenbelastung der bayerischen Bürger kann demnach wohl kaum die Rede sein.

Szene Nach dem Aufstellen des Maibaums „juckte“ die kontaminierte Haut

Der Moderator fährt in seinen Heimatort Gersthofen bei Augsburg.

Moderator: „… bei Gersthofen schaut es ja nicht so gut aus, ist ziemlich belastet gewesen“, dann sinngemäß:  … vier Tage nach Tschernobyl wurde von der Dorfjugend bei Regen mit nacktem Oberkörper der Maibaum aufgestellt. Am Tag danach soll es den Leuten  am Körper gejuckt haben.

Kritik

Zu dieser Szene hat der Autor beim BR nachgefragt, auf welcher Datenbasis diese Aussage referiert. Begründung: Ein solch schneller Strahleneffekt am Körper ist bei der geringen möglich gewesenen Kontamination strahlenmedizinisch unmöglich.

Vom BR kam eine Antwort:

Unser Moderator Rainer Maria Jilg schildert ganz persönliche Erinnerungen aus seiner Kindheit. Er zitiert zudem Erinnerungen anderer Zeitzeugen, die subjektiv ein Jucken auf der Haut vernommen haben wollen. Es handelt sich dabei ganz klar und unmissverständlich um persönliche und subjektive Schilderungen und Eindrücke unseres Moderators. Dass diese nicht auf strahlenmedizinischen Untersuchungen basieren, geschweige denn basieren müssen, versteht sich von selbst.

Szene Messen kontaminierter Pilze

Man geht in das Anti-Atomkraft-Umweltinstitut München. Die Institutsleiterin untersucht getrocknete Maronenröhrlinge, Befund: 5225 Becqerel / kg. Die Institutsleiterin sagt, dass der Grenzwert für diese im Moment gemessenen Pilze 600 Bq/kg beträgt, was der Moderator entsprechend alarmistisch kommentiert.

Kritik

Der Grenzwert für Trockenpilze darf bei Trockenpilzen mit dem 10-Fachen gegenüber Frischpilzen gesetzt werden. Das kann man googeln und / oder nachfragen.

Auf die Nachfrage des Autors beim in der Reportage messenden Umweltinstitut e.V. München kam die folgende Antwort:

… vielen Dank für Ihre Nachfrage.

Tatsächlich gibt es in der EU nur zwei Grenzwerte:
– 370 Bq/kg für Milch, Milchprodukte und Säuglingsnahrung
– 600 Bq/kg für alle übrigen Lebensmittel
Einen eigenen Grenzwert für getrocknete Pilze gibt es unseres Wissens nicht. Es ist allerdings richtig, dass für die Umrechnung von Trockenmasse auf Frischmasse bei Pilzen der Faktor 10 in etwa herangezogen werden kann.

Man kann auch bei einem zuständigen Amt nachfragen. Das ist eventuell etwas langwieriger, da so man das falsche erwischt hat dieses die Anfrage nicht einfach weiterleitet, sondern mit der lieben Bemerkung zurückgibt, „man möge sich bitte an das zuständige Amt wenden“. Aber übermäßig schwierig ist es nicht.

Zu guter Letzt gab die Pressestelle des Bayerischen Landesamtes für Gesundheit und Lebensmittelsicherheit (LGL) die folgende Antwort:

Aufgrund der Empfehlung der Kommission 2003/274/Euratom gilt der in der VO (EG) 733/2008 aufgeführte Grenzwert von 600 Bq/kg auch für Pilze. Der Grenzwert von 600 Bq/kg bezieht sich im Falle von Pilzen auf das Gesamtgewicht und nicht auf die Trockenmasse.

Pilze verlieren beim Trocknen ca. 90 %  ihres ursprünglichen Gewichtes. Daher wird der ermittelte Radiocäsiumwert (Leitnuklid: Cäsium 137) der getrockneten Pilze durch den Korrekturfaktor 10 dividiert. Dies würde bei dem von Ihnen angegebenen Cäsium 137 Messwert der getrockneten Pilze von 6000 Bq/kg, einen Cäsium 137 Gehalt bezogen auf die Gesamtmasse, von 600 Bq/kg ergeben.

Der dazu angesprochene BR antwortete:

Text der Nachfrage:

Zu den Grenzwerten bei Trockenpilzen: " Meiner Information nach beträgt der Grenzwert für Trockenpilze das Zehnfache des Wertes für ungetrocknete, also 6.000 bq/kg (was für Trockenpilze auch physikalisch vernünftig erscheint). Damit lag die Belastung der gemessenen Pilze weit innerhalb der Grenzwerte.

BR-Antwort:

"Woher haben Sie diese Information? Auf welchen wissenschaftlichen Grundlagen fußt diese? Laut unseren Recherchen sind die Grenzwerte für alle Wildpilze gleich, egal, ob es sich um  getrocknete, eingelegte oder frische Pilze handelt.

Szene erhöhte Leukämiegefahr für Kinder um Atomkraftwerke

Und weiter geht es im Film. Beim Heranfahren des Moderators an „die Gefahr“ immer durch ein penetrantes, schicksalschwangeres Pochen untermalt. Mit einem Aktivisten von „Ärzte gegen Atomkraft“ (IPPNW) wird die  KiKK-Studie diskutiert.

Anm.: In dieser Studie wurde die Wahrscheinlichkeit des gehäuften Auftretens von Leukämie an Kindern bis 5 Jahren im Umkreis von 5 km um KKWs in Deutschland untersucht.

Der Moderator erklärt: ... im 5 km Umkreis von KKWs ist diese Krebsrate doppelt so hoch. Der Arzt antwortet dazu: „ Wenn man erkennt, dass der Normalbetrieb eines KKW Kinder krank macht dann gibt es nur eine Konsequenz, das AKW abschalten“. Der Moderator ergänzt: „… unglaublich, da liefert eine Studie klare Ergebnisse, aber die müssen dann weiter bewiesen werden ….“

Kritik

Die KiKK-Studie

Die KiKK-Studie[4]  ergab in Deutschland wirklich eine zusätzliche Wahrscheinlichkeit um einen 5 km-Radius von Atomkraftwerken. Diese beträgt statistisch um alle deutschen KKWs zusätzliche 0,8 Erkrankungen im Jahr. Ergänzend heißt es dazu in der Studie:

 — [4] Diese Schätzungen sind wegen der zugrunde liegenden kleinen Fallzahlen mit erheblicher Unsicherheit behaftet

Weiter steht In der Studie dazu, dass dies physikalisch nicht erklärbar ist:

[4] So wird für eine 50 Jahre alte Person, deren Wohnsitz sich in 5km Entfernung zum Kernkraftwerk befindet, eine kumulative Exposition gegenüber luftgetragenen Emissionen von 0,0000019 mSv (milli Sievert) (Obrigheim) bis 0,0003200 mSv (Gundremmingen) erwartet. Die jährliche natürliche Strahlenexposition in Deutschland beträgt etwa 1,4 mSv, die jährliche durchschnittliche Exposition durch medizinische Untersuchungen etwa 1,8 mSv. Demgegenüber ist die Exposition mit ionisierender Strahlung in der Nähe deutscher Kernkraftwerke um den Faktor 1.000 bis 100.000 niedriger. Vor diesem Hintergrund ist nach dem derzeitigen wissenschaftlichen Erkenntnisstand das Ergebnis unserer Studie nicht strahlenbiologisch erklärbar.

Auch ist bekannt, dass in ländlichen Gegenden signifikante Leukämie-Cluster zu finden sind. Auch dieser über Deutschland verteilte Effekt ist nicht erklärbar. Nun sind die KKW-Standorte meistens „in ländlichen Gegenden“. Die Studie untersuchte aber nicht ob sich unter dieser Berücksichtigung die festgestellte (kleine) Leukämiehäufigkeit nivellieren würde.

Ein erklärendes Dokument aus der Schweiz

Mit nur ein bisschen Engagement lässt sich aber Ergänzendes finden und zwar in der Schweiz.

Ein Wissenschaftsteam hat die verschiedenen dazu durchgeführten Studien zusammengetragen, analysiert und die Inhalte und Bewertungen in einer Broschüre zusammengefasst. Allerdings ist dieses Wissenschaftler-Forum erkennbar nicht anti-atomkraftaktivistisch polarisiert:

Das „Forum Medizin und Energie“ (FME) ist ein überparteilicher und breit abgestützter Verein. Die Mitglieder des
FME sind Ärztinnen und Ärzte aus Praxis und Forschung.
Das FME wurde 1984 von Prof. Dr. Martin Allgöwer (1917–2007), ein bekannter Schweizer Arzt und Chirurg, gegründet. Das FME hat sich zum Ziel gesetzt, die Schnittstellen zwischen menschlicher Gesundheit und Energie zu erforschen. Zur Zeit umfasst das FME rund 200 Mitglieder aus der ganzen Schweiz.

Die Broschüre nennt sich:

Forum Medizin und Energie, Postfach, 8040 Zürich, 2012: Kinderleukämie und Kernkraftwerke – (K)Ein Grund zur Sorge?  Grundlagen, Studien, Analysen. Dritte, erweiterte Auflage

Die Schlussfolgerung in dieser Broschüre lautet:

Welche Schlussfolgerungen sind aus den gesammelten Daten zu ziehen? Die Gesamtheit der Studien zeigt, dass
eine Nachbarschaft zu einem Kernkraftwerk generell kein erhöhtes Leukämierisiko bedeutet. An den meisten Kraftwerkstandorten war entweder nie eine Häufung von Leukämiefällen feststellbar, oder sie liess sich bei weiterer Beobachtung nicht bestätigen. An einzelnen Standorten sind vermehrt Krankheitsfälle aufgetreten, doch deren absolute Anzahl liegt in einem Bereich, der sich auch bei anderen Risiken findet: Wohlhabende Lebensumstände, großzügige Wohnverhältnisse und eingeschränkter Kontakt zu anderen Kleinkindern.

Es ist ein Trugschluss, die radioaktiven Emissionen eines Kernkraftwerkes für das Risiko einer Leukämieerkrankung verantwortlich zu machen. Würde nämlich der Entstehungsmechanismus der Krankheit über die ionisierende Strahlung laufen, müsste sich auch die erhöhte Radioaktivität aus natürlichen Quellen in größeren Zahlen der Kinderleukämieerkrankungen niederschlagen. Die bekannten strahleninduzierten Tumoren bei Erwachsenen dürften dabei nicht ausgespart bleiben. Und auch die bekannten Reaktorunfälle mit Auswirkungen auf die Umgebung oder die erhöhte C-14-Belastung während der Kernwaffenversuche der 50er- und 60er-Jahre führten in keinem Fall zu einer Erhöhung der Leukämiehäufikeit, die entsprechend den Proportionen hätte immens ausfallen müssen.

In dieser (interessanten) Broschüre ist auch eine schweizerische Studie gelistet, welche parallel zur KIKK-Studie speziell deren Thematik analysierte, Ergebnis:

Die Öffentlichkeit hat teilweise mit Erstaunen auf das Studienergebnis reagiert, weil das Resultat von demjenigen der deutschen Studie von 2007 abweicht. Dazu ist festzuhalten, dass das Resultat der Schweizer Studie in Einklang steht mit der grossen Mehrheit der rund 50 internationalen Studien, die in den letzten 30 Jahren durchgeführt wurden. Es ist vielmehr die deutsche Studie, die ein „Ausreisser“ darstellt. Mehrheitlich kamen die Untersuchungen zum Schluss, dass kein erhöhtes Risiko für Kinderleukämie um KKW besteht.

Es ist zudem auf ein weiteres wichtiges Ergebnis der Studie hinzuweisen: Sie hat festgestellt, dass auch keine lineare Abstand-Wirkung-Beziehung besteht. Das heisst, dass es nicht immer mehr Fälle gibt, je näher man an einem Kernkraftwerk wohnt. Im Gegenteil, die Studie hat festgestellt, dass es teilweise sogar weniger Fälle gibt, je näher man an einem Kernkraftwerk wohnt.

Ein Vorwurf, der seinerzeit der deutschen Studie gemacht worden war, war der Umstand, dass die Wind-Richtung nicht berücksichtigt worden sei. Wenn ein ursächlicher Zusammenhang zwischen KKW und Kinderleukämie bestehen würde, so die Hypothese, wäre dafür auch die Abluft aus dem KKW-Kamin verantwortlich. Die Schweizer Studie hat die Windrichtung mitberücksichtigt und festgestellt, dass das Risiko unter Einbezug der Windrichtung sogar sinkt.

Wirklich auch gar nichts davon wurde in der Reportage erwähnt.

Denn es bieten natürlich keinerlei Basis für den Alarm welcher dazu berechtigen würde, alle KKWs wegen Leukämierisiko sofort abzuschalten, wie es der IPPNW-Aktivist unterstützt vom Moderator fordert.

Aber selbst wenn man beim Erstellen einer „die Wahrheit zeigenden“ Reportage nicht in der Lage oder Willens ist, dies zu recherchieren.

Wenn 0,8 statistische zusätzliche Krankheitsfälle im Jahr dazu „berechtigen“ sollen, 50 % der Energieversorgung eines Landes sofort abzuschalten, muss man weit vorher alle Autofahrten, Röntgenuntersuchungen, Kindergarten- und –Krippenbesuche und und und verbieten, da das damit verbundene Mortalitätsrisiko wesentlich höher ist.

Szene Interviews von Fachleuten einer für Strahlung zuständigen Behörde

Nun werden zwei Vertreter von mit Strahlung beauftragten Behörden interviewt. Diesen war das Interview erkennbar unangenehm (konnten dem aber wohl nicht entgehen) – denn so unwissend wie sie sich darstellten sollten zwei Promovierte in Führungspositionen kaum sein, außer sie wären eklatante Fehlbesetzungen -.  Jedenfalls ließen sie sich außer zu Allgemeinplätzen zu keinerlei hilfreichen Information, geschweige pro- oder kontra-Aussagen bewegen.

Kritik

Zu diesen zwei verbeamteten farblosen „Figuren“ erspart sich der Autor Kritik. Was erwartet man von einem  Beamten, dem jede ehrliche Aussage die Karriere gefährden könnte.

Reportage-Schluss

Nach etlichen in diesem Stil gedrehten weiteren Episoden endet die Reportage in einer Szene in welcher der Moderator einem Anti-Atomkraft-Aktivisten hilft, ein Demonstrationsplakat an einem KKW-Zaun zu befestigen sowie der Schluss-Aussage des Moderators, dass er die Abschaltung aller deutschen KKWs begrüßt.

Schlusskritik

Es ist dem Autor ein Rätsel, wie ein öffentlicher Sender auf die Idee kommen kann, eine derart offensichtliche Propagandasendung drehen zu lassen und zur besten Sendezeit anzubieten. 

Der Moderator ist laut seiner Vita studierter Musiker und Dipl.- Ing (FH) für Medien. Das ist nichts Schlimmes, sogar beachtenswert – jedoch sind damit besondere Kenntnisse auf dem Fachgebiet Strahlung eher nicht zu erwarten – was der / die Verantwortliche beim BR hätten ahnen können. Trotzdem durfte er eine Fachreportage dazu frei moderieren. Und niemand hielt es für erforderlich, auf die vollkommen fehlende Ausgewogenheit und eklatanten sachlichen Fehler hinzuweisen.

Dass des Bürgers Zwangsbeitrag mit der Bereitstellung von ausgewogener Information begründet wird scheint man beim BR nicht mehr zu wissen, bzw. zu ignorieren, schließlich kann der zahlende Bürger den BR ja nie abwählen.

persönliche und subjektive Schilderungen und Eindrücke“ dieser Art sind jedenfalls keine Information, geschweige „Wahrheiten“ für die der Autor freiwillig etwas bezahlen würde.

Mailadresse des BR: zuschauerservice@br.de

Quellen (sofern nicht im Text direkt angegeben)

[1]

FOCUS 18.03.2011: Strahlung unsere tägliche Dosis

http://www.focus.de/panorama/welt/tsunami-in-japan/wissenschaftliche-hintergruende/strahlung-unsere-taegliche-dosis_aid_609687.html

[2]eine7. Wie groß ist die jährliche Strahlenexposition in Bayern durch Tschernobyl heute?

Bayerisches Landesamt für Umwelt, 12. April 2011: FAQs zum Jahrestag „25 Jahre Tschernobyl“

[3]eine7. Wie groß ist die jährliche Strahlenexposition in Bayern durch Tschernobyl heute?

Bayerisches Landesamt für Umwelt, Publikation: UmweltWissen Strahlung  – Radioaktivität und Strahlung – Vorkommen und Überwachung

[4]

Umweltforschungsplan des Bundesumweltministeriums (UFOPLAN) Reaktorsicherheit und Strahlenschutz Vorhaben StSch 4334: Epidemiologische Studie zu Kinderkrebs in der Umgebung von Kernkraftwerken (KiKK-Studie) Zusammenfassung/Summary




Aber stimmt es auch? – Die Forschungen von Aaron Wildavsky 20 Jahre später

Das Verlangen nach Sicherheit ist dem Menschen angeboren, ist aber nichtsdestotrotz ein intellektuelles Laster. Solange die Menschen nicht geübt darin sind, von Urteilen über etwas ohne Beweise Abstand zu nehmen, werden sie durch sich todsicher gerierende Propheten in die Irre geführt, und es ist wahrscheinlich, dass ihre Führer entweder ignorante Fanatiker oder unehrliche Scharlatane sind. Unsicherheit zu ertragen ist schwierig, aber das gilt auch für die meisten anderen Tugenden“.

Die sich todsicher gerierenden Propheten sind Umweltaktivisten und Befürworter der globalen Erwärmung, die die Behauptung vor sich her tragen, dass sie die Einzigen Wissenden sind und die Einzigen, die sich um die Umwelt kümmern. Sie sind säkulare Missionare des neuen Paradigmas des Umweltaktivismus‘, welches sie zu einer Religion von Umweltaktivismus machten. 20 Jahre Doom-and-Gloom-Prophezeiungen von ihnen zusammen mit den von ihnen aufgerührten Ängsten erwiesen sich als unrichtig, während sich jene, die unrecht zu haben beschuldigt worden sind, als recht habend herausstellten.

Eine Verschiebung eines Paradigmas ist eine wichtige Änderung des Vorgehens oder der Hypothesen einer Gesellschaft, die alles in unterschiedliche Richtungen trägt; es kam mit der Verschiebung hin zu Umweltaktivismus. Die meisten Menschen akzeptieren ein neues Paradigma nur sehr zögerlich, weil sie die Änderung fürchten. Sie wissen, wenn es zu einer Änderung kommt, werden Einige geschädigt, und einige werden profitieren, aber die Furcht davor, geschädigt zu werden, steht im Vordergrund. Allerdings gibt es immer eine kleine Gruppe, die die Paradigma-Verschiebung aufschnappen und für ihre Agenda ausschlachten, entweder in finanzieller oder in politischer Hinsicht oder beidem. Sie werden zu „sich todsicher gerierenden Propheten“.

Wir alle sind Umweltaktivisten, aber einige Wenige griffen danach und behaupteten, dass nur sie sich um die Umwelt kümmern. Sie predigten uns dies aus moralisch hoher Perspektive. Globale Erwärmung wurde zum Zugpferd für ihre politischen Angriffe auf entwickelte Gesellschaften, weil sie nationale Grenzen überschritt und nach einer Eine-Welt-Lösung verlangte. Sie erzeugten und verbreiteten eine Vielfalt von Angst erzeugenden Stories über verschiedene Aspekte der Umwelt, um die Lüge am Leben zu halten. H. L.Mencken erklärte diese Objektive kurz und bündig mit zwei Aussagen:

Das ganze Ziel praktischer Politik ist es, die breite Masse im Alarmzustand zu halten (und ihnen daher lärmend vorzumachen, dass man sie in Sicherheit führen werde) mittels einer endlosen Folge von Kobolden und Geistern – die allesamt imaginär sind (hier).

Die Dringlichkeit, die Menschheit zu retten, ist fast immer die Maske für die Dringlichkeit, sie zu führen. Macht ist alles, was jeder Messias in Wirklichkeit anstrebt: nicht die Möglichkeit zu dienen. Das gilt selbst für die Pius-Brüder, die ihre Prinzipien nach außen tragen.

Die Stories bestehen aus einer Mischung von Makro- und Mikro-Dingen, die sich allesamt um die Behauptung ranken, dass sie eine direkte oder indirekte Folge der menschlichen Existenz sind, verschlimmert durch industriellen Fortschritt. Auf der Liste der Makros finden sich u. A. Wüstenbildung, Entwaldung, Aussterben von Spezies, Verlust von Habitaten, steigender Meeresspiegel, Zerstörung der Ozonschicht, gigantische Mülldeponien, Asbest-Kontamination, saurer Regen und Ozeanversauerung uvm. Die Liste der Mikros ist sogar noch länger und enthält u. A. die Erblindung von Schafen in Chile, deformiert geborene Frösche, geringere Spermazahlen beim Menschen, zerstörte Korallenriffe, eine Vielzahl von sinkenden Tierpopulationen, und so weiter und so fort, bis zum Erbrechen.

Ich weiß durch meine Mitarbeit in vielen Untersuchungsausschüssen, dass schon limitierte Ermittlungen sehr unterschiedliche Wahrheiten ans Licht bringen. Unter diesen Erfahrungen ist auch der Vorsitz in Anhörungen, um vermeintlichen Umwelt-Herausforderungen zu begegnen einschließlich der Bedrohungen für Luft, Boden, Wasser und Wälder. Ich war Vorsitzender des Hazardous Waste Committee [etwa: Komitee gegen übermäßigen Müll] der Stadt Winnipeg und habe Beweise erbracht für Verfahren, in denen es um Wetter, Klima und Umweltthemen ging. Der Unterschied zwischen der Berichterstattung in den Medien, dem öffentlichen Verständnis und den Fakten war riesig und erschütternd, aber trotzdem treiben diese Stories die öffentliche Politik. Nur wenige Politiker wagen es, sie in Frage zu stellen, und so erzeugen sie unnötige, ungeeignete und oftmals schädliche Politik. Wie moderne Kreuzfahrer streifen sie sich das grüne Mäntelchen über, nicht um sich den Fakten zu stellen, sondern um Vorwürfen zu begegnen, dass es ihnen egal ist.

Die Medien berichten diese Stories, weil Sensationalismus sich gut verkauft, und sie akzeptieren ohne Nachfrage die Behauptungen des Ausmaßes unserer Beeinflussung der Umwelt. In den USA haben die Medien bei der Ausfüllung der Rolle versagt, die Rolle auszufüllen, die ihnen von den Gründungsvätern des Kongresses im Jahre 1776 zugedacht worden war.

Das letzte Recht, das wir erwähnen sollten, betrifft die Pressefreiheit. Die Wichtigkeit hiervon besteht neben dem Voranbringen von Wahrheit in Wissenschaft, Moral und Kunst allgemein in seiner Ausbreitung liberaler Gefühle auf die Regierungs-Administration, in seiner angemessenen Kommunikation von Gedanken zwischen den Themen und in der konsequenten Verfolgung von Einheit unter ihnen, während unterdrückende Funktionäre beschämt oder getrieben werden, ehrbareres Verhalten zu übernehmen sowie eine bessere Art, mit Skandalen umzugehen.

Sie haben die Rolle der Akademiker nicht definiert, wahrscheinlich aufgrund der Annahme, dass sie nach der Wahrheit streben. Tatsächlich manifestieren sich in den Akademikern die sich ergebenden Probleme, wenn man Sozialhilfe bezieht. Henry Canby drückte es so aus:

Arroganz, Pedanterie und Dogmatismus sind berufliche Krankheiten von denjenigen, die ihr Leben danach ausrichten, das Intellekt der Jugend zu dirigieren.

Einige wenige Akademiker stellen die vorherrschende Weisheit in Frage, absichtlich oder zufällig, und sind sofort Ziel von Angriffen, darunter sogar Ausweisung oder Isolation. Judith Curry ist sich jetzt nur zu bewusst, was passiert.

Aaron Wildavsky war ein politischer Wissenschaftler, spezialisiert auf öffentliche Politik, Budgetierung der Regierung und Risikomanagement (hier). Wildavsky stellte sich dem entgegen, was Michael Crichton als die größte Herausforderung identifizierte, vor der die Menschheit derzeit steht. In einer Rede vor dem Commonwealth Club in San Francisco sagte er im Jahre 2003:

Man hat mich aufgefordert, darüber zu sprechen, was ich als die wichtigste Herausforderung ansehe, vor der die Menschheit steht, und ich habe die fundamentale Antwort. Die größte derzeitige Herausforderung für die Menschheit ist die Herausforderung zu unterscheiden zwischen Realität und Phantasie, Wahrheit und Propaganda Das Erkennen der Wahrheit war immer eine Herausforderung für die Menschheit, aber im Informationszeitalter (oder, wie ich es sehe, dem Desinformationszeitalter), wird es zu einer speziellen Notwendigkeit und Wichtigkeit.

Wildavsky machte sich auf, die Wahrheit zu erkennen bzgl. Umweltbedrohungen mittels Anwendung der angemessenen wissenschaftlichen Methoden beim Stellen einer Frage oder mit Experimenten. Er stellte die einfache Frage „aber stimmt das auch?“ (hier). Sie wurde später zu seinem posthum veröffentlichten Buch (1995). In das Experiment waren graduierende Studenten ohne wissenschaftliche Titel involviert, die der Frage nachgingen und nach Ursprung und Gültigkeit der verschiedenen Umweltstories forschten.

In einem Artikel aus dem Jahr 1995 wurden einige der Ergebnisse zusammengefasst:

•„Das DDT-Verbot, einer der ersten großen Triumphe der modernen Umweltbewegung (und ein Tribut an Silent Spring von Rachel Carson) hat „mehr Schaden als Nutzen“ gebracht.

Trotz der hysterischen Ängste von Eltern stellt Asbest in Schulen keine erkennbare Gefahr für Kinder dar.

Es gibt keine Beweise dafür, dass saurer Regen für die Umwelt eine außerordentliche Gefahr darstellt, außer an einigen wenigen isolierten Stellen (wie in paar Wälder in Hochlagen).

Die meisten gefährlichen Mülldeponien (darunter so notorische Deponien wie in Love Canal in New York State und Times Beach in Missouri) sind keine signifikante Gefahr für Anwohner. Das außerordentlich teure Superfonds-Programm der Regierung zur Beseitigung dieser Deponien ist alles in allem Geldverschwendung.

Es gibt keine glaubwürdigen Beweise, die die Angst vor der globalen Erwärmung stützen.

•„Es gibt keine glaubwürdigen Beweise für die Ozon-Zerstörung“, und es gibt gute Gründe für die Annahme, dass welche Zerstörung auch immer aufgetreten war, dies nichts mit FCKWs zu tun hat und dass es „starke Hinweise gibt, dass der Schaden durch Ozonzerstörung zwischen gering oder gar nicht schwankt“.

Heute, über 20 Jahre später, ist die Validität dieser Ergebnisse bestätigt. Sie sind alle Opfer von etwas, das Wildavsky als den grundlegenden Betrug des Absolutismus bei der Umweltbewegung identifiziert hatte. Er fragte:

Welche Norm legt fest, dass Gesundheit der einzige Wert oder auch nur der dominante Wert ist?“ – Was ist mit den anderen Werten? Was bedeutet eine marginal bessere Gesundheit im Vergleich zu Verlusten bei anderen Werten wie Freiheit, Gerechtigkeit und Vorzüglichkeit?“

In einem Beitrag für The Concise Encyclopedia of Economics hat Wildavsky das Aufkommen von Regierungs-Bürokratie geahnt, weil Politiker keine Fragen gestellt und sich selbst das grüne Mäntelchen umgehängt hatten.

Seit Ende der fünfziger Jahre ist die Regulierung von Risiken für Gesundheit und Sicherheit in politischen Debatten immer wichtiger geworden – und Maßnahmen. In seinen Bemühungen, die Bürger vor schwierig zu erkennenden Gefahren zu schützen wie industrielle Chemikalien und gegen offensichtliche Gefahren am Arbeitsplatz und anderswo, hat der Kongress die Autorität der Food and Drug Administration, der Environmental Protection Agency, der Occupational Health and Safety Administration, das Federal Trade Commission’s Bureau of Consumer Protection und andere administrative grüne Agenturen erzeugt oder verstärkt.

Bei meinem Auftritt vor der kanadischen parlamentarischen Anhörung zum Thema Ozon habe ich meinen vorbereiteten Vortrag nicht gehalten. Ich habe nämlich schnell erkannt, dass die Politiker beim Zuhören der Beweise und den Fragen von Anderen die wissenschaftliche Methode nicht verstanden. Sie erkannten nicht, dass eine wissenschaftliche Hypothese wissenschaftliche Spekulation ist, sondern betrachteten dies als Tatsache. Ich bot eine wissenschaftliche Spekulation auf der Grundlage von Beweisen an.

•Die Rotationsgeschwindigkeit der Erde verlangsamt sich.

•Das Magnetfeld schwächt sich seit 1000 Jahren ab.

•Falls das mit der derzeitigen Rate so weitergeht, wird das Feld in etwa 120 Jahren verschwunden sein.

•Einige Beweise zeigen Massen-Aussterben in Verbindung mit früheren Zusammenbrüchen.

•Der Schutz vor einigen schädlichen Strahlen der Sonne ist verschwunden.

•Einige behaupten, dass DNA besonders verwundbar ist, wenn sie ultravioletter Strahlung ausgesetzt ist.

Ich fragte, was meine Regierung plant, um diese Bedrohungen zu verhindern. Ich sagte ihnen, dass ich Dutzende solcher spekulativen Bedrohungen erzeugen könnte. Ihre Aufgabe und Herausforderung bestand darin herauszufinden, welche gültig waren, und dem Setzen von Prioritäten, weil sie nicht alles auf einmal angehen konnten. Wildavsky zeigt eine exzellente Synoptik von Risiken und Prioritäten in seinem in der Encyclopedia of Economics erschienenen Artikel mit dem Titel „Risk and Safety.

Die globale Erwärmung war eine weitere ungeprüfte Hypothese, genau wie alle anderen auch. Sie stellten niemals die in der wissenschaftlichen Methode fundamentale Frage: „Aber stimmt das auch?“. Stattdessen wurden alle jene attackiert, die zu fragen versucht haben. Die globale Erwärmung war größer als alle anderen falschen Bedrohungen, wie die Pariser Klimakonferenz 2015 gezeigt hat. Sie war verpackt in dem größeren Umwelt-Umschlag durch mächtige Personen, die annahmen, dass die Spekulationen Tatsachen waren. Die beste Anschauung zum Erkennen der schlimmsten Konfusion und der Zurschaustellung größten Unverständnisses, zu denen es durch die Akzeptanz der Spekulation als Tatsache gekommen war, ist die Enzyklika „Laudato Si“ von Papst Franziskus. Es ist ein Paper, dass bereits im ersten Semester an Hochschulen durchfallen sollte. Es fehlen darin Beweise, es fehlen Erklärungen der Mechanismen, es fehlt Objektivität, und es ignoriert Entwicklung und Fortschritt als Teil der natürlichen menschlichen Evolution. Traurigerweise wurde es von sich todsicher gerierenden Propheten, von Medien, Akademikern und Lehrern hochgelobt, welche die Forderung der Gesellschaft nach Sicherheit repräsentieren und sicherstellen.

Link: http://wattsupwiththat.com/2016/03/26/but-is-it-true-the-research-of-aaron-wildavsky-twenty-years-later/

Übersetzt von Chris Frey EIKE