Emails zeigen die Verzweiflung der US Umweltbehörde EPA über die Klimaagenda

Dementsprechend fordert das Umweltamt, den Schwerpunkt auf Atemwegserkrankungen zu verlagern, als Rechtfertigung für viele Amerikaner, die sonst „viele unserer ordnungspolitischen Maßnahmen ablehnen“ würden.
Aktuell von Anthony Watts auf der beliebten Blog-Website, "Watts Up With That" veröffentlicht, wurde das Memo auf Basis des Informationsfreiheitsgesetz von einem Rechtsanwalt und Chris Horner angefordert, letztes Leitendes Mitglied beim Competitive Enterprise Institute. [CEI, s.u.]
Die Kopie war an "Richard Windsor" gerichtet – ein Alias von EPA Direktor Lisa Jackson für ihr geheimes E-Mail-Konto – welches sie bei der Ermittlung, als Bedarf für persönlichen, inoffiziellen Gebrauch verteidigt hat. Der Titel "Strategische Kommunikation – Gespräch", entlarvt es jedoch eindeutig als Finte.

Quelle: BBC; Klimawandel Umfrage, von 2010
Welche Aussage trifft es am nächsten was Sie denken:
Es ist eine Tatsache, dass der Klimawandel Mensch-gemacht ist:
Zustimmung :
Nov. 2009 41%
Jetzt 2010 26%
Im Memo, das nur wenige Monate nach Amtsantritt von Präsident Obama in Umlauf kam, heißt es: "Die meisten Amerikaner werden nie eine Polkappe sehen, noch haben sie jemals die Chance, einen Eisbären in seinem natürlichen Lebensraum zu erleben. Daher ist es leicht, schwerwiegende Folgen von der Wahrhaftigkeit eines Problems zu lösen. Leider ist Klimawandel in der Zusammenfassung ein zunehmend – und konsequent – nicht überzeugendes Argument ".
Dann schwenkt der Inhalt des Mails vollständig von CO2 Klima-basierten Anti-Fossil Argumenten ab zur ungerechtfertigten Regulierung auf der Grundlage der Partikelemissionen. Es geht weiter mit: „Jedoch, wenn wir anstatt die Polarkappen zum Problem zu machen auf Atemwegserkrankungen in der Nachbarschaft ändern, können wir möglicherweise dieses Thema vielen Amerikanern nahebringen.“
Wie ist denn „dieses Thema“ das sie nicht mit „alles über Polare Eiskappen“ bringen wollen, mit „Atemwegserkrankungen“ verbunden? Es ist offensichtlich das „Gesundheitsargument“ für den Krieg gegen Kohle und andere fossile Elemente, wobei das Memo hinzufügt: „In diesem Jahr wird es viele Gelegenheiten geben, um klimabedingte Auswirkungen zu diskutieren. Dabei müssen wir die menschliche Gesundheit als Argument in den Mittelpunkt stellen.“
Das verschmelzen dieser Assoziation in der öffentlichen Meinung zu den Sorgen über die globale Erwärmung, die Sicherheit von Wasser, das sie trinken und die Luft, die sie atmen – heißt es in der Memo weiter: "Wir müssen damit beginnen, einen ursächlichen Zusammenhang zwischen den Sorgen der Amerikaner und unserer proaktiven Mission herzustellen. " Mit dieser " Mission" ist es der EPA möglich, weitere Regulierungen und Einschränkungen mit jedem und allen [Mittel-n] voranzubringen.
Die Strategie betont die Notwendigkeit, auch die „Außenseiter“ zu erreichen. Das bedeutet, das das EPA nicht nur „weiterhin eine konstante Versorgung des wichtigen Kaders der Reporter sicherstellt“, sondern auch „einen Block von Journalisten, die nicht in die typische Pressegalerie des EPA fallen würde" verfolgt. Speziell erwähnt werden die Presse der ethnischen Minderheiten [Afro-Amerikaner, Spanier, Asiaten und eingeborene [indianische] Amerikaner, Frauen-orientierten Presse, Jugend Presse, Lokalradio, Blogger und die wichtigsten Kolumnisten.

Mit Bezug auf das Engagement der EPA Sympathisanten, die sich bereits um den Schutz der "Karibus [amerikanische Rentiere], Eisbären und Seeotter" sorgen, wird festgestellt, dass [die neue Strategie] "offensichtlich nicht unser Tagesgeschäft widerspiegelt". Die neue Strategie ist es, die EPA "Mission", auf „gleiche Gerechtigkeit“ (equal justice) umzufirmieren. „Es ist für uns wichtig, diese Wahrnehmung zu ändern, vor allem bei denen, die maßgeblich durch „gleiche Gerechtigkeit“ Fragen betroffen sind, ansonsten aber" konfessionslos ". Mit "Konfessionslosen", wird im Memo verdeutlicht, „dass sie nicht einer Gruppe oder Aktivisten angehören, die sich selbst als ,gleiche Gerechtigkeit‘ oder Umweltschützer identifizieren würden."
Im Gespräch mit Anrufern zu Tagesnachrichten bemerkte Chris Horner, dass das Memo der EPA "atemberaubend unaufrichtiges Verhalten" aus dem Versagen ihrer globalen Erwärmungskampagne widerspiegelt, um das Thema zu einer Erkrankung der Atemwege zu machen. Er sagte: "Es zeigt auch die Überzeugung, dass, wenn sie ,saubere Luft‘ und „Kinder" schreien, dieses genügt um ihren Willen für sich, für die Medien und für Grüne Gruppen zu bekommen."
Soweit läuft alles wie geplant. Wir können der EPA danken für die Verschmelzung von CO2 als die Gesundheit beeinflussender „Schadstoff" und für im Jahr 2012 erlassene allererste Vorschriften über Treibhausgas-Emissionen, mit dem neue Clean-Power-Plan [saubere Energie] der Obama-Regierung, welcher drakonische CO2-Beschränkungen auf bestehende Kohlekraftwerke zur Folge haben wird. Dieses hat weder etwas mit Reduzierung von Smog oder schädliches Asthma erregende Partikeln zu tun.
Auf der anderen Seite werden die öffentliche Gesundheit der amerikanischen Wirtschaft und die Budgets der privaten Haushalte stark belastet. Die US-Handelskammer schätzt, durch diese neuen EPA-Vorschriften werden Hunderte von Generatoren abgeschaltet, es kostet die US-Wirtschaft 2,3 Millionen Arbeitsplätze und bringt eine halbe Billion [englisch: Trillion] Verlust im Brutto-Inlands-Produkt in den nächsten 10 Jahren sowie Erhöhung der Verbraucherstromkosten um 289 Mrd. $ und Senkung des verfügbaren Haushaltseinkommen um 586 Mrd. $ im Jahr 2030. Diese Belastungen werden die Ärmsten unter uns am stärksten treffen. "Gleiche Chancen " seid verdammt.
Veröffentlicht bei CFACT, 2. Februar 2015
Link: http://www.cfact.org/2015/02/02/epa-email-shows-desperate-climate-change-agenda/
Übersetzt durch: Andreas Demmig für das EIKE
CEI: [Das CEI ist ein US-amerikanischer, politisch konservativer, libertärer Think Tank. Erklärte Ziele sind die Verbreitung der Prinzipien des Limited Government (d.h. der Einschränkung staatlicher Lenkung), des freien Marktes und der individuellen Freiheit. CEI ist zu den Klimaskeptikern zu zählen; Quelle Wikipedia]




Unsicherheits-Bandbreiten, Fehlerbalken und CIs

Die NYTimes sowie tausende anderer Nachrichtenportale haben sowohl lautstark proklamiert, dass 2014 „das wärmste Jahr jemals“ gewesen ist, aber auch die Klagen gegen diese Proklamationen. Einige, wie der Opinion Blog der NYTimes Dot Earth haben unverhohlen beides abgedeckt.
Dr. David Whitehouse hat über die GWPF in seinem Beitrag bei WUWT hier widersprochen. Sein Beitrag trägt den Titel [übersetzt] „UK Met.-Office: 2014 war NICHT das wärmste Jahr jemals wegen der ,Unsicherheits-Bandbreiten‘ der Daten“:
„Der HadCRUT4-Datensatz (zusammengestellt vom Met.-Office und der CRU an der University of East Anglia) zeigt, dass die Temperatur des vorigen Jahres um 0,56°C (±0,1°C*) über dem langzeitlichen Mittel lag (1961 bis 1990). Nominell platziert dies das Jahr 2014 zusammen mit dem Jahr 2010 auf Rekordniveau, aber die Unsicherheits-Bandbreiten bedeuten, dass es nicht möglich ist definitiv zu sagen, welches der vielen letzten Jahre das Wärmste war“. Und unten auf der Seite: „*0,1°C ist die 95%-Unsicherheits-Bandbreite“.
Der Essay von David Whitehouse enthielt u. A. das folgende Bild: die jährlichen Mittel nach HadCRUT4 mit Balken, die die Unsicherheits-Bandbreite von ±0,1°C repräsentieren:

Das Journal Nature verfolgte lange Zeit eine Politik, die darauf bestand, dass Graphiken mit Fehlerbalken das beschreiben, was die Fehlerbalken repräsentieren. Ich dachte, dass dies in diesem Falle gut wäre, um genau zu sehen, was das Met.-Office mit „Unsicherheits-Bandbreite“ meint.
In den FAQ sagt das Met.-Office:
„Es ist unmöglich, die globale mittlere Temperaturanomalie mit perfekter Genauigkeit zu berechnen, weil die zugrunde liegenden Daten Messfehler enthalten und weil die Messungen nicht den gesamten Globus abdecken. Allerdings ist es möglich, die Genauigkeit zu quantifizieren, mit der wir die globale Temperatur messen können, und das ist ein wichtiger Bestandteil bei der Erstellung des HadCRUT4-Datensatzes. Die Genauigkeit, mit der wir die globale mittlere Temperatur des Jahres 2010 messen können, liegt bei rund einem Zehntel Grad Celsius. Die Differenz zwischen den mittleren Schätzungen für die Jahre 1998 und 2010 liegt bei etwa einem Hundertstel Grad Celsius, was weit unterhalb der Genauigkeit liegt, mit dem beide Werte jeweils berechnet werden können. Dies bedeutet, dass wir nicht sicher wissen können – jedenfalls allein aufgrund dieser Information – welches Jahr das Wärmere war. Allerdings beträgt die Differenz zwischen den Jahren 2010 und 1989 etwa 4 Zehntel Grad Celsius, so dass wir mit viel Vertrauen sagen können, dass das Jahr 2010 wärmer ausgefallen ist als das Jahr 1989 oder tatsächlich irgendein Jahr vor 1996“. (Hervorhebung von mir).
Ich applaudiere dem Met.-Office zu seiner Offenheit und klaren Sprache in diesem einfachen Statement.
Und jetzt zu der Frage, die sich aus dieser Abbildung ergibt:

Diese Graphik wurde aus Daten erstellt, die direkt vom UK Met.-Office stammen, „unberührt von menschlichen Händen“ (keine Zahlen wurden händisch kopiert, umgeschrieben, gerundet oder anderweitig modifiziert). Ich habe die CRUTEM4-Daten vom Festland allein grau dargestellt und sie gerade noch sichtbar zum Vergleich stehen gelassen. Links zu den öffentlich zugänglichen Datensätzen werden sie in der Graphik gezeigt. Ich habe einen Text und zwei graphische Elemente hinzugefügt:
a. In hellblau die Unsicherheitsbalken für den Wert 2014, rückwärtig ausgedehnt auf den gesamten Zeitraum,
b. Ein hellrosa Band, die Breite der Unsicherheit für diese Größe in der Graphik auf eine Weise überlagert, um deren Maximalwerte abzudecken.
Und jetzt die Frage:
Was bedeutet diese Illustration wissenschaftlich?
Genauer: Falls die Zahlen in Ihren Fachbereich fallen würden – Ingenieurswesen, Medizin, Geologie, Chemie, Statistik, Mathematik, Physik – und das Ergebnis längerer Messreihen wären, was würde es Ihnen bedeuten, dass:
a. 11 der 18 Mittelwerte des jüngsten Mittelwertes 2014 innerhalb der Unsicherheits-Balken liegen?
b. alle außer drei Werten (1996, 1999), 2000) überlagert werden können mit einem Band von der Breite der Unsicherheits-Bandbreite für die gemessene Größe?
Es wäre schön, wenn es Antworten gäbe aus so vielen Forschungsbereichen wie möglich.
———————————————————————————————–
Bemerkungen des Autors zu diesem Artikel: Ich habe keine Meinung bzgl. bestimmter Interessen hierzu – und auch keine besondere Erfahrung. (Oh, ich habe eine Meinung, aber die ist nicht gut fundiert). Mich würden Meinungen von Personen mit Forschungserfahrungen in anderen Bereichen interessieren.
Dies ist keine Diskussion der Frage „war 2014 das wärmste Jahr?“ oder irgendetwas dergleichen. Einfache Wiederholungen zu den Glaubensartikeln von beiden Seiten der Globale-Erwärmungs-Kirche würden nichts Wesentliches zu dieser Diskussion beitragen und sollten anderswo gepostet werden.
Um mit Judith Curry zu sprechen: Dies ist ein technischer Beitrag – dazu gedacht, eine Diskussion zu erhalten über wissenschaftliche Methoden zur Erkennung dessen, was Unsicherheits-Bandbreiten, Fehlerbalken und CIs uns über die Forschungsergebnisse verraten können und verraten. Bitte die Kommentare auf diesen Bereich beschränken; vielen Dank.
Soweit dieser Artikel. Auf Bitte von Herrn Limburg werden hierzu abweichend von der üblichen Praxis auch noch ein paar Kommentare übersetzt. Fachlich berühren diese mich nur peripher, aber sie zeigen, wie man sachlich, konstruktiv und trotzdem kontrovers diskutieren kann. Die Hyperlinks hinter den Bezeichnungen der Kommentatoren wurden entfernt. – Anm. d. Übers.
Einige Kommentare zu diesem Artikel:
oz4caster
Ich glaube, dass sie zu vertrauensselig sind hinsichtlich einer Genauigkeit von 0,1°C für jüngste globale Temperaturanomalien. Mein Tipp wären mindestens 0,2°C bis 0,3°C bis zu 0,5°C während der letzten Jahre und möglicherweise bis zu 1,0°C in früheren Jahren in dem Datensatz. Ich habe den Verdacht, dass die größten Unsicherheitsquellen die sehr geringe räumliche Abdeckung, Repräsentativität der Messungen, Veränderungen der Messorte und „Homogenisierung“ sind, die die Unsicherheit eher vergrößern anstatt sie zu verringern. Der genaue Aufstellungsort ist kritisch für repräsentative Messungen, und das USCRN hilft, dieses Problem anzugehen, allerdings nur für einen sehr kleinen Teil des Globus‘.
Erwiderung hierzu:
george e. smith
Aus dem Artikel: „Der HadCRUT4-Datensatz (zusammengestellt vom Met.-Office und der CRU an der University of East Anglia) zeigt, dass die Temperatur des vorigen Jahres um 0,56°C (±0,1°C*) über dem langzeitlichen Mittel lag (1961 bis 1990)“
Nun, mit dieser Feststellung habe ich einige Probleme.
Zunächst: die Bezugsperiode 1961 bis 1990. Dies schließt bequemerweise jene Periode in den siebziger Jahren ein, als man die Klimakrise in Gestalt einer bevorstehenden Eiszeit kolportiert hat, zusammen mit abenteuerlichen Vorschlägen, Ruß auf dem arktischen Eis zu verstreuen, um die vermeintliche Eiszeit abzuwehren. Globale Hungersnöte wurden von genau der gleichen Bande von Kontrollfreaks vorhergesagt, die jetzt versucht, das globale Überkochen zu verhindern.
Außerdem liegt die Hälfte dieser Bezugsperiode vor der Satellitenära, die, glaube ich, etwa um das Jahr 1979 begann, was fast genau zusammenfällt mit der Ausbringung der ersten ozeanischen Messbojen, die in der Lage waren, simultan Messungen der Wassertemperatur an der Oberfläche (bis zu 1 m Tiefe) sowie Lufttemperaturen über der Oberfläche (bis zu 3 m) durchzuführen. 2001 zeigten diese Bojendaten (über etwa 20 Jahre), dass Wasser- und Lufttemperaturen nicht gleich und auch nicht korreliert waren. Warum sollte irgendjemand sich auch nur vorstellen, dass beides doch der Fall war?
Fazit: Ich glaube keinen „globalen“ Klimatemperaturen vor dem Jahr 1980. Und warum hört man mit dem Vergleich 25 Jahre vor heute auf?
Warum verwendet man nicht das Mittel ALLER glaubwürdigen Daten, die man hat? Anderenfalls wären die Zahlen der Bezugsperiode reine Rosinenpickerei.
Man verleihe also den HadCRUT-Daten vor 1980 keinerlei Glaubwürdigkeit oder irgendwelchen anderen Angaben, die man später aus diesen nutzlosen frühen Daten ableiten könnte.
Und schließlich glaube ich nicht, dass irgendeine Strategie bzgl. Stichproben legitim sind, steht dies doch im Gegensatz zur Theorie von Stichproben (man wäre nicht in der Lage, dies zu lesen, falls das nicht der Fall wäre).
Epiphron Elpis
Erwiderung hierauf:
Die Schlussfolgerungen sind unabhängig von der Bezugsperiode. Und irgendeine andere gewählte Bezugsperiode würde die gleichen Trends und die gleichen Temperaturdifferenzen zeigen.
Kip Hansen
Antwort an oz4caster: Ich denke, dass die Unsicherheits-Bandbreite von 0,1°C zu klein ist selbst für Messungen aus jüngster Zeit. Aber für diese Diskussion lasse ich das mal so durchgehen – es ist fast ein Wunder, dass sie eine solche Unsicherheits-Bandbreite überhaupt zugeben.
Ich arbeite langfristig an einem Beitrag, der aktuelle Original-Messfehler erkundet bei der Temperatur der Welt mit der Zeit, und was dies für die globalen Mittelwerte bedeutet.
Zum Beispiel weiß ich, dass die ,krigging‘ [wie übersetzt man dieses Adjektiv?] Ergebnisse von BEST nur maximal zu 0,49°C akkurat sind.
davidmhoffer
Das Erste, was ich bei einer solchen Graphik fragen würde ist, ob das berechnete Mittel überhaupt relevant ist. Da die Temperatur nicht linear mit Strahlung (W/m²) variiert, ist es möglich, unterschiedliche räumliche Temperaturverteilungen zu erhalten, die zwar identische Mittelwerte aufweisen, aber sehr unterschiedliche Energiebilanzen. Beispiel: Zwei Punkte mit einer Temperatur von 280 K bzw. 320 K würden einen Mittelwert von 300 K zeigen und ein Strahlungsgleichgewicht von 471,5 W/m². Aber zwei Punkte mit einer Temperatur von 300 K an beiden Stellen würden ebenfalls einen Mittelwert von 300 K, jedoch ein Strahlungsgleichgewicht von 459,3 W/m² aufweisen.
Damit im Hinterkopf lassen die Fehlerbalken nicht nur keine Schlussfolgerung hinsichtlich des Temperaturtrends zu, d. h. ob er positiv oder nicht bedeutungslos ist, sondern die Fehlerbreite der Gleichgewichts-Energiebilanz ist wegen der nichtlinearen Beziehung zwischen beiden viel größer. Da AGW auf der Prämisse basiert, dass zunehmendes CO2 die Energiebilanz der Erde ändert, ist der Versuch, die Art und Weise zu quantifizieren, mit der es das tut, die Mittelung eines Parameters, der keine direkte Beziehung zur Energiebilanz hat. Damit bleibt die Graphik zurück als selbst bedeutungslos hinsichtlich statistischer Genauigkeit und auch der Physik.
Antwort darauf:
Steven Mosher
Zitat: „Das Erste, was ich bei einer solchen Graphik fragen würde ist, ob das berechnete Mittel überhaupt relevant ist“.
Tatsächlich ist sie überhaupt kein Mittelwert von Temperaturen.
Obwohl die meisten Menschen, die der Klimadiskussion folgen, dies nicht verstehen (tatsächlich verstehen die Meisten, die solche Mittelwerte erstellen, das selbst nicht).
Was ist das globale Temperaturmittel wert, wenn es nicht wirklich ein Mittel ist.
Mathematisch handelt es sich um eine Vorhersage. Es ist eine Vorhersage dessen, was man an instrumentenfreien Standorten messen würde.
„Stationsbeobachtungen werden allgemein verwendet, um Klimavariablen auf Gitternetzen vorherzusagen (predict), wobei der statistische Terminus „Vorhersage“ (prediction) hier benutzt wird als „räumliche Interpolation“ oder „räumlich-zeitliche Interpolation“. Er sollte nicht mit „forecasting“ verwechselt werden*. Gründliche Begutachtungen von in Meteorologie und Klimatologie verwendeten Interpolationsverfahren wurden jüngst von Price et al. (2000), Jarvis und Stuart (2001), Tveito et al. (2006) und Stahl et al. (2006) vorgelegt. Die Literatur zeigt, dass die am meisten verwendeten Interpolationsverfahren in Meteorologie und Klimatologie folgende sind: Verfahren größter Nachbarschaft, Splines [?], Regression und Kriging [?]; aber auch neurale Netzwerke und Machine learning techniques [?].
[*Ich glaube zwar, mich in der englischen Sprache ganz gut auszukennen, aber der hier angesprochene Bedeutungsunterschied zwischen den Wörtern „prediction“ und „forecast“ ist mir unbekannt. Vielleicht weiß jemand Näheres? Auch die am Ende dieses Absatzes stehenden und mit einem Fragezeichen versehenen Fachbegriffe sind mir unbekannt. Anm. d. Übers.]
Aus: Räumlich-zeitliche Interpolation täglicher Temperaturwerte für globale Landgebiete mit einer Auflösung von 1 km. – Autoren: Milan Kilibarda1,*, Tomislav Hengl2, Gerard B. M. Heuvelink3, Benedikt Gräler4, Edzer Pebesma4, Melita Perčec Tadić5 and Branislav Bajat1.
Wenn man also liest, dass das globale Mittel für Dezember 2014 15,34°C beträgt, bedeutet das Folgendes:
Wenn man mit einem perfekten Thermometer an zufälligen Stellen des Globus‘ misst, wird eine Schätzung von 15,34°C den Fehler minimieren.
Wählt man 1000 zufällige Stellen ohne Thermometer aus, minimiert eine Vorhersage (prediction) den Fehler.
Antwort hierzu:
Danny Thomas
Steven,
danke für jene Beschreibung. Um mit BEST so fair wie möglich zu sein – es scheint, als bieten sie mit einiger Sicherheit eine vernünftige Evaluierung ihrer Analyse für 2014 an als eines der fünf wärmsten Jahre. Kip Hansen sagte, dass wir auf der Diskussion der „Unsicherheits-Bandbreiten“ bestehen. Um dies so weit wie möglich zu achten, wären Sie willens zu diskutieren, wie die Entscheidung gefallen ist, das Arbeitsergebnis zu titulieren mit „Die Mittlere Temperatur 2014 von Berkeley Earth“, wenn in Wirklichkeit diese Arbeit prädiktiver Natur ist und nicht das enthält, was der Titel nahelegt? Mit anderen Worten, warum lautet der Titel nicht „das prädiktive Mittel…“ (hier).
MET scheint eine vernünftigere Beschreibung ihrer Arbeit und des Vertrauensniveaus abzugeben. NOAA und NASA aber nicht so sehr, wenn selbst die oberflächlichste Sicht auf ihr Vertrauensniveau entweder zu einem klaren Plan der Irreführung führt im Vergleich zu ihren Schlagzeilen oder zur Befürwortung von AGW-Propaganda trotz fehlender guter wissenschaftlicher Kommentare.
bones
Vor der neuen Mathematik war es gewöhnlich der Fall, dass das arithmetische Mittel auch die Kleinste-Quadrate-Best-Estimate war, welche zufällig verteilte Fehler minimieren würde. Man kann glauben, dass Verfahren unter Verwendung von Kriging, neuralen Netzwerken und machine learning techniques ein Ergebnis zeitigen, das Fehler minimiert, aber man erwarte nicht, dass ich diesen Mist glaube.
davidmhoffer
Zitat: „Tatsächlich ist sie überhaupt kein Mittelwert von Temperaturen.
Obwohl die meisten Menschen, die der Klimadiskussion folgen, dies nicht verstehen (tatsächlich verstehen die Meisten, die solche Mittelwerte erstellen, das selbst nicht).“
Ich verstehe Ihren Punkt und stimme dem auch bis zu einem gewissen Grad zu, obwohl Ihre Vermutung amüsant finde, dass selbst die die Berechnungen durchführenden Menschen nicht verstehen, was das ist. Damit ändert Ihr Standpunkt aber nicht meinen. Mein Punkt ist nicht, wie man einen Mittelwert für einen bestimmten Punkt mit der Zeit berechnet, sondern was die Änderung in jenem Mittelwert impliziert. Man nenne es ein Mittel, man nenne es eine Vorhersage (prediction) einer zufälligen Messung – da jene Messung sich mit der Zeit ändert infolge der nichtlinearen Beziehung zwischen Temperatur und Strahlung, ist die berechnete Änderung sogar noch bedeutungsloser als die Fehlerbalken suggerieren. Die Änderung des Wertes kann nicht die Änderung der Energiebilanz repräsentieren, weil einfache Physik vorschreibt, dass kalte Temperatur-Regimes (Nacht, Winter, hohe Breiten, große Höhe) überrepräsentiert und warme Temperatur-Regimes (Tag, Sommer, niedrige Breiten, geringe Höhe) unterrepräsentiert sind.
Der Rohwert der von Ihnen illustrierten Vorhersage (prediction) ist das Eine; die Änderung jenes Wertes aber etwas Anderes. Jene Änderung hat keine direkte Beziehung zu der interessierenden Metrik (Änderung des Energie-Gleichgewichtes), egal wie Sie es definieren.
Walt D.
Nehmen wir einmal die Antarktis als ein Gebiet mit sehr wenigen Daten. Sie behaupten, dass eine mittlere Temperatur von 15,34°C den Schätzfehler minimiert. Höchst unwahrscheinlich besonders im antarktischen Winter. Es ist absurd zu zeigen, dass die Temperaturen am Südpol und im Death Valley als zufällige Werte angesehen werden können, gewonnen aus der gleichen Verteilung mit dem gleichen Mittel und den gleichen Varianzen. Darum arbeiten die Menschen mit Änderungen der Temperatur und nicht mit den tatsächlichen Temperaturen selbst.
Jeff F
@bones: Tatsache ist, dass die Verwendung von Daten, die mit den zuvor erwähnten Verfahren eingehen, nicht wirklich neue Mathematik ist. Die Verfahren wurden schon geraume Zeit angewendet. Allerdings ist das Problem hier, dass viele Leute diese anwenden, ohne deren Implikationen zu verstehen. Mit vielen dieser Verfahren KANN NICHT gezeigt werden, dass sie Fehler minimieren – außer unter ganz besonderen Umständen. Zum Beispiel ist Kriging nur eine unverzerrte Schätzfunktion, falls der Prozess stationär ist. Schlimmer noch ist, dass es wirklich keine Rechtfertigung dafür gibt, Klimadaten überhaupt als einen stochastischen Prozess zu behandeln.
In anderen Disziplinen, wo wir diese Verfahren für die Datenanalyse anwenden, zeigen wir Beispiele, wo sie funktioniert haben, und überlassen es dem User zu entscheiden, ob die Verfahren für sein Problem geeignet sind. Aber wir stellen KEINE Behauptungen auf über die Optimalität des Verfahrens. Weil wir wissen, dass wir das nicht können. Allerdings habe ich VIEL zu viele klimawissenschaftliche Studien gelesen, die weiter entwickelte Verfahren allein zu dem Zweck angewendet haben, um eine Behauptung über den zugrunde liegenden PROZESS zu rechtfertigen, der die Daten erzeugt hat! Falls wenige Behauptungen über die statistischen Charakteristika der DATEN selbst erhoben werden können, wenn man diese Verfahren anwendet, kann man fast nichts über den PROZESS aus diesen Daten aussagen.
IvanV
@ Steven Mosher & davidmhoffer
Ich versuche gerade, Ihre Punkte nachzuvollziehen und die Unterschiede zwischen ihnen.
Steven Mosher, was Sie sagen, ähnelt einem Fall, wo man zwei Stationen in den Tropen hat mit einem Mittel von 30°C und eine nahe den Polen mit einem Mittel von 0°C. Dann würde die Best Estimate der globalen mittleren Temperatur 15°C betragen, da dies den Fehler zwischen den Messungen minimieren würde?
Davidmhoffer, aus Sicht des Energiegleichgewichtes wäre die Best Estimate der globalen Mitteltemperatur die Temperatur einer Sphäre mit gleichmäßiger Temperatur, die das gleiche Energie-Gesamtgleichgewicht aufweist?
ferdberple
Mathematisch ist es eine Vorhersage (prediction). Es ist eine Vorhersage dessen, was man an nicht mit Instrumenten ausgestatteten Stellen messen würde.
Auf dieser Grundlage wird die Stichproben-Theorie einen realistischeren Wert ergeben als die gegenwärtige Praxis, Stationen zu adjustieren, damit sie statisch aussehen.
Nehmen wir einfach mal an, dass jede Stationsablesung einmalig ist. Dass die Station selbst verlagert werden kann oder anderweitig von einer Messung zur nächsten verändert wird, und dass jeder Versuch von Adjustierungen, um eine kontinuierliche Stationsaufzeichnung zu erhalten einfach noch mehr unbekannte Fehler einführen wird.
Es gibt keine Notwendigkeit. Da man den Wert an unbekannten Punkten vorhersagt (predict), wird eine Stichprobe an bekannten Punkten ausreichen, während die Möglichkeit eingeführter Fehler eliminiert wird. Alles, was erforderlich ist, ist ein Stichproben-Algorithmus, der zu der räumlichen und zeitlichen Verteilung der Erdoberfläche passt.
Und so weiter. Es gibt über 300 weitere Kommentare zu dem Artikel. Als Grundlage für das hier besprochene Problem soll die Übersetzung bis hier aber erst einmal reichen.
Link: http://wattsupwiththat.com/2015/02/01/uncertainty-ranges-error-bars-and-cis/
Übersetzt von Chris Frey EIKE




UN Offizielle enthüllt den wahren Grund der Erwärmungs-Panikmache

Sie sagte: "Dies ist das erste Mal in der Geschichte der Menschheit, dass wir es uns absichtlich zur Aufgabe gemacht haben, innerhalb einer festgelegten Zeitspanne das seit der industriellen Revolution für mindestens 150 Jahren vorherrschende Leitbild zur wirtschaftlichen Entwicklung zu ändern“.
 
 Mit Bezug auf die Hoffnung der Umweltschützer, dass auf der Pariser Konferenz zum Klimawandel noch in diesem Jahr ein neues internationales Abkommen verabschiedet wird,
fügte sie hinzu: "Das ist wahrscheinlich die schwierigste Aufgabe die wir je uns gegeben haben. Absichtlich das Leitbild zur wirtschaftlichen Entwicklung zu transformieren ist das erste Mal in der Geschichte der Menschheit."
Das einzige Wirtschaftsmodell in den letzten 150 Jahren, das überhaupt jemals funktioniert hat, ist der Kapitalismus. Die Beweislage erschließt sich auf den ersten Blick: Aus einer feudalen Ordnung, die mehr als tausend Jahre dauerte, Nullwachstum erzeugte und lange Arbeitstage und kurze Lebensdauer erhielt, genießen die Länder, die den Kapitalismus des freien Marktes angenommen haben, ein System in dem die Produktivität 70-fach höher ist, die Arbeitstage wurden halbiert und die Lebensdauer verdoppelt.
Figueres ist vielleicht die perfekte Person für die Aufgabe, "das Leitbild wirtschaftlicher Entwicklung " zu verändern, weil sie noch nie erlebt hat wie es in der Realität funktioniert.
Veröffentlich in Investor’s Business Daily, 10 Februar 2015
Übersetzung Andreas Demmig für das EIKE




Lebensmittel in Fukushima

Das Ergebnis: Alles im grünen Bereich. Dies zu zeigen, war aber nicht der hauptsächliche Zweck der Arbeit, sondern es geht um ein Problem der Datenerfassung, das man vom allgemeinen Standpunkt aus als eher nebensächlich ansehen kann. Die Arbeit ist aber auch sehr informativ, was mögliche Einwirkungen auf die Gesundheit betrifft.

Das Datenproblem ist jedoch ganz lehrreich, daher werde ich darauf eingehen, ehe ich zu der Gesundheitsfrage komme. Bei dem Datenproblem geht es um die Frage, wie man Strahlenexpositionen, die durch ein ganzes Spektrum von Radionukliden verursacht werden, anhand weniger oder nur eines Leitisotops erfassen kann. Es ist eine Warnung für Leute, welche glauben, Strahlenbelastungen ließen sich einfach auf irgendeinem Geigerzähler ablesen.

Werden durch Bomben oder durch Unfälle in Kernkraftwerken Radionuklide in der Gegend verstreut, dann gibt es zunächst eine hohe Strahlenintensität durch kurzlebige Isotope wie Jod 131. Sie sind aber nach ein paar Wochen weg und haben daher für die Lebensdosis nur eine geringe Bedeutung. Langlebigen Isotopen wie Plutonium 239 ist man zwar lebenslang ausgesetzt, aber Menge und spezifische Aktivität sind unbedeutend. Wesentlich sind nur zwei radioaktive Isotope, Strontium 90 und Caesium 137. Sie haben einige Gemeinsamkeiten. Bei der Kernspaltung entstehen sie in ungefähr gleicher Menge, und sie haben etwa die gleiche Halbwertszeit um 30 Jahre. Das ist es aber schon mit den Gemeinsamkeiten. Caesium hat der menschliche Körper in etwa 70 Tagen zur Hälfte wieder ausgeschieden, Strontium erst nach Jahren. Da ist es zunächst erstaunlich, dass Sr 90 nur als 2,5mal so wirksam wie Cs 137 angesehen wird. Der Grund ist, dass Caesium vollständig vom Darm ins Blut übergeht, Sr 90 aber nur zu 20 – 30 %.

Nun kommt der wesentliche Unterschied, um den es in der vorliegenden Arbeit geht: Cs 137 lässt sich einfach messen, Sr 90 aber nur mit großem Aufwand. Die sonst fleißigen Japaner haben sich deshalb die meisten Strontiummessungen erspart. Zwar haben sie zunächst in mehreren 100 Proben sowohl Caesium als auch Strontium bestimmt. Dabei stellte sich heraus, dass das wenig bewegliche Strontium nur geringfügig in der Gegend verstreut war. Die Strontiumaktivität lag immer um 0,3 % der Caesiumaktivität.

Bei den fast eine Million Lebensmittelproben haben die Japaner daher meist nur Caesium (Cs 137) bestimmt und den Strontiumgehalt (Sr 90) als 0,3 % des Cs-Wertes berechnet. Das wird in Zukunft zu Fehlern führen, kritisieren die Autoren der vorliegenden Arbeit: Strontium hält sich länger als das leicht auszuwaschende Caesium. Damit erhöht sich das Sr/Cs-Verhältnis. Vor dem Unglück von Fukushima wurden die aus Kernwaffenversuchen stammenden Aktivitäten gemessen und dabei Sr/Cs-Verhältnisse über 0,1, sogar bis 2 gefunden. Bleiben die Japaner bei dem Verhältnis Sr/Cs von 0,003, dann werden sie in Zukunft die Strontiumaktivität als zu niedrig bewerten. 

Dies ist ein Beispiel für ein allgemeines Problem: Geigerzähler oder andere Gamma-Messgeräte zeigen selten die ganze Wahrheit. Sr 90 und einige andere Isotope erfassen sie überhaupt nicht.

Nun zur Gefährlichkeit der Lebensmittel. Gemessen werden Becquerel, und die werden in Dosis umgerechnet. Die Ergebnisse müssen mit dem verglichen werden, was wir sowieso von Natur aus an Radionukliden im Körper haben, und mit der daraus resultierenden Strahlendosis. Die Aktivität hängt von der Körpermasse ab. Der niedersächsische Umweltminister, Herr Stefan Wenzel, sagte einmal im Zusammenhang mit der Zwischenlagerung radioaktiver Abfälle laut Hannoverscher Allgemeiner Zeitung vom 31.01.2015: „Frau Merkel und Kanzleramtschef Peter Altmaier müssen ihr Gewicht in die Waagschale werfen.“ Das macht bei Herrn Altmaier weit über 100 Kilogramm und damit über 10 Kilobecquerel. Bei Frau Merkel und anderen weniger eindrucksvollen Menschen sind es um 8.000 Becquerel. Als wesentliche Isotope sind zu nennen: Etwa 4.300 Bq Kalium 40, 3.000 Bq Kohlenstoff 14, 600 Bq Rubidium 87, dazu kommen noch ein paar andere wie Radium. Das bringt eine jährliche Strahlendosis von 0,3 Millisievert (mSv). Dazu erhalten wir etwa 1,7 mSv von außen und durch eingeatmetes Radon, sodass wir im Flachland auf etwa 2 mSv kommen.

Ist Herr Altmaier einer höheren Strahlendosis ausgesetzt als Frau Merkel, da er doch erheblich mehr Radionuklide im Körper hat? Nein, Dosis rechnet pro kg. Im selben Strahlungsfeld erhalten eine Maus und ein Elefant die gleiche Dosis.

Lebensmittel, wie auch der menschliche Körper, enthalten von Natur aus etwa 100 Bq an Radioaktivität. Da erscheinen die in Japan festgesetzten Grenzwerte für Cs 137 nicht hoch:

In festen Lebensmitteln

                        500 Bq/kg bis März 2012

                       100 Bq/kg ab April 2012

 

Trinkwasser und Getränke

                       200 Bq/l bis März 2012

                       10 Bq/l ab April 2012

 

Nur in wenigen Prozent der untersuchten Lebensmittel wurden diese Grenzwerte überschritten, und das nur in speziellen Lebensmitteln, welche man nicht in großen Mengen zu sich nimmt: Getrocknete Teeblätter, Pilze, vor allem getrocknete, Sellerie, Wild, und kurzzeitig im Juli 2011, in Rindfleisch. Ab Herbst 2011 wurden in Rindfleisch keine über den Grenzwerten liegenden Aktivitäten mehr gemessen.

Durch die Aufnahme von radioaktiven Stoffen steigt langfristig die Aktivität im Körper nicht an. Verspeist der Kannibale einen Mitmenschen, hat er damit seine Körperaktivität nicht verdoppelt. Er scheidet alles wieder aus und ist nicht radioaktiver als zuvor. Bei Caesium ist es nicht anders, da man in 70 Tagen die Hälfte schon wieder los ist. Von Strontium wird nur wenig in den Körper aufgenommen, aber was doch bleibt, verschwindet erst in Jahren vollständig. Schließlich ist man aber alles wieder los. Während des Aufenthalts im Körper erzeugt zusätzliche Radioaktivität jedoch Dosis. Ernährt sich jemand ausschließlich von Lebensmitteln mit 100 Bq/kg Cs 137, dann führt das zu einer zusätzlichen Dosis von 1 mSv pro Jahr. Das ist zunächst nicht einzusehen, denn in Lebensmitteln natürlich vorhandene Aktivität beträgt doch auch 100 Bq und erhöht unsere Körperdosis nicht in diesem Maße. Des Rätsels Lösung sind die Dosisfaktoren, mit denen man die Aktivität in Bq multipliziert, um die Dosis in mSv zu erhalten. Diese Faktoren berücksichtigen das Verhalten des betreffenden Isotops während der Verdauung und die Energien der Strahlenteilchen. Für Cs 137 ist der Faktor 1,35 ∙ 10-8 Sv/Bq, für das natürliche Kalium 40 lediglich 5,0 ∙ 10-9 Sv/Bq, also nur etwa ein Drittel.

Was bedeuten diese Messergebnisse für die Einwirkung von Radionukliden aus Kernspaltung auf die menschliche Gesundheit im Allgemeinen und für Fukushima im Besonderen?

Die Ermittlung der Aktivitäten ist nicht einfach, mit entsprechendem Aufwand aber bis zu geringsten Konzentrationen möglich. So wurden vor dem Unfall von Fukushima 0,5 Bq/kg Strontium 90 aus dem Fallout von Kernwaffenversuchen sicher nachgewiesen. Noch einmal zum Vergleich: Von Natur aus findet man in Pflanzen und Tieren etwa 100 Bq/kg, im Erdboden mehr. Das heißt, wo nichts gemessen wird, ist auch nichts. Leukämiehäufungen um kerntechnische Anlagen sind reine statistische Manipulationen, oder anders gesagt: Wirkungen ohne Ursache gehören in das Reich des Aberglaubens. 

Die Autoren der hier besprochenen Arbeit schreiben: „Es erscheint sehr unwahrscheinlich, dass mehr als ganz wenige Personen in Japan einer höheren inneren Strahlenexposition ausgesetzt waren als den erlaubten 1 mSv im Jahr.“ Dazu kommt zwar noch Bestrahlung von außen, aber anderswo leben viele Menschen von Generation zu Generation unter einer natürlichen Strahlenexposition von 10 mSv/Jahr und mehr, ohne dass man bei ihnen zusätzliche Krankheiten findet. So kommen alle seriösen Untersuchungen (WHO, UNSCEAR) zu dem Schluss: Es sind im Bereich von Fukushima keine gesundheitlichen Beeinträchtigungen durch Strahlung zu beobachten und auch für die Zukunft nicht zu erwarten. Dagegen haben die Unannehmlichkeiten der Umsiedlung und die Strahlenangst zu einer Reihe von Todesfällen geführt. 

 




„Killer-Strom“: Die Fledermaus-Vernichter – Die Windkraftanlagen sind Todesmaschinen für die Vogelwelt

Die Tier- und Vogelschützer haben gewarnt. In Medienberichten kamen sie zwar zu Wort, aber nur gelegentlich und vergeblich. Der Bund für Umwelt und Naturschutz Deutschland (BUND) pflegt das Problem zu verharmlosen, Strom aus Wind ist ihm wichtiger als Naturschutz. Doch ein kurioses Ereignis im Raum Lübeck bringt zumindest das Fledermaussterben wieder in öffentliche Wahrnehmung.

Tempo 70 für den Fledermausschutz

Von Lübeck in Richtung Ratzeburg/Mölln ist eine Umgehungsstraße fertig geworden, die neue B 207. Sie entlastet die Ortschaften Groß Grönau, Groß Sarau und Pogeez vom Durchgangsverkehr, der sich hier nur mit 50 Stundenkilometern bewegen darf. Doch auf einem längeren Streckenabschnitt der neuen Bundesstraße fällt auf, dass man dort nicht 100 fahren darf, sondern nur 70. Wie das? Eine Anfrage der FDP-Landtagsfraktion in Kiel brachte es ans Licht: Die Geschwindigkeitsbegrenzung soll die Fledermäuse schützen. So jedenfalls lautet die Antwort des Verkehrsministeriums. Im Amtsdeutsch: Die Tempobegrenzung diene ausschließlich „zur weitgehenden Vermeidung von Kollisionen mit Individuen der vorkommenden Fledermauspopulation“.

Wieso auf einer nagelneuen Umgehungsstraße langsamer fahren?

Die regionale Tageszeitung „Lübecker Nachrichten“ berichtete darüber in ihrer Ausgabe vom 12. Februar und zitierte den FDP-Landtagsabgeordneten Christopher Vogt: Der Neubau der B 207 zwischen Pogeez und Lübeck sei ja grundsätzlich ein sinnvolles Projekt, „aber es ist doch niemandem zu vermitteln, dass eine Bundesstraße für fast 46 Millionen Euro aus drei Orten herausverlegt wird und man dann auf der neugebauten Strecke deutlich langsamer fahren muss als auf jeder gewöhnlichen Kreisstraße“. Ferner ist in dem Blatt zu lesen: „Auch viel weiter nördlich auf der B207, bei Heiligenhafen, sollen im Zuge des vierspurigen Ausbaus hohe Schutzwände für Fledermäuse gebaut und das Tempo gedrosselt werden. In der Nähe eines Fledermausquartiers in Mönchneversdorf wird auf einer Landesstraße monatsweise das Tempo begrenzt.“ Vom Verkehrsminister Reinhard Meyer erfährt man, spezielle Fledermaus-Warnschilder habe man nicht aufstellen können, weil es solche Schilder laut Straßenverkehrsordnung gar nicht gebe. Außerdem sei der Fledermausschutz schon lange ein Thema bei Baumaßnahmen im Land. Eine Schutzzone für Fledermäuse habe Meyer für die A20 bei Bad Segeberg ebenfalls schon in die Debatte gebracht.

Fledermausschutz vor Autos, aber nicht vor Windkraftanlagen?

Sonderbar, sonderbar. Zwar nimmt man wohlgefällig zur Kenntnis, dass den Tieren durch unliebsame Zusammenstöße mit dem einen oder anderen Auto kein Leid geschehen soll. Aber wer schützt die Fledermäuse vor den rotierenden Blättern der vielen, vielen Windkraftanlagen? Schleswig-Holstein ist voll davon, rund 2.400 stehen dort. Im ganzen Bundesgebiet sind es über 24.000. Es ehrt die „Lübecker Nachrichten“, dass sie, der journalistischen Tugend folgend, auf der gleichen Seite ihrer Ausgabe darüber informierten, wie viele Fledermäuse durch die Windkraftanlagen zu Tode kommen („Windräder als Todesfalle“). Das Blatt schreibt:

Windkraftanlagen werden für Fledermäuse immer mehr zur Todesfalle

„Windräder werden immer mehr zur Todesfalle für Fledermäuse, sagen Berliner Forscher um den Biologen Christian Voigt vom Leibniz-Institut für Zoo- und Wildtierforschung (IZW). Allein in Deutschland würden pro Jahr mehr als 250.000 Tiere umkommen, weil die Anlagen ohne Rücksicht auf den Naturschutz betrieben werden, schreiben sie im Fachblatt ‚European Journal of Wildlife Research‘. Die Forscher haben verschiedene Studien gesichtet. Deren Schätzungen, wie viele Fledermäuse im Jahr umkommen, reichen von unter 100.000 bis über 400.000. Tatsächlich könnten es noch mehr Fledermäuse sein, weil sich die Studien bislang nur auf Suchaktionen unterhalb von Windrädern stützen. Dort würden Forscher aber nur Tiere finden, die sofort umkommen, weil sie Knochenbrüche erlitten haben oder erschlagen wurden. In anderen Fällen zerreißen innere Organe durch die großen Luftdruckänderungen. Experten sprechen vom Barotrauma.“

Sie drehen sich friedlich langsam und sind in Wahrheit sehr schnell

Zwar drehen sich die Rotorblätter aus der Ferne gesehen nur langsam und friedlich. Aber, so schreibt der Biologe Dr. Friedrich Buer: „Tatsächlich fegen die Spitzen der Rotorblätter schon bei mäßigem Wind mit 170 Stundenkilometern durch die Luft, und laut Informationstafel am Schellenberg bei Neustadt a. d. Aisch liegt die Spitzengeschwindigkeit bei 272,3 Stundenkilometer. Neuere Anlagen erreichen gar 300 bis 400 Stundenkilometer. Kommt ein Vogel oder eine Fledermaus auch nur in die Nähe des Rotorblatts, saugt sie der Unterdruck unweigerlich gegen das Rotorblatt und es ist um sie geschehen. Dieser Unterdruck baut sich immer dann auf, wenn der Wind langsamer wird und sich das Rotorblatt wegen seines hohen Trägheitsmoments nur verzögert verlangsamen kann. Da der Wind ständig wechselt, wechseln auch der Unterdruck und der resultierende Sog ständig. Verstärkt werden die Druckschwankungen und der Sog durch den Turmschatten‐Effekt, weil immer dann, wenn ein Rotorblatt hinter dem Turm vorbei saust, es durch den Windschatten muss, den der Turm erzeugt.“

Warum man die toten Tiere kaum findet

Das schrieb Buer im Oktober 2011, und die Frage „Aber warum findet man praktisch nie die Opfer?“ beantwortet er so: „Das liegt einmal daran, dass sie nur ausnahmsweise direkt unter das Windrad fallen, sondern von ihm aus einer Höhe von bis zu 180 Metern mit Geschwindigkeiten zwischen 100 und 270 Stundenkilometern und mehr weit weggeschleudert werden und zwar bei Kollisionen oberhalb der Rotornabe nach der einen Seite und unterhalb der Rotornabe nach der anderen Seite. Außerdem werden sie je nach Windrichtung in andere Richtungen geschleudert. So werden die Opfer durch die Rotoren auf einer riesigen Kreisfläche von mehreren Hektar verteilt und sind kaum zu finden. Bei noch höheren Windrädern wird die Suche praktisch aussichtslos, erst recht im Wald oder auf gar auf See.“

Wo bleibt der Aufschrei der Naturschutzverbände?

Es fällt auf, dass sich die Naturschutzverbände weder für die Fledermäuse noch für die Vogelwelt ins Zeug legen, um sie vor dem Massensterben zu bewahren. Ihr Aufschrei und ständiges Mahnen bleiben aus. Der Bund für Umwelt und Naturschutz Deutschland (BUND) beispielsweise pflegt das Problem zu verharmlosen, Strom aus Wind („Ökostrom“) ist ihm offensichtlich wichtiger als Naturschutz. Arm in Arm mit dem Bundesverband Windenergie setzte er sich sogar dafür ein, die „Ausbaupotentiale der Windenergie an Land stärker zu nutzen“. So zum Beispiel in der Pressemitteilung vom 23. Juni 2011.

Der BUND will Vögel vor den Landwirten retten, aber nicht vor der Windindustrie

Wohl warnt der BUND vor einem „Vogelsterben“, wie man auf seiner Web-Seite nach einigem Suchen finden kann, aber nur vor einem Sterben der Vögel, dass durch den immer noch zu hohen Pestizideinsatz in der Landwirtschaft ausgelöst wird (so unter dem Datum 7. Januar 2013). Allein um die „Folgen der industriellen Landwirtschaft“ geht es ihm, nicht um die Folgen der industriellen Windkraftanlagen (so in der Publikation „Vögel retten“ vom 18. Mai 2012). Künftig müsse dem Arten- und Flächenschutz mehr Gewicht beigemessen werden. Welche Verlogenheit.

Bild 1: Immer wieder gern gezeigt. Vogel von Öl befallen

Bild 2: Selten gezeigt: Vogel (einer von jährlich hunderttausenden) von WKA zerhackt. Alle Bilder der Doku von BOB HOYE „CURIOSITIES“ entnommen (s. Anhang)

Verlogen unter den Teppich gekehrt

Diese Verlogenheit kommt auch in der Antwort des Verbandes an einen Leser seines „BUNDmagazin“ zum Ausdruck. BUND-Mitglied H. Hackl hatte sich beklagt: „Warum schreiben Sie nichts von den Abertausenden von Fledermäusen, die zum Beispiel durch Windräder umkommen?“ Die Antwort des Verbandes: „Sie haben natürlich recht: An sich sinnvolle Ziele (wie die verstärkte Nutzung erneuerbarer Energien) haben mitunter unerwünschte Nebenwirkungen, die wir mitnichten unter den Teppich kehren wollen. Wenn der BUND Partei nimmt (wie im aktuellen ‚BUNDmagazin‘), dann immer nur im Sinne des Umwelt- und Naturschutzes.“ Tatsache ist, dass er sie doch unter den Teppich kehrt. Fledermäuse und Vögel vor dem Sterben durch Windkraftanlagen zu bewahren, gilt dem BUND offenbar nicht als Umwelt- und Artenschutz, das scheint für ihn eine andere Art von Schutz zu sein.

Was ein „BUNDmagazin“-Leser dem BUND vorwirft

Die beiden Leser des „BUNDmagazin“ Hans und Waltraud König hielten dem Verband dies vor (Leserbriefe der Ausgabe 3/2012): „Einige Einschätzungen im Beitrag ‚Gutteil der Energiewende’ können nicht unwidersprochen bleiben.
Erstens: Der Autor behauptet, dass an einem Windrad in 35 Jahren nur ein Rotmilan verunglücke. Sehr schön. Rechnet man das auf die zitierten 20.000 Windkraftanlagen hoch, ergibt sich eine Summe von 571 toten Milanen pro Jahr. Dies verschweigt der energiepolitische Sprecher.
Zweitens: Außerdem ignoriert er die von Experten geschätzten circa 220.000 Fledermausopfer pro Jahr an Windrädern.
Drittens: Dass die Gutachten von den Betreibern bezahlt werden und entsprechend ausfallen, ist ihm anscheinend auch nicht bekannt, sonst würde er die regelmäßigen Untersuchungen nicht so positiv darstellen.
Viertens: Dass Repowering den Fledermausschlag reduziert, ist nach wissenschaftlichen Untersuchungen ebenfalls falsch.
Fünftens: Windkraftanlagen in FFH-Gebieten toleriert der BUND, wenn sie den Schutzzweck nicht gefährden. Auch hier beurteilen dies die von den Betreibern beauftragten Gutachter.
Wir empfinden die Aussagen von Werner Neumann als bewusste Verharmlosung und gezielte Manipulation der BUND-Mitglieder. Der BUND macht sich damit – nicht zum ersten Mal – zum Handlanger einer Windenergielobby, die unter dem Deckmantel der Energiewende ungehemmt Natur zerstört. Dem BUND ist zu empfehlen, das ‚N‘ aus seinem Namen zu streichen.“

Windstrom ist in Wahrheit Vogelkiller-Strom

Das führt zu der Frage, die auf der Hand liegt: Aber warum laufen die Natur- und Umweltschutzverbände nicht Sturm gegen Windräder? Warum preisen sie sogar die Wälder als neue Standorte? Friedrich Buer hat darauf diese Antwort (2011): „Diese Verbände stecken in einer Zwickmühle. Jahrelang haben sie die Angst vor der angeblich drohenden Klimakatastrophe geschürt und als Rettungsschirm alternative Energiequellen wie Windräder gefordert. Jetzt zeigt sich: Vögel und Fledermäuse werden durch die Aktivitäten der Verbände nicht geschützt, sondern erschlagen. Windstrom ist in Wahrheit Vogelkiller-Strom. Und zu allem Überfluss wurde es in den letzten zehn Jahren kühler statt wärmer, und das bei weiter steigenden CO2-Emissionen.“

Die Naturschutz-Funktionäre in der Klemme

„Das ist die Zwickmühle, in der vor allem die Spitzenfunktionäre stecken und von der die vielen gutgläubigen Mitglieder der Natur- und Umweltschutzverbände kaum etwas erfahren. Die Funktionäre müssten ihren Irrtum zugeben, aber dann wäre ihre Glaubwürdigkeit dahin, zumal sie mit dem ausufernden Maisanbau für Biogas, der den Artenschwund in Deutschland beschleunigt und den Hunger in der Dritten Welt verschlimmert, noch eine weitere Fehlentwicklung zu verantworten haben. Auch hat sich herumgesprochen, dass wenige Finanzkräftige an den ‚Bürgerwindrädern‘ verdienen und sich als ökologisch vorbildlich feiern lassen und bei den anderen per Stromrechnung kassieren.“ Eine Frage, die Buer nicht aufgreift, ist die, ob das Schweigen der Naturschutzfunktionäre erkauft ist.

Auch bei Windkraft in Wäldern spielen die Funktionäre mit

Buer weiter: „Auch wehren sich immer mehr Bürger, denn niemand will ein Windrad vor seiner Haustür haben. Also müssen die Wälder als Standorte für diese Industrieanlagen her, weil da keiner wohnt und Wälder oft dem Staat gehören, über den die Windrad-Politiker nach Belieben verfügen können. Und wieder machen die Spitzenfunktionäre der Natur- und Umweltschutzverbände widerspruchslos mit und applaudieren sogar.“

Dringend empfohlen: Nachtruhe für Windkraftanlagen

Zurück nach Lübeck und zur Tempobegrenzung von 70 Stundenkilometern auf jenem Teil der neuen B 207. Wie wäre es mit dieser Lösung? Bekanntlich pflegen Fledermäuse tagsüber der Nachtruhe und sind nur in der Abenddämmerung und des Nachts aktiv, um nach Essbarem zu jagen. Folglich sollten die Temposchilder mit dem Zusatz versehen werden: „Nur in der Abenddämmerung und nachts“. Dann können die Autos tagsüber 100 fahren. Aber weit bedrohlicher als die Autos sind die Windkraftanlagen für die Fledermäuse. Daher die dringende Empfehlung: Vor allem für sie muss es von sofort an heißen: Absolute Nachtruhe! Abschalten!
Übernommen vom KPKrauses Blog 

Related Files