Namen von Hoch- und Tiefdruckgebieten: Wie man aus Nicht-Wissenschaft Wissenschaft macht

Bild rechts: Wie nennt man so etwas, wenn nicht Brandung? Vorschläge bitte! Bild: Gerhard Giebener  / pixelio.de
Tatsächlich muss man in der Geschichte weit zurückgehen, genauer bis etwa in die zwanziger Jahre des vorigen Jahrhunderts und ins National Hurricane Center in Miami, Florida. Dort war man für die Warnungen vor Hurrikanen im tropischen Atlantik und der Karibik zuständig (übrigens bis heute). Die Schifffahrt befand sich damals sehr im Aufwind, und die Warnung vor Hurrikanen war für die Kapitäne und ihre Schiffe überlebenswichtig. Gab es mehrere Hurrikane gleichzeitig, gab es leicht Verwechslungen, denn natürlich gibt es auf See keine Städte, die man namentlich erwähnen konnte. Anstatt also umständlich jeweils Länge und Breite des betreffenden Sturmes anzugeben war man auf die Idee gekommen, eben die Stürme mit Namen zu versehen. Es war keine Frage, dafür weibliche Namen zu wählen – und zwar dem Vernehmen nach deswegen, weil man den Kapitänen wenigstens eine kleine angenehme Assoziation in Bezug auf diese Stürme übermitteln wollte, die ihnen ja sonst sehr viel Probleme bereiteten.
So weit, so gut. Jetzt müssen wir eine Orts- und Zeitsprung machen, und zwar zum Institut für Meteorologie der Freien Universität Berlin. Dieses wurde Ende der vierziger Jahre gegründet. Erster Leiter des neuen Instituts war Prof. Dr. Richard Scherhag. Im Jahre 1951 begann man dann mit der Anfertigung regelmäßiger Wetterkarten.
Sie enthielt auch eine tägliche „Übersicht“, in der u. A. Verhalten und Eigenschaften von Hoch- und Tiefdruckgebieten beschrieben wurden und werden, die für Mitteleuropa Bedeutung erlangen. Rasch kam man dann auf die Idee, statt einer umständlichen Beschreibung, von welchem Tiefdruckgebiet gerade die Rede war, diese einfach alphabetisch mit Buchstaben zu kennzeichnen.
So weit, so gut. Dieses Institut wurde schon bald von den westalliierten Besatzungsmächten (Frankreich, UK, USA) mit der Wahrnehmung des Wirtschaftswetterdienstes im Westteil der Stadt beauftragt. Die Alliierten wollten nicht vom Meteorologischen Dienst der DDR in Potsdam abhängig sein, befand sich dessen Zentrale doch im Bereich der sowjetischen Verwaltung – im Kalten Krieg ein vermeintlich unhaltbarer Zustand. (Kuriosum am Rande: Nach Gründung des DWD im Jahre 1952, also deutlich später als die Gründung des Instituts durch Prof. Dr. Richard Scherhag war Wetterdienst eine hoheitliche Aufgabe, für die allein der Deutsche Wetterdienst DWD zuständig war. Zwischen der Institutsgründung und der DWD-Gründung gab es noch viele regionale Wetterdienste der einzelnen Besatzungszonen, gemischt mit alliierten und deutschen Meteorologen besetzt. Erst danach wurde der DWD zu einer „Bundes-Oberbehörde“. Der Zustand in Berlin war also dann irgendwann illegal. Aber in Berlin [West] herrschte eben Besatzungsrecht – bis zur Wiedervereinigung. Weil das alles irgendwie sakrosankt war, wurde nach dem Jahr 1952 das Scherhag-Institut von allen „geduldet“ – ein wenig im „rechtsfreien Raum“.)
Aber wir schweifen ab. Im Zuge des Wirtschaftswetterdienstes oblag dem Institut auch die Belieferung von Medien mit Wetterberichten. Die intellektuell am höchsten stehende Zeitung in Berlin war der „Tagesspiegel“. (Den gibt es heute auch noch, aber er ist nicht einmal mehr ein Schatten seiner selbst von damals). Man wollte dort eine Zeitungswetterkarte haben. Kein Problem – aber das mit der Buchstabenkennung gefiel der Redaktion nicht so recht.
Die rettende Idee kam dann von Frau Dr. Karla Wege – manch Älterem vielleicht noch bekannt, weil sie auch eine Zeitlang den Wetterbericht nach den ZDF-Heute-Nachrichten präsentiert hatte – , die damals am Institut beschäftigt war. Sie machte den Vorschlag, nicht Buchstaben, sondern Namen zu vergeben, denn sie wusste um die namentliche Benennung von Hurrikanen. Weil es sich bei diesen um Tiefdruckgebiete herrschte, bekamen entsprechend die hiesigen Tiefdruckgebiete weibliche, die Hochdruckgebiete männliche Namen. Einzige Vorgabe war eine alphabetische Reihenfolge.
Diese Praxis hätte man natürlich nun auch für das „Amtsblatt“, die Berliner Wetterkarte übernehmen können. Aber die dort arbeitenden Meteorologen wollten „die wissenschaftliche Seriosität gewahrt wissen“ und deswegen die Namen nicht übernehmen.
Viele Jahre herrschte dann wieder Ruhe – bis in die siebziger Jahre. Da geschahen sogar mehrere Dinge fast gleichzeitig. Ein Orkanwirbel [leider weiß ich nicht mehr, welcher genau; H.-D. S.] sorgte dafür, dass das mit den Namen praktisch über Nacht ein medialer Hype ohnegleichen wurde. Die Telefone (3 Anschlüsse) im Institut liefen heiß, Interviewer gaben sich die Klinke in die Hand. Die Mitarbeiter des Instituts waren völlig überrascht. Einwände, dass es doch eher um das Wetter als solches und nicht um die Namen ging, die doch ziemlich unwissenschaftlich seien, wurden nicht beachtet. [erinnert uns das heutzutage an etwas?]
Bald ging es noch runder. Feministinnen stießen sich plötzlich daran, dass Tiefdruckgebiete immer weibliche Namen bekamen, brachten die doch immer das „schlechte Wetter“. Hochdruckgebiete mit „schönem Wetter“ war dagegen den männlichen Namen vorbehalten. Etwa an dieser Stelle wurde dann aus der nicht-wissenschaftlichen Spielerei eine Pseudo-Wissenschaft. Es gab nun eine mehrjährige Diskussion darüber. Eingewendet wurde, dass doch Tiefdruckgebiete Feuchtigkeit und Fruchtbarkeit bringen, wohingegen eine alleinige Männerherrschaft (Stichwort „schönes Wetter“) zur Wüstenbildung führte. Die Analogie erschien vielen also als eigentlich angebracht.
Wer weiß, wie das Ganze ausgegangen wäre, wenn nicht ein weiterer Mitspieler aufgetaucht wäre. In den achtziger Jahren kamen die ersten privaten Wetterdienste auf. Der damals einzige ernst zu nehmende Anbieter in Berlin (West) war Jörg Kachelmann. Er erkannte sofort das Aufmerksamkeits-Potential bzgl. der Namensdiskussion, und da er auf Werbung in den Medien angewiesen war, stieg er sofort ein, auch gleich mit einem praktischen Vorschlag. Man sollte doch Hoch- und Tiefdruckgebiete immer abwechselnd mit männlichen und weiblichen Namen belegen. Das wiederum hätte nun zu einem gewaltigen Durcheinander geführt. Es gipfelte in der Drohung, dass Kachelmann dann eben andere Namen unter der Prämisse seines Vorschlags vergeben würde als die „amtlichen“ Wetterfrösche. Das aber hätte ein riesiges Durcheinander gegeben.
Es war also ratsam, sich zu beraten. Das tat man auch und kam dabei auf die bis heute praktizierte Regelung: In geraden Jahren erhielten Tiefdruckgebiete männliche und Hochdruckgebiete weibliche Namen, in ungeraden Jahren war es umgekehrt.
Die letzte Volte dieser ganzen Geschichte ereignete sich, nachdem Ende 1993 das Berliner Meteorologische Institut den Wettervorhersage-Dienst einstellten musste. Diese Volte schlägt indirekt nun tatsächlich einen Bogen zur Wissenschaft: Der „Verein Berliner Wetterkarte e. V.“ sah den wissenschaftlichen Betrieb im Bereich Synoptik nach dem Wegbrechen der Einnahmen aus dem Wirtschaftswetterdienst gefährdet und kam auf eine Idee, die wir, die Autoren, sehr begrüßenswert fanden: Man rief nach „Taufpaten“. Gegen eine Spende in Höhe von 200 Euro für Namen für Hochdruckgebiete (weil diese seltener mit Namen versehen werden) und 100 Euro für Tiefdruckgebiete kann sich jeder Spender einen Namen aussuchen. Dem Vernehmen nach ist die Liste ziemlich lang. Einzige Vorgabe ist wieder die alphabetische Reihenfolge der Namen. Mit den Einnahmen wird zu 100% der von Studenten ehrenamtlich betriebene Beobachtungsdienst (immerhin eine Wetterstation seit Anfang des 20. Jahrhunderts in einer Umgebung, die sich kaum verändert hat) finanziert.
Nicht nur Meteorologen haben sich bei der ganzen Sache insgeheim gefragt: Wo bleibt denn hier die Diskussion über Wetter – und seit neuestem auch über Klima?
Diese Frage möchten wir unbeantwortet im Raum stehen lassen!
Dipl.-Met. Hans-Dieter Schmidt, vormals im Wettervorhersage- und -warndienst tätig
Chris Frey, Schriftsteller und Übersetzer für das EIKE
Die Autoren bedanken sich bei Herrn Dipl.-Met. Klaus-Eckart Puls für wertvolle Korrekturen und Anmerkungen.




Globale mittlere Temperatur: bedeutungslos & irreführend

Bild rechts: Was bedeutet eine Änderung der globalen Temperatur um +2°C, falls es überhaupt irgendetwas bedeutet?
Parallel mit dem Klimaclown-Festival in Paris (COP21) schwafeln die Leute ständig darüber, den Klimawandel aufzuhalten und eine Erwärmung bis höchstens 2°C zuzulassen. Die Frage, die der gesunde Menschenverstand sofort stellen sollte, lautet: „2°C höher als was?“ Denn es ist doch so: falls man im Death Valley in Kalifornien lebt, würde man eine weitere Erwärmung um ein paar Gran vermutlich gar nicht bemerken. Die mittlere jährliche Temperatur im Death Valley beträgt der Wetterstation Furnace Creek zufolge 25,1°C, mit einem mittleren Maximum im Januar um 19°C und im Juli von 47°C. Von 1934 bis 1961 zeichnete die Wetterstation Cow Creek eine mittlere jährliche Temperatur von 25,1°C auf. Glaubt jemand wirklich, dass ein paar Grad mehr einen merklichen Unterschied machen?
Genauso gibt es natürlich andere Orte auf der Erde, wo es extrem heiß oder extrem kalt wird. Die kälteste gemessene Temperatur trat im Jahre 1983 mit -89,6°C an der Antarktis-Station Wostok auf. Die mittlere Wintertemperatur am Südpol beträgt etwa -49°C, und selbst im Sommer steigt die Temperatur kaum jemals über den Gefrierpunkt. Würden ein paar Grad mehr einen Unterschied hinsichtlich der Bewohnbarkeit dieser Orte ausmachen? Die Kaiserpinguine könnten eine solche Erwärmung vielleicht schön finden, doch dürfte dies kaum ein Game Changer sein.
 
Wo ist die Erwärmung um 2°C, die man uns versprochen hat?
Die höchste jemals auf der Erde gemessene Temperatur schlägt mit 70,7°C zu Buche, und zwar in der Wüste Lut in Iran. Würde der Unterschied zwischen 71 und 73 Grad so gewaltige Auswirkungen haben? Und nicht vergessen, es geht hier um einen Anstieg der mittleren Temperatur. Würde der gleiche Anstieg bzgl. der extremen Höchst- bzw. Tiefstwerte gelten? Ziehen wir noch einmal das Death Valley als Beispiel heran. Dort sind die Wintertemperaturen tagsüber mild in in tiefen Lagen, während in kühlen Nächten gelegentlich sogar der Gefrierpunkt erreicht wird. In höheren Lagen ist es kühler als im tief gelegenen Tal. Die Temperatur nimmt alle 300 m jeweils um 2 bis 3°C ab. Wäre es eine Katastrophe, wenn die Temperaturen in der hoch gelegenen Wüste nicht so stark zurückgingen?
Dies bringt jetzt das Thema Seehöhe allgemein ins Spiel.
Sind die Auswirkungen jener so gefürchteten 2°C auf Höhe des Meeresspiegels genauso gefährlich wie auf den Bergen? Schließlich kann die Seehöhe bedeutende Auswirkungen auf die Temperatur haben. Patrick Moore drückt es so aus: „2°C ist wie das Herabsteigen vom Eiffelturm oder wenn man von San Francisco über die Bucht nach Berkeley fährt. Lächerlich!“
Wie in der ersten Abbildung gezeigt, stimmen die anerkanntesten wissenschaftlichen Organisationen selbst noch nicht einmal überein hinsichtlich der Historie der magischen globalen mittleren Temperatur. Wenn sie von einer Temperatur-„Anomalie“ reden – ein Terminus, den Klimawissenschaftler gerne verwenden, weil er wissenschaftlicher und gelehrter klingt als Differenz oder Variabilität – gelten dann die hinzugefügten 2°C für alle Temperatur-Regimes, egal ob hoch, niedrig oder alles dazwischen an allen Stellen der Erde?

Was die meisten Menschen nicht wahrhaben wollen ist, dass die Verwendung von Mittelwerten Informationen vernichtet. Wenn verschiedene Zahlen addiert werden und auf eine einzelne Zahl reduziert werden, kann man diesen Prozess nicht umkehren und die individuellen Messungen aus ihrem Mittelwert extrahieren. Beispiel: Nehmen wir die Zahlenfolge (2, 7, 1, 8, 7). Deren Mittelwert ist 5, aber es gibt noch viele andere Zahlenfolgen, deren Mittelwert ebenfalls 5 ist: (5,5,5,5,5), (1,9,5,9,1) usw. Die einfache Kenntnis des Mittelwertes reflektiert eine Zahlenfolge nur ungenau. Man beachte auch, dass ein einzelner Ausreißer die Zahlenfolge verzerren kann: (4, 4, 4, 9, 4) mittelt sich genauso zu 5 wie (1, 9, 5, 9, 1). Folglich geht nicht nur die Variabilität verloren, sondern auch mögliche Extreme werden hinweg gemittelt. Jetzt stellen wir uns mal vor, alle diese Zahlen seien Temperaturwerte.
Am 6. Dezember beträgt die mittlere Höchsttemperatur in Conway in Arizona 9,7°C, die mittlere Tiefsttemperatur -2,6°C und die Mitteltemperatur +3,6°C. Gerade in diesem Moment zeigt mir mein Computer eine Außentemperatur von 17,2°C an (verflucht sei die globale Erwärmung!), was aus den gegebenen Mittelwerten keineswegs vorhersagbar ist. Ist das also normal? Oder ist es für diesen Tag des Jahres besonders warm? Noch einmal, es ist einfach zu viel Information verloren gegangen. Statistiker würden sagen, dass wir die Standardabweichung mit erwähnen müssen oder einige höhere statistische Angaben wie Neigung und Amplitude [skew and kurtosis], aber auch dies würde uns nicht zurückführen zu den Originaldaten dieses Tages, geschweige denn, dass man damit die tatsächliche Temperaturkurve des Tages vorhersagen kann.
Genauso ist es mit der Jahresmitteltemperatur für meinen Heimatort. Der Mittelwert der Höchsttemperatur beträgt 22,1°C, derjenige der Tiefsttemperatur 9,4°C, die gesamt-Mitteltemperatur 15,8°C. Also liegt die Temperatur draußen derzeit über dem Mittelwert. Aber ich kann aus Erfahrung sagen, dass es bei uns oftmals Tage gibt, an denen die Temperatur nicht über den Gefrierpunkt steigt und auch Tage, an denen die Höchsttemperatur bis fast 38°C steigt. Würde man dies aus der Angabe der mittleren jährlichen Temperatur erwarten?
Jetzt stelle man sich vor, dass Temperaturdaten von Tausenden Orten auf der ganzen Welt für jeden Tag des Jahres kombiniert werden und daraus eine globale mittlere Temperatur gebildet wird – was würde diese Zahl bedeuten? Not a damned thing!
[Kursiv vom Übersetzer. Das muss man nicht übersetzen!]
Jetzt stelle man sich vor, man addiere 2°C zu unserer nutzlosen globalen mittleren Temperatur, was würde dies bedeuten? Werden 2°C alle Gebiete des Globus‘ in gleichem Maße betreffen? Natürlich nicht, und es gibt keine mathematische Macht in der Zahl der globalen mittleren Temperatur, die uns die wahre Auswirkung einer solchen Änderung vermitteln kann. In Wahrheit können wir mit jener erbärmlichen Einzelzahl nicht sagen, wie heiß oder kalt es auf unserem Planeten ist oder sein könnte. An einigen Orten ist es heiß, an anderen kalt, und doch leben Menschen an allen solchen Stellen. Vom gefrorenen Norden bis zu den dampfenden Tropen wohnen Menschen und andere Lebensformen.
Weitere 2°C werden keine Stelle auf der Erde unbewohnbar machen, die auch jetzt schon unbewohnbar ist. Tatsächlich wird es an vielen Stellen attraktiver und komfortabler, dort zu wohnen. Die Menschen fliehen aus kalten Orten wie Nordeuropa und Kanada. Sie begeben sich an heiße Orte wie Mallorca und Cancun. Die involvierten Temperaturunterschiede sind viel größer als 2°C, und doch scheinen Urlauber in sonnigen, warmen Klimaten nicht tot umzufallen. Die globale mittlere Temperatur ist nicht nur eine bedeutungslose Statistik, sondern ist auch irreführend, weil die zu deren Berechnung herangezogenen Daten von Forschern im Namen von „Wissenschaft“ verfälscht worden sind.
Als Erstes müssen wir also fragen, woher diese Zahl kommt. Der NOAA zufolge, einer Agentur der US-Regierung, wird eine Reihe von Datensätzen herangezogen, um die globale mittlere Temperatur zu berechnen:
Temperaturdaten vom Festland sind verfügbar aus dem Global Historical Climate Network-Monthly (GHCN-M). Wassertemperaturen werden berechnet mittels einer Analyse der erweiterten rekonstruierten Ozean-Wassertemperatur (ERSST). Für ERSST werden der jüngste verfügbare International Comprehensive Ocean-Atmosphere-Datensatz (ICOADS) herangezogen sowie statistische Verfahren, die auch bei dünner Datenlage stabile Rekonstruktionen ermöglichen. Die monatliche Analyse fängt im Januar 1854 an, aber wegen der nur sehr spärlich vorhandenen Daten werden vor dem Jahr 1880 keine globalen Mittelwerte berechnet. Mit mehr Beobachtungen nach 1880 ist das Signal stärker und mit der Zeit konsistent.
Man beachte die Erwähnung sowohl von Festlands- als auch von Wassertemperaturen (SST). Diese werden auf ziemlich unterschiedliche Art und Weise ermittelt. Dann werden sie mittels statistischer Verfahren „korrigiert“, das ist der wissenschaftliche Ausdruck für manipuliert. Das Ergebnis sieht so ähnlich aus wie das hier:

Jetzt beachte man den Bezug auf „dünne Datenlage“, was bedeutet, dass in vielen Gebieten tatsächliche Messungen nur an wenigen, weit auseinander liegenden Stellen durchgeführt werden. Dies gilt sowohl für das Festland als auch für die Ozeane. Man beachte beispielsweise den gewaltig breiten Streifen vor Südamerika, der als der „rekordwärmste“ apostrophiert worden ist. Und worauf basiert diese Aussage? Hier folgt eine Graphik der NOAA selbst, die den Datenmengen in manchen Gebieten zeigt:

Es fällt auf, dass das gleiche Gebiet in dieser Darstellung zeigt, dass es keine Daten für jenes Gebiet aus Brasilien gibt! Im Grunde sind die „rekordwärmsten“ Temperaturen in Brasilien und benachbarten Ländern fabriziert. Die Tatsache, dass sie durch ein Computerprogramm fabriziert worden sind, macht sie nicht weniger schwindlerisch. Das Gleiche gilt für andere Gebiete wie z. B. die warme Blase über Grönland, die von anderen NOAA-Daten diskreditiert wird. Mehr dazu schreibt Paul Homewood hier.
Also können wir nicht einmal dieser bedeutungslosen Historie bedeutungsloser Zahlen vertrauen, um auf irgendetwas hinzuweisen, das mit Klimawandel zu tun hat. Und doch fahren Wissenschaftler mit Eigeninteresse daran, dass der Klimawandel eine herauf dämmernde Krise ist, fort, Daten zu manipulieren, um es so aussehen zu lassen, als ob die globalen Temperaturen weiterhin steigen. Erst jüngst haben NOAA-Forscher unter Führung von Thomas R. Karl eine neue Studie veröffentlicht mit dem ziemlich cleveren Titel „Possible artifacts of data biases in the recent global surface warming hiatus.” Darin geben sie vor zu beweisen, dass der gut dokumentierte Stillstand von über 18 Jahren lediglich eine Folge schlechter Daten ist und dass sie in der Lage waren, dies zu bereinigen. Aus dem Abstract:
Viele Studien wurden bzgl. der möglichen Gründe einer augenscheinlichen Abnahme des Anstiegs der globalen Temperatur seit 1998 durchgeführt, ein Phänomen, dass als „Stillstand“ der globalen Erwärmung bezeichnet wurde. Hier präsentieren wir eine aktualisierte Analyse der globalen Temperatur, die enthüllt, dass die globalen Trends höher sind als jene, die das IPCC nennt, vor allem während der letzten Jahrzehnte, und dass die zentrale Schätzung der Erwärmungsrate während der ersten 15 Jahre des 21. Jahrhunderts mindestens genauso stark war wie in der zweiten Hälfte des 20. Jahrhunderts. Diese Ergebnisse stützen nicht die Präsenz einer „Verlangsamung“ der Zunahme der globalen Temperatur.
Viel wiederum wurde auch geschrieben zu diesem jüngsten Versuch der Temperatur-Taschenspielerei, und das möchte ich hier nicht alles wiederholen. Jene, die das interessiert, können hier schauen in einem exzellenten Artikel auf dem Blog von Judith Curry. Hier folgt der Kern dessen, was Zeke Hausfather und Kevin Cowtan über Karls Reanalyse zu sagen haben:
Beträchtliche mediale und politische Aufmerksamkeit konzentrierte sich auf die neue NOAA-Aufzeichnung der Temperatur, welche deutlich mehr Erwärmung zeigt als deren Aufzeichnung zuvor im Zeitraum von 1998 bis zur Gegenwart. Der Hauptfaktor hinter diesen Änderungen ist die Korrektur der Ozean-Wassertemperaturen, die vorgenommen wurde anlässlich des Übergangs von Messungen von in Schiffsmaschinen einströmendem Kühlwasser zu Messungen durch Bojen. Es ergab sich eine Differenz zwischen beiden. Hier wollen wir die Änderungen an den NOAA-Wassertemperatur-Aufzeichnungen evaluieren, indem wir eine neue, nur auf Bojenmessungen basierende Aufzeichnung dieser Temperaturen konstruieren. Wir kommen zu dem Ergebnis (ohne irgendwelche Adjustierungen vornehmen zu müssen), dass eine Aufzeichnung ausschließlich durch Bojen effektiv identisch ist hinsichtlich des Trends zur neuen NOAA-Aufzeichnung und deutlich höher als in der alten Aufzeichnung.
Interessant ist hier, dass Hausfather und Cowtan behaupten, dass die Temperatur des in Schiffe einströmenden Kühlwassers hinsichtlich der viel neueren Bojendaten verzerrt ist. Unglücklicherweise reichen die Schiffsdaten viel weiter zurück als die Daten von Bojen, die den größten Teil historischer Aufzeichnungen ausmachen. Außerdem weist Dr. Curry darauf hin, dass es einen weiteren SST-Datensatz gibt – OISSTv2 – für den Zeitraum seit den achtziger Jahren. Dieser Datensatz hat eine höhere horizontale Auflösung dank der Verwendung von Satellitendaten sowie des Vergleichs zwischen Satelliten- und Schiffsbeobachtungen einerseits zu den Bojendaten andererseits. Curry schreibt: „Unter dem Strich scheint zu stehen, dass der Trend im NOAA ERSSTv4-Datensatz von 1998 bis 2014 etwa doppelt so hoch ist wie der Trend in den Datensätzen HADSST3 und OISSTv2.” Welcher ist korrekt? An diesem Punkt schreit jemand „die Wissenschaft ist settled!“
Dr. Curry und ihre Mitarbeiter stehen nicht allen, wenn sie die überarbeiteten NOAA GISS-Daten hinterfragen. Der Geologe und Berechnungs-Experte Prof. Dr. Friedrich Karl Ewert hat angefangen, sich näher mit den Daten hinter den Behauptungen der globalen Erwärmung zu befassen, und besonders die Datensätze von NOAA GISS erregten sein Interesse. Er kam ebenfalls zu der Schlussfolgerung, dass die Temperaturaufzeichnung entwertet worden war. „Massiv verändert“, hieß es in einem Online-Report.
Am aussagekräftigsten von all dem ist vielleicht, dass es andere Datensätze gibt, die nicht auf räumlich sehr spärlichen Daten von weit auseinander liegenden Temperaturstationen oder umstrittenen Daten von fahrenden Schiffen basieren. Jene Daten stammen von Infrarot-Satellitenmessungen. Hier folgt ein Vergleich der RSS-Satellitendaten und GISS:

Man erkennt, dass die Temperaturen den RSS-Satellitendaten zufolge im Zeitraum 1979 bis 2001 mit praktisch der gleichen Rate wie bei GISS gestiegen sind. Seitdem zeigt sich eine bedeutende Divergenz, wobei GISS eine Rate zeigt, die praktisch genauso hoch ist wie im Zeitraum zuvor. Im Kontrast dazu bestätigt RSS (und auch UAH, eine weitere, auf Satelliten basierende Historie) dass, wenn überhaupt, die Temperaturen eher zurückgegangen sind.
Zweitens, wir müssen nachfragen, woher diese Zahl von 2°C kommt, falls Wissenschaftler nicht nur die Gewässer vermanschen, aus denen diese bedeutungslose Temperaturzahl stammt, und sie darüber hinaus auch die Bücher fälschen. Welche mögliche Rechtfertigung haben sie für ihre Behauptung, dass diese 2°C unsere Welt unbewohnbar machen werden? Es gibt keine! Einem Artikel in der Huffington Post zufolge ist der Hintergrund dieser 2°C-Zahl Folgender:
Zusammen mit den Nachrichten über COP21 hören wir immer wieder von der Notwendigkeit, den globalen Klimawandel unter dem 2°C-Ziel zu halten. Allerdings wissen nur wenige Menschen, woher dieses 2°C-Ziel kommt. Der Grund dafür ist, dass das 2°C-Ziel eines der am meisten freiwillig verschlammten Themen in der Debatte um den Klimawandel ist. Warum ist das so? Weil dieses spezielle Ziel keine wissenschaftliche, sondern eine politische Zahl ist.
Dazu muss man wissen, dass die HuffPo eine Sammlung wahrer grüner Gläubiger und Klimaalarmisten allererster Güte ist.
Da also haben wir es. Die mittlere globale Temperatur ist eine vermanschte, bedeutungslose Zahl, die nur für Nachrichten-Artikel, Presseerklärungen und Forderungen nach Geldern von Regierungsseite nützlich ist. Sachkundige Wissenschaftler wie Roger Pielke Sr. werden sagen, dass keinerlei prophetische Macht dahinter steckt. Die gefürchtete 2°C-Barriere ist kein wissenschaftlich etablierter Kipp-Punkt, der das Ende der Welt einläutet, sondern politischer Unsinn.
Hier steht im Original eine Karikatur, deren Copyright eine Wiedergabe hier verbietet. Anm. d. Übers.]
Während also wissenschaftliche Dunkel-Lichter [dim bulbs] wie Präsident Obama, John Kerry und Prinz Charles ernste Warnungen ausgeben, dass die Apokalypse unmittelbar bevorsteht [wobei diesen die Medien zumindest bei uns in D tatkräftig unter die Arme greifen! A. d. Übers.], räumen selbst Klimaalarmisten mit Wurzeln in realer Wissenschaft wie James Hansen ein, dass das 2°C-Erwärmungslimit „crazy“ ist und „nicht auf Wissenschaft basiert“. All das Klima-Sturm-und-Drang*, das von der COP21-Konferenz in Paris nach außen dringt, ist viel Lärm um nichts. Mein Rat an alle da draußen lautet, alles Gefasel von Apokalypse seitens der Klimaalarmisten zu ignorieren und sich an der Holiday Season zu erfreuen, welche Temperatur auch immer dort herrscht, wo Sie gerade sind.
Bleiben Sie sicher, erfreuen Sie sich des Interglazials und bleiben Sie kritisch.
[*Im Original steht: All the climate change sturm und drang…]
Link: http://theresilientearth.com/?q=content/global-average-temperature-meaningless-misleading
Übersetzt von Chris Frey EIKE




OPEC: Investitionen von 10 Billionen Dollar sind nötig, um einen massiven Sprung des Ölpreises zu vermeiden

Längerfristige Projektionen sind notorisch ungenau, und Ölpreise sind fast unmöglich auch nur für ein paar Jahre im Voraus vorherzusagen, geschweige denn auf ein paar Jahrzehnte in die Zukunft. Preismodulationen involvieren eine ganze Palette von Variablen, und geringe Veränderungen bei einigen Hypothesen – wie etwa das globale BIP oder das Tempo des Bevölkerungswachstums – können zu dramatisch anderen Ergebnissen führen. Daher sollten diese Schätzungen lediglich als ein Bezugspunkt betrachtet werden und nicht als einen ernsthaften Versuch, die Rohölpreise 25 Jahre im Voraus vorherzusagen. Nichtsdestotrotz zeigt die Schätzung der OPEC, dass man glaubt, noch ziemlich lange über eine ausreichende Menge Öl zu verfügen – genug, um Preisausschläge wie während der letzten Jahre zu verhindern.
Teilweise hat das mit etwas zu tun, das die OPEC als eine graduelle Verschiebung hin zu Effizienz und Alternativen zu Öl ansieht. Der Report enthält Schätzungen zur Steigerung der Nachfrage während fünf Jahren insgesamt, wobei die Nachfrage graduell sinkt. Beispiel: Die Welt wird zusätzliche 6,1 Millionen Barrel (MB) Öl pro Tag verbrauchen zwischen heute und dem Jahr 2020. Danach verlangsamt sich die Nachfrage jedoch: 3,5 MB zwischen 2020 und 2025, 3,3 MB zwischen 2025 und 2030, 3 MB von 2030 bis 2035 und schließlich 2,5 MB zwischen 2035 und 2040, jeweils pro Tag. Die Gründe hierfür sind vielfältig: langsameres wirtschaftliches Wachstum, abnehmende Bevölkerungsraten, und – ein entscheidender Punkt – Bemühungen bzgl. Effizienz und Klimawandel, die alle den Verbrauch verringern. Tatsächlich hat die OPEC seine Projektion zur Nachfrage nach Öl im Vergleich zum vorigen Bericht WOO 2014 um 1,3 MB pro Tag erniedrigt, weil sie deutlich mehr ernsthafte politische Maßnahmen zur Klima-Abschwächung [climate mitigation] sieht als im vorigen Jahr.
Natürlich könnte man nun argumentieren, dass selbst diese Schätzung – dass nämlich die Welt im Jahre 2040 110 MB pro Tag verbrauchen wird – noch viel zu optimistisch ist. Aus einer ganzen Reihe von Öl exportierenden Ländern kann man das erwarten. Energie-Übergänge sind schwer im Voraus abzuschätzen, aber wenn es dazu kommt, tendieren sie dazu, rapide Änderungen hervorzurufen. Jede Maßnahme [any shot] zur Erreichung der offiziell festgesetzten Klimaziele wird wesentlich ambitioniertere Bemühungen erfordern. Während Regierungen seit Jahren hin und her schwanken, scheinen deren Bemühungen aber jetzt ernsthafter zu werden. Mehr auf den Punkt gebracht: Die Kosten für Elektroautos werden mit der Zeit nur in wirklichen Dollartermen sinken, und die Anpassung sollte weiterhin in nicht-linearer Manier erfolgen. Dies stellt eine bedeutende Bedrohung langfristiger Ölverkäufe dar.
Gleichzeitig hat die OPEC aber auch in dem Report zur Vorsicht gemahnt. Während die Ölmärkte in naher und mittlerer Zukunft noch mit einer Überversorgung konfrontiert sind, werden massive Investitionen in Erkundung und Erzeugung immer noch gebraucht, um die Nachfrage langfristig decken zu können. Die OPEC glaubt, dass dazu 10 Billionen Dollar während der nächsten 25 Jahre ausgegeben werden müssen, um angemessene Ölpreise sicherzustellen. „Werden die richtigen Signale hier nicht jetzt gesetzt, besteht die Möglichkeit, dass der Markt herausfinden könnte, dass es nicht genug neue Kapazität und Infrastruktur gibt, um zukünftig steigende Nachfragen zu decken. Dies hätte offensichtlich eine ruckartige Auswirkung auf die Ölpreise“, heißt es bei der OPEC. Etwa 250 Milliarden Dollar pro Jahr müsste aus Nicht-OPEC-Staaten kommen.
In einer ähnlichen, aber noch beunruhigenderen Schlussfolgerung kam die in Oslo ansässige Rystad Energy jüngst zu dem Ergebnis, dass der gegenwärtige Zustand der Überversorgung „sich schon während der nächsten paar Jahre in sein Gegenteil umkehren könnte“. Wegen der drastischen Kürzungen bei den Investitionen heute wird es innerhalb weniger Jahre zu einer Verknappung kommen. Um die Dinge ins richtige Verhältnis zu setzen, sagt Rystad, dass die Ölindustrie „34 Milliarden Barrel Rohöl in jedem Jahr fördern muss – ähnlich des gegenwärtigen Verbrauchs“. Aber als eine Folge des Preiskollapses hat die Industrie ihre Investitionen in allen Bereichen zurückgefahren, und „im Jahre 2015 wurden nur Investitions-Beschlüsse für lediglich 8 Milliarden Barrel Öl getroffen. Diese Menge ist weniger als 25% dessen, was der Markt langfristig erfordert“. Im Jahre 2015 wurden die Investitionen um 250 Milliarden Dollar zurückgefahren, weitere 70 Milliarden Dollar könnten es in diesem Jahr 2016 sein. Letzteres hat noch nicht den jüngsten Beschluss der OPEC berücksichtigt, wonach die OPEC ihr Produktionsziel aufgeben will, was die Ölpreise auf eine weitere Talfahrt schickt.
Was bedeutet das alles nun für uns? Es könnte massenhaft Ölvorräte in Zukunft geben, aber wie es jetzt aussieht, tätigt die Industrie massiv viel zu wenig Investitionen. Dies illustriert eine besorgliche Spannung innerhalb der Ölindustrie. Ölpreise werden durch marginale Kosten der Erzeugung gesetzt, und Fortschritte bzgl. Effizienz in letzter Zeit haben trotz der marginalen Kosten allgemein zugenommen. Erzeugung zu niedrigen Kosten läuft aus, und die Industrie wird abhängiger von Öl aus der Tiefsee, aus Schiefer oder aus der Arktis, welche allesamt höhere Investitionen erfordern. In vielen Fällen ist diese Art von Projekten bei den jetzigen Preisen nicht profitabel. Die Preisspitzen im Zeitraum 2011 bis 2014 legten den Grundstein für die gegenwärtige Krise, aber der Rückzug heute könnte Bedingungen für eine weitere Preisspitze in der Zukunft schaffen. Die OPEC könnte ein wenig zu optimistisch sein hinsichtlich seiner Forderung nach 95 Dollar für Öl im Jahre 2040.
Gleichzeitig enthalten zukünftige Preisspitzen die Möglichkeit wesentlich stärkerer Einbrüche bzgl. der Nachfrage, besonders falls Alternativen machbarer werden. Dies ist die schwierige Balance, mit der sich die Industrie während der nächsten paar Jahrzehnte befassen muss.
Article Source: OilPrice.org
Oilprice.com by Nick Cunningham
Link: http://canadafreepress.com/article/77796
Übersetzt von Chris Frey EIKE




Die Klimaente zum Jahreswechsel Der Nordpol taut mitten im Winter

Das neue Jahr hatte noch nicht einmal begonnen, da kam schon eine neue Klima-Hiobsbotschaft in allen gängigen Medien: Der Nordpol taut und das mitten im Polarwinter.

Video: Ex-Moderator Uli Wickert zur Lügenpresse

Video: Entwicklung der Medienente von 50 ° am Nordpol in verschiedenen Fernsehsendern. Mit Dank an R. Hoffmann für den Zusammenschnitt
 
Bild 1[1] Screenshot der Artikel-Überschrift von „DIE WELT“
DIE WELT Textauszug

Es ist ein Sturmsystem von historischen Ausmaßen und Werten: Was sich derzeit östlich von Grönland zusammenbraut und weiter nördlich zieht, könnte dem Nordpol Temperaturen von bis zu 30 Grad über den normalen Werten bescheren. Am derzeit 24 Stunden lang dunklen Pol wäre es dann wärmer als in Südkalifornien.
Eigentlich herrscht derzeit am Nordpol Winter mit minus 30 bis minus 40 Grad Celsius. Tatsächlich ist es aber zwei bis vier Grad warm. Entwickelt sich der Sturm weiter wie berechnet, könnte in den nächsten Tagen die Abweichung von 50 Grad erreicht werden, schreiben die Forscher des amerikanischen Wetterdienstes NOAA.

dpa/ds

Und zum Schluss gleich eine Ergänzung „DER WELT“, um den Leser passend einzustimmen:

Hochwasser in England, Tornados in den USA, Schnee in Mexiko, der Nordpol 30 Grad wärmer als üblich. Weltweit spielt das Wetter verrückt. 2015 wird meteorologisch in die Geschichtsbücher eingehen. Quelle: Die Welt


Bild 2[2] Screenshot der Überschrift von „Bild“
Was ist da passiert? Hat das PIC recht und das Klima kippt direkt zum Jahreswechsel um – noch viel schneller, als es alle Simulationen vorhergesagt haben?

Zum Glück nicht, denn die dpa hat etwas ganz Wichtiges übersehen

Auf einen Bericht hin hat die dpa, das Deutsche Wahrheitsministerium für Klima und EEG wie üblich die offizielle, regierungsamtliche Meldung für Gesamtdeutschlands Bürger verfasst und durch unsere  Qualitätsmedien publizieren lassen.
Doch leider passierte der dpa ein schwerwiegender Fehler: Sie übersah, dass die Original-Meldung die Stadt NORTH POLE  in Alaska betraf und nicht den geografischen Nordpol. Dummer Weise steht das im Original auch nicht und die Schreibweisen sind leider gleich. Anbei dazu ein Kommentareintrag zur Meldung von FOX NEWS[4]: 

Leser-Kommentar unter der FOX NEWS_Meldung:

The temperature in the Fairbanks, Alaska suburb of North Pole earlier today was apparently in the low-40s Fahrenheit. It was then that Alexandra Sifferlin at Time.com reported the Alaska town’s temperature as if it came from the North Pole. The only current evidence of Sifferlin’s original grievous error at Time.com is a deliberately vague correction at the bottom of her post telling readers that „This article originally misidentified a temperature reading as belonging to the North Pole.

Bild 3 Screenshot: Homepage-Auszug der Stadt NORTH POLE in Alaska
Wo diese Stadt liegt, zeigt das folgende Bild

Bild 4 Geografische Lage der Stadt NORTH POLE in Alaska 
Und wenn man auf den typischen Temperaturverlauf für diese Stadt klickt (Bild 5) sieht man, dass dort +2 … 4 °C, also 35, 6 … 39,3 ° Fahrenheit selbst um diese Jahreszeit gar nicht ungewöhnlich sind. 
Noch etwas hat die dpa übersehen. Die Angaben sind in Grad Fahrenheit. Die bei der WELT gemeldeten 50 Grad sind deshalb umgerechnet nur ca. 27 °C Temperaturdifferenz. Und ca. 30 °C Temperaturdifferenz zwischen Min- und Max-Wert sind im klimagemäßigten Deutschland die normale Temperaturspanne für ein Datum, welche öfters von einem Jahr zum anderen erreicht wird.

Bild 5 (neu 10.1.16) Tagestemperaturverlauf  vom 26.12.15 der Temperatur Messboje NPEO 2015 Airborne eXpendable Ice Buoy (AXIB ) ID 132472, die dem Nordpol z.Zt. am nächsten ist (Original siehe hier  und hier  ). Mit Dank an Spürnase G. Kramm (Fairbanks Alaska)
 
Aber es wäre halt gar zu schön gewesen, wenn der Nordpol mitten im Polarwinter schmelzen würde. Dass das absolut unwahrscheinlich ist und man deshalb bei so einer Meldung hätte hellhörig sein sollen, kommt der dpa und auch unseren Qualitätsmedien nicht in den Sinn (man ist vom PIK ja viel Schauerlicheres gewohnt) – und dass man die Leser  danach vielleicht über den Fehler informieren könnte – schon gar nicht. 
Etwas fällt noch auf. Bei DER WELT werden in der Artikelüberschrift 50 °C gemeldet. In der Ergänzung nach dem Artikel stehen dann jedoch 30 Grad. Hat man dort zumindest den Fehler mit den Fahrenheit erkannt, in der Meldung „fürs Volk“ aber nicht korrigiert? 

Bild 6. Temperaturverlauf der Stadt North Pole in Alaska
Hinweis: Die Info zu dieser Meldung kam von „Der Klimarealist“ http://www.derklimarealist.de/

* Anmerkung der Redaktion

Unter Earth Weather Extreme (hier) und Ocean DMI hier findet man die realen Temperaturen für die fragliche Zeit um den Nordpol herum

Ort: (80°N-90°N), Uhrzeit jeweils 19:00 Uhr UTC.

28.12.2015 244 K (-29 °C)

29.12.2015 246 K (-27 °C)

30.12.2015 257 K (-16 °C)

31.12.2015 253 K (-20 °C)

Mit Dank an Spürnase R. Berberich

Weitere Hinweise auf die Temperaturentwicklung der arktischen Region finden Sie hier, z.B. auch den dass heftige sehr kurzzeitige Temperatursprünge von 12 bis 14 K in manchen Teilen der Arktis völlig normal sind und in den letzten 58 Jahren über 70 mal vorkamen.

Disclaimer

Hinweis: Im oben stehende sehen Sie das Rechercheergebnis des Autors zu dieser Meldung welche erhärtet, dass es sich um beim North Pole um eine Namensverwechslung handelt. Leider hat der Autor keinen definitiven Quellenbeleg gefunden (z.B. nur einen wie diesen hier), womit ein geringes Restrisiko bleibt. Aber die These der Namensverwechslung ist so wahrscheinlich, dass sie hiermit veröffentlicht wird.

Quellen
[1]
DIE WELT 30.12.15:  Am Nordpol wird es bis zu 50 Grad wärmer als üblich
http://www.welt.de/vermischtes/article150454609/Am-Nordpol-wird-es-bis-zu-50-Grad-waermer-als-ueblich.html
[2]
Bild 30.12.2015: Nordpol bald wärmer als Kalifornien?
http://www.bild.de/news/ausland/globale-erwaermung/nordpol-bald-waermer-als-kalifornien-43964744.bild.html 
[3]
Deutschlandfunk 30.12.2015: Extreme Temperaturvorhersagen für den Nordpol
http://www.deutschlandfunk.de/wetter-extreme-temperaturvorhersagen-fuer-den-nordpol.1818.de.html?dram:article_id=341134 
[4]
FOX NEWS, January 01, 2016: Temperatures spike almost 50 degrees in North Pole
http://www.foxnews.com/science/2016/01/01/temperatures-spike-almost-50-degrees-in-north-pole.html
 




Medienmeldung am 3.1.16: Kraftwerke stoßen zu viel Quecksilber aus – doch kein Wort zu den zig Millionen „Energiesparlampen“ deren Quecksilber jedes Jahr in die Umwelt gelangt.

Die Grünen landeten mal wieder einen Coup. Darauf vertrauend, dass ihre willigen Vollstrecker in allen Medien auch für älteste Nachrichten-Hüte verfügbar sind, jedenfalls solange sie von den Grünen kommen und auf die Tatsache bauend, dass bei diesen gewohnt selektive Berichterstattung gute Berichterstattung ist, ließen sie über die olle Kamelle, dass bei der Verbrennung von Kohle auch geringe Mengen Quecksilber freigesetzt werden, eine neue „Studie“ von einem ihrer „Öko-Institute“ (namens Ökopol hier) anfertigen. Die versetzte prompt sämtliche Medien in Aufregung.  

Videoausschnitt einer Sendung des heute Journals vom 14.12.15 in der Chefmoderator Claus Kleber sein Erstaunen darüber äußert, dass man ihm und seinen Kollegen unterstellt, dass sie „von oben“ gesteuert würden. Dabei hätte ihn bis zum nämlichen Tage nie jemand „von oben“ angerufen, um ihm zu sagen, was er zu berichten hätte. Kommentar: Allein dieser Monolog zeigt mit erschreckender Deutlichkeit die Abgehobenheit vieler Mitglieder der journalistischen Klasse, die nicht mehr die bereits erfolgte Konditionierung ihrer selbst erkennen können. Die sie dazu bringt nur noch solche Meldungen zu verbreiten und für den richtigen Sprachgebrauch zu sorgen, die ihnen für als richtig erkannte Methoden und Mittel der Volkserziehung geboten scheinen. Auch die rbb Intendantin Dagmar Reim ist völlig mit sich und den Ihren im Reinen, wie sie hier verlauten lässt. Alexander Wendt hat hier auf ACHGUT einige besonders markante Beispiele des gewollt erzieherischen jedoch nur voreingenommenen Journalismus vorgestellt.

„Deutsche Kohlemeiler stoßen tonnenweise Quecksilber aus“ trompetet zuverlässig Hiwi Stefan Schulz vom SPON.

Die Tagesschau stößt ins selbe Horn und berichtet  Grüne fordern niedrigere Quecksilber-Grenzwerte“. Vor lauter Begeisterung über diese schlechte Nachricht hatte der zuständige Tagesschau Redakteur aus den in der „Studie“ für deutsche Kraftwerke genannten  7 t, , mal eben 10 t (Anm. immer p.a. gemeint) gemacht, von denen aber die Studie zu wissen vorgibt, dass dies die emittierte Gesamtmenge aller Quellen sei.

Auch das ZDF lässt sich nicht lange bitten und bringt diesen alten Hut unter der Schlagzeile „Quecksilber aus Kohlekraftwerken“ im heute Journal vom 3.1.16 (ab Minute 11:06) als wichtige Nachricht und lässt ausführlich den als erbitterten Kohlekraftwerksgegner bekannten,  grünen „Energieexperten“ das MdB Oliver Kriescher (studierter Biologe; ob mit oder ohne Abschluss ist nicht bekannt, vermutlich ohne, zudem Mitglied des Vorstandes von Eurosolar.) zu Wort kommen, der seine Litanei auch prompt herunterbetet.  Kriescher verbrachte übrigens sein ganzes Berufsleben in der Politik und lernte sein Metier bei der Mitautorin des EEG Frau Michaele Husted.

Das RTL Journal, ebenso wie sämtliche überregionalen Tageszeitungen melden diesen alten Hut ebenso an prominenter Stelle.

Weglassen ist auch Lüge

Doch keiner dieser Journalisten machte auch nur die leiseste Andeutung darüber, dass es die Grünen waren, die über die mit ihnen verbündete Hilfstruppen, wie Greenpeace, dafür sorgten, dass das Nerven-Gift Quecksilber erst so richtig breit und fein verteilt in sämtlichen Haushalten und Betrieben der Republik incl. der Kinderzimmer vorhanden ist. Forderten sie doch als Erste das Verbot der Glühlampe.

Hierbei – wie auch auf anderen Feldern- taten sich die grünen Helden H.J. Fell und J- Trittin besonders hervor. So findet man im Spiegel vom 20.2.2007 die folgenden Aussagen.

Umweltschutz: Grüne sagen Glühlampen den Kampf an

..Fell sprach sich aber auch für ein Ende von herkömmlichen Glühlampen in Deutschland aus. Denkbar sei ein Auslaufen des Verkaufs bis 2012, sagte Fell. Zunächst sollte die Bundesregierung mit den Herstellern nach einem gemeinsamen Weg suchen, um die ineffizienten Lampen vom Ladentisch verschwinden zu lassen. „Wenn das nicht klappt, wäre auch ein gesetzliches Verbot denkbar“, sagte Fell.

Auch Jürgen Trittin, Grünen-Bundestagsabgeordneter und früherer Umweltminister, begrüßte Australiens Glühbirnen-Verbot: „Solche technischen Standards für Energieeffizienz bräuchten wir weltweit noch viel mehr. Wir würden sie uns für sämtliche Elektrogeräte wünschen, etwa für ineffiziente DVD-Player, für die vielen australischen Klimaanlagen oder auch für beheizte Klodeckel, wie es sie in Japan gibt“, sagte Trittin zu SPIEGEL ONLINE.

Und der aktivistische Arm der Grünen, der Medienkonzern Greenpeace, sorgte im selben Jahr dann gleich für die entsprechenden Bilder und Videos und ließ vor dem Brandenburger Tor in Berlin mit einer Straßenwalze 10.000 Glühlampen zerstören. Alle Medien waren natürlich dabei und berichteten was das Zeug hielt.

Das Glühlampenverbot verursachte die weite Verbreitung von Quecksilber in alle Haushalte und Betriebe

Kurze Zeit später legte der damalige Umweltminister Siegmar Gabriel (SPD) nach und forderte ultimativ von der EU ein Glühlampenverbot, was diese kurze Zeit später über das willige EU-Parlament auch beschließen ließ. 

Schon zu dieser Zeit war völlig klar, dass die als Ersatz verfügbaren und empfohlenen Energiesparlampen (im Grunde miniaturisierte Leuchtstoffröhren) jeweils bis zu 5 mg hochgiftiges Quecksilber enthalten würden.  In der oben angezogenen Studie nehmen die Autoren auch ausdrücklich -allerdings verharmlosend – auf die Energiesparlampen Bezug, denn so liest man in der Zusammenfassung

Zitat:

Das (die 7 t jährlich aus deutschen Kraftwerken) entspricht der jährlichen Freisetzung von sämtlichem Quecksilber aus 3,5 Millionen Energiesparlampen.

Legt man diese Werte auf den jährlichen Eintrag an Quecksilber durch kaputte Energiesparlampen um, dann zeigt eine einfache Hochrechnung, dass von den inzwischen rd. 850 Mio bis 2,3 Mrd (wenn man von 80 % Ersatz aller Glühbirnen in Haushalten und Betriebsgebäuden ausgeht) Energiesparlampen, die in deutschen Haushalten und Betrieben incl. Verwaltungen inzwischen in Gebrauch sind, zwischen 42 bis 112 Mio Stück[1], also ca. 5 %, jährlich ersetzt werden.  Rd. 80 % davon landen – so meinen Experten- im Hausmüll, der Rest wird ggf. fachgerecht entsorgt. Das bedeutet, dass rd. 34 bis 90 Mio Energiesparlampen jährlich ihr Quecksilber – weit und fein verteilt- an die Umwelt abgeben. Das ist .gem. der Studie- rd. 10 bis 26 x mehr als sämtliche Kraftwerke[2] zusammen. Die Überschrift der Meldungen, die sich auf die Studie bezogen, hätte dann lauten müssen:

„Deutsche Kraftwerke emitieren nur Bruchteile der Quecksilbermengen in die Umwelt, die von Energiesparlampen eingebracht werden. „

Eine solche Meldung wäre jedoch mit Sicherheit nicht gebracht worden. Siehe oben. Allerdings wäre auch sie nicht korrekt, siehe Fußnote 2. Im Grunde wäre es eine Nichtmeldung gewesen.


[1] Dabei wird von einer Austauschrate von 5 % ausgegangen, was einer rechnerischen Gebrauchsdauer von 20 Jahren entspricht. Das ist sicherloch zu optimistisch.

[2] Die Behauptung der Studie, dass 3,5 Mio Energiesparlampen rd. 7 t Quecksilber enthalten bzw. auch freistzen könnten, zeigt nur wie schlampig die Studie erstellt wurde, und lässt damit auf ihre Gesamtqualität schließen. Sie ist nämlich um 3 Größenordnungen zu hoch.  Denn nach den in der Studie angegebenen Werten enthielte jede Energiesparlampe rd. 2 g Quecksilber. Real sind es jedoch nur 2 bis 5 mg. Was die Berechnungen oben zwar kräftig verringern würde, aber an der grundsätzlichen Problematik der Freisetzung bei gleichzeitig feinster – auch in Kinderzimmern- Verteilung großer Mengen Quecksilber durch Energiesparlampen, nichts ändern würde. Real enthalten die bisher eingesetzten Energiesparlampen alle zusammen zwischen 2 und 8 t Hg. Also in etwa genauso viel wie alle Kraftwerke zusammen emitieren.