Die deutsche Energiewende steckt in der Sackgasse

Heute wird in Deutschland rund ein Viertel des Stroms regenerativ erzeugt. Aber dies ist nur vordergründig eine Erfolgsmeldung. Der Haushaltsstrom ist 46 Prozent teurer als der EU-Durchschnitt. Industriestrom liegt um 18 Prozent darüber und ist etwa doppelt so teuer wie in den USA. Die CO2-Senkungs-Ziele für 2020 werden nicht erreicht. Die Energiewende ist nur eine Stromwende, denn der 25-Prozent-Anteil des regenerativ erzeugten Stroms macht am deutschen Gesamtenergiebedarf nur 8 Prozent aus. Die Energiewende befindet sich wegen hoher Kosten und geringer Wirkungsbreite in einer Sackgasse.
Auch die Bilanz der Klimaschutzanstrengungen fällt negativ aus: Während Deutschland seit 1990 die CO2-Emissionen um 0,2 Milliarden Tonnen gesenkt hat, verzeichnete China eine Steigerung um das Dreissigfache. Weltweit sind die CO2-Emissionen sogar um 11 Milliarden Tonnen, also um das Fünfzigfache, gestiegen. Zahlreiche EU-Länder haben ihre Emissionen gesteigert, die deutschen Anstrengungen finden keine Nachahmung: Die deutsche «Vorreiterrolle» ist eine politisch bedingte Wahrnehmungsstörung.

… Kosten ausser Rand und Band

Strom aus Windkraft, Sonnenlicht und Biomasse (EE-Strom) verursachte 2014 Kosten von 24 Milliarden Euro. Der Marktwert dieses Stroms beträgt aber nur 2 bis 3 Milliarden Euro. Legt man die Kosten von EE-Strom auf 24 Millionen deutsche «Normalerwerbstätige» um, so ergibt sich eine Nettobelastung von 1000 Euro pro Kopf und Jahr. Die Kosten werden per Umlage auf den Stromverbrauch entrichtet. Grundlage hierfür sind feste Einspeisevergütungen über 20 Jahre und Abnahmeverpflichtungen für die Versorgungsunternehmen. Durch dieses System sind bisher Kosten von 150 Milliarden Euro entstanden, und weitere 300 Milliarden Euro an Subventionen sind fest zugesagt. Das entspricht dem deutschen Bundeshaushalt eines ganzen Jahres. Die über 20 Jahre aufzubringenden Finanzmittel werden 1 Billion Euro betragen; das entspricht etwa der Hälfte aller deutschen Schulden.
Vollständigen Text in der NZZ hier lesen
Dietrich Böcker und Dietrich Welte waren Jahrzehnte in leitenden Funktionen in der Energiewirtschaft/Wissenschaft tätig.
Mit Dank an Leser Arne Hecker für den Hinweis




Klima und Wahrheit: Eine Geschichte der Unmoral?

In diesem Fall sind es die schädlichen Auswirkungen menschlicher Zugabe von CO2 in die Atmosphäre, die nicht nur Erwärmung verursacht, aber, so behaupten sie, auch die Änderung des Säuregrad der Ozeane (Versauerung der Ozeane). All dies fördert die Behauptung, dass Menschen unverwechselbar seien wie die „moralischen Affen“, eine Auffassung die vor über 2000 Jahren in Aesops Fabel “The Apes and Two Travellers” verfolgt wurde.
[Anmerkung des Übersetzers:
„Rosinenpickerei“ – in diesem Zusammenhang, die Nutzung von passenden Argumenten und Fakten zur Unterstützung der eigenen Absichten, gleichzeitiges Verschweigen, vertuschen dagegen sprechender Argumente und Fakten.
“The Apes and Two Travellers“ – Die Fabel von zwei Männern, Einer der immer lügt und der Andere der immer die Wahrheit spricht. Der Lügner redete dem fragenden Affen nach dem Mund und wurde belohnt, der die Wahrheit sagte wurde hingerichtet.]
Großer Respekt geht an Marita Noon die diese Geschichte zu unserer Kenntnis bringt. Verstörend, abseits dessen was sie getan haben, ist, dass sie nichts Falsches in ihren Aktionen sehen. Schlimmer noch, sie weisen Erklärungen zurück. Dieses Verhalten der Klimawissenschaft scheint die Mentalität zu reflektieren, die in der westlichen Gesellschaft entwickelt ist und ist in der Karikatur wunderschön zusammengefasst.
Cartoon siehe am Ende
Diese Fehlentwicklungen sind Teil eines größeren Trends, ironischerweise durch Osama Bin Laden identifiziert, als er sagte, dass der Westen seine moralische Richtung verloren hat. Die Tatsache, dass wir seine moralische Ausrichtung nicht wollen, macht es nicht weniger wahr.
Das Problem ist vielfältig in seinen Ausprägungen, aber einfach in seiner Tendenz und im Wesentlichen durch zwei moderne Sprüche zusammengefasst:
Falls Du erwischt wirst, hast du nur das Gesetz oder die Regeln gebrochen. Selbst wenn Du erwischt wirst, so hilft Dir ein dreister Anwalt und / oder ein PR-Mensch.
Wenn du nicht für mich bist, musst Du gegen mich sein. Nur Gleichgesinnten zuhören oder der Umgang mit ihnen verstärkt dies. Ein kürzlich erschienener Artikel in WUWT unterstrich in welchem Maße dies geschieht, als der Autor mit den Worten begann, er hätte etwas Ungewöhnliches getan, er las die „Alarmisten“ web-Site RealClimate.
Wie üblich, war die Antwort von Sabine eher eine versuchte Vertuschung. Dieses und der Original-Artikel, zeigt ein weiteres Beispiel für die Kunst der Klimaforscher zur Rosinenpickerei und ihren Glauben, dass der Zweck die Mittel heiligt. Roseanne D’Arrigo war die erste die diesen Schwindel öffentlich versuchte, wie Steve McIntyre berichtet.
„D ‚ Arrigo, zeigte eine Folie über „Cherry Picking“ und dann erklärte sie dem Gremium, das ist, was Sie zu tun haben, wenn Sie Kirschkuchen haben möchten.“
D’Arrigo vorrausgegangen war die erste große Darstellung von Rosinenpickerei in der IPCC-Klimawissenschaft durch Benjamin Santer im Bericht 1995. Nur wenige, darunter Fred Singer, Fredrick Seitz und John Daly, wussten, was geschehen war. Die Vertuschung war relativ einfach, vor allem, da die schweren Geschütze durch die New York Times und den Guardian abgefeuert wurden.
Santer Veränderungen wurden frühzeitig entdeckt, aber NATURE, ein Magazin das wohlwollend gegenüber der Climatic Research Unit (CRU) Bande ist, veröffentlichte die Widerlegungen erst 5 Monate später (12. Dezember 1996). Eine identifiziert die Rosinenpickerei, die andere eine natürliche Erklärung für dieses Vorgehen. Bis dahin war die öffentliche Vertuschung im Gange. Am 25. Juli 1996 sandte die American Meteorological Society (AMS) ein Verteidigungsschreiben zu Santer. Der Brief ist ein Beweis für den CRU Einfluss und ein Meisterwerk der Öffentlichkeitsarbeit. Es verengt den Fokus auf zwei Fragen, die Wissenschaft und die Reaktion der Gesellschaft. Sie sagten, die einzige relevante Wissenschaft findet man in „peer-reviewed“ wissenschaftlichen Veröffentlichungen – nicht in den Medien. Dies stellt die Frage, wer die Informationen kontrolliert? Das Internet ist die letzte Stufe der Demokratie, weil es Information aus den Händen von wenigen und in die Hände aller gibt. Das AMS argumentierte für ihre Beibehaltung der Kontrolle von Informationen und damit deren Diskussion.

„Was wichtige wissenschaftliche Informationen sind und wie sie in den politischen Debatten interpretiert werden ist ein wichtiger Teil unserer Arbeit.“ „Das sind immerhin sehr starke Gründe für die Mischung aus Wissenschaft und Politik in der IPCC.“

John Daly bezeichnete dieses korrekt mit „Scientismus“.
Die Entlarvung von Santer Rosinenpickerei durch Singer und Seitz, führte zu der durch die Öffentlichkeitsarbeit inspirierten Verbindung mit Tabak. Singer hatte eine ausführlich dokumentierte Analyse eines Artikels über Passivrauchen veröffentlicht. Es war, wie er bekannte, ein schreckliches Stück wissenschaftlicher Forschung. Eine Tatsache, da von anderen bestätigt und ihm durch einen auf Lungenkrebs spezialisierten Arzt erklärt, als der Beitrag erstmalig veröffentlich wurde. Dieses Papier wurde verwendet, um sagen, dass die Tabaklobby Singer bezahlt und dann, durch Folgerung, dass alle „Leugner“ sind, ähnlich derjenigen, die den Zusammenhang zwischen Rauchen und Krebs leugnen. In der Tat hat Singer lang und aktiv gegen das Rauchen opponiert. Er wies schlicht darauf hin, dass schlechte Forschung, falls verfügbar gemacht, der Tabaklobby wahrscheinlich mehr Glaubwürdigkeit verleihen würde.
Ich verstehe das Dilemma, das falsche Wissenschaft schafft, weil ich jahrelang als „lässlicher Umweltverschmutzer“ angeklagt wurde. Ich war davon nicht abgeschreckt, denn ich erkannte, dass es das größere Problem ist, Leute mit gefälschter Wissenschaft zu täuschen. Ist die Täuschung aufgeflogen, sind die Verursacher nicht entmutigt, weil sie sagen können, dass sie dich angelogen haben. Aesop identifiziert dieses als „Cry Wolf“-Problem. Meine größere Sorge in den letzten Jahren ist der verlorene Schwung und die Irreführung in Umweltfragen und die sinkende wissenschaftliche Glaubwürdigkeit.
[Anmerkung Übersetzer: Bezug auf die Fabel: Der Wolf greift die Schafherde an, jedoch man glaubt dem Hirten nicht mehr, da er vorher falschen Alarm „Der Wolf greift an“ gerufen hatte.]
Ein klassisches Beispiel für die Mentalität der Klima-Wissenschaft bei der CRU war in einer durchgesickerten E-Mail vom 2. Februar 2005 öffentlich geworden.

Mike(Mann), ich nehme an, dass Glückwünsche angebracht sind – daher herzlichen Glückwunsch usw.!
Habe gerade eine Menge an Stationsdaten an Scott geschickt. Stellen Sie sicher, dass er diesmal alles besser dokumentiert! Und lassen Sie keine Sachen auf FTP-Sites herumliegen – man kann nie wissen, wer alles im Netz fischt. Die beiden MMs sind seit Jahren hinter den Stationsdaten her. Wenn sie jemals erfahren, dass es ein in Großbritannien jetzt Informationsfreiheitsgesetz gibt, werde ich die Dateien eher löschen als sie an Dritte zu senden. Zwingt Ihr ähnliches Gesetz in den USA Sie dazu, auf Anfragen innerhalb von 20 Tagen zu reagieren? – Unseres tut es! Das Vereinigte Königreich beruht auf Präzedenzfällen, so dass die erste Anforderung es testen wird. Aber haben wir ein Datenschutzgesetz, hinter dem ich mich verstecken werde. Tom Wigley hat mir eine besorgte Email geschickt, als er davon hörte – er dachte, man könnte ihn nach seinem Modellcode fragen. Er wurde offiziell vom UEA in den Ruhestand geschickt, so dass er dahinter verbergen kann. IPR sollte hier von Bedeutung sein, aber ich sehe mich in eine Diskussion kommen mit jemandem bei UEA, der sagt, wir müssen uns daran halten!
(Anmerkung: Die Mail stammt von Phil Jones, damals Direktor der CRU)

Dies ist wichtig, weil Menschen bei der CRU sehr effektiv im IPCC waren, beginnend mit Direktor Tom Wigley, der Jones voraus gegangen war. Sie überwachen die kritischen Kapitel. Letztlich war es Wigley gewesen zu dem sie gingen, um Anweisungen zu erhalten, wie diese E-Mail enthüllt. Wigley ist in der 1990‘er Dokumentation aufgedeckt “The Greenhouse Conspiracy”, [Anmerkung: Treibhaus -Verschwörung] die heute noch bemerkenswert relevant ist. Die E-Mail scheint eine Person zu manifestieren, die ihre moralische Richtung verloren hat.
Die andere „Gehe zu dieser Person“ war von Anfang an der verstorbene Stephen Schneider. Er gab den Ton an und beeinflusste aktiv die Richtung der Klimaforschung und des IPCC‘s mit seinem berüchtigten Zitat von 1989 im Discovery-Magazin.

„Auf der einen Seite sind wir ethisch an die wissenschaftliche Methode gebunden, in der Tat verpflichtet, die Wahrheit, die ganze Wahrheit und nichts anderes zu sagen, aber – was bedeutet, dass wir alle Zweifel, Vorbehalte, und jedes Wenn und Aber erwähnen müssen. Auf der anderen Seite sind wir nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen, möchten wir die Welt als einen besseren Ort sehen. Dieser Zusammenhang schlägt sich in unserer Arbeit nieder, um das Risiko eines möglicherweise katastrophalen Klimawandels zu verringern. Um dies zu erreichen, müssen wir breite Unterstützung erhalten die Phantasie der Öffentlichkeit zu erobern. Das bringt natürlich immer jede Menge Berichterstattung in den Medien. Also wir müssen beängstigende Szenarien bieten, vereinfachte, dramatische Aussagen machen und nur wenig von Zweifeln erwähnen, die wir haben könnten. Dieser doppelte ethische Zwang, in dem wir selbst uns häufig befinden kann durch keine Formel gelöst werden. Jeder von uns muss sich entscheiden, was die richtige Balance zwischen wirksam und ehrlich ist. Ich hoffe, das bedeutet, dass beides sein kann.“

Viele Menschen zitieren nur den fett gedruckten Teil, aber die ganze Passage ist aufschlussreich, vor allem der vorletzte Satz. Schneider war nicht klar, es gibt kein Gleichgewicht zwischen wirksam und ehrlich. Alles andere ist eine Täuschung. Man kann Dinge weglassen, aber Sie müssen erklären, warum. Schneider ist anscheinend versucht, zu rationalisieren und somit unmoralische Handlungen zu rechtfertigen. Es ist ein schwacher Versuch zu sagen, dass der Zweck die Mittel heiligt. Als sie nach dem CRU-E-Mail-Leck in Schwierigkeiten waren, fragten sie Schneider Ihnen bei der Zusammenfassung für politische Entscheidungsträger (SPM) zu helfen.
Die aktive Handhabung der Daten und Anwendung von Methoden zum Kreieren der gewünschten Wissenschaft und damit des politischen Ergebnisses war moralisch und wissenschaftlich falsch. Dies wurde verstärkt durch das, was ausgelassen wurde, die Rosinenpickerei. Dieses schließt unterschiedlich ein,
♦ das Auslassen von Daten, wie bei Sabine und Feely,
♦ die Auswahl von Anfangs- und Endpunkten auf Grafiken, um einen gewünschten Trend darzustellen, wie bei Santer,
♦ das Weglassen ganzer Bereiche zu den Ursachen des Klimawandels, wie die Auslassung des Milankovitch Effect oder der kosmischen Theorie [Anmerkung: Svensmark]
→ Die Auswahl begann mit der bewusst eng gefassten Definition des Klimawandels, die der IPCC nur auf menschliche Ursachen einschränkt.
→ Das Weglassen all der starken Einschränkungen der Wissenschaft und der Computermodelle die im Bericht der Arbeitsgruppe I identifiziert sind, The Physical Science Basis aus dem SPM.
Es gibt Lügen und Unterlassungen und beide passen in die politischen und PR Praktiken der IPCC Klimawissenschaft. Menschen lernen beide Arten von Lügen als Kinder. In der Tat ist die Fähigkeit zu lügen eine der Klassifikationen die von Anthropologen gewählt ist, um den Menschen von Tieren zu unterscheiden.
Die Bezeichnung, Homo sapiens, trennt uns angeblich, weil wir konzeptionell denken. Das heißt, wir können unterschiedliche Informationen aufnehmen und sie verknüpfen. Dann entdeckten wir andere Tiere, die ähnliche konzeptionelle Verbindungen vornehmen, so dass sie beschlossen, wir sind anders, weil wir lügen können. Dies erfordert ein doppeltes konzeptionelles Verständnis. Sie müssen die Wahrheit wissen und dann herausfinden, wie man damit umgehen kann, daher die aktuelle Bezeichnung des Menschen als Homo Sapiens sapiens. Wie kann man auf einen moralischen Unterschied stolz sein? Natürlich, die jüngste moralische Unterstützung der IPCC Klimawissenschaft durch Papst Francis „puts the cat amongst the … pigeons“ [Wortspiel: macht den Bock zum Gärtner]“.
Unterlassungssünden sind ein wichtiger Bestandteil der Werbung und Öffentlichkeitsarbeit. Sie rechtfertigen die Sünde als Betonung des Positiven, aber es ist hauptsächlich die Vermeidung des Negativen. Identifizieren nur von Vorteilen wurde verwendet, um alternative Energien zu fördern, anstatt einer ausgewogenen und realistischen Kosten / Nutzen-Studie,
Befürworter der (AGW) Hypothese von der menschlichen Produktion von CO2 untersuchen nur, was sie als negative Auswirkungen behaupten. Das IPCC schaut nicht auf die Vorteile der globalen Erwärmung. Ebenso wirksam in ihrer Täuschung war die Vermeidung positiver Auswirkungen von CO2, nicht zuletzt den Unterhalt des ganzen Lebens durch die Produktion von Sauerstoff. Ein Maß für den Unverstand, der sich aus den IPCC-Täuschungen ergibt, ist der Vorstoß, von Aktivisten wie Al Gore und Bill McKibben, atmosphärisches CO2 zu reduzieren. Dies trotz wissenschaftlicher Forschung und empirischer Belege, dass Pflanzen am besten zwischen 1000 -1200 Teile pro Million (ppm) funktionieren, sie werden bei dem derzeitigen Niveau von 400 ppm unterernährt. All dies ist eine Folge der Fehlentwicklungen durch die IPCC und manifestiert in Sabine und Feely‘s jüngstem Beispiel. Es ist Zeit, die Vollmacht für die Pflanzen zu etablieren und in ihrem Namen gegen eine unmoralische Maßnahme zur Verringerung des CO2-Gehaltes zu stimmen.

Climate And Truth: A Tale Of Immorality?


http://tinyurl.com/lo7ct27
Übersetzt von Andreas Demmig EIKE




Der Große Stillstand verlängert sich erneut

Abbildung 1 (rechts): Der lineare Regressionstrend kleinster Quadrate im Datensatz der mittleren globalen Temperaturanomalie des RSS zeigt keine globale Erwärmung seit Oktober 1996, also seit 18 Jahren und drei Monaten.
Angesichts dessen, dass sich der Papst unklugerweise darauf vorbereitet, für immer die politische Neutralität aufzugeben, die ihm seine Stellung auferlegt und seine Unterschrift unter eine klima-kommunistische Enzyklika zu setzen, entworfen vom radikalen Präfekten der Academy of Sciences im Vatikan, Monsignore Marcelo Sanchez Sorondo, zeigt der Allmächtige weiterhin einen Sinn für Humor.
Die Welt-Konferenz in Paris ist zeitlich nicht einmal mehr ein Jahr entfernt. Und dennoch hat die globale Erwärmung, die das IPCC so vertrauensvoll aber irreführend vor 25 Jahren vorhergesagt hatte, vollständig aufgehört.

Abbildung 2: Kurzzeit-Projektionen von Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, ausgegeben mit „substantiellem Vertrauen“ vom IPCC (1990) von Januar 1990 bis November 2014 (orangefarbene Region und rote Trendlinie) im Vergleich zu den beobachteten Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von weniger als 1,4 K pro Jahrhundert als Mittelwert der monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS- und UAH-Satellitenmessungen.
Ein Vierteljahrhundert nach 1990 ist das Ergebnis der globalen Erwärmung bis heute – ausgedrückt als der lineare Regressionstrend kleinster Quadrate im Mittel der RSS- (1) und UAH (2)-Daten – 0,34°C, äquivalent zu lediglich 1,4°C pro Jahrhundert oder mehr als halb so gering wie die zentrale Schätzung des IPCC (1990) und noch deutlich unter der geringsten Schätzung (Abbildung 2).
Der Große Stillstand ist ein wachsendes Ärgernis für all jene, die uns mit „substantiellem Vertrauen“ weisgemacht haben, dass die Wissenschaft ,settled‘ und die Debatte vorüber sei. Die Natur hatte Anderes im Sinn. Trotz inzwischen fast 70 Entschuldigungs-Gründen, die untereinander nicht kompatibel und mehr oder weniger implausibel sind und die in nervös gewordenen begutachteten Journalen und unter missionierenden Wissenschaftlern erscheinen, kann die Möglichkeit nicht länger ausgeschlossen werden, dass der Stillstand stattfindet, weil die Computermodelle schlicht und ergreifend falsch sind hinsichtlich der Sensitivität der Temperatur in Bezug auf menschliche Treibhausgase. Dies wird in einer großen begutachteten Studie deutlich, die im Dezember 2014 im führenden Wissenschaftsjournal des Orients veröffentlicht worden ist.
Bemerkenswerterweise liegen sogar noch die jüngsten und deutlich reduzierten Projektionen des IPCC bzgl. der globalen Erwärmung ebenfalls viel zu hoch (Abbildung 3):

Abbildung 3: Vorhergesagte Temperaturänderung von Januar 2005 bis November 2014 mit einer Rate von 1,7 (1,0; 2,3)°C pro Jahrhundert (orangefarbene Region mit dicker roter Best-Estimate-Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und Nulltrend in der realen Welt (hellblau) als Mittelwert der monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS- und UAH-Satellitenmessungen.
Im Jahre 1990 lag die zentrale Schätzung des IPCC der Erwärmung im Kurzfristzeitraum um zwei Drittel über der heutigen Schätzung. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert. Jetzt ist es ein Äquivalent von 1,7°C – und wie Abbildung 3 zeigt, erweist sich selbst das noch als substantielle Übertreibung.
In den RSS-Satellitendaten gab es seit über 26 Jahren keine statistisch von Null unterscheidbare globale Erwärmung. Keines der Modelle hat vorhergesagt, dass im Endeffekt ein Vierteljahrhundert lang keine globale Erwärmung auftreten würde.

Schlüsselfakten zur globalen Temperatur:

● Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 219 Monaten von Oktober 1996 bis Dezember 2014 – ein Zeitraum, der mehr als die Hälfte der 432-monatigen Satellitenaufzeichnung umfasst.
● Der Trend der globalen Erwärmung seit 1990 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und hat vermutlich nicht viel mit uns zu tun.
● Seit 1950, als ein menschlicher Einfluss auf die globale Temperatur erstmals theoretisch möglich war, lag der Trend der globalen Erwärmung unter einem Äquivalent zu 1,2°C pro Jahrhundert.
● Die größte Erwärmungsrate über 10 Jahre oder mehr seit 1950 war in den 33 Jahren von 1974 bis 2006 aufgetreten. Der Wert war äquivalent zu 2,0°C pro Jahrhundert.
● Im Jahre 1990 lag die mittlere Vorhersage des IPCC im Kurzfristzeitraum bei einem Äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel höher als dessen gegenwärtige Vorhersage von 1,7°C pro Jahrhundert.
●Der Trend der globalen Erwärmung seit 1990, als das IPCC seinen ersten Bericht geschrieben hat, ist äquivalent zu weniger als 1,4°C pro Jahrhundert – also die Hälfte dessen, was das IPCC damals vorhergesagt hatte.
● Obwohl das IPCC seine Erwärmungsvorhersage im Kurzfristzeitraum reduziert hat, hat es seine Erwärmungsvorhersage für dieses Jahrhundert bei ,Business as Usual‘ um 4,8°C bis zum Jahre 2100 nicht reduziert.
● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist deutlich mehr als doppelt so hoch wie die höchste Erwärmungsrate über mehr als zehn Jahre, die seit 1950 gemessen worden ist.
● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist fast vier mal so hoch wie der in der realen Welt gemessene Erwärmungstrend, seit wir theoretisch in der Lage waren, das Klima zu beeinflussen (1950).
● Von September 2001 bis November 2014 ist der Erwärmungstrend im Mittel der 5 globalen Temperaturdatensätze Null. Keine Erwärmung seit 13 Jahren und drei Monaten.
● Jüngste Extremwetterereignisse können nicht der globalen Erwärmung geschuldet sein, weil es keinerlei globale Erwärmung gegeben hat. So einfach ist das.

Technische Anmerkung

Unsere letzte thematische Graphik zeigt den linearen Regressionstrend kleinster Quadrate im Datensatz der monatlichen globalen mittleren Verhältnisse in der unteren Troposphäre, indem man so weit wie möglich zurückgehen kann und immer noch einen Null-Trend findet. Der Startzeitpunkt ist keine „Rosinenpickerei“ dergestalt, dass der Beginn mit der Temperaturspitze des Super-El Nino 1998 zusammenfällt. Stattdessen ist der so berechnet, dass man den längsten Zeitraum mit einem Null-Trend findet.
Aber ist der RSS-Satelliten-Datensatz „Rosinenpickerei“? Nein. Es gibt gute Gründe, diesen als den besten der fünf primären globalen Temperatur-Datensätze anzusehen. Der unermüdliche „Steven Goddard“ zeigte im Herbst 2014, dass der RSS-Datensatz – zumindest soweit er das Historical Climate Network HCN betrifft – eine geringere Warmverzerrung zeigt als die Aufzeichnungen von GISS (3) oder UAH (2). Der UAH-Datensatz soll demnächst überarbeitet werden, um dessen Warmverzerrung zu reduzieren und ihn konformer mit dem RSS-Datensatz zu machen.

Abbildung 4: Warmverzerrungen der Temperatur. RSS zeigt einen geringeren Bias als die UAH- und GISS-Aufzeichnungen. UAH wird in seiner demnächst erscheinenden Version 6.0 Schritte unternehmen, um den Warm-Bias in seiner Erfassung der globalen Temperatur zu reduzieren.
Steven Goddard schreibt:

„Die Graphik vergleicht die US-Temperaturen nach UAH, RSS und GISS mit den tatsächlichen Messungen der HCN-Stationen in den USA. UAH und GISS zeigen beide eine große Warmverzerrung, während RSS nahe bei den gemessenen täglichen Temperaturdaten liegt. Der geringe Unterschied zwischen RSS und HCN ist möglicherweise dem Umstand geschuldet, dass meine HCN-Berechnungen nicht flächengemittelt [gridded] sind. Meine Schlussfolgerung lautet, dass RSS der einzige glaubwürdige Datensatz ist und alle anderen einen falschen Warm-Bias aufweisen“.

Auch zeigt sich in den RSS-Daten der Große El Nino von 1998 deutlicher als in allen anderen Datensätzen. Der Große El Nino verursachte wie seine beiden Vorgänger während der letzten 300 Jahre eine verbreitete Korallenbleiche. Dies ist eine unabhängige Verifikation, dass RSS viel besser in der Lage ist, derartige Fluktuationen abzudecken ohne künstliches Herausfiltern derselben wie in anderen Datensätzen.
Terrestrische Temperaturen werden mit Thermometern gemessen. Korrekt in ländlichen Gebieten aufgestellte Thermometer, ausreichend weit entfernt von menschlichen Wärmequellen zeigen Erwärmungsraten, die merklich unter denen liegen, die veröffentlicht werden. Die Satelliten-Datensätze basieren auf Messungen der genauesten derzeit verfügbaren Thermometer – Platin-Widerstandsthermometer, die eine unabhängige Verifikation der Temperaturmessungen erlauben, indem man mittels Richtung Weltraum ausgerichteter Spiegel die bekannte Temperatur der kosmischen Hintergrundstrahlung misst, welche 1% des Gefrierpunktes von Wasser ausmacht bzw. um 2,73 Grad über dem Absoluten Nullpunkt liegt. Es war die Messung infinitesimaler Variationen der kosmischen Hintergrundstrahlung, die es der NASA erlaubte, das Alter des Universums zu berechnen: 13,82 Milliarden Jahre.
Die RSS-Graphik ist genau (Abbildung 1 oben rechts). Die monatlichen Daten stammen direkt von der RSS-Website. Ein Computer-Algorithmus liest sie aus dem Textfile heraus, mittelt sie und plottet sie automatisch mittels einer fortschrittlichen Routine, die automatisch das richtige Format des Datenfensters auf beiden Achsen adjustiert, um die Daten der Klarheit halber im maximalen Maßstab zu zeigen.
Der letzte monatliche Datenpunkt wird visuell untersucht um sicherzustellen, dass er korrekt positioniert worden ist. Die hellblaue, über die die tatsächlichen Daten zeigende dunkelblaue Profilkurve gelegte Trendlinie wird errechnet durch die Methode der linearen Regression kleinster Quadrate, welche den Schnittpunkt mit der y-Achse berechnet sowie die Neigung der Linie mittels zweier etablierter und funktional identischer Gleichungen, die miteinander verglichen werden, um sicherzustellen, dass es zwischen ihnen keine Diskrepanzen gibt. Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Die Methode ist geeignet, weil globale Temperaturaufzeichnungen nur wenig Autoregression zeigen.
Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend in der Graphik und der Korrelations-Koeffizient berechnet werden, der sehr niedrig ist, weil der Trend trotz der hoch variablen Daten flach verläuft.
RSS selbst ist inzwischen ernsthaft an der Länge des Großen Stillstands interessiert. Dr. Carl Mears, der leitende Forschungswissenschaftler beim RSS, diskutiert dies hier.
Seine Ergebnisse werden in Abbildung 5 zusammengefasst:

Abbildung 5: Output der 33 IPCC-Modelle (türkis) verglichen mit der gemessenen globalen Temperaturänderung nach RSS (schwarz), 1979 bis 2014. Die vorübergehenden Abkühlungsphasen durch die Ausbrüche des Chichon (1983) und des Pinatubo (1991) werden gezeigt, ebenso wie die Wärmespitze durch den Großen El Nino von 1998.
Dr. Mears schreibt:

„Die Leugner mögen die Hypothese, dass die Ursache für die Diskrepanz zwischen Modellen und Beobachtungen irgendeinem Problem mit der fundamentalen Modellphysik geschuldet ist, und sie gehen mit Geringschätzung über jede andere Art der Erklärung hinweg. Dies führt sie zu der sehr wahrscheinlich irrigen Schlussfolgerung, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die zunehmende Diskrepanz zwischen den RSS-Daten und den Modellen ein, aber er vermutet „Rosinenpickerei“ hinsichtlich des Startdatums des Graphen der globalen Temperatur:

„Vor Kurzem hat eine Anzahl von Artikeln in den Main-Stream-Medien darauf hingewiesen, dass es so aussieht, als ob es während der letzten zwei Dekaden kaum oder gar keine Änderungen der Temperatur gegeben habe. Deswegen stellt man uns eine Menge Fragen nach dem Motto ,ich habe diesen Plot auf einer Leugner-Website gesehen. Sind das wirklich Ihre Daten?‘ Während in einigen dieser Berichte die Endpunkte tatsächlich ,cherry-picked‘ sind, um deren Beweise stärker erscheinen zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als vom IPCC im AR 5 vorhergesagt. Die Leugner mögen es wirklich, Trends im Jahre 1997 beginnen zu lassen, so dass das gewaltige El Nino-Ereignis von 1997/1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der kleinstmöglichen Neigung führt“.

In Wirklichkeit wird die Temperaturspitze des Großen El Nino von 1998 großenteils durch zwei Faktoren in der linearen Trendberechnung kompensiert: die nicht unähnliche Spitze des El Nino 2010 und die schiere Länge des Großen Stillstands selbst.
Ersetzt man alle monatlichen RSS-Anomalien für das Jahr 1998 mit dem mittleren Anomaliewert von 0,55 K, erhalten während des El Nino 2010 und berechnet dann erneut den Trend seit September 1996 (nicht Dr. Mears‘ „1997“) bis September 2014 zeigt sich, dass die Trendwerte „-0,00°C (-0,00°C pro Jahrhundert)“ in den unveränderten Daten (Abbildung 1) zu „+0,00°C (+0,00°C pro Jahrhundert)“ geworden sind. Fazit:

keine Rosinenpickerei.

Die Länge des Großen Stillstands bzgl. der globalen Erwärmung, so signifikant sie auch ist, ist indessen von geringerer Bedeutung als die immer größer werdende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und den weit weniger aufregenden Temperaturänderungen in der realen Welt, die gemessen worden sind.
Im Ersten Zustandsbericht hat das IPCC vorhergesagt, dass die globale Temperatur um 1,0°C (0,7; 1,5) bis zum Jahre 2025 steigen würde, äquivalent zu 2,8 (1,9; 4,2)°C pro Jahrhundert. In der ,executive Summary‘ wird gefragt: „wie viel Vertrauen haben wir in unsere Vorhersagen?“ Das IPCC verwies zwar auf einige Unsicherheiten (Wolken, Ozeane usw.), kam aber zu der Schlussfolgerung:

„Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle zumindest die groben Umrisse des Klimawandels vorhersagen können … Es gibt Ähnlichkeiten zwischen den Ergebnissen der gekoppelten Modelle unter Verwendung simpler Repräsentationen der Ozeane und jenen, die kompliziertere Verfahren verwenden, und unser Verständnis solcher Unterschiede, wie sie auftreten, verleiht uns einiges Vertrauen in unsere Ergebnisse“.

Jenes „substantielle Vertrauen“ war substantielles Über-Vertrauen. Weil die Rate der globalen Erwärmung seit 1990 nur etwa halb so groß ist wie vom IPCC damals vorhergesagt.

Erwärmt sich der Ozean?

Eine oft diskutierte Erklärung für den Großen Stillstand lautet, dass das gekoppelte Ozean-Atmosphäre-System weiterhin Wärme akkumuliert hat mit etwa der von den Modellen vorhergesagten Rate, dass aber während der letzten Jahrzehnte die Wärme aus der Atmosphäre durch die Ozeane entfernt worden ist, und – da global die oberflächennahen Schichten weit weniger Erwärmung zeigen als von den Modellen vorhergesagt – es wird hypothetisch angenommen, dass das, was man die „fehlende Wärme“ nennt, in die Tiefsee unter 2000 m abgesunken ist, wo man praktisch nichts messen kann. Von dort wird die Wärme irgendwann in der Zukunft wieder auftauchen.
Die „Fehlende-Wärme-Theorie bzgl. der Ozeane“ wird federführend von einer einzigen Gruppe in den USA befürwortet. Meehl, Arblaster, Fasullo, Hu und Trenberth (7) sagen:

„Acht Jahrzehnte mit einem leicht negativen globalen Oberflächen-Temperaturtrend zeigen, dass die Ozeane oberhalb 300 m signifikant weniger Wärme aufnehmen, während die Ozeane tiefer als 300 m signifikant mehr Wärme aufnehmen, verglichen mit den Dekaden ohne Stillstand. Das Modell bietet eine plausible Beschreibung der Prozesse im Klimasystem, die die Stillstands-Perioden verursachen, und sie zeigen, dass eine Stillstands-Periode ein relativ normales Klimaphänomen ist und mit La Nina-Bedingungen zusammenhängen kann“. Balmaseda, Trenberth und Källen (8) sagen dagegen: „Im vergangenen Jahrzehnt ereignete sich etwa 30% der Erwärmung unter 700 m, was signifikant zu einer Beschleunigung des Erwärmungstrends beitrug. Die Erwärmung unterhalb 700 m bleibt bestehen, selbst wenn das ARGO-Beobachtungssystem zurückgezogen wird, obwohl die Trends reduziert sind“. Und Trenberth & Fasullo (2013), wiederholt in Trenberth, Fasullo & Balmaseda (9) sagen: „Eine Inventur der Änderungen der Energiespeicherung zeigt, dass sich über 90% des Ungleichgewichtes als ein Anstieg des ozeanischen Wärmegehaltes OHC manifestieren. … Die globale Erwärmung ist nicht zum Stillstand gekommen: sie hat sich lediglich auf unterschiedliche Weise manifestiert“.

Diese US-Gruppe wird unterstützt durch eine Gruppe an der Chinese Academy of Sciences (10):

„eine schwankende globale Wärmesenke in mittleren Ozeantiefen geht einher mit unterschiedlichen Klimaregimes der Erwärmung an der Oberfläche infolge anthropogenen Antriebs. Während der zweiten Hälfte des 20. Jahrhunderts zeigte sich eine rapide globale Erwärmung, da mehr Wärme an der Oberfläche verblieben war. Im 21. Jahrhundert hat sich die Erwärmung verlangsamt, da mehr Wärme in tiefere Ozeanschichten abgesunken ist … Abkühlungsperioden im Zusammenhang mit der späteren Wärmeabscheidung in größeren Tiefen dauerten historisch gesehen 20 bis 35 Jahre“.

In (11) spekulieren die Akademiker, dass zu irgendeinem Zeitpunkt in der Zukunft der Stillstand sein Vorzeichen ändern könnte, was zu einer weiteren Episode einer möglicherweise beschleunigten globalen Erwärmung führt.
Und doch gibt es bis auf den heutigen Tag kein empirisches, theoretisches oder numerisches Verfahren, das erfolgreich mechanistisch spezifiziert hat, wie einmal die durch anthropogene Treibhausgase erzeugte Wärme aus der Atmosphäre kommend die tiefen Ozeanschichten erreicht haben könnte ohne den Wärmegehalt der durchlaufenen oberflächennahen Schichten wesentlich zu verändern, oder wie zum Anderen die Wärme vom Grund der Ozeane eventuell zurück an die Oberfläche kommen kann, um die oberflächennahen Klimabedingungen zu verändern, die für das landbasierte Leben auf der Erde relevant sind.
Die meisten Ozeanmodelle, die für Sensitivitäts-Läufe gekoppelter allgemeiner Zirkulationsmodelle verwendet werden, können einfach nicht den größten Teil der physikalischen Prozesse auflösen, die für das Einfangen der Wärme durch die Tiefsee relevant sind. Ultimativ verlangt der Zweite Hauptsatz der Thermodynamik, dass jedwede Wärme, die sich in der Tiefsee akkumuliert haben könnte, mittels verschiedener Diffusionsprozesse aufgelöst wird. Es ist nicht plausibel, dass irgendwelche von der Tiefsee aufgenommene Wärme plötzlich die oberen Ozeanschichten erwärmen wird und über diesen Zwischenschritt die Atmosphäre.
Selbst falls Wärme die benthischen Schichten erreicht, ohne die oberflächennahen Schichten auf ihrem Weg zu erwärmen, ist die kurzfristige oberflächennahe Reaktion ziemlich unempfindlich gegenüber einem steigenden atmosphärischen CO2-Gehalt. Aus diesem Grunde ist die Lösung der ozeanischen Thermodynamik keine Vorbedingung für das empirische Studium der Klimasensitivität mittels unseres einfachen Modells. Falls die „Tiefsee“-Erklärung für den Stillstand der globalen Erwärmung korrekt ist (und das ist lediglich eine unter Dutzenden anderen), dann sind die komplexen Modelle daran gescheitert, dies korrekt in Betracht zu ziehen: anderenfalls wäre die wachsende Diskrepanz zwischen den vorhergesagten und den beobachteten atmosphärischen Erwärmungsraten nicht so signifikant geworden, wie es der Fall gewesen ist.
Da die komplexen Modelle in dieser Hinsicht versagt haben, es ungenügende Beobachtungen aus der Tiefsee gibt, um zuverlässige quantitative Beweise einer vermeintlichen Wärmeakkumulation unter 2000 m zu erbringen, es noch weniger möglich ist, den Mechanismus des imaginären Wärmetransfers zu berechnen, es wiederum weniger möglich ist, die rechtzeitige Dosierung der jeweiligen Verteilung anthropogener, solarer oder untermeerischer Vulkanaktivitäten zu bestimmen, ist es sicher unvernünftig, von unserem einfachen Modell das zu erwarten, woran die komplexen Modelle aus sich selbst heraus gescheitert sind – und was kann man mit einem Modell nicht alles machen, einfach oder komplex, solange und bis Messungen mit weit höherer Auflösung als jetzt zur Verfügung stehen an allen Punkten der ozeanischen Säule.

Beispiel:

die 3500 automatisierten ARGO-Bathythermograph-Bojen haben eine Auflösung äquivalent zur Messung eines einzigen Temperatur- und Salzgehaltes im Oberen See weniger als einmal pro Jahr: und bevor ARGO Mitte Mitte des vorigen Jahrzehnts in Berieb ging wurde, war die Auflösung ozeanischer Temperaturmessungen sogar noch deutlich schlechter als das, vor allem in Tiefsee-Schichten.
Die mittlere Tiefe des globalen Ozeans beträgt 3700 m. Wie jüngst in (11) beobachtet, was implizit die Infragestellung der Behauptungen der USA-Gruppe (7 – 9) enthält, sind sowohl die Auflösung von Stichproben in verschiedenen Tiefen als auch die Länge der Aufzeichnung beide unzureichend, um entweder verlässliche Messungen des ozeanischen Wärmegehaltes oder das Monitoring der ozeanischen Strahlungsflüsse zu erlauben:
Einige grundlegende Elemente des Stichprobe-Problems sind in Tabelle 2 gelistet. Etwa 52% des Ozeans ist tiefer als 2000 m und etwa 18% tiefer als 3600 m. Definiert man eine bestimmte Wassermenge als „getestet“, falls mindestens eine CTD-Station innerhalb eines Gitterquadrats von 60 X 60 km² im Zeitintervall 1992 bis 2011 existiert, wurde etwa ein Drittel (11% der Gesamtmenge) Wasser unter 2000 m betrachtet … In Tiefen unter 3600 m waren etwa 17% vermessen … Viele Studien gehen davon aus, dass es in der Tiefsee während des historischen Zeitraumes keine signifikanten Änderungen gegeben hat … Die Historie der Erforschung zeigt jedoch, dass weiße Flächen auf der Karte entweder als uninteressant angesehen und damit aus der weiteren Diskussion ausgeklammert worden sind, oder das andere Extrem war der Fall, die Flächen seien gefüllt mit ,Drachen‘, die herbeigefleht werden, um seltsame Berichte von dort zu erklären (in G. De Jode 1578, Speculum Orbis Terrarum, Antwerpen). …
Jüngst wurden in (60) Schätzungen von Änderungen in der Tiefsee mit einer behaupteten Genauigkeit in der Größenordnung von 0,01 W/m² in den Raum gestellt (äquivalent zu einer Temperaturänderung von 0,0004°C innerhalb von 20 Jahren) unter 700 m. Falls diese Genauigkeit wirklich erreicht worden wäre, wäre die geringe Abdeckung ausreichend, vielleicht erweitert auf die WOCE hydrographische Überwachung und alle paar Jahrzehnte wiederholt“.
Außerdem mangelt es in fast allen Analysen des ozeanischen Wärmegehaltes und -haushaltes an genauer Berücksichtigung der räumlichen, zeitlichen und anderer systematischer Fehler und Unsicherheiten, wie z. B. jene, die in einer Arbeit durch eine Gruppe an der chinesischen Academy of Sciences (12) identifiziert worden sind:

„In dieser Studie wurde eine neue Quelle von Unsicherheiten bei der Berechnung des OHC diagnostiziert, und zwar infolge der ungenügenden vertikalen Auflösung der historischen Ozeantemperaturprofile unter der Oberfläche. Dieser Fehler wurde untersucht mittels einer Stichprobe einer hohen vertikalen Auflösung in einem klimatologischen Ozeanmodell, dem Messungen in Tiefenintervallen von der Oberfläche aus gegenüber gestellt wurden. Dann wurde der Fehler definiert als der Unterschied zwischen dem OHC berechnet aus Stichproben-Profilen und dem OHC des klimatologischen Ozeans. Der so erhaltene auflösungsbezogene Fehler scheint in den oberen 100 m kalt zu sein (mit einem Spitzenwert von etwa -0,1°C), warm in Tiefen zwischen 100 und 700 m (mit einem Spitzenwert um 0,1°C bei 180 m) und warm bei einer Mittelung zwischen 0 und 700 m (mit einem globalen Mittel von ~0,01°C bis -0,025°C sowie ~1 bis 2,5 X 10²² J). Geographisch zeigte sich eine Warmverzerrung innerhalb von 30°S bis 30°N und eine Kaltverzerrung in höheren Breiten beider Hemisphären. Das Vorzeichen hing von der konkaven oder konvexen Krümmung des vertikalen Temperaturprofils ab. Schließlich fordern die Autoren, ein biasfreies Beobachtungssystem in Zukunft zu installieren: Eine minimale vertikale Tiefe von 5% wird gebraucht, um die der vertikalen Auflösung geschuldete Verzerrung auf weniger als 0,005°C des globalen Mittels zu bringen (gleiche Genauigkeit wie bei ARGO).

Und weiter (13):

„…ein neues Korrekturschema für historische XBT-Daten wird vorgestellt für neun verschiedene Stichproben-Typen. Das Schema enthält auch Korrekturen sowohl für die Temperatur als auch für Aufzeichnungen in der Tiefe, die alle mit dem Kalenderjahr variabel sind, außerdem für die Wassertemperatur und den Typ der Stichprobe. Die Ergebnisse bestätigen die in vorhergehenden Studien gefundenen: eine Verlangsamung der Fallrate während der siebziger Jahre und des ersten Jahrzehnts dieses Jahrhunderts sowie der große, rein thermische Bias von 1970 bis 1985. Das Verhalten von neun unterschiedlichen Korrekturschemata wird verglichen. Nachdem die vorgestellten Korrekturen an die XBT-Daten im WOD09-Datensatz angebracht worden waren, wird der globale ozeanische Wärmegehalt von 1967 bis 2010 neu abgeschätzt“.

Eine demnächst erscheinende Studie (14) beschreibt ein vertikales Profil der Temperaturänderung im Ozean von 2004 bis 2013 mit einem Erwärmungs-Stillstand über 100 m und in Tiefen zwischen 300 und 700 m, nachdem einige der Stichproben-Verzerrungen und Instrumentenfehler und Unsicherheiten in den Daten des ozeanischen Wärmegehaltes berücksichtigt worden waren (d. h. der neue globale Ozean-Temperatur-Datensatz vom Institute for Atmospheric Physics wurde angebracht). Die beiden Erwärmung zeigenden Schichten liegen zwischen 100 und 300 sowie 700 und 1500 Metern. Diese Schichten mit Erwärmung zeigen ihre eigenen charakteristischen horizontalen räumlichen Verteilungen, wenn man sie mit den sich nicht erwärmenden Schichten zwischen 300 und 700 Metern vergleicht. Diese beobachtete Tatsache führt zu folgender Schlussfolgerung:
Es ist immer noch unklar, wie die Wärme in die Tiefsee transferiert worden sein soll“.
Außerdem ist der Vorschlag, dass die Wärmeakkumulation in der Tiefsee erklärt, warum es seit 18 Jahren keinerlei globale Erwärmung mehr gegeben hat, in der wissenschaftlichen Literatur alles andere als allgemein akzeptiert. Eine bemerkenswerte Vielfalt von miteinander konkurrierenden und mit oftmals sich widersprechenden Erklärungen für den Stillstand der globalen Erwärmung, hauptsächlich unter Betrachtung der Phänomene nahe der Oberfläche, werden in Studien aus jüngerer Zeit in den begutachteten Journalen der Klimawissenschaft vorgestellt.
[Die folgende Auflistung steht im Original ohne jeden Absatz in einem langen, unübersichtlichen Abschnitt, zum Glück aber mit Ordnungszahlen. Zum besseren Verständnis auch für mich selbst habe ich diesen Abschnitt den Ordnungszahlen folgend unterteilt. Anm. d. Übers.]
In der Literatur wird der Grund für den Stillstand der globalen Erwärmung auf sehr vielfältige Weise erklärt:
1. eine eingeführte Kaltverzerrung durch mangelnde Abdeckung während der letzten Jahre (15), widerlegt von (16) und hinsichtlich der Abdeckung der Arktis von (17);
2. anthropogene Aerosole aus der Kohleverbrennung (18), widerlegt von (19, 20);
3. Abnahme der Erwärmung infolge Absorption durch Ruß (20);
4. Emission von Aerosol-Partikeln durch Vulkanausbrüche (21), widerlegt von (22);
5. reduzierte Sonnenaktivität (23);
6. Effektivität des Montreal-Protokolls bei der Kontrolle der Emissionen von Chlor-Fluor-Kohlenwasserstoffen (24);
7. eine geringere Zunahme der Methan-Konzetration als erwartet (24);
8. eine Abnahme der stratosphärischen Wasserdampf-Konzentration (25);
9. verstärkte Passatwinde im Pazifik (26), (zuvor waren in (27) schwächere Passatwinde im Pazifik der anthropogenen globalen Erwärmung zugeordnet worden);
10. Stadium Waves [?] in der Zirkulation im tropischen Pazifik (28);
11. Zufall (29):
12. Aerosolpartikel von Kiefern (30),
13. Natürliche Variabilität (31, 32);
14. kältere Nachttemperaturen in der Nordhemisphäre (33);
15. Vorhersagen von jenen Modellen, die die Möglichkeit eines Stillstands der globalen Erwärmung zulassen;
16. die negative Phase der Pazifischen Dekadischen Oszillation (36 – 38);
17. die Atlantische meridionale overturning [?] Zirkulation (39);
18. Globale Verdunkelung (dimming), die globalen Aufhellung (brightening) von 1983 bis 2001 folgte (40);
19. relative Häufigkeit bestimmter Arten von El Nino (41);
20. oberflächennahe Abkühlung im äquatorialen Pazifik (42);
21. Abkühlung im Pazifik, verstärkt durch Erwärmung im Atlantik (43);
22. eine Kombination von Faktoren einschließlich der ENSO-Variabilität, Abnahme der Sonnenaktivität und stratosphärische Aerosole (44);
23. unterschätzer Antrieb anthropogener Aerosole (45);
24. eine neue Form multidekadischer Variabilität, die sich von den Ozeanoszillationen unterscheidet, aber mit diesen in Beziehung steht (46) und
25. Scheitern bei der Initialisierung der meisten Modelle, um sie mit Beobachtungen konform zu machen, besonders bei ozeanischen Bedingungen (47).
Und schließlich, obwohl die ARGO-Bojen die Änderung der Ozeantemperatur direkt messen, wird die Temperaturänderung vor der Veröffentlichung in Zetajoule der Änderung des ozeanischen Wärmegehaltes konvertiert, was die Änderung größer aussehen lässt. Die Konversion der OHC-Änderung zurück zu Temperaturänderungen ist sehr erhellend. Sie zeigt, wie gering die tatsächlich gemessene Änderung ist. Die Zunahme des ozeanischen Wärmegehaltes während der 94 ARGO-Monate September 2005 bis Juni 2013 betrug 10 X 10²² J = 100 ZJ (Abbildung 6).

Abbildung 6: Änderung des ozeanischen Wärmegehaltes 1957 bis 2013 aus dem NODC Ocean Climate Laboratory: http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT.
Konversion: 650 million km³ x 4 MJ per tonne per Kelvin: each cubic meter is 1,033 tonnes. Then:
100 ZJ increase in ohc 100.000.000.000.000.000.000.000 J
To raise 650.000.000.000.000.000 m³
x 1,033 te m–3 671.450.000.000.000.000 te
x 4,000,000 J te 2.685.800.000.000.000.000.000.000 J per Kelvin
Dann 100.000 / 2.685.800 = 0,037233 K über 94 Monate ist äquivalent zu 0,0457 K pro Jahrzehnt. Dem zufolge beträgt die Änderung der mittleren Ozeantemperatur in den oberen 2000 m während der letzten Jahrzehnte weniger als 0,5 K pro Jahrhundert, selbst nach den ziemlich extremen NODC-Aufzeichnungen des OHC.
References
1. RSS (2014) Satellite-derived monthly global mean lower-troposphere temperature anomaly dataset: http://www.remss.com/data/msu/monthly_time_series/RSS_Monthly_MSU_AMSU_Channel_TLT_Anomalies_Land_and_Ocean_v03_3.txt. Accessed 1 July 2014
2. UAH (University of Alabama at Huntsville) (2014) Satellite MSU monthly global mean lower-troposphere temperature anomalies. http://vortex.nsstc.uah.edu/data/msu/t2lt/uahncdc_lt_5.6.txt. Accessed 1 July 2014
3. NCDC, 2014, National Climatic Data Center monthly global mean land and ocean surface temperature anomalies, 1880-2013, ftp://ftp.ncdc.noaa.gov/pub/data/anomalies/monthly.land_ocean.90S.90N.df_1901-2000mean.dat. Accessed 1 July 2014
4. Morice, CP, Kennedy JJ, Rayner N, Jones PD (2012) Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: The HadCRUT4 data set. J. Geophys Res 117:D08101. doi:10.1029/2011JD017187
5. GISS, 2014, Goddard Institute for Space Studies monthly global mean land and sea surface temperature anomalies, 1880-2014, http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt. Accessed 1 July 2014
6. McKitrick RR (2014) HAC-robust measurement of the duration of a trendless subsample in a global climate time series. Open J Stat 4:527-535
7. Meehl GA, Arblaster JM, Fasullo JT et al (2011) Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods. Nat Clim Change 1: 360–364
8. Balmaseda MA, Trenberth KE, Källen E (2013) Distinctive climate signals in reanalysis of global ocean heat content. Geophys Res Lett 40:175401759
9. Trenberth KE, Fasullo JT, Balmaseda MA (2014) Earth’s energy imbalance. J Clim 27:3129-3144
10. Chen X, Tung KK (2014) Varying planetary heat sink led to global-warming slowdown and acceleration. Science 345: 897–903
11. Wunsch C, Heimbach P (2014) Bidecadal thermal changes in the abyssal ocean. J Phys Oceanol 44: 2013–2030
12. Cheng L, Zhu J (2014) Uncertainties of the ocean heat content estimation induced by insufficient vertical resolution of historical ocean subsurface observations. J Atm Oceanic Tech 31: 1383–1396
13. Cheng L, Zhu J, Cowley R et al (2014a) Time, probe type, and temperature variable bias corrections to historical expendable bathythermograph observations. J Atm Oceanic Tech 31: 1793–1825
14. Cheng L, Zheng F, Zhu J (2014b) Distinctive ocean interior changes during the recent climate hiatus. Geophys Res Lett submitted
15. Cowtan K, Way RG (2014) Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends. Quart J R Meteot Soc 140: 1934-1944
16. Fyfe JC, Gillet NP, Zwiers FW (2013) Overestimated global warming over the past 20 years. Nat Clim Change 3: 767-769
17. Chung CE, Cha H, Vilma T et al (2013) On the possibilities to use atmospheric reanalyses to evaluate the warming structure of the Arctic. Atmos Chem Phys 13: 11209-11219
18. Kaufmann RK, Kauppi H, Stock JH (2011) Reconciling anthropogenic climate change with observed temperature 1998-2008. Proc Natl Acad Sci USA 108: 11790-11793
19. Kühn T, Partanen A-I, Laakso A et al(2014) Climate impacts of changing aerosol emissions since 1996. Geophys ResLett 41: 4711-4718
20. Neely RR, Toon OB, Solomon S et al (2013) Recent anthropogenic increases in SO2 from Asia have minimal impact on stratospheric aerosol. Geophys Res Lett 40. doi: 10.1002/grl.50263
21. Santer BD, Bonfils C, Painter JF et al (2014) Volcanic contribution to decadal changes in tropospheric temperature. Nat Geosci 7:185-189
22. Haywood J, Jones A, Jones GS (2014) The impact of volcanic eruptions in the period 2000-2013 on global mean temperature trends evaluated in the HadGEM2-ES climate model. Atmos Sci Lett 15: 92-96
23. Stauning P (2014) Reduced solar activity disguises global temperature rise, Atmos Clim Sci 4: 60-63
24. Estrada F, Perron P, Martinez-Lopez B (2013) Statistically derived contributions of diverse human influences to twentieth-century temperature changes. Nat Geosci 6: 1050–1055
25. Solomon S, Rosenlof KH, Portmann RW et al(2010) Contributions of stratospheric water vapor to decadal changes of global warming. Science 327: 1219-1223
26. England MH, McGregor S, Spence P et al (2014) Recent intensification of wind-driven circulation in the Pacific and the ongoing warming hiatus. Nat Clim Change 4: 222-227
27. Vecchi ga, Soden BJ, Wittenberg AT, et al (2006) Weakening of tropical Pacific atmospheric circulation due to anthropogenic forcing. Nature 441: 73-76.
28. Glaze Wyatt M, Curry JA (2013) Role for Eurasian Arctic shelf sea ice in a secularly varying hemispheric climate signal during the 20th century. Clim Dyn 42: 2763-2782
29. Schmidt GA, Shindell DT, Tsigaridis K (2014) Reconciling warming trends. Nat Geosci 7(158-160). doi: 10.1038/ngeo2105
30. Ehn M, Thornton JA, Kleist E, et al (2014) A large source of low-volatility secondary organic aerosol. Nature 506:476-479
31. Watanabe M, Shiogama H, Tatebe H et al (2014) Contribution of natural decadal variability to global warming acceleration and hiatus. Nat Clim Change 4: 893–897
32. Lovejoy S (2014) Return periods of global climate fluctuations and the pause. Geophys Res Lett 41:4704-47
33. Sillmann, J, Donat MG, Fyfe JC et al (2014) Observed and simulated temperature extremes during the recent warming. Environ Res Lett 9. doi: 10.1088/1748-9326/9/6/064023
34. Risbey J, Lewandowsky S, Langlais C,et al (2014) Nat Clim Change 4:835-840
35. Guemas V, Doblas-Reyes FJ, Andreu-Burillo I et al (2013) Retrospective prediction of the global warming slowdown in the past decade. Nat Clim Change 3:649-653
36. Maher N, Sen Gupta A, England MH (2014) Drivers of decadal hiatus periods in the 20th and 21st centuries. Geophys Res Lett 41:5978-5986
37. Trenberth KE, Fasullo JT, Branstator G et al (2014) Seasonal aspects of the recent pause in surface warming. Nat Clim Change 4: 911–916
38. Dong L, Zhou T (2014) The formation of the recent cooling in the eastern tropical Pacific Ocean and the associated climate impacts: a competition of global warming, IPO and AMO. J Geophys Res doi: 10.1002/2013JD021395
39. Schleussner CF, Runge J, Lehmann J, et al (2014) The role of the North Atlantic overturning and deep ocean for multi-decadal global-mean-temperature variability. Earth Sys Dyn 5:103-115
40. Rahimzadeh F, Sanchez-Lorenzo A, Hamedi M, et al (2014) New evidence on the dimming/brightening phenomenon and decreasing diurnal temperature range in Iran (1961-2009). Int J Climatol doi: 10.1002/joc.4107
41. Banholzer S, Donner S (2014) The influence of different El Nino types on global average temperature. Geophys Res Lett 41:2093–2099
42. Kosaka Y, Xie SP (2013) Recent global-warming hiatus tied to equatorial Pacific surface cooling. Nature 501: 403–407
43. McGregor S, Timmermann A, Stuecker MF, England MH, Merrifield M, Jin FF, Chikamoto Y (2014) Recent Walker circulation strengthening and Pacific cooling amplified by Atlantic warming. Nature Clim. Change 4:888-892. doi: 10.1039/nclimate2330
44. Huber M, Knutti R (2014) Natural variability, radiative forcing and climate response in the recent hiatus reconciled. Nat Geosci 7: 651–656
45. Hansen J, Sato M, Kharecha PK, et al(2011) Earth’s energy imbalance and implications. Atmos. Chem Phys 11:13421-13449.
46. Maclas D, Stips A, Garcia-Gorriz E (2014) Application of the Singular Spectrum Analysis Technique to Study the Hiatus on the Global Surface Temperature Record. Plos One. doi: 10.1371/journal.pone.0107222
47. Meehl, GA, Teng H (2014) CMIP5 multi-model hindcasts for the mid-1970s shift and early 200s hiatus and predictions for 2016-2035. Geophys. Res. Lett. 41(5):17y11-1716
Link: http://wattsupwiththat.com/2015/01/03/the-great-pause-lengthens-again/
Übersetzt von Chris Frey EIKE




„Versauern“ die Ozeane? Die pHälschung!

Anmerkung: Der aktuelle Anlass für diesen Artikel ist eine Veröffentlichung auf einem US-Blog, die auf WUWT auszugsweise wiedergegeben, und dann von EIKE als Übersetzung publiziert wurde. Im Zentrum stehen Betrügereien mit pH-Werten von Meerwasser. Was zunächst mit dem englischen Wortspiel „pHraud“ bezeichnet wurde, lässt sich gut ins deutsche Wortspiel „pHälschung“ übertragen. Hier gehen wir auf die physikalischen, chemischen und biologischen Fakten ein, schauen uns diese pHälschung nochmal genauer an, und suchen (vergeblich) nach Belegen für die Gefahren von CO2 im Meerwasser. Dabei fällt die Wechselwirkung zwischen pH, Temperatur und CO2 auf.
Kohlendioxid (CO2) ist in der globalen Atmosphäre einigermaßen gleichmäßig verteilt (s. auch  Abbildung) und bleibt es, ganz anders als Wasserdampf, der sich gelegentlich zu einer Wolke wandelt, oder gar als Regen wieder auf die Erde zurück kommt.
An Land nutzen die Pflanzen das CO2 als Gas direkt aus der Luft und stellen per Photosynthese daraus die Kohlenhydrate Zucker, Stärke und Zellulose her. Es ist essentiell für alles Leben auf Erden. Das Pflanzenwachstum, und damit die weltweite landwirtschaftliche Produktion von Nahrungsmitteln, würde sogar von einem Mehrfachen der heutigen CO2 Konzentrationen profitieren. Allerdings sei das CO2 in der Atmosphäre für die per Computermodell vorhergesagte „katastrophale Erwärmung“ der Erde verantwortlich (was jedoch in realen Messdaten nicht sichtbar wird).
Im Wasser wird es komplizierter. Zunächst einmal wird das CO2 im Wasser physikalisch gelöst, so wie man Salz oder Zucker in Wasser auflösen kann und wie auch andere Gase gelöst werden. Bekanntermaßen ist auch Sauerstoff (O2) im Wasser physikalisch gelöst und die Fische können über ihre Kiemen diesen Sauerstoff „einatmen“. Auch Wasserpflanzen, wozu auch Mikroalgen gehören, können mit dem gelösten CO2 Photosynthese betreiben.
Anders als bei O2 reagiert jedoch eine kleine Menge (~1%) des zunächst physikalisch gelösten CO2 mit dem Wasser chemisch unter Bildung von „Kohlensäure“, wodurch das Wasser saurer wird.
In noch einem weiteren chemischen Schritt geschieht die Karbonatbildung; überwiegend in der Form von Calciumcarbonat (CaCO3, Kalkstein). Dies kann als chemischer Prozess ablaufen, der nichts mehr als die Gegenwart von Calcium-Ionen und Kohlensäure benötigt, wobei das gebildete, schwer lösliche Calciumcarbonat ausfällt und auf den Meeresboden absinkt. Oder es kann ein biologischer Prozess sein, bei dem Korallen, Muscheln und andere Organismen ihre harten Schalen bilden, und nach ihrem Absterben Teil der Kalksteinschicht werden. Über lange Zeiträume und nachfolgende geologische Verwerfungen führt dies zur Bildung von Kalksteingebirgen.
Allerdings ist dieser Schritt, chemisch wie auch biologisch, nur bis zu einem bestimmten Säuregrad möglich; ist das Meerwasser wesentlich saurer könnte er sogar rückwärts laufen, und eine Auflösung des Kalks zur Folge haben. Entsprechend fatal wären die Konsequenzen für die davon abhängigen Organismen.
Den Säuregrad misst  man als pH-Wert, was relativ einfach zu machen ist.

Was eigentlich ist pH-Wert? Und was ist Säure?

 

Wasser ist bekanntlich H2O und ein energetisch stabiles Molekül, das man nur unter Energiezufuhr (z.B. Elektrolyse mit elektrischem Strom) zerlegen kann. Aber etwa jedes 100 Millionste Wassermolekül dissoziiert (zerfällt) auf natürliche Weise in die elektrisch positiv bzw. negativ geladenen Ionen H+ und OH- [1]). Diese Ionen haben dann beide eine Konzentration von 10-7 mol pro liter Wasser. Der pH-Wert [2]) ist somit 7 ( = der negative Wert des Exponenten der H+ Ionen Konzentration). An diesem Punkt ist Wasser neutral. Gibt es mehr H+ Ionen, dann ist die Flüssigkeit eine Säure, der pH-Wert ist kleiner als 7. Im anderen Fall von weniger H+ Ionen Konzentration ist die Flüssigkeit eine Lauge, der pH-Wert ist größer als 7.
Sprachlich ist zu beachten, dass eine Säure „sauer“ ist, aber eine Lauge „alkalisch“ [3]).

Beispiele für pH-Werte

 

Um ein Gefühl für pH-Werte aus unserem täglichen Leben zu bekommen, sind in  Abbildung ein paar pH-Werte gezeigt. Leitungswasser ist meist (aber nicht unbedingt) nahe dem Neutralpunkt. Auf der sauren Seite folgen Regen, Bier, Cola, Magensäure und Batteriesäure. Letztere kann auch negative pH-Werte haben. Auf der alkalischen Seite folgen Blut, Bauchspeicheldrüsensekret, Naturseife, und ganz extrem Ätznatron oder darauf basierende „Abflussreiniger“, die Fette und Proteine (Haare bestehen aus Proteinen) auflösen können.
Auch wenn unser Körper von Verdauungstrakt bis Hautoberfläche einen Bereich von pH=1 bis pH=10 verträgt – das ist immerhin ein 1 Milliarden-facher Unterschied bezogen auf die H+ Ionen Konzentration – toleriert unser Blut dagegen nur äußerst enge Grenzen von pH=7.37-7.45 [4]), also im leicht alkalischen Bereich. Werte außerhalb dieses sehr schmalen Bereiches sind bereits krankhaft!

Abbildung SEQ Abbildung * ARABIC1: pH-Wert Skala

Zellkulturen, die gerne als Wundertechnologie zum Ersatz von Tierversuchen zur Prüfung von Medikamenten gepriesen werden, oder die zur biotechnologischen Herstellung von Medikamenten wie Immunglobulinen eingesetzt werden, wollen in ihrer Nährlösung einen pH-Wert innerhalb des immer noch engen Bereiches von 7.0-7.4 haben, also neutral bis ebenfalls leicht alkalisch. Andere Mikroorganismen können bei anderen pH-Werten existieren – Backhefe z.B. um pH=5 (also sauer). Für optimales Wachstum werden eher enge pH Bereiche benötigt, wenngleich tendenziell die Organismen um so toleranter sind, je primitiver sie sind.
Es ist daher zunächst einmal durchaus denkbar, dass die heutzutage im Wasser lebenden Tiere sich evolutionär so an ihre Umgebung angepasst haben, dass sie nunmehr sehr empfindlich auf pH Veränderungen reagieren!

Wie beeinflusst CO2 den pH-Wert von Wasser?

 

Ist (Mineral-)Wasser mit CO2 versetzt (umgangssprachlich: „mit Kohlensäure“), ist es erwartungsgemäß saurer als Leitungswasser. Überraschenderweise ist aber Meerwasser alkalisch, obwohl es doch angeblich durch das CO2 der Atmosphäre versauert.
Der Grund liegt in dem chemischen Verhalten von CO2 im Wasser. Die folgende chemische Gleichung zeigt das Gleichgewicht von im Wasser gelöstem CO2 (links) zur Kohlensäure (H2CO3), die sofort in das Hydrogencarbonat- und Wasserstoff-Ion dissoziiert, und schließlich zum Carbonat-Ion und weiteren Wasserstoff-Ionen. Die Verteilung der Komponenten auf die einzelnen Stufen zwischen links und rechts hängt sehr stark von pH-Wert, Temperatur und den Konzentrationen der einzelnen Komponenten ab.
Damit besteht ein Puffersystem. Im Zusammenwirken mit weiteren, zum Teil ebenfalls puffernden, Bestandteilen des Meerwassers (eine Vielzahl verschiedener Salze in deutlich höherer Konzentration als im Leitungswasser, sowie diverse organische Komponenten) kann die Pufferwirkung verstärkt, und der pH Wert verschoben werden.
Im Fall von Meerwasser ist der pH in den leicht alkalischen Bereich verschoben. Die Pufferung bedeutet weiter, dass die den pH verschiebenden Substanzen – wie CO2 – nicht zur vollen Wirkung gelangen können. Nehmen wir an, dass eine bestimmte Menge CO2 den pH von Leitungswasser um 1 Einheit saurer macht, dann könnte die gleiche Menge CO2 den pH von Meerwasser, dank dessen Pufferung, möglicherweise nur um Werte verschieben, die wesentlich geringer oder gar unmessbar klein sind. Diese Pufferwirkung ist auch der Grund, weswegen der pH Wert im Blut überhaupt in seinem sehr engen Bereich gehalten werden kann.
Da Meerwasser aber sehr komplex ist, weltweit in seiner Zusammensetzung variieren kann, und das ganze System dann auch noch von Temperatur und Druck (durch die Meerestiefe) abhängig ist, ist es höchst schwierig, die Auswirkungen einer CO2 Erhöhung theoretisch vorherzusagen.
Klimaforscher haben es dennoch getan, und wie wir sehen werden, scheitern sie auch mit diesen Ozean pH Modellen so eklatant, wie sie es mit der Vorhersage der Globalen Erwärmung tun.

Was sagen die „Klimaforscher“ zur „Versauerung“ der Ozeane?

 

Der Amerikaner Richard A. Feely und seine Mitarbeiter haben sich insbesondere mit Arbeiten zur angeblichen Ozeanversauerung hervorgetan. In der Publikation „CO2 und unser Ozean Vermächtnis“ (2006), die von der amerikanischen Ozean und Atmosphären Behörde (NOAA, National Oceanic and Atmospheric Administration)

Abbildung SEQ Abbildung * ARABIC2: Historischer und vorhergesagter Trend von pH und gelöstem CO2 des Meerwassers


Demnach ist der pH seit dem Beginn der industriellen Revolution um 1850 bis heute gleichmäßig von 8.16 auf 8.05 gesunken, und wird bis 2100 auf pH=7.85 sinken. Weiter führen sie aus, wie verheerend sich dies auf die Meereslebewesen auswirken wird, und wie verheerend dies dann für die Menschen sein wird.
Diese verheerenden Wirkungen kämen daher, dass Meeresorganismen bei zu niedrigem pH keine Schalen und/oder Skelette aus Calciumcarbonat mehr bilden könnten, und dann nicht mehr als Nahrung für höhere Organismen zur Verfügung stünden. So könnten substantielle Änderungen in der Biodiversität der Ozeane resultieren, die letztlich den Fischfang bedrohen und damit die menschliche Nahrungsversorgung und die gesamte damit zusammenhängende Wirtschaft, und ebenso den milliardenschweren Tourismus, und alle an diesen Industrien hängenden Arbeitsplätze. Weiter werden verschwindende Korallenriffe die Küsten stärker den Stürmen aussetzen, mit wiederum gravierenden Folgeschäden. Bereits in der Mitte dieses Jahrhunderts wird es beginnen.
Gegenwärtig, so die Autoren, verändere sich die Meeres Chemie „100mal schneller als in den vergangenen 650 000 Jahren“ und „Computer Modelle (!) zeigen, dass der Ozean mit seiner Versauerung fortfahren wird und zwar in einem Ausmaß und in Geschwindigkeiten, wie sie seit mehreren 10 Millionen Jahren nicht stattfanden“.
Man beachte, dass selbst in der Vorhersage für das Jahr 2100 ein pH von 7.85 oder gar 7.65 [5]) nicht sauer ist, sondern immer noch alkalisch! Das Wort Meeres-Versauerung (engl.: Ocean Acidification) suggeriert ätzende Säuregrade von Essig oder gar Batteriesäure – dem ist beileibe nicht so.
Aber es bleibt immerhin denkbar, dass Meeresorganismen bereits mit diesen leichten Veränderungen der pH Werte Probleme bekommen, selbst wenn diese noch nicht einmal im sauren, sondern noch immer im alkalischen Bereich liegen.

Abbildung SEQ Abbildung * ARABIC3: CO2 in Atmosphäre und Meerwasser und pH des Meerwassers


Die Messdaten, die Feely’s Klimamodell-Kurven bestätigen sollen, finden sich ebenfalls auf den NOAA Servern, und sind in  Abbildung gezeigt. Die wellige, braune Kurve stellt die bekannten atmosphärischen CO2 Werte dar, wie sie von der Messstation auf dem Vulkan Mauna Loa auf Hawaii gemessen werden. Die dunkelblaue Kurve zeigt den Partialdruck des Meerwasser CO2, also der im Meerwasser gelösten Menge an CO2. Die hellblaue Kurve zeigt den daraus angeblich resultierenden pH im Meerwasser. Der hätte danach von pH=8.112 im Jahre 1989 auf pH=8.081 in 2007, also um 0.03 pH Einheiten abgenommen (Werte von mir aus der Grafik abgelesen. Die durch die Skala suggerierte Messung von hundertstel pH Einheiten im Meer ist gewiss als „sehr sportlich“ zu bezeichnen; nicht einmal im Labor ist das einfach!)
Es fällt auf, dass die NOAA Daten erst 1989 beginnen. Moderne pH Messungen werden mit Glaselektroden durchgeführt, und da diese bereits seit etwa 100 Jahren bekannt sind, ist das Fehlen früherer Messungen besonders merkwürdig. Das fiel auch dem Amerikaner Mike Wallace auf, der Feely und Kollegen um die fehlenden Daten bat. Die dann folgende Odyssee von ignorieren, bedrohen, verweigern und belügen können Sie in dem bereits eingangs erwähnten Artikel nachlesen.
Auch hier beim Meeres-pH wurde die Herausgabe der Daten verweigert, am Ende gar mit der Behauptung, dass sie nicht existierten. Letztlich tauchten sie aber – wohl eher unbeabsichtigt – durch die Freigabe einer Datenbank durch NOAA auf. Aus diesen mehr als 1.5 Mio (!) Messdaten entwickelte Wallace die in  Abbildung gezeigte Kurve.

Abbildung SEQ Abbildung * ARABIC4: Meeres pH seit 2010 basierend auf NOAA Daten


Die Sternchen stellen die jährlichem pH Mittelwerte der letzten 100 Jahre für Meerestiefen bis 200m dar. Die dünne, hellblaue Kurve ist der gleitende Mittelwert über 10 Jahre. Die dicke, dunkelblaue Kurve gibt den 100 Jahre Trend. Die blass-rote Kurve ist die rote pH Kurve aus der Feely Grafik in  Abbildung. Die kurze, dicke, rote Kurve ist von mir eingezeichnet, und stellt die Regressionsgerade der hellblauen pH Daten aus  Abbildung dar.
Daraus können folgende Schlussfolgerungen gezogen werden:

  • Die pH Veränderungen, die nach Feely die größten seit 650 000 Jahren seien, sind kleiner als die in gerade einmal den letzten 100 Jahren mehrfach beobachteten.
  • Die Schnelligkeit der Veränderungen der Feely Daten ist nicht etwa 100mal schneller als seit 650 000 Jahren beobachtet, sondern beträchtlich langsamer als Veränderungen mit ca. 10 Jahren Zeitkonstante in den letzten 100 Jahren.
  • Über den 100 Jahre Zeitraum nimmt der pH nicht etwa ab, sondern im Mittel nimmt er zu. Mithin also keine „Versauerung“, sondern das Gegenteil!
  • Da der CO2 Gehalt der Atmosphäre erst seit 1950 kräftig gestiegen ist, müsste die Kurve vor und nach diesem Zeitpunkt ein anderes Verhalten zeigen. Das tut sie aber nicht. Der pH Wert ist heute so niedrig, wie um 1920 oder auch 1960, und dazwischen jeweils deutlich höher.
  • Die pH Veränderungen, die NOAA auf ihrer Webseite zeigt ( Abbildung) sind lächerlich klein und bedeutungslos angesichts der Schwankungen, die tatsächlich über 100 Jahre gemessen wurden.
  • Die Computermodelle liegen wieder einmal kräftig daneben.

Der Vorgang erinnert in nahezu jedem Detail ungemein an die Climategate Ereignisse, wie die Behauptung, dass die Erde für Jahrtausende konstante Temperaturen – jetzt eben pH Werte – hatte, und diese erst in der Neuzeit verrückt spielen, und die Verweigerung der Preisgabe von Daten, die Rosinen Pickerei in den Daten, die Geheimhaltung von ausgewählten Teilen der Daten, die nicht passten, die Behauptung der Nicht-Existenz der Daten, die Verleihung von gut dotierten „Wissenschaftspreisen“ – dort der Nobelpreis, hier der Ketchup-Preis [6]) – , das Ignorieren von Freedom-of-Information-Act Anfragen, der Vehemenz, mit der die Herausgabe von Daten verweigert wurde, die Bedrohungen der danach fragenden Wissenschaftler, die Nutzung von Computermodellen, die die Vorhersagen selbstverständlich mit „einem hohen Maß von Zuverlässigkeit“ vorhergesagt haben, und mehr.
Feely et al. und/oder NOAA haben sehr klar durch die Selektion der Daten für den kurzen Zeitraum von nur knapp 20 Jahren, dabei nicht einmal zu erwähnen, dass längerfristige Daten vorliegen, in Verbindung mit der nahezu maßlosen quantitativen Übertreibung angeblicher Folgeeffekte, was Ihnen durch Kenntnis der weggelassenen Daten klar sein musste, eine mehrfache wissenschaftliche Fälschung begangen, eben eine pHälschung!
Der Climategate Skandal wird nun also ergänzt mit dem Acidificationgate Skandal. Interessant könnte es noch werden, da Feely auch als Zeuge vor dem US-Kongress ausgesagt, und dabei die gleichen Falschaussagen gemacht hat. Belogen zu werden hat der Kongress nicht gerne, obwohl politische Korrektheit auch dort für viel Weißwascherei sorgt. Nun aber werden die Republikaner demnächst die Majorität stellen und sind zum „Klimawandel“ wesentlich skeptischer eingestellt, als die Demokraten. Schaun mer mal.

Wie reagieren denn nun die Meerestiere auf pH Änderungen?

 

Vor lauter Klimaaktivismus sind Feely et al. doch wenig substantiell geblieben, wenn es darum geht, diese angeblich verheerenden Auswirkungen mit Daten zu belegen. Es wäre aber doch schön, könnte man feststellen, ob überhaupt und wenn ja, wie, Meerestiere auf pH Veränderungen reagieren und wo die Grenzen liegen.
Angesichts der bereits beobachteten pH Schwankungen, die so groß oder größer sind, als die aus Klimamodellen erwarteten und dem bisherigen Überleben der Meeresfauna und -flora kann man zunächst wohl nur sagen, dass trotz pH Schwankungen der letzten 100 Jahre innerhalb des ganzen, als verheerend behaupteten Bereichs, verheerende Auswirkungen nicht beobachtet wurden. Prüfen wir aber ein paar weitere Daten.
Dazu schauen wir uns eine Karte der Meeres pH Werte ( Abbildung) an, gemessen im Februar 2005. Gemäß Farbskala wird der Bereich von 7.74 bis 8.40 abgedeckt, also wiederum der gesamten „verheerenden“ Bereich. Folglich gilt nicht nur, dass der pH zeitlich über Jahre in diesem Bereich schwankt, auch zu jedem Zeitpunkt scheint es Unterschiede der gleichen Größe je nach Meeresregion zu geben.

Abbildung SEQ Abbildung * ARABIC5: Karte der Meeres pH Werte (Februar 2005)


Quelle: Columbia’s Lamont-Doherty Earth Observatory

Dabei sind regionale Unterschiede auffällig: In Äquatornähe sieht man ein pH Band von etwa 8.03-8.05. Nördlich und südlich Bänder um 8.08-8.14, homogener im Norden als im Süden. Ganz im Norden dann die niedrigsten Werte bis herunter zu 7.74, und ganz im Süden die höchsten bis 8.40. Aus dem Text kann man entnehmen, dass dies typisch für Winter auf der Nord-Halbkugel ist, und die in dieser Messung extremen pH Werte im Norden bzw. Süden sich durch die jeweiligen Temperaturen einstellen. Mithin schwanken die pH Werte um so mehr, je näher man den Polen kommt.
Macht es angesichts dieser globalen Unterschiede überhaupt Sinn, einen mittleren globalen pH-Wert zu bestimmen?
Dass die pH Werte in der Wärme höher sind als in der Kälte finden auch Ajioka et al. [7]) bei Messungen an einem Süßwasser See. Ein Auszug der Daten ist in  Abbildung gezeigt. Im Winter wird an der Oberfläche bei ~8°C ein pH von 7.6 erreicht, im Sommer bei ~26°C ein pH von 8.8. Mit zunehmender Wassertiefe zeigen Temperaturen und pH geringer werdende Schwankungen, und nehmen in etwa die Winterverhältnisse an.

Abbildung SEQ Abbildung * ARABIC6: Sommer, Winter pH und T Messungen an einem See


Das heißt dann aber auch, dass die Wasserorganismen, im Meer oder im Süßwasser, aber am Ort ihres Aufenthalts, im jahreszeitlichen Wechsel pH Schwankungen von sogar mehr als dem „verheerenden“ Bereich erfahren.
Das Monterey Bay Meerwasser Aquarium (Kalifornien, USA) misst seit Jahren den pH Wert des aus dem Meer in das Aquarium eingeleiteten Wassers (Quelle von Daten, Abbildung). Den Verlauf zeigt  Abbildung. Auch hier müssen die Organismen im Meer und im Aquarium mit pH Schwankungen von 7.75 bis 8.15 leben, wiederum so groß wie der „verheerende“ Bereich!
Offenkundig zeigen die Beobachtungen, dass die Organismen pH Schwankungen im „verheerenden“ im Bereich gut verkraften, ob diese sich nun über Jahre hinweg ändern, über die Jahreszeiten, oder durch lokale, regionale, oder globale Besonderheiten bedingt sind.

Labortests

Abbildung SEQ Abbildung * ARABIC7: pH Werte Monterey Bay Aquarium 1996-2008

Um die Reaktion von Korallen auf erhöhte CO2 Werte zu messen, sind verschiedene Labor Studien gemacht worden. Es wurden z.B.  Coccolithophore untersucht, die für ein drittel der marinen Kalksteinproduktion verantwortlich seien, und man fand, dass Kalkbildung und Produktivität bei höherer CO2 Konzentration signifikant höher war. In einer weiteren Studie fand man, dass die Koralle Lophelia pertusa sich in einigen Monaten an saurere Bedingungen anpassten und dann ebenfalls erhöhte Kalkbildung zeigte. Beide Male also das Gegenteil der Katastrophen-Behauptungen. Eine weitere Studie zeigte gemischte Ergebnisse, war allerdings so kurzfristig angelegt, dass möglicherweise noch keine Adaption der Meeres Organismen stattgefunden hatte. Es gibt noch viele weitere Studien [8]). Welche davon negative Effekte zeigte, trotz Berücksichtigung von Adaption, ist nicht einfach zu klären.

Historisch

 

In den letzten 300 Mio Jahren betrug die CO2 Konzentrationen in der Atmosphäre bis zum 15fachen der heutigen Werte (s.  Abbildung). Wenn erhöhtes CO2 durch Versauerung der Ozeane den kalkbildenden Organismen das Leben unmöglich gemacht hat, warum gibt es dann heute noch Kalksteingebirge und Fossilien mit Kalkschalen ?

Abbildung SEQ Abbildung * ARABIC8: CO2 in den letzten 300 Mio Jahren (kaltesonne.de)

Riffe sind Klimasünder

 

Und noch ein weiterer Effekt macht Vorhersagen komplizierter: In einem Riff findet Photosynthese durch die Algen statt, wodurch CO2 verbraucht wird. Gleichzeitig findet aber auch die Kalkbildung statt, wodurch CO2 erzeugt wird!
Die Calcifizierungs Gleichung zeigt es:           
Da Calcium carbonat (CaCO3, Kalkstein) in Wasser schwer löslich ist, fällt es aus. Dabei wird CO2 freigesetzt! Tatsächlich sind vitale Riffe insgesamt Quellen von CO2 [9]), tragen also zum CO2 Anstieg in der Atmosphäre bei!
Ein gut wachsendes Riff ist ein Klimasünder. Was tun wir dagegen?

Temperaturen

Wie beobachtet sind niedrige pH Werte mit niedrigen Temperaturen und hohe pH Werte mit hohen Temperaturen assoziiert sind und wenn eine „Globale Erwärmung“ auch die Meere erwärmt, müsste man doch folglich eine pH Erhöhung erwarten, also eine Alkalisierung und eben nicht eine Versauerung! Das passt zu der Tatsache, dass sich CO2 in kaltem Wasser besser löst als in warmen – öffnen Sie spaßeshalber mal eine gut vorgewärmte Flasche Mineralwasser!
Nur ist es nicht einfach zu sagen, was der Netto Effekt ist zwischen einer CO2 Erhöhung in der Atmosphäre, die den pH-Wert des Meerwassers tendenziell absenkt, und einer CO2-Ausgasung des Meeres, weil durch Erwärmung die Löslichkeit von CO2 sinkt. Und wie das Puffersystem auf das gleichzeitige Verändern von CO2 und Temperatur regiert.
Im Originalartikel wird darauf hingewiesen, dass Wallace in einem noch kommenden Artikel eine Korrelation der pH Werte mit der PDO (Pazifisch Dekadischen Oszillation) zeigen wird (kann ich aus den Daten bisher nicht erkennen [10])). Das gäbe einen starken Hinweis darauf, dass die pH Werte tatsächlich primär temperaturabhängig schwanken.
Für diese Vermutung sprechen auch die ersten Daten der amerikanischen OCO2 Satelliten Mission zur Messung der globalen CO2 Verteilung, gezeigt in  Abbildung. Die mittlere CO2 Konzentration schwankt nur um ±2%, ist also tatsächlich global ziemlich konstant. Auffällig sind niedrige Konzentrationen über Europa, insbesondere UK und Irland, und hohe in der Südhalbkugel, einschließlich der Meere. Könnte es sein, dass die Emissionen von Industrie, Verkehr und Privathaushalten unbedeutend ist im Vergleich zu natürlichen Schwankungen? Und das die CO2 Ausgasungen auf den Meeren der Südhalbkugel – dort ist Frühling zur Zeit dieses Messungen – auf Erwärmung zurückzuführen sind?
Überhaupt könnte der CO2-Anstieg der letzten 160 Jahre durch Entgasung aus dem Ozean dank stärkerer Sonnenaktivität erklärt werden, wobei CO2 nicht die Ursache sondern die Folge einer Temperaturerhöhung ist (weiteres hier, hier, hier, und hier).

Abbildung SEQ Abbildung * ARABIC9: Globale CO2 Konzentration per Satellit (Okt/Nov 2014)

Konklusion

  • Feely et al. haben durch das selektive Verwenden von Daten – was ihnen offenkundig bekannt war – eine pHälschung begangen, und darauf aufbauend wilde Behauptungen über die Folgen eines CO2 Anstiegs für die Meeresbiologie angestellt
  • Tatsächlich zeigen die Daten, dass Schwankungen um angeblich verheerenden Bereich normal, und in den letzten 100 Jahren mehrfach vorgekommen sind.
  • Außerdem treten diese Schwankungen in Gewässern im jahreszeitlichen Rhythmus auf, wodurch sich auch zumindest ein Teil der globalen Schwankungen erklären lässt.
  • Zumindest einige der potentiell betroffenen Organismen können sich adaptieren, und haben dann sogar Vorteile von einer solchen angeblich verheerenden Entwicklung.
  • Es gibt begründete Zweifel, dass die steigenden CO2 Emissionen durch Aktivitäten des Menschen bedingt sind. Auch zunehmende biologische Aktivität im Meer (und an Land) trägt zu den CO2 Emissionen bei.
  • Womöglich ist der ganze CO2 Anstieg nur eine Folge einer natürlichen Erwärmung,  und nicht etwa seine Ursache.

[1]   genauer: H3O+ statt H+. Auch müssten in der Folge Aktivitäten statt Konzentrationen genommen werden – aber diese Feinheiten übergehen wir hier. Für schwache Säuren und Laugen ist letzteres ohnehin bedeutungslos.
[2]   Das kleine „p“ in pH ist historisch bedingt, aber das H bezieht sich auf Wasserstoff. Entsprechend gibt es auch pOH für die OH–Ionen. Am Neutralpunkt ist pOH = pH = 7.
[3]   alternativ kann für Lauge auch das Wort „Base“ genommen werden, und statt alkalisch findet auch „basisch“ Verwendung. Das Wort Lauge kommt daher, dass eine klassische Seifenlauge einen alkalischen pH-Wert hat. Auch nimmt man Natronlauge, also Ätznatron (=NaOH) gelöst in Wasser, zum „Ablaugen“ von alten Möbelstücken. Das Wort „alkalisch“ rührt daher, dass Natrium (Na) zur Gruppe der Alkalimetalle (Li, Na, K, Rb, Cs) gehört, die alle mit Wasser starke Laugen bilden.
[4]   Pschyrembel Wörterbuch Pflege (2003), S. 517
[5]   im Text wird, anders als in der Grafik gezeigt, sogar ein Absinken auf pH=7.65 genannt
[6]   Feely erhielt in 2010 einen $100,000 Preis von der Heinz Family Foundation („Heinz-Ketchup“) der von Teresa Heinz, Ehefrau des US-Außenministers John Kerry), gegründet wurde,  für seine „maßgebenden Arbeiten zur Meeresversauerung“.
[7]   Water pH and temperature in Lake Biwa from MBT /CBT indices during the last 280 000 years, T. Ajioka et al., Clim. Past, 10, 1843–1855, 2014
[8]   Auf der Webseite http://www.co2science.org/data/acidification/background.php wird eine Datenbank mit Artikeln zur Wirkung einer Meeresversauerung geführt. Nach den Betreibern der Webseite spräche etwa die eine Hälfte der Artikel für eine Schädigung, die andere Hälfte dagegen. Gewissheit sieht anders aus.
[9]   Reef Water CO2 System and Carbon Production of Coral Reefs: Topographic Control of System-Level Performance, Atsushi SUZUKI and Hodaka K AWAHATA, Global Environmental Change in the Ocean and on Land, Eds., M. Shiyomi et al., pp. 229–248. (Download)
[10] Da aber der gegenwärtige Datensatz global ist, und PDO und das atlantische Gegenstück AMO (Atlantische Multidekadische Oszillation) um etwa 20 Jahre phasenverschoben sind, muss man wohl zumindest erst die pH Daten nach den Ozeanen aufschlüsseln. (Daten zu AMO, PDO, Korrelation mit Temperatur)
      




Kommentar zur Machbarkeitsstudie zu Wirkungen von Infraschall des Bundesumweltamtes

Vorgeschichte und maßgebende Versäumnisse der MSWI Studie

Die Gutachter haben es sich mit der Sichtung von über 1200  Veröffentlichungen nicht leicht gemacht. Davon wurden 166 kurz im Text zitiert, aber nur die drei des US-amerikanischen Neurobiologen Alec Salt /2/ ausführlich besprochen. Es handelt sich um den experimentellen Nachweis, dass die äußeren Haarzellen im Innenohr Druckwellen im IS-Bereich in elektrische Signale wandeln können. Damit bewies Salt die  Wahrnehmbarkeit des IS unterhalb der Hörschwelle. Man muss den Autoren der MSWI danken, dass sie dieser Arbeit so viel Raum einräumten, obwohl sie wissen mussten, dass  damit das Standardargument, IS sei unschädlich, da unhörbar, falsifiziert worden war.

Nur einer einzigen weiteren Beobachtung gaben die Gutachter vergleichbares Gewicht. Sie betonten immer wieder, dass als besonders belästigend  Tonhaltigkeit im IS-Bereich und Pegelschwankungen im tieffrequenten Hörbereich empfunden würden. Dabei lägen die Modulationsfrequenzen dieser Schwankungen (nicht die Frequenzen der Seitenbänder!) im Bereich um 1Hz, also ebenfalls im IS-Bereich. Nicht unwichtig sind auch die Hinweise, dass Personen, die in ländlichen Gegenden wohnen, die älter sind oder die langzeitlich von IS belastet wurden, von diesen Beschwerden besonders betroffen seien.

Eine systematische Dokumentation der Häufigkeit der im Zusammenhang mit IS berichteten Beschwerden wird man in der MSWI nicht finden. Erwähnt  werden Schlafstörungen als Leitsymptom, Kopfschmerzen, Angstgefühle, Schwindel- und Unbehaglichkeitsempfindungen, Auswirkungen auf Konzentration und Reaktionszeit, auf  Nervensystem und Gleichgewichtsorgane und insbesondere Depressionen, als nichtmentale Beeinträchtigungen auch Herz- und Kreislaufprobleme.  Die viel beachtete Arbeit der amerikanischen Kinderärztin N. Pearpont /3/ wird ignoriert. Diese zeigte in zehn Fallstudien, dass  ursprünglich gesunde Personen, die im Umkreis von Windrädern wohnten, nach deren Inbetriebnahme so stark  unter psychischen Störungen gelitten hätten, dass sie zusammen mit ihren Familien den Wohnsitz wechseln mussten. Danach wären die betreffenden Krankheitsbilder verschwunden. Es mag sein, dass die Beweiskraft der von Pearpont angewandten Methode nicht allzu hoch ist, aber eine ähnliche schlagen auch die Autoren der MSWI für weiterführende Studien vor.

Alle psychischen Dysfunktionen, die in der MSWI als auch in Pearponts Arbeit  aufgelistet wurden, sind seit jeher bei  Föhn beobachtet worden (s. Tab. 1). Aber erst vor 10 Jahren konnte die Münchner Meteorologin E. Wanka /4/ praktisch unwiderlegbar nachweisen, dass schmalbandiger IS das Vehikel ist, mit dem Föhn auf den menschlichen Organismus einwirkt. Diese Übereinstimmung mit den in der

Autor

MWSI /1/

Pearpont /3/

Faust /6/

Wanka /5/

Jahr

2014

2009

1976

2003

IS-Quelle

Beliebig

Windrad

(Wetter)

Föhn/Wetter

Frequenz (Hz)

0.1 – 10

0.1 – 10

0.001 – 0.1

0.001 – 0.1

Symptome

Schlafstörungen,

Tinnitus

Schlafstörungen,

Tinnitus

Schlafstörungen

Kopfschmerzen,

Unbehaglichkeit

Kopfschmerzen,

Übelkeit

Kopfschmerzen

Kopfschmerzen,

Migräne, Phantom-

Schmerzen

Konzentrations-

Schwächen

Konzentrations-,

Gedächtnis- und

Lernschwächen

Konzentrations- und

Gedächtnis-

Schwächen

Angst, Depression

Angst, Panik,

Depression

Nervosität, Angst,

depressive

Stimmung, Suizid

Psychiatrische Störung,

Suizidversuch, Suizid

Reizbarkeit, Zorn

Aggression

Herz- und Kreis-

Laufprobleme

Herzrasen

Herz- und Kreislauf-

Probleme

Herz- und Kreislauf-

Probleme

Tab. 1: Vergleichende Auflistung der Symptome, die in der MSWI /1/ und in den Veröffentlichungen von Pearpont /3/, Faust /5/ und Wanka /6/ mit Infraschall in Verbindung gebracht werden.

MSWI zitierten Ergebnissen ist sehr bemerkenswert. Weiterhin ist Wankas Arbeit zu entnehmen, dass sehr breitbandiger IS, also Rauschen, keine solche Wirkung hat. Man kann daraus folgern – soweit ging Wanka allerdings nicht – dass das Signal-Rausch-Verhältnis der eigentliche, bisher verborgene Parameter ist, zu dem die beobachteten Beschwerden korreliert sind. Mit dieser Hypothese kann auch die in der MSWI erwähnte besondere Sensibilität der ländlichen Bevölkerung erklärt werden: dort ist der Pegel des von (verkehrs-)technischen Einrichtungen emittierten IS-Rauschens niedrig, daher wird  bei vorgegebener Signalamplitude das Signal-Rausch-Verhältnis entsprechend größer. Bekannt ist auch, dass nach Oberbayern Zugezogene erst nach etwa 10 Jahren föhnempfindlich werden – ebenfalls eine Analogie zu der in der MSWI erwähnten  Sensibilisierung mit der Dauer der IS-Belastung.

Das experimentum crucis von Wanka

Insgesamt gleichen die Wirkungen und Wirkmechanismen des föhngenerierten IS denen des windradgenerierten so sehr, dass es nicht einsichtig ist, warum in der MSWI die statistisch gut abgesicherten Ergebnisse der Föhnstdien nicht berücksichtigt wurden. Formal erklärt dies die  Beschränkung der MSWI auf den Frequenzbereich 0,1 – 20 Hz. Wetterbedingte IS-Resonanzen werden aber eher im Bereich 0,001 – 0,1 Hz beobachtet. In diesen beiden Teilbereichen des IS werden die von den Haarzellen in elektrische Wellen transformierten Druckwellen dem Zentralhirn durch das Nervensystem zugeleitet .  Die Frequenzanalyse  im Hörbereich ist komplizierter und  stellt so ein charakteristisches  Merkmal bereit, das den IS-Bereich vom Hörbereich bei menschlichen Organismen  abgrenzt. Trotzdem wird in der MSWI immer wieder versucht, Vorstellungen, die sich im Hörbereich bewährt haben, auf das Problem der Gesundheitsgefährdung durch IS zu übertragen. So geht man dort  davon aus, dass höhere Frequenzanteile zu den bekannten Belästigungen führen und  dass der Beitrag des IS auf eine Herabsetzung  der Hörschwelle bei einigen Personen beschränkt ist. Damit jedoch bleibt unverständlich, warum breitbandiger IS  (Rauschen) unschädlich, schmalbandiger aber schädlich ist.

Wesentlich plausibler scheint eine Hypothese zu sein, deren Bruchstücke vor allem im Internet zu finden sind und die die Bedeutung des IS für die Evolution unterstreicht. Sie lässt sich mit folgender Wirkungskette skizzieren: Erzeugung von IS durch die Schrittfolge eines Feindes – Wahrnehmung durch die äußeren Haarzellen oder das Gleichgewichtsorgan –  Interpretation durch das Zentralnervensystem als Bedrohung –  Schlaflosigkeit (besser erhöhte Wachsamkeit und Aufmerksamkeit) – Fight orflight bzw. Aggression oder Depression. Im Laufe der Evolution hat erst diese Art der Wahrnehmung den Fluchttieren das Überleben ermöglicht. Allgemein gilt, dass einfach strukturierte Signale, die sich mit großem aber konstantem  Zeitabstand wiederholen, vom Zentralnervensystem als Bedrohung interpretiert werden. So haben vom IS um den Schlaf Gebrachte den Eindruck, Einbrecher seien im Hause /3/. Im weiteren Sinne fällt unter dieser Kategorie die Unüberhörbarkeit der akustischen Warnsignale von Polizei-, Feuerwehr- und Rettungsdienstfahrzeugen, die Unübersehbarkeit der optischen Blinksignale bei Baustellen, Bahnübergängen und Leuchttürmen sowie die Unerträglichkeit eines tropfenden Wasserhahnes.   

Der MSWI sind quantitative Zusammenhänge zwischen IS-Pegel und Häufigkeit bestimmter Beschwerden nicht zu entnehmen. Trotzdem haben die Gutachter für die Dimensionierung von Experimenten, die diese Kenntnisse liefern sollen, präzise Vorstellungen. Die vorgeschlagene Zahl von Probanden ist jedoch viel zu klein, um Beschwerden außer Schlaflosigkeit und vielleicht noch Tinnitus nachzuweisen. Ein Blick in Wankas Diplomarbeit /5/ hätte geholfen. Auch ihr gelang es  nicht, durch Befragungen von  30 Probanden Korrelationen zwischen föhngeneriertem IS und Kopfschmerzen signifikant nachzuweisen. Erst mit ca. 1,5 Millionen Probanden, den Einwohnern von München und Umgebung, gelang ihr in einem natürlichen Experiment der Beweis, dass mit Föhn verknüpfter IS in München maximal eine Verdreifachung der durch Suizid, Suizidversuch oder psychische Störungen bedingten täglichen Rettungsdiensteinsätze bewirkt. Danach wären solche Folgen schwerster Depressionen bei ca. 0,1% des Bevölkerungsanteils, der windradgeneriertem IS ausgesetzt würde, zu erwarten. Da zumindest Suizid nicht als zumutbare Belästigung eingestuft werden kann, sollte dieser  Zahlenwert den Umfang der in der MSWI geplanten Stichproben bestimmen.

Obwohl alles darauf hinweist, dass das Phänomen der Gesundheitsgefährdung durch IS mit herkömmliche Theorien nicht erklärbar ist, wird im letzten Abschnitt der MSWI empfohlen, die Vorstellungen, die der TA Lärm und der DIN 45680 zugrunde liegen, mit minimalen Änderungen in die Neufassung dieser DIN-Vorschrift zu übernehmen. Etwas salopp ausgedrückt besagen diese Vorstellungen, solange IS nicht die Ohren betäubt und das Trommelfell zerreißt, sei er gesundheitlich unbedenklich. Darauf weist insbesondere die vorgesehene Streichung der Berücksichtigung einer Tonhaltigkeit hin sowie die Versuche, die Belästigungspotentiale von tieffrequentem Hörschall und von IS  gemeinsam durch eine Ein-Zahl-Bewertung zu charakterisieren.

Abschließende Bewertung der MSWI Studie

Die MSWI hinterlässt einen zwiespältigen Eindruck. Mit der Betonung der Wahrnehmbarkeit des IS weit unterhalb der Hörschwelle und der besonderen Wirksamkeit schmalbandiger IS-Signale stellt sie den Stand der Wissenschaft angemessen dar, soweit es sich um Wirkungsmechanismen handelt. Ebenfalls zeigt sie, dass die Ausbreitung des IS nicht prognostizierbar sei. Dagegen werden wesentliche  Veröffentlichungen über die gesundheitsschädigenden Wirkungen des IS ignoriert. Als machbar  wird  eine Befragung vorgeschlagen, die mit Sicherheit schwere Gesundheitsstörungen nicht erfassen wird. Abschließend wird dem Gesetzgeber ohne hinreichende Begründung bescheinigt, dass  geringfügige Anpassungen der geltenden Schallschutzverordnungen genügen würden, IS-Immissionen angemessen zu bewerten. Die sich zwingend ergebenden Konsequenzen werden verschwiegen: der bisherigen Genehmigungspraxis für WEA-Standorte sind nachträglich  die Grundlagen entzogen worden und  Planungen für geeignete Standorte sind nicht mehr möglich.               

Es  wäre naiv, dem Bundesumweltamt zu unterstellen, es wäre sich der Brisanz, aber auch der Mängel der MSWI nicht bewusst gewesen. Man erkennt dies am Fazit, das offensichtlich nicht die sachliche Handschrift der Gutachter trägt. Es lautet:

 Eine nachhaltige Konfliktbewältigung erfordert eine ganzheitliche Beurteilung, die Festlegung von Grenzwerten sowie standardisierte und genormte Prognoseverfahren. Pauschale Ansätze, die eine Prognosesituation mit dem Ziel einer Konfliktbewältigung einseitig überschätzen wie beispielsweise die Festlegung von Mindestabständen, erscheinen ohne fundierte wissenschaftliche Kenntnisse über die Wirkmechanismen als nicht sachgerecht.

Dieses Fazit wird der Bedeutung der MSWI in keiner Weise gerecht.  Die Behauptung, es gäbe keine fundierten Kenntnisse über dieWirkmechanismen ist grob irreführend und steht im Widerspruch zum Inhalt der MSWI. Die Festlegung von Mindestabständen steht sowieso nicht mehr auf der  Agenda, da, wie auch in der MSWI festgestellt wurde, die Ausbreitung von Infraschall nicht prognostizierbar ist. Die Verwendung des Begriffes  nachhaltige Konfliktbewältigung soll wohl suggerieren, dass die Bewertung der Ergebnisse der Studie im gesellschaftlichen Konsens erfolgen müsse, was hieße, das Grundrecht auf Leben und körperliche Unversehrtheit könne Gegenstand eines Interessenaus-gleiches sein. Sachgerecht  wäre der Nachweis der gesundheitlichen Unschädlichkeit von windradgeneriertem IS, den der Verursacher zu erbringen hätte. 

Die Umweltämter des Bundes und der Länder haben jahrelang die Öffentlichkeit und die aufsichtsführenden Ministerien mit der These, windradgenerierter Infraschall sei gesundheitlich unbedenklich, da unhörbar, in die Irre geführt. Von dieser These hat es sich das BUA jetzt  klammheimlich verabschiedet. Trotzdem sieht es keinen Anlass, den forcierten Ausbau der Energiegewinnung aus Windkraft in Frage zu stellen. Dabei wird nach meiner Ansicht eine stetig zunehmende Gesundheitsgefährdung vieler Bürger in Kauf genommen. Die vorgeschlagenen Feldstudien besitzen allenfalls eine Alibifunktion. Sie werden bestätigen, dass windradgenerierter Infraschall Schlafstörungen bewirkt, wobei man wahrscheinlich versuchen wird, diese als zumutbare Belästigungen einzustufen – in Guantanamo zählte Schlafentzug als hochwirksame Foltermethode. Die Auslegung jedoch wurde so bemessen, dass die wesentlich schwerwiegenderen Folgereaktionen  vermutlich unterhalb der Nachweisschwelle verbleiben werden.

Literatur:

/1/ Krahe, D., Schreckenberg, D., Ebner, F., Eulitz, C., Möhler, U.,  Machbarkeitsstudie zu Wirkungen des Infraschalls , (2014), www.umweltbundesamt.de (PDF) 
/2/ Salt, A.N. andHullar, T.E., Responses oftheeartolowfrequencysounds, infrasoundand windturbines, Hearing Research, (268) 12- 21 (2010) 
/3/ Pearpont, N., Wind turbinesyndrome, K-selected Books (2009)
/4/ Wanka, R. and P. Höppe, Human biometeorologicalrelevanceoflowfrequencyair
pressureoscillations,
Meteorologische Zeitschrift, 14, 279 -284 (2005)
/5/ Wanka, R., Messung und Analyse niederfrequenter Luftdruckschwankungen in München, Diplomarbeit LMU München (2003)
/6/ Faust, V. Biometeorologie, Hippokrates Verlag, Stuttgart (1976)

*Anschrift: Dr. Joachim Schlüter, Hohlenweg 8, 79410 Badenweiler, e-mail: schlueter-j@gmx.de