Obamas Klimainitiative: Etwas wird ihm schließlich gelingen…..nämlich: Die Energiekosten massiv in die Höhe zu bringen!

Ich wiederhole diese interessanten Diagramme hier:
Link zu den Diagrammen: Viele Leute wissen das nicht

 EU Installationen in erneuerbarer Energie: Megawatt / Million Einwohner.

 

Strompreise in Europa
Private Nutzer incl. Steuern und Abgaben

Interessant, nicht wahr? Aber ich bin ein Zahlenmensch, ich will die Ergebnisse analysieren. Mit den Daten aus diesen Veröffentlichungen und das Hinzufügen der US Daten, habe ich die Beziehung graphisch dargestellt…. Folgende Grafik zeigt das Ergebnis:

 

Grafik Eschenbach: Stromkosten als Funktion der installierten, erneuerbaren Kapazität pro Kopf. nur Wind und Photovoltaik, ohne Wasserkraft [Updated: Australien hinzugefügt und Einheiten korrigiert]

Das ist ein sehr interessantes Ergebnis. Die Kapazität der installierten Erneuerbaren Pro-Kopf erklärt für sich bereits 84% der Variation der Stromkosten. Keine große Überraschung angesichts der verrückt-hohen Kosten der erneuerbaren Energien, aber es ist sehr nützlich für eine weitere Berechnung.

Heute, sagte Präsident Obama, er wolle, dass in Amerika bis zum Jahr 2030 28% der Elektrizität aus erneuerbaren Energien kommt. Er hat seinen Plan nicht detailliert, so dass ich annehme, Wasserkraft ist in Kalifornien und anderen Staaten mit [eigenen] Zielen für Erneuerbare, wie auch bei obiger EU Grafik, nicht in den Zahlen für Erneuerbare enthalten. Und die Energie muss aus Wind und Solar kommen. (Warum? In Kalifornien, erklärten sie, dass Wasserkraft ausgeschlossen wurde, weil es sonst zu einfach wäre, die erneuerbaren Ziele zu erreichen … ernsthaft, das war ihre Erklärung.)

Derzeit erhalten wir etwa 4% unseres Stroms aus Wind und Sonne. Er will es auf 28% anheben, was bedeutet, wir brauchen die installierte Leistung sieben Mal. Derzeit haben wir etwa 231 Watt / Kopf [1] Wind- und Solar installiert (siehe Abbildung 1). Obamas Plan erfordert, dass wir das fast sieben Mal benötigen, 1537 Watt / Kopf [1]. Und unter der Annahme, dass wir die Beziehung in Abbildung 1 verlängern, bedeutet dies, dass der durchschnittliche Strompreis in den USA notgedrungen bis zu nicht weniger als 43 Cent pro Kilowattstunde ansteigt. (Dies umfasst die verborgenen 1,4 Cent / kW Kosten aufgrund der fünf Cent pro Kilowattstunde Zuschuss zu den Solar / Wind Produzenten).

Da die aktuelle durchschnittliche US-Kilowattstunde etwa 12 Cent kostet … bedeutet das, der Preis für Strom wird sich in den nächsten 15 Jahren wahrscheinlich fast vervierfachen

Und da Präsident Obama bekanntlich voraussetzt, dass unter seinem Energieplan die Strompreise zwangsläufig "in die Höhe schnellen" … sieht es so aus, als ob ihm vielleicht endlich etwas gelingen wird.

Da dies illegal oder zumindest stark unsachgemäß durch Obamas präsidialen "Edikt und Erlass" [fiat] geschehen wird, scheint es , das wir nur wenig dagegen tun können, außer, dass Sie Ihre Freunde und Nachbarn wissen lassen, dass dank Obama und der Demokratischen Partei, ihre Stromrechnung in die Höhe schnellt … sonst wird Obama wahrscheinlich alles auf Präsident Bush schieben.

Alles Gute für Sie,

Willis Eschenbach.

Mein übliches Plädoyer: Wenn Sie mit etwas nicht einverstanden sind, zitieren Sie bitte die genauen Worte, denen Sie widersprechen. So können wir alle genau verstehen, gegen was Sie Einwände haben.

Informationen zur Vorhersage: Es ist immer gefährlich, zu versuchen, die Zukunft vorauszusagen. In diesem Fall haben wir ein paar Probleme: Erstens wissen wir nicht, ob diese Beziehungen auch weiterhin in der Zukunft zutreffen werden. Und wir wissen nicht, ob Amerikas Weg wie die der anderen Länder sein wird. Die gute Nachricht ist die Tatsache, dass es 19 Länder gibt, die stark sowohl in der installierten Leistung als auch der wirtschaftlichen Entwicklung abweichen, das gibt einigen Trost.

Als nächstes die Ausreißer. Ich habe getestet, indem ich Dänemark und Deutschland entfernt habe, um zu sehen, ob es den Trend verändert, … es verändert kaum. Das war sehr ermutigend, weil es bedeutet, dass wir die gleiche Beziehung erhalten, wenn wir die Daten von 600 kW / Kopf (Spanien etc.) hochrechnen, auf etwa 1000 kW / Kopf, eine Projektion von etwa 60% mehr. Da die Hochrechnung der projizierten US-Kapazität / Kopf (1000 auf 1500 kW / Kopf) etwa die gleiche Größe ist, erhöht dies das Vertrauen in die Schätzung.

Schließlich müssen wir einige Annahmen über US Stromverbrauch im Jahr 2030 treffen. Es wird sich erhöhen … aber um wie viel? Glücklicherweise ist die unabhängige Variable der erneuerbaren Kapazität pro Kopf fixiert. Dies bedeutet, dass die Verlängerung der Zeile enthält die stillschweigende Annahme enthält, dass der Stromverbrauch sich mit etwa der gleichen Rate wie die Bevölkerung zunimmt Während wir keine Möglichkeit haben um zu wissen ob dies wahr ist, hat der US-Stromverbrauch pro Kopf sich in den letzten zwei Jahrzehnten abgeflacht, so ist es eine vernünftige Annahme.

Erschienen auf WUWT am 3. August 2015

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2015/08/03/obama-may-finally-succeed/

[1] update vom 15.08.2015, Demmig
– im Original kW;  in W korrigiert, siehe #3 Kühn 

Einen ähnlichen Beitrag gab es bereits im April 2014 auf EIKE, allerdings damals noch weniger dramatisch als es Willis Eschenbach beschreibt.

Studie-der-windindustrie-zeigt-strompreise-in-windkraft-staaten-explodieren

http://tinyurl.com/p2jv5q5




Wiederholte Versuche zur Autokorrelation und Albedo

Bild rechts: Foto der Szenerie vor dem Haus von Eschenbach (aus seinem Beitrag).

Nehmen wir jetzt einmal an, wir nehmen die gleichen sieben Münzen und werfen alle sieben nicht nur einmal, sondern zehnmal. Wie groß ist die Wahrscheinlichkeit, dass in einem dieser Würfe siebenmal Zahl oben liegt?

Nun kann man auch ohne jede Berechnung sofort erkennen, dass die Chance für ein solches Ergebnis umso größer ist, je öfter man die Münzen wirft. Ich habe die Berechnungen unten als Anhang beigefügt, aber für jetzt wollen wir nur festhalten, dass wenn wir den Münzenwurf nur zehnmal ausführen, die Chance eines zufälligen Ergebnisses von siebenmal Zahl (ein statistisch signifikantes Ergebnis im Signifikanz-Level 99%) von 1% auf 7,5% steigt (nicht im Mindesten statistisch ungewöhnlich).

Kurz gesagt, je mehr Stellen man sich anschaut, umso größer ist die Chance, Seltsamkeiten zu finden, die folglich umso weniger signifikant werden. Praktische Auswirkung hiervon ist, dass man das Signifikanz-Niveau mit der Anzahl der Versuche adjustieren muss. Falls das Signifikanzniveau 95% beträgt, wie es in der Klimawissenschaft üblich ist, dann gilt: Falls man auf 5 Versuche schaut, um ein demonstrativ ungewöhnliches Ergebnis zu bekommen, muss man etwas Bedeutendes im 99%-Niveau finden. Hier folgt eine kleine Tabelle, in der die Anzahl der Versuche mit dem Signifikanz-Niveau verglichen werden, falls man nach dem Äquivalent eines Signifikanz-Niveaus von 95% aus einem einzigen Versuch sucht:

Damit als Prolog folgte ich meinem Interesse am Thema Albedo und untersuchte die folgende Studie mit dem Titel Spring–summer albedo variations of Antarctic sea ice from 1982 to 2009:

Abstract: In dieser Studie wurden die mittleren Albedo-Werte im Frühjahr und Sommer (November bis Februar) sowie deren Trends untersucht unter Verwendung eines Datensatzes, der 28 Jahre lange homogenisierte Satellitendaten für das gesamte Gebiet des antarktischen Meereises enthält sowie für fünf Längengrad-Sektoren rund um die Antarktis: Weddell-See (WS), den Sektor Indischer Ozean (IO), den Sektor Pazifischer Ozean (PO), die Ross-See (RS) und die Bellinghausen-Amundsen-See (BS).

Man erinnere sich: je mehr Stellen man betrachtet, umso wahrscheinlicher wird es, Seltsamkeiten zu finden … wie viele Stellen betrachten sie also?

Nun, zuallererst haben sie den Datensatz offensichtlich in fünf Teile aufgeteilt. Also schauen sie an fünf Stellen. Schon jetzt müssen wir eine Signifikanz von 99% finden, um eine Signifikanz von 95% behaupten zu können.

Allerdings betrachten sie auch nur einen Teil des Jahres. Einen wie großen Teil des Jahres? Nun, das meiste Eis findet sich nördlich von 70°S, so dass messbares Sonnenlicht etwa acht Monate lang darauf fällt. Dies bedeutet, dass sie die Hälfte der zur Verfügung stehenden Albedo-Daten nutzen. Die von ihnen ausgewählten vier Monate sind diejenigen mit dem höchsten Sonnenstand, insofern ist das vernünftig … aber es bleibt die Tatsache, dass sie Daten aussortieren, und dies beeinflusst die Anzahl der Versuche.

Wie auch immer, selbst falls wir die Frage nach der Unterteilung des Jahres vollständig beiseite schieben wissen wir, dass die Karte selbst in fünf verschiedene Teile unterteilt worden ist. Das bedeutet, um eine Signifikanz von 95% zu erhalten muss man etwas finden, dass mit 99% signifikant ist.

Allerdings haben sie tatsächlich gefunden, dass die Albedo in einem der fünf Eisgebiete (der Sektor Pazifischer Ozean) einen Trend aufweist, der beim 99%-Niveau signifikant ist. Ein weiterer Trend (der Sektor Bellinghausen-Amundsen) ist beim 95%-Niveau signifikant. Und dies wären interessante und wertvolle Ergebnisse … außer einem anderen Problem. Das betrifft den Aspekt Autokorrelation.

„Autokorrelation“ bedeutet, wie ähnlich die Gegenwart mit der Vergangenheit ist. Falls die Temperatur an einem Tag -40°C und am nächsten Tag +30°C betragen könnte, würde dies nur eine sehr geringe Autokorrelation zeigen. Aber falls (wie es der Normalfall ist) einem Tag mit einer Temperatur von -40°C ein weiterer eisiger Tag folgt, wäre dies sehr viel Autokorrelation. Und Klimavariablen im Allgemeinen tendieren dazu, autokorreliert zu sein, oftmals erheblich.

Nun, eine Seltsamkeit autokorrelierter Datensätze ist, dass sie dazu tendieren, „trendig“ zu sein. Es ist wahrscheinlicher, einen Trend in autokorrelierten Datensätzen zu finden als in einem Satz mit Zufallsdaten. Tatsächlich fand sich in Zeitschriften vor nicht allzu langer Zeit ein Artikel unter der Überschrift Nature’s Style: Naturally Trendy. (Ich sagte „vor nicht allzu langer Zeit“, aber meine Recherche ergab das Jahr 2005). Es scheint, dass viele Menschen jenes Konzept natürlicher Trendigkeit verstanden haben, wurde doch diese Studie seinerzeit lang und breit diskutiert.

Was weitaus weniger gut verstanden zu sein scheint, ist diese Folgerung:

Da die Natur natürlicherweise trendig ist, ist das Auffinden eines Trends in Messungs-Datensätzen weniger signifikant als es scheint.

In diesem Falle habe ich die Trends digitalisiert. Während ich ihre beiden „signifikanten“ Trends in der Bellinghaus-Amundsen-See bei 95% und im Sektor Pazifischer Ozean bei 99% finden konnte, passend zu meinen eigenen Berechnungen, fand ich unglücklicherweise auch das heraus, was ich vermutet hatte – sie haben Autokorrelation wirklich ignoriert.

Mit ein Grund dafür, warum die Autokorrelation in diesem speziellen Fall so wichtig ist, liegt darin, dass wir mit nur 27 jährlichen Datenpunkten beginnen. Als Ergebnis beginnen wir mit großen Unsicherheiten infolge der geringen Größe der Stichprobe. Der Effekt von Autokorrelation ist, diese schon jetzt unzureichende Stichprobengröße weiter zu reduzieren, so dass das effektive N ziemlich klein ist. Das effektive N [=Anzahl?] für die Bellinghausen-Amundsen-See (BS) beträgt 19 und für den Sektor Pazifischer Ozean (PO) nur 8. Ist Autokorrelation erst einmal berücksichtigt, sind beide Trends überhaupt nicht statistisch signifikant, liegen sie doch beide unter dem 90%-Signifikanz-Niveau.

Führt man zu den Autokorrelations-Effekten noch den Effekt wiederholter Versuche hinzu, bedeutet das im Grunde, dass nicht einer ihrer erwähnten Trends der „Frühjahrs-Sommer-Albedo-Variationen“ statistisch signifikant ist, nicht einmal ansatzweise.

Schlussfolgerungen? Nun, ich muss sagen, dass wir in der Klimawissenschaft unser statistisches Spiel überbieten müssen. Ich bin bei weitem kein Experten-Statistiker. Da sind Personen wie Matt Briggs, Statistician to the Stars, viel besser geeignet. Tatsächlich habe ich nie eine Statistik-Vorlesung besucht. Ich habe mir alles selbst beigebracht.

Falls ich also ein wenig über die Effekte weiß, einen Datensatz nach Signifikanz-Niveaus zu unterteilen, und die Auswirkungen von Autokorrelation auf Trends kenne – wie kommt es dann, dass diese Kerle das nicht wissen? Zur Klarstellung, ich glaube nicht, dass sie es absichtlich tun. Ich glaube, dass es ein echter Fehler ihrerseits war, sie haben einfach nicht den Effekt ihrer Aktionen erkannt. Aber zum Kuckuck, zu sehen, wie Klimawissenschaftler diese gleichen beiden Fehler wieder und immer wieder machen, wird langweilig.

Schließen möchte ich mit einer wesentlich positiveren Anmerkung. Ich erfahre gerade, dass das Magazin Science ein Gremium von Statistikern ins Leben rufen will, das die Einreichungen lesen soll, um ehrliche Fehler vermeiden zu helfen und die Standards von Datenanalysen zu steigern.

Das scheint mir sehr in Ordnung.

—————————————————-

Wiederholte Versuche: Bei der tatsächlichen Berechnung, wie viel besser die Chancen bei wiederholten Versuchen stehen, nutzt man die Tatsache aus, dass falls die Chancen, das etwas passiert, mit X bezeichnet werden (die 1/128 im Falle sieben geworfener Münzen, die dann ,Zahl‘ zeigen), die Chance, dass dann etwas NICHT passiert 1-X, d. h. 1 – 1/128 oder 127/128 beträgt. Es stellt sich heraus, dass die Chance, dass es NICHT passiert bei N Versuchen

(1-X)↑N

ist oder (127/128)↑N. Für N = 10 Würfe von sieben Münzen ergibt sich die Chance, dass NICHT siebenmal ,Zahl‘ erscheint, zu (127/128)↑10oder 92,5%. Dies bedeutet, dass die Chance, dass bei zehn Würfen siebenmal ,Zahl‘ erscheint, 1 minus der Chance ist, dass es nicht passiert, also etwa 7,5%.

Ganz ähnlich, falls wir nach dem Äquivalent eines Vertrauens von 95% in wiederholten Versuchen suchen, beträgt das erforderliche Vertrauensniveau bei N-mal wiederholten Versuchen

0,95↑1/N

Autokorrelation und Trends: Gewöhnlich verwende ich die Methode von Nychka, bei welcher ein „effektives“ N verwendet wird, also eine reduzierte Anzahl von Freiheitsgraden zur Berechnung statistischer Signifikanz.

Hier ist n die Anzahl der Datenpunkte, r die Verzögerung minus 1-Autokorrelation und n↓eff das effektive N.

Falls ich jedoch etwas von entscheidender Bedeutung vor mir habe, verwende ich an Stelle von Nychkas heuristischer Methode wahrscheinlich eine Monte-Carlo-Methode. Ich erzeuge beispielsweise 100.000 Beispiele von ARMA (auto-regressive moving-average model) Pseudo-Daten, die gut zur Statistik der aktuellen Daten passen, und ich würde die Verteilung der Trends in jenem Datensatz untersuchen.

Link: http://wattsupwiththat.com/2015/06/27/repeated-trials-autocorrelation-and-albedo/

Übersetzt von Chris Frey EIKE




Können wir eine Aussage darüber machen, ob sich die Ozeane erwärmen?

Die seinerzeitigen Behauptungen zur Genauigkeit, welche heute immer noch unverändert im Raum stehen, kann man in Abbildung 1a (unten) erkennen. Sie stammt aus einer Studie mit dem Titel „Observed changes in top-of-the-atmosphere radiation and upper-ocean heating consistent within uncertainty“ von Norman G.Loeb et al. 2012, paywalled hier, im Folgenden Loeb2012 genannt:


Abbildung 1: Dies ist Abbildung 1(a) aus Loeb2012. Original-Bildunterschrift: a: jährliche gemittelte Erwärmungsraten in den oberen Schichten der Ozeane, berechnet aus Daten von Pacific Marine Environmental Laboratory/Jet Propulsion Laboratory/Joint Institute for Marine and Atmospheric Research (PMEL/JPL/JIMAR), NODC und Hadley, 0–700 m

Ich möchte mich für die Qualität dieser Graphik entschuldigen, aber leider liegt das Dokument hinter einer Zahlschranke. Das ist schon o. k., mich interessierten auch nur deren Fehlerschätzungen.

Wie man sieht, zeigt Loeb2012 die ozeanischen Erwärmungsraten in Watt pro Quadratmeter für jedes Jahr. Alle drei Gruppen nennen die gleiche Fehler-Größenordnung. Der Fehler in den frühsten Daten beträgt etwa 1 W/m². Allerdings beginnt die Größe der Fehler abzunehmen, als die Bojen im Jahre 2006 online gingen. Am Ende ihrer Aufzeichnungen zeigen alle drei Gruppen Fehler deutlich unter einem halben Watt pro Quadratmeter.

Abbildung 2: Dies ist Abbildung 3(a) aus Loeb2012. In schwarz ist die zur Speicherung verfügbare Wärme dargestellt, abgeleitet aus den CERES-Satellitendaten. In blau sind die Erwärmungsraten bis 1800 m dargestellt und in rot die Erwärmungsraten bis 700 m. Original-Unterschrift: a: globales jährliches Mittel (Juli bis Juni) des Gesamt-TOA-Flusses aus CERES-Beobachtungen sowie die ozeanischen Erwärmungsraten 0 bis 700 sowie 0 bis 1800 m von PMEL/JPL/JIMAR.

Hier erkennt man, dass der Fehler am Ende ihres Datensatzes für die Schicht bis zu einer Tiefe von 1800 Metern ebenfalls unter einem halben Watt pro Quadratmeter lag.

Aber welche Temperaturänderung repräsentiert ein Fehler von einem halben Watt pro Quadratmeter? Meine Faustregel ist einfach.

Ein Watt pro Quadratmeter wärmt einen Kubikmeter Wasser während eines Jahres um 8°C.

(Ja, ich weiß; tatsächlich sind es 8,15°C, aber ich tätige viele allgemeine Berechnungen, so dass ein geringer Fehler-Prozentsatz in Ordnung geht für eine leichtere Berechnung und Speicherung). Das bedeutet, ein halbes Watt pro Quadratmeter schafft in einem Jahr eine Erwärmung von 4°C der gleichen Wassermenge.

Für eine 1800 Meter tiefe Wasserschicht sagt also Loeb2012, dass der Standardfehler ihrer Temperaturmessungen 4°C/1800 m beträgt – macht zwei Tausendstel Grad (0,002°C). Für die dünnere 700 Meter tiefe Schicht – für die der Antriebsfehler der Gleiche, aber die Masse kleiner ist, ergibt sich der gleiche Fehler in W/m² von 4°C/700, was einem alarmierenden Temperaturfehler von 6 Tausendstel Grad (0,006°C) gleichkommt.

Ich sagte zu jener Zeit, dass diese behauptete Genauigkeit um 5 Tausendstel Grad … nun … höchst unwahrscheinlich ist.

Jo Nova weist darauf hin, dass komischerweise die Studie im Jahre 2007 geschrieben worden ist, aber seinerzeit bis heute kaum Aufmerksamkeit erregt hat. Ich hätte sie sicher auch nicht gelesen, als ich meinen o. g. Beitrag geschrieben habe. Die folgenden Abschnitte aus ihrer Studie sind interessant:

Abstract

Wendet man OCCAM auf die typische ARGO-Messdichte an, kommt man zu dem Ergebnis, dass außerhalb der westlichen Begrenzung die monatliche gespeicherte Wärme in der durchmischten Schicht im subtropischen Nordatlantik einen Stichproben-Fehler von 10 bis 20 W/m² aufweist, wenn man über ein Gebiet 10 X 10 mittelt. Dieser Fehler reduziert sich zu weniger als 10 W/m², wenn man die jahreszeitliche Wärmespeicherung berücksichtigt. Fehler dieser Größenordnung zeigen, dass der ARGO-Datensatz interessant ist für die Untersuchung der Variabilität in der durchmischten Schicht in mehrere Jahre langen Zeitmaßstäben. Allerdings erhöht sich der erwartete Stichproben-Fehler auf über 50 W/m² im Gebiet des Golfstromes und nördlich von 40°N, was den Gebrauch von ARGO in diesen Gebieten einschränkt.

Und:

Unsere Analyse von Zufalls-Stichproben von Temperaturfeldern mittels des OCCAM-Modells hat gezeigt, dass das ARGO-Projekt im subtropischen Nordatlantik Temperaturdaten mit einer räumlichen und zeitlichen Auflösung zeigt, dass Ergebnisse einer Stichproben-Unsicherheit bei der Wärmespeicherung in der durchmischten Schicht in einer Größenordnung von 10 bis 20 W/m² liegt. Der Fehler wird kleiner, wenn die betrachtete Periode länger wird und man jahreszeitliche (jährliche) Zeitmaßstäbe nimmt; Reduktion auf 7 ± 1,5 W/m². Innerhalb des Golfstromes und subpolarer Gebiete sind die Stichproben-Fehler viel größer, weshalb der ARGO-Datensatz in diesen Gebieten weniger nützlich ist bei der Untersuchung der Variabilität der Wärmespeicherung in der durchmischten Schicht.

Wieder wollte ich ihre Einheit W/m² in eine Temperaturänderung konvertieren. Das Problem, das ich mit diesen in vielen Studien verwendeten Einheiten habe ist, dass „7 ± 1,5 W/m²“ mir einfach nicht viel sagt. Außerdem messen die ARGO-Bojen nicht W/m², sie messen Temperaturen und konvertieren sie zu W/m². Meine Frage bei der Lektüre der Studie lautete also: um welchen Betrag wird ihr genannter Fehler von „7 W/m²“ die Temperatur der „durchmischten Schicht“ des Nordatlantiks während eines Jahres ändern? Und was meinen sie überhaupt mit durchmischter Schicht?

Nun, sie haben sich ein merkwürdiges Element zum messen ausgesucht. Die „durchmischte Schicht“ ist die oberste Schicht des Ozeans, die sowohl vom Wind als auch dem nächtlichen Umkippen der Ozeane durchmischt wird. Im Klima-Zusammenhang ist dies interessant, weil es sich um den Teil des Ozeans handelt, der auf die sich ändernden Lufttemperaturen darüber reagiert. Die Schicht kann numerisch auf mehrere Arten definiert werden. Im Wesentlichen ist es die Schicht von der Oberfläche bis hinab zur „Thermokline“, also dem Punkt, an dem der Ozean anfängt, sich rasch mit zunehmender Tiefe abzukühlen. Jayne Doucette vom Woods Hole Oceanographic Institute hat eine wunderbare Zeichnung der meisten Dinge angefertigt, die in die durchmischte Schicht eingehen (Aus unbekannten Gründen hat sie eine der wichtigsten Zirkulationen, nämlich das nächtliche Umkippen des oberen Ozeans, weggelassen).

Abbildung 3: Die durchmischte Schicht. Sie zeigt verschiedene physische und biologische Prozesse, die in dieser Schicht ablaufen.

Der Studie zufolge lautet die von ihnen gewählte Definition, dass die durchmischte Schicht bis zu der Tiefe reicht, in der der Ozean um 0,2°C kühler ist als die Temperatur in einer Tiefe von zehn Metern. In Ordnung, kein Problem, das ist eine der Standard-Definitionen … aber wie tief reicht die durchmischte Schicht?

Nun, das Problem ist, dass die Tiefe der durchmischten Schicht sowohl nach Örtlichkeit als auch nach Jahreszeit variiert. Abbildung 4 zeigt typische Variationen in der Tiefe der durchmischten Schicht an einer einzigen Stelle pro Monat.

Abbildung 4: Typische Variationen der Tiefe der durchmischten Schicht pro Monat. Tut mir leid, die Stelle für diese Graphik ist nicht bekannt. Hinsichtlich des Temperaturniveaus tippe ich mal auf den Nordatlantik. In jedem Falle ist sie vollständig repräsentativ für die Spezies.

Man erkennt, dass sich die Temperatur bis hinunter zur Thermokline fast gar nicht ändert und danach rasch zurück geht.

Allerdings konnte ich nirgendwo eine Angabe zur mittleren Tiefe der durchmischten Schicht finden. Stattdessen habe ich daher den monatlichen Klimatologie-Datensatz 2°X2° Tiefe der durchmischten Schicht heruntergeladen mit der Bezeichnung „mld_DT02_c1m_reg2.0_Global.nc”. Daraus habe ich das gebietsgewichtete Mittel der Tiefe der durchmischten Schicht entnommen. Es stellte sich heraus, dass die mittleren Tiefen der durchmischten Schicht global etwas unter 60 Metern liegt. Der gesamte Prozess der Berechnungen und des Schreibens des Code nahm eine halbe Stunde in Anspruch … für Interessierte ist der Code beigefügt [im Original!]

Dann habe ich ihren 2°X2°-Datensatz auf ein 1°X1°-Netz umgerechnet, was natürlich hinsichtlich des Mittelwertes die gleiche Antwort lieferte. Aber damit konnte ich meine gewöhnlichen Graphikverfahren verwenden, um die Tiefe darzustellen.

Abbildung 5: Mittlere Tiefe der durchmischten Schicht rund um den Globus. Grüne und blaue Gebiete zeigen tiefer durchmischte Schichten.

Ich liebe die Klimawissenschaft wirklich, weil ich niemals weiß, was ich in Erfahrung bringen muss, um meine Forschungen durchzuführen. Dieses Mal war es die Erkundung der Tiefe der durchmischten Schicht. Wie man sich vorstellen kann, mischen die höchsten Wellen in den stürmischsten Gebieten der Ozeane diesen bis zu größter Tiefe durch, gezeigt in grün und blau. Man erkennt auch das Abbild des El Nino/La Nina entlang des Äquators vor der Küste Ecuadors. Dort blasen die Passatwinde das warme Oberflächenwasser nach Westen und belassen die Thermokline näher an der Oberfläche. So viel kann man daraus lernen … aber ich schweife ab. Ich konnte sehen, dass eine Anzahl seichter Gebiete im Nordatlantik besteht, die zur Durchführung der ARGO-Studie herangezogen wurde. Also berechnete ich die mittlere Tiefe der durchmischten Schicht im Nordatlantik (5°N-65°N, 0°W-90°W). Es ergab sich eine Zahl von 53 Metern, etwa sieben Meter höher als das globale Mittel.

Betrachten wir noch einmal die Faustregel:

Ein Watt pro Quadratmeter über ein Jahr erwärmt einen Kubikmeter Meerwasser um etwa acht Grad.

Berechnet man die Faustregel mit einer Tiefe von 53 Metern, erwärmt ein W/m² über ein Jahr 53 Kubikmeter Wasser (Tiefe der durchmischten Schicht) um etwa 8/53 = 0,15°C. Allerdings geben sie den jährlichen Fehler mit sieben W/m² an (siehe deren obiges Zitat). Dies bedeutet, dass Hadfield2007 sagen, dass die ARGO-Bojen nur die mittlere jährliche Temperatur der durchmischten Schicht im Nordatlantik bestimmen können mit einer Genauigkeit von plus/minus 1°C…

Nun, das scheint mir vernünftig. Es ist sehr, sehr schwierig, die mittlere Temperatur eines stark in Bewegung befindlichen Wasserkörpers genau zu messen, wenn es sich um den Nordatlantik oder irgendeinen anderen Ozean.

So weit, so gut. Jetzt kommt der schwierige Teil. Wir wissen, dass ARGO die Temperatur der durchmischten Schicht im Nordatlantik messen kann mit einem Fehler von ±1°C. Da erhebt sich jetzt folgende Frage: Falls wir den gesamten Ozean mit der gleichen Dichte von Messpunkten wie bei ARGO im Nordatlantik messen könnten, welcher Fehler würde dem finalen Mittelwert innewohnen?

Die Antwort hierauf ruht auf einer seltsamen Tatsache – unter der Annahme, dass die Fehler symmetrisch sind, würde der Fehler des Mittels einer Reihe von Temperaturmessungen, von denen jede seinen eigenen inhärenten Fehler enthält, kleiner sein als der Mittelwert der individuellen Fehler. Falls die Fehler alle gleich – sagen wir – E sind, dann errechnet sich die Größenordnung des Fehlers bei einer Mittelung von N Werten, von denen jeder einzelne den Fehler E aufweist mit

sqrt(N)/N

Beispiel: wenn man 100 Werte mittelt, von denen jeder einzelne den Fehler E aufweist, beträgt der Fehler ein Zehntel E (sqrt(100)/100).

Falls die 118 Fehler andererseits nicht alle gleich sind, dann wird durch sqrt(N)/N nicht der Fehler E angegeben, sondern

sqrt(E^2 + SD^2)

wobei SD die Standardabweichung der Fehler ist.

Jetzt wollen wir für einen Moment annehmen, dass der globale Ozean mit der gleichen Messdichte vermessen wird wie der Nordatlantik in der Studie. Dem ist nicht so, aber ignorieren wir das mal für einen Moment. Betrachtet man die 700 Meter tiefe Schicht, müssen wir bestimmen, wie viel größer das Volumen als das Volumen der durchmischten Schicht im Nordatlantik ist. Folgende Antwort schält sich heraus: der globale Ozean bis zu einer Tiefe von 700 Metern hat 118 mal das Volumen des NA bis 700 m.

Während wir den mittleren Fehler kennen (7 W/m² = 1°C), kennen wir unglücklicherweise nicht die Standardabweichung jener Fehler. Allerdings sagen sie, dass es viele Gebiete mit größeren Fehlern gibt. Falls wir also etwas wie eine Standardabweichung von 3,5 W/m² = 0,5°C annehmen, ist dies vermutlich ein konservativer Wert, der gut und gern auch größer sein kann.

Alles in allem: FALLS wir dir durchmischte Schicht des Nordatlantiks messen können mit einem mittleren Fehler von 1°C und einer Fehler-Standardabweichung von 0,5°C, dann sollten wir in der Lage sein, mit der gleichen Dichte von Messungen den globalen Ozean zu erfassen mit

sqrt(118)/118 * sqrt( 1^2 + 0.5^2 ) = 0.1°C

Jetzt zurück zu Loeb2012, der einen Fehler von irgendwo bei 0,005°C geltend machte … was um einen Faktor 20 zu optimistisch erscheint.

Und meine Vermutung ist: unterschätzt man den tatsächlichen Fehler um einen Faktor 20, ist dies der beste Fall [best case]. Ich sage dies, weil sie bereits gesagt haben, dass der zu erwartende Stichproben-Fehler auf über 50 W/m² im Gebiet des Golfstromes und nördlich von 40°N steigt“. Also gilt ihre Schätzung nicht einmal für den gesamten Nordatlantik.

Ich rede auch vom Best Case, weil dies nahelegt, dass a) die Fehler symmetrisch sind und b) alle Teile des Ozeans mit der gleichen Frequenz wie die oberen 53 Meter des Mittelmeeres erfasst werden. Ich bezweifle, dass irgendetwas davon stimmt, was die Unsicherheit sogar noch größer machen würde.

In jedem Falle bin ich froh, dass wieder einmal die Mainstream-Wissenschaft die interessante Arbeit verifiziert, die hier bei WUWT geleistet wird. Falls Sie sich fragen, was das alles bedeutet, betrachten Sie Abbildung 1 und bedenken Sie, dass die Fehlerbalken in Wirklichkeit zwanzig mal größer sind … dann ist es eindeutig, dass wir nichts darüber sagen können, ob sich die Ozeane erwärmen, abkühlen oder keines von beiden der Fall ist.

Link: http://wattsupwiththat.com/2015/06/06/can-we-tell-if-the-oceans-are-warming/

Übersetzt von Chris Frey EIKE




Schlaglöcher in ihren Argumenten

Abbildung rechts: Eine der ältesten, den Historikern bekannten Kosten-Nutzen-Analysen

Nun, das ist ein merkwürdiger Standpunkt, stehen doch der Guardian und seine Freunde zu 1000% [eintausend Prozent] hinter der Subventionierung "Erneuerbarer", vor allem solcher "Erneuerbarer", die nicht funktionieren … schauen Sie selbst. Aber angesichts dessen, dass die "Erneuerbaren" infinitesimal kleine Mitspieler sind im globalen Energiespiel, geht es in diesem Report um die Subventionierung derjenigen Energie-Mitspieler, die eigentlich … Energie in bedeutender Menge erzeugen. Das wären die bösen Öl- und Kohle- und Erdgasunternehmen. In der Welt des Guardian sind solche Subventionen per definitionem schlecht.

Also habe ich mich entschlossen, ihr Arbeitspapier wie ein Idiot zu erkunden. Zwar bin ich ein Fan von Erkundungen in unbekanntem Terrain, in den Karten als „Terra Incognita“ gekennzeichnet – aber in diesem Falle war es kein Vergnügen.

Ich bin sicher, dass viele Menschen wissen, was eine „Kosten-Nutzen-Analyse“ ist – man zieht eine vertikale Linie in der Mitte eines Blattes Papier. Auf der einen Hälfte, sagen wir mal rechts, listet man alle Kosten des fraglichen Vorhabens. Und auf der linken Seite listet man alle Vorteile des geplanten Vorhabens. Die Abbildung oben rechts zeigt eines der frühesten bekannten Beispiele einer Kosten-Nutzen-Analyse.

Der IMF hat das Blatt Papier entlang der vertikalen Mittellinie zerrissen und uns die Hälfte mit den Kosten der angeblichen „Subventionen“ übergeben, zusammen mit der Behauptung, dass es sich um eine saubere Analyse handelt. Das stimmt aber nicht. Es ist eine Liste mit wild übertriebenen Kosten, und nur Kosten.

Jetzt möchte ich etwas klarstellen. Ich habe kein inhärentes Problem mit Subventionen. Wir subventionieren alle möglichen Aktivitäten, wir müssen lediglich die richtigen auswählen. Und ich habe kein Problem mit einer Kosten-Nutzen-Analyse. Das ist eine sehr nützliche Methode.

Aber die Betrachtung nur der Kosten unter Ignorieren der Vorteile? Das ist keine Analyse irgendeiner Art.

Aber Moment, es wird noch viel schlimmer. Man erlaube mir, die Kurzversion des IMF-Arbeitspapiers zu zitieren. Erstens, um alles ins rechte Licht zu setzen, folgt hier ihr Abstract (Hervorhebung von mir):

Diese Studie bietet ein umfassendes, aktualisiertes Bild der Energiesubventionen im globalen und regionalen Maßstab. Sie konzentriert sich auf die breit gefächerte Auffassung von Energiesubventionen nach Steuern [post-tax energy subsidies]. Sie treten auf, wenn die Verbraucherpreise unter den Lieferkosten liegen plus eine Steuer, um Umweltschäden Rechnung zu tragen und einer zusätzlichen Steuer auf alle Verbrauchsgüter, um das Einkommen der Regierung zu vergrößern. Energiesubventionen nach Steuern sind dramatisch höher als zuvor geschätzt und dürften auch zukünftig sehr hoch bleiben. Diese Subventionen reflektieren hauptsächlich den unter Wert angesetzten Preis aus heimischer (und nicht globaler) Perspektive. Eine einseitige Preisreform liegt also im ureigenen Interesse des Landes. Die potentiellen fiskalischen, umweltlichen und Wohlstands-Auswirkungen einer Reform der Energiesubventionen sind substantiell.

Wie man sieht, befinden wir uns bereits im Spezialisten-Jargon. Das ist noch kein Problem, haben doch alle Fachgebiete einen Jargon. In ihrer Welt bedeutet „Energiesubventionen vor Steuern“ Geld, das zu dem Unternehmen oder der Industrie oder der Aktivität fließt, das subventioniert wird. Allgemeiner: Vor-Steuern-Subventionen sind Subventionen, die tatsächlich die Grundlinie der Bilanzen einiger begrenzter Untergruppen von ökonomischen Akteuren beeinflusst. Mit anderen Worten, „Vor-Steuern-Subventionen“ sind das, an das die meisten von uns sofort denken, wenn sie das Wort „Subventionen“ hören.

Was diese braven Menschen als „Energiesubventionen nach Steuern“ ansehen, sind andererseits keine Subventionen im normalen Sinne. Kein Cent davon fließt überhaupt an die Energieunternehmen.

Um den Unterschied hervorzuheben, möchte ich ein kristallklares Beispiel dafür nennen, was der IMF als „Energiesubvention nach Steuern“ an die böse Ölindustrie ansieht … aber zuvor halte ich es für meine Pflicht, davor zu warnen, dass das Folgende nichts für Blumenkinder oder andere Weichherzige ist. Also für alle Übrigen – eine der vielen, vielen „Energiesubventionen nach Steuern“ des IMF ist…

Die Kosten der Auffüllung von Schlaglöchern auf der Straße zu meinem bescheidenen Heim.

Wirklich. Ich bausche das nicht auf. Die Reparatur von Schlaglöchern ist Bestandteil ihrer „Energiesubvention nach Steuern“, von dem sie behaupten, dass er an die Energieunternehmen geht. Es ist gelistet unter der Rubrik „Nicht-Kohlenstoff-Effekte von außen“ [non-carbon externalities].

Und was sind „Nicht-Kohlenstoff-Effekte von außen“, wenn sie zu Hause sind? Glücklicherweise geben sie ein paar Beispiele:

Verstopfung, Unfälle, Luftverschmutzung und Straßenschäden“.

In dem seltsamen Paralleluniversum des IMF wird jedes einzelne Beispiel davon (einschließlich „Straßenschäden“) als eine SUBVENTION AN EXXON UND SHELL betrachtet! Die Reparatur von Schlaglöchern als Subvention an Energieunternehmen! Hat man schon jemals von einem solchen beknackten Ding gehört?

Also möchte ich hier selbst ein wenig technischen Jargon einführen. Ich werde mich auf jene Subventionen beziehen, die nur an Energieerzeuger und -verteiler fließen, die die Basis jener subventionierten Erzeuger und Verteiler als „wirkliche Energiesubventionen“ betreffen. Das ist eine eingängige Bezeichnung und trifft ins Herz der ganzen Sache.

Und was ist mit der Behauptung, dass das Ausbessern von Schlaglöchern eine Subvention für die Energieindustrie ist? Nun, dafür werde ich die Bezeichnung „imaginäre Energiesubventionen“ benutzen. Das ist kurz und bringt es auf den Punkt.

Was die relative Größenordnung der wirklichen und der imaginären Subventionen betrifft: unter den großen Schlagzeilen, die ihren Weg durch das Web gefunden haben, ist „Energiesubventionen betragen 5,3 Billionen Dollar pro Jahr!“. Nun, ich möchte darauf hinweisen, dass diese Zahl zu 94 Prozent imaginäre Energiesubventionen sind, und nur sechs Prozent davon sind reale Energiesubventionen. Seltsam aber wahr. Wie ich sagte, ich bausche das nicht auf. Zum Kuckuck, ich konnte mir dieses Niveau absurder Käuflichkeit gar nicht vorstellen. Ich bin lediglich ein furchtloser Erkunder, der seinen Weg durch endlos langes unausgegorenes Geschwätz sucht, um die Wahrheit zu ergründen … und wenn ich sie erreiche, kommt heraus, dass die Wahrheit sechs Prozent beträgt und das Blabla 94 Prozent. Abbildung 2 zeigt die hässlichen Behauptungen:

Abbildung 2: Aus dem IMF-Arbeitspapier. Man beachte, während die wirklichen Energiesubventionen stetig abnehmen, nehmen die imaginären Energiesubventionen stetig zu. Alarmismus?

Nun, endlich verstehe ich, warum es in den Straßen um meinen Wohnort so viele Schlaglöcher gibt. Bislang habe ich immer geglaubt, der Grund sei – wie von einem unserer Landkreis-Verwalter angemerkt – dass man die Schlaglöcher nicht ausbessern könne, weil man die obszön hohen Pensionen einer Generation von Menschen nicht aufbringen könnte, die gelernt hatten, sich an den Futtertrog des Landkreises zu lehnen.

Aber jetzt erkenne ich, dass dies keineswegs der Fall ist. Jetzt habe ich Durchblick. Das Belassen der Schlaglöcher ohne sie auszubessern ist kein Zeichen einer ökonomischen Schwäche, sondern stattdessen ein politisches Statement durch den Kreistag! Die Schlaglöcher nicht auszubessern ist ein cleveres Mittel, die heimtückischen „Energiesubventionen nach Steuern“ zu reduzieren, welche die Landkreisbewohner dümmlich an Exxon und Shell gezahlt haben! Es ist ein tollkühner Schlag gegen die außer Kontrolle tobenden Imperialisten der globalen Energieversorgung … muss ich wirklich dieses Aushängeschild versorgen? Ich fürchte, ja …

Ehrlicherweise muss man aber sagen, wenn man das Ausbessern von Schlaglöchern als eine Subvention für die Ölunternehmen zählt, bedeuten 5,3 Billionen Dollar gar nichts. Sie können die Summe so hoch schrauben wie sie wollen, darin liegt der Reiz imaginärer Energiesubventionen. Es gibt keine obere Grenze.

Aber Moment, da ist noch mehr. Obwohl die realen Energiesubventionen nicht einmal annähernd nahe der 5-Billionen-Marke liegen, sind es immer noch etwa 340 Milliarden Dollar pro Jahr. Das ist ein Drittel einer Billion, reales Geld in jedweder Welt. Aber natürlich gilt auch hier, dass nichts so ist, wie es zu sein scheint.

Das Erste, was man hinsichtlich dieser 340 Milliarden Dollar reale Energiesubventionen verstehen muss ist, dass global gesehen die höchsten Energiesubventionen diejenigen sind, die Öl produzierende Länder wie Venezuela und Nigeria ihren eigenen Bürgern zukommen lassen, indem man sie Preise zahlen lässt, die unter dem Marktpreis für Benzin und Diesel liegen. Das Zweite, was man wissen muss ist, dass der größte Teil der realen Energiesubvention in den Entwicklungsländern liegt. In einem Arbeitspapier über Subventionen, dass ich früher schon einmal hier analysiert habe, kam ich zu dem Ergebnis:

Schätzungen des IMF und der IEA zufolge belaufen sich globale Subventionen „vor Steuern“ (oder direkt) an fossiler Energie und fossil erzeugtem Strom im Jahre 2011 auf 480 bis 523 Milliarden Dollar pro Jahr (IEA 2012b; IMF 2013). Dies bedeutet eine Zunahme von fast 30% gegenüber dem Jahr 2010 und war sechsmal höher als die Gesamtsumme der Subventionen für Erneuerbare zu jener Zeit. Öl exportierende Länder waren für etwa zwei Drittel der Gesamtsubventionen für fossile Subventionen verantwortlich, während über 95% aller direkten Subventionen in den Entwicklungsländern anfielen.

Falls wir davon sprechen, dass die meisten Leute dies lesen: diejenigen von uns, die in der entwickelten Welt leben, sind nur mit lumpigen fünf Prozent an den realen Energiesubventionen beteiligt … was wiederum nur sechs Prozent ihrer fiktiven 5,3 Billionen Dollar schweren Subventionen ausmacht. Diese fünf Prozent der 340 Milliarden Dollar sind etwa 17 Milliarden Dollar. Aber das ist immer noch nicht alles. Man erinnere sich, die Summe ist aufgeteilt auf alle entwickelten Länder, Australien, die USA, UK, Deutschland, Israel, Neuseeland – die Liste ist lang.

Falls man also irgendwo in der entwickelten Welt lebt, betragen die wirklichen Subventionen für Energie etwa eine halbe Milliarde Dollar pro Staat. Übrigens, wenn man das in technischem Jargon ausdrückt, nenne ich eine Subvention von einer halben Milliarde Dollar „einmal Solyndra“ (An. der Redaktion: das ist die trotz Riesensubventionen pleite gegangene große Solarfirma in den USA) … aber ich schweife ab.

Wenn also Ihr Land ein- oder zweimal Solyndra pro Jahr an Subventionen zahlt, ist es das wert? Nun, das hängt davon ab, für was die Solyndras zahlen. Falls sie für Erneuerbare zahlen, ist es das höchstwahrscheinlich nicht wert. Falls sie für wirkliche Energie zahlen, könnte es das wert sein.

Schließen möchte ich mit dem Hinweis auf die Auswirkungen der Kappung von Energiesubventionen. Da die meisten davon in Entwicklungsländern sind und in Gestalt von reduzierten Energiepreisen für die Armen vorliegen … würde deren Kappung nicht die verwundbarsten Bürger treffen?

Nun, keine Angst, die IMFs haben dem Rechnung getragen. Hier folgt deren Aussage über die Auswirkungen der Beschneidung von Treibstoff-Subventionen für die Armen … ein lumpiger Satz ist alles, was sie für die Verarmten übrig haben, vielleicht ist es eine Elektronen-Knappheit oder so, aber hier folgt in jedem Falle dieser einsame Satz in seiner ganzen Glorie:

Außerdem sollte eine Reform der Energiesubventionen die Armen und Verwundbaren schützen, indem sichergestellt ist, dass ihr Wohlergehen nicht negativ beeinflusst wird.

Das ist es! Das ist alles hinsichtlich deren Gedanken um die Armen. Nun, das ist gut zu wissen … aber falls man 1 Dollar pro Gallone [ca. 4 Liter] an Subvention unter den Armen von Nigeria verteilt, WIE genau wollen sie sicherstellen, dass deren „Wohlergehen nicht negativ beeinflusst wird“? Das ist es, was ich bei diesen Lehnstuhl-Experten am meisten verachte, die vorschlagen, die Weltwirtschaft umzukrempeln, um ihren Ängsten und Phantasien Rechnung zu tragen. Sie ignorieren einfach alles, was sie als unerheblich beurteilen, und die Armen stehen oftmals an oberster Stelle jener Liste. An zweiter Stelle der Dinge, die sie ignorieren, steht, WIE sie umsetzen, was sie so leichthin vorschlagen.

Wie auch immer, das ist die jüngste wilde Übertreibung beim Vorlauf von Paris. Mein Rat? Man glaube nichts davon, was man liest … und man erinnere sich immer, dass man dies hier zuerst gelesen hatte…

——————————————–

Externalitäten: Dinge wie das Ausbessern von Schlaglöchern oder die Freisetzung von CO2 in die Atmosphäre werden „Externalitäten“ oder „externe Kosten“ genannt von Leuten, die an einer Kosten-Nutzen-Analyse arbeiten. Dies sind im Grunde Dinge, die der Schreiber entweder nicht mag oder die der Schreiber besteuern möchte, jedoch noch nicht herausgefunden hat, wie man es besteuern könnte. Noch nicht.

Während solche Externalitäten gelegentlich relevant sind, habe ich Einiges gegen den Einschluss von Externalitäten in die meisten Kosten-Nutzen-Analysen.

Erstens, wie legt man sie preislich fest? Welchen Preis würde man für – sagen wir – eine Tonne emittierten CO2 ansetzen? Ich habe Zahlen gesehen im Bereich von Null bis hunderte Dollar pro Tonne. Ohne Übereinstimmung eines bestimmten Wertes ist es den Analysten freigestellt, jede Zahl zu wählen, die sie wollen.

Weiter. Welche Externalitäten sollen eingehen? Falls wir das Ausbessern von Straßen als eine „Subvention“ an die Ölbarone eingehen lassen, sollte man dann nicht auch den Straßenbau einschließen? Und falls wir die Kosten für Straßenbau einschließen, was ist mit den Kosten für die Entwürfe des Straßenbaus? Und was ist mit den Pensionskosten für die Beamten (niemals billig), die den Straßenbau autorisiert haben? Wo führt das alles hin? Der IMF glaubt eindeutig, dass es hinter den Schlaglöchern endet, nicht davor…

Und schließlich, wenn man externe Kosten einfließen lässt, MUSS MAN ABSOLUT AUCH EXTERNE VORTEILE EINFLIESSEN LASSEN! Wie ich hier erläutert habe, beläuft sich der Vorteil des besseren Pflanzenwachstums wegen des gesteigerten atmosphärischen CO2-Gehaltes auf etwa 300 Milliarden Dollar pro Jahr, weil der Landwirt fossile Treibstoffe verbrennt … aber die aufgeblasenen Wichtigtuer beim IMF ignorieren dies vollständig, wie sie alle Vorteile ignorieren, die ihnen nicht in den Kram passen.

Link: http://wattsupwiththat.com/2015/05/29/potholes-in-their-arguments/

Übersetzt von Chris Frey EIKE




Eine neutrale Betrachtung von ozeanischem pH

Zunächst folgt hier die Ansicht eines Profils des Nordpazifik von Alaska nach Hawaii, wobei Hawaii oben links liegt, Alaska oben rechts. Tiefen werden vertikal gezeigt. Ozeanisches pH entlang des Profils:
Abbildung 1 (rechts): Variation des pH über geogr. Breite und Tiefe. Die Graphik stammt aus einem früheren Beitrag von mir zum ozeanischen pH.
Man erkennt, dass der Oberflächen-pH in Hawaii über 8,05 liegt und in Alaska unter 7,7 … und trotzdem ist die maritime Umgebung in Alaska viel, viel artenreicher als die maritime Umgebung von Hawaii. Dies unterstreicht eine einfache Tatsache: Alkalinität ist für Lebewesen problematisch, viel mehr als der Säuregrad. Beispiel: Falls man das Opfer der letzten Mordorgie sich zersetzen lassen will, würde man Lauge (ein starkes Salz) und nicht Schwefelsäure (eine starke Säure) verwenden.
Nun beträgt der Neutralwert auf der pH-Skala 7. Der geringen Alkalinität-Toleranz unserer Körper folgend nehmen wir oft Dinge wie Zitronensaft zu uns, welcher einen pH-Wert von etwa zwei hat, was neutral minus 5 pH-Einheiten ist … während die salzhaltigste Nahrung, die wir noch tolerieren können, einen pH von rund acht hat, was nur einen pH-Wert über neutral liegt.
Darum ist der Körper von Fischen oftmals vollständig mit einer Art Schleim umhüllt … einfach um zu verhindern, dass sie sich im leicht alkalinen Ozean einfach auflösen. Und darum auch ist ein Trend hin zu mehr Neutralität auch nicht im Mindesten besorglich.
Nachdem wir die räumlichen Änderungen des pH-Wertes von Hawaii bis Alaska gesehen haben, zeigt Abbildung 2 die zeitlichen Änderungen des ozeanischen pH in einer Vielfalt anderer maritimer Umgebungen:

Abbildung 2: pH in verschiedenen maritimen Umgebungen. Datenquelle: PLOS
Abbildung 2 zeigt nicht nur den mittleren pH-Wert in diesen Umgebungen, sondern auch die Variation in jeder Umgebung mit der Zeit. Man beachte: während der offene Ozean eine kleine pH-Bandbreite zeigt, zeigt sich in einer Anzahl maritimer Umgebungen eine große Bandbreite mit der Zeit. Korallenriffe und Seetangwälder beispielsweise zeigen eine große Variation der pH-Werte, und zwar bis hin zu einer vollen pH-Einheit innerhalb eines einzigen Monats. Zitat aus der zugrunde liegenden Quelle für Abbildung 2:
Diese Beobachtungen zeigen ein Kontinuum monatelanger pH-Variabilität mit Standardabweichungen zwischen 0,004 und 0,277 sowie Bandbreiten, die von 0,024 bis 1,430 pH-Einheiten reichen. Die Natur der beobachteten Variabilität war auch stark abhängig von der Messstelle, mit charakteristischen täglichen, halbjährlichen und stochastischen Verteilungen variierender Amplituden. Diese Biom-spezifischen pH-Signaturen offenbaren gegenwärtige Niveaus zu sowohl hoch als auch gering gelöstem CO2, was oftmals zeigt, dass örtliche Organismen jetzt schon pH-Regimes ausgesetzt sind, deren Eintreten man nicht vor dem Jahr 2100 vorhergesagt hat.
Also findet bereits jetzt statt, was uns angeblich erschrecken soll, nämlich die so genannte „Versauerung“ der Ozeane, die man für das Jahr 2100 vorhergesagt hatte.
Eine Ansicht aus der realen Welt, was unterschiedliche Variationen mit der Zeit bedeuten, zeigt Abbildung 3 mit den Daten des Hawaii Ocean Timeseries (HOT)-Projektes sowie die Daten von der Küstenlinie der Monterey Bay:

Abbildung 3: Oberflächen-pH-Messungen von HOT open ocean und Monterey Bay upwelling coastline. Die Hawaii-Daten zeigen sowohl gemessene pH (schwarz) als auch aus anderen Messungen berechnete pH-Werte, z. B. gelöster anorganischer Kohlenstoff (DIC), Gesamt-Alkalinität und Salzgehalt.
Wie man sieht, ist es für keine der tausenden unterschiedlichen Spezies im Ozean auch nur ansatzweise ein Problem, eine große und rapide pH-Änderung zu durchlaufen. Es scheint sie nicht im Mindesten zu stören, haben sie das doch seit Millionen Jahren erlebt. Nicht nur das, sondern wie man aus den Hawaii-Daten erkennt, bringt der langsame Rückgang der Alkalinität die Ozeane allmählich zu neutraleren Bedingungen, was den lebenden Organismen egal ist.
Aus all diesen Gründen sage ich, dass die graduelle Neutralisierung der Ozeane durch den zunehmenden CO2-Gehalt bedeutungslos ist. Genau deswegen sage ich auch, dass der „Versauerung“ genannte Prozess lediglich ein Versuch ist, noch mehr Alarmismus zu schüren. Was vor sich geht, ist eine graduelle Neutralisierung mit einer Rate von etwa 0,018 ± 0,001 pH-Einheiten pro Jahrzehnt (Mittel aus sieben multidekadischen Datensätzen) … man betrachte mich als unbeeindruckt.
Damit als Prolog wollen wir jetzt auf die ozeanographischen pH-Daten schauen, die ich in meinem letzten Beitrag mit dem Titel pH Sampling Density angesprochen habe. In jenem Beitrag schrieb ich, dass sowohl aus dem Seegebiet um Japan als auch aus dem Nordatlantik genug Daten vorliegen sollten, um sich Gedanken über die Brauchbarkeit des Datensatzes zu machen. Zu Beginn folgen hier die Daten aus dem Atlantik zusammen mit den HOT-Daten um Hawaii und die Daten aus der Monterrey Bay.

Abbildung 4: Atlantische pH-Messungen aus ozeanischen Profilen (blaue Kreise), Einzel-HOT-Messungen um Hawaii (rot = berechnet, schwarz = beobachtet) und die Messungen der pH-Werte aus der Monterrey Bay (blaugrün mit Standardabweichung). Die schwarze Linie markiert die erwartete Abnahme des ozeanischen pH-Wertes infolge der CO2-Zunahme. „Trend 1970 onwards“ ist der Trend der atlantischen ozeanographischen pH-Daten.
Hier gibt es viele interessante Aspekte. Erstens, die Abnahme in den HOT-Messungen liegt nahe der berechneten Abnahme infolge CO2. Jetzt habe ich diese Abnahme geschätzt unter Verwendung der gemessenen Änderungen der Mittelwerte in gelöstem anorganischen Kohlenstoff DIC infolge steigenden atmosphärischen CO2-Gehaltes. Um das zu tun, habe ich den R-Code lokalisiert (hier).
Und weil das nur eine Schätzung ist, stellt sich heraus, dass es ziemlich nahe sowohl der Abnahme der o. g. HOT- und anderer multidekadischer Messungen an einzelnen Stellen kommt als auch gut zum Trend im Nordatlantik nach 1970 passt mit ozeanographischen Messungen von -0,019. Es ist auch erwähnenswert, dass vor etwa dem Jahr 1960 die berechnete pH-Abnahme so gering ist, dass sie fast unsichtbar daherkommt.
Als nächstes: Japan. Aus diesem Gebiet gibt es deutlich mehr Daten, aber wie im Atlantik gibt es nur wenige Daten aus dem Zeitraum 1940 bis 1960. Abbildung 5 zeigt die Daten um Japan im gleichen Format wie Abbildung 4:

Abbildung 5: pH-Messungen aus ozeanographischen Profilen vor Japan (blaue Kreise), Einzel-HOT-Messungen um Hawaii (rot = berechnet, schwarz = beobachtet) und die Messungen der pH-Werte aus der Monterrey Bay (blaugrün mit Standardabweichung). Die schwarze Linie markiert die erwartete Abnahme des ozeanischen pH-Wertes infolge der CO2-Zunahme. „Trend 1970 onwards“ ist der Trend der atlantischen ozeanographischen pH-Daten.
Wieder erkennen wir die gleiche Verteilung wie in den Daten aus dem Atlantik mit einem zunehmenden Trend in den Jahren nach den Daten, und ein Trend vor 1970 in der gleichen Größenordnung wie das Mittel der o. g. sieben multidekadischen Studien.
Das also ist es. Der ozeanographische Datensatz bestätigt die graduelle pH-Abnahme, bietet aber vor 1960 nicht genug Daten, um uns viel über irgendetwas zu sagen. Wie gewöhnlich liegt das Problem darin, dass Änderungen infolge CO2 so gering sind, dass es schwierig ist, sie aus irgendetwas herauszulesen außer aus dem genauesten aller Datensätze. Das heißt nicht, dass wir die vorhandenen ozeanographischen Messungen nicht nutzen können … es heißt nur, dass wir hinsichtlich deren Verwendung sehr vorsichtig sein müssen.
Link: http://wattsupwiththat.com/2015/01/02/a-neutral-view-of-oceanic-ph/
Übersetzt von Chris Frey EIKE