Vom Unsinn der Klimasensivität CS im IPCC Bericht AR5

Dr. Kiehl’s Paradoxon

Von Willis Eschenbach

Im Jahre 2007 wies Jeffrey Kiehl in einem im GRL veröffentlichten Papier mit dem Titel Twentieth century climate Modell response and Climate Sensitivity auf ein sonderbares Paradoxon hin. Alle von den verschiedenen Forschergruppen betriebenen Klimamodellle konnten die historischen Temperaturen an der Erdoberfläche ganz vernünftig nachbilden. Aus dieser Übereinstimmung wurde von Leuten wie z. B. im IPCC viel Aufhebens gemacht. Nach deren Ansicht ist das der Beleg, dass die Modellle stimmen, dass sie die natürlich gegebene Wirklichkeit abbilden.

Fig. 1. Kiehls Ergebnis beim Vergleich der Klimasensitivität (ECS) mit allen Antrieben. 

Das Paradoxon besteht darin, dass alle Modellle eine stark unterschiedliche Klimasensitivität zeigen, aber dass sie alle in etwa zum gleichen Ergebnis kommen … was stimmt da nicht? Und so schrieb Kiehl in seinem Papier:

[4] Ein sonderbarer Aspekt dieses Ergebnisses ist, dass es allgemein bekannt ist [Houghton et al., 2001], dass die gleichen Modellle, die bei der Simulation der Anomalien bei den Temperaturen an der Erdoberfläche übereinstimmen, signifikant bei der vorhergesagten Klimasensitivität voneinander abweichen. Die angegebene Spannweite bei der Klimasensitivität aus einer großen Anzahl von Modellen reicht normalerweise bei einer Verdoppelung des CO2 von 1.5 bis 4.5C, wobei die meisten der für die Klimawandel-Studien benutzten globalen Klimamodelle wenigstens um den Faktor Zwei beim Gleichgewicht der Klimsensitivität voneinander abweichen.

[5] Die Frage ist: wenn die KlimaModellle sich um einen Faktor von 2 bis 3 in der Klimasensitivität unterscheiden, wieso können sie alle die globalen Temperatur-Aufzeichnungen in einem vernünftigen Genauigkeitsgrad nachbilden?

Kann es so etwas geben? Die Modellle haben stark unterschiedliche Sensitivitäten … aber sie können alle die historischenTemperaturgänge wiedergeben? Wie ist das möglich?

Die Antwort schieben wir zunächst auf, zuerst hier die Antwort von Kiehl (Hervorhebung vom Verfasser):

Man hat herausgefunden, dass der anthropogene Gesamtantrieb bei sehr vielen Klimamodellen sich um den Faktor Zwei unterscheidet und dass der Gesamtantrieb umgekehrt zur Klimasensitivität korreliert ist.

Irgendwie macht das Sinn, weil, wenn der Gesamtantrieb größer ist, man ihn stärker vermindern (geringere Sensitivität) muss, um beim Temperaturgang zu einer Darstellung zu gelangen, die zur historischen Aufzeichnung passt. Kiehl hat aber trotzdem nicht recht.

Meine eigene Forschung im Beitrag Climate Sensitivity Deconstructed  vom Juni dieses Jahre hat gezeigt, dass der entscheidende Faktor nicht der Gesamtantrieb ist, wie Kiehl vermutete. Ich habe herausgefunden, dass die Klimasensitivität der Modellle sehr genau durch ein einfaches Trendverhältnis emuliert wird – Trend des Antriebs geteilt durch den Trend des Modell-Outputs


Fig. 2. Lambda verglichen mit dem Trend-Verhältnis. Rot zeigt die transiente Klimasensitivität (TCR) von vier Modellen plus einen 19-Modelle-Durchschnitt. Dunkelblau zeigt das Gleichgewicht der Klimasensitivität (ECS) der gleichen Modelle. Hellblau ist das Ergebnis aus den Antriebs-Datensätzen, wie sie sich aus tatsächlichen historischen Temperatur-Datensätzen ergeben.

Man sieht, dass Kiehls Fehler bei der Erkennung der Ursache der Veränderungen naheliegend ist. Erstens sind die Outputs der Modelle alle ziemlich ähnlich dem historischen Temperaturverlauf. Deswegen konnte Kiehl den Modell-Output vernachlässigen, was die Frage vereinfacht, aber die Ungenauigkeit vergrößert. Zweitens ist der Gesamtantrieb eine Anomalie, die bei Null anfängt am Beginn der historischen Rekonstruktion. Im Ergebnis ist der Gesamtantrieb irgendwie proportional zum Trend des Antriebs. Und das vergrößert auch noch die Ungenauigkeit. Aber bevor ich das Paradoxon löse und zugleich als Erster, der darüber schreibt, möchte ich Dr. Kiehl meine hohe Anerkennung zollen.

Ich hätte eigentlich nicht davon überrascht sein sollen, dass die Sensitivität wie von den Modellen errechnet, nichts anderes als das Trend-Verhältnis ist. Schließlich ist die kanonische Gleichung des herrschenden Klima-Paradigmas, dass der Antrieb direkt mittels der Klimasensitivität (lambda) auf die Temperatur bezogen ist. So ausgedrückt:

Temperaturänderung (∆T) = Klimasensitivität (lambda) mal Veränderung im Antrieb (∆F), oder kürzer,

∆T = lambda ∆F

Das impliziert natürlich

lambda = ∆T / ∆F

Und der Ausdruck auf der rechten Seite ist nichts anderes als das Verhältnis der Trends. 

Wir sehen also, dass, wenn wir uns für einen speziellen Antriebs-Datensatz für das Modell entschieden und dazu einen historischen Datensatz festgelegt haben, der Output passen wird, und damit haben wir die Klimasensitivität hineingepackt. Jetzt brauchen wir nicht einmal mehr das Modell, um sie zu berechnen. Es ist das Trend-Verhältnis – der Trend des historischen Temperatur-Datensatzes geteilt durch den Trend des Antriebs-Datensatzes. Das ergibt sich zwangsläufig aus der Definition.

Damit haben wir die vollständige Erklärung, warum nach jahrelang und immer wieder verbesserten Computer-Modelllen diese Modellle in immer besserer Genauigkeit und Komplexität die Vergangenheit rückwärts gerichtet voraussagen können … aber bei der Klimasensitivität immer noch nicht übereinstimmen.

Der Grund liegt darin, dass die Klimasensitivität überhaupt nichts mit den Modelllen zu tun hat, aber alles mit den Trends bei den Inputs für die Modellle (Antriebe) und den Outputs (Nach-Berechnungen historischer Temperaturverläufe).

Um es zusammenzufassen, wie Dr. Kiehl vermutete, sind die Variationen in der Klimasensitivität, so wie sie die Modelle ausgeben, nur auf die Unterschiede in den Trend-Differenzen zwischen den von den unterschiedlichen Modellen benutzten Antriebe und den Trends der Outputs zurückzuführen.

Angesichts dessen habe ich laut lachen müssen, als ich den jüngsten UNO-IPCC- Mischmasch von Wissenschaft, Glauben und Pseudo-Wissenschaft durchstudierte, der auch Fünfter Zustandsbericht heißt (AR5). Man halte sich vor Augen, dass das Folgende, wie der Name sagt, von einem Ausschuss von Regierungen kommt, nicht von Wissenschaftlern:

Die Spannweite der Modelle reicht beim Gleichgewicht der Klimasensitivität von 2.1°C bis 4.7°C, und das ist sehr ähnlich wie schon beim AR4. Es besteht sehr hohes Vertrauen, dass der zur Spreizung des Gleichgewichts der Klimasensitivität beitragende Primärfaktor das Feedback der Wolken ist. Das gilt sowohl für das moderne Klima wie für das Maximum der vergangenen Eiszeit.

Ich musste lachen, obschon mir zum Weinen war.  … Die IPCC-ler verstehen wirklich überhaupt nicht, was sie machen. Wie können sie “sehr hohes Vertrauen” (95%) haben, dass die Ursache der “Wolken-Feedback” ist, wenn sie an anderer Stelle zugeben, dass sie die Wirkung der Wolken überhaupt nicht verstehen? So schreiben sie über die Beobachtungen von Wolken und deren Wirkungen und viel weniger darüber, was sie in den Modellen damit machen:

• Beträchtliche Ungewissheit und daher niedriges Vertrauen betrifft die Beobachtungen der Wolkenveränderlichkeit im globalen Ausmaß und den Trends. {2.5.7} 

• Es besteht geringes Vertrauen, dass ein globaler Trend bei Trockenperioden oder Niederschlagsarmut beobachtet wurde, weil es keine direkte Beobachtungen gibt und methodische Unsicherheiten bei der Auswahl und geographische Inkonsistenzen bei den Trends. {2.6.2} 

• Es besteht geringes Vertrauen, dass berichtete Langzeit-Veränderungen (über Jahrhunderte) bei den Eigenschaften der Tropischen Zyklonen robust sind, wenn man die jüngeren Veränderungen der Beobachtungsmöglichkeiten in Betracht zieht. {2.6.3}

Ich muss schon sagen, ich für meinen Teil habe “sehr geringes” Vertrauen in die Beurteilungen der Grade des Vertrauens durch das IPCC in allen Dokumenten … 

Wie dem auch sei, liebe IPCC-ler, die Spannweite der Modell-Sensitivität kann nicht auf die zugegebenermaßen schwächlich modellierten Wirkungen der Wolken zurückgeführt werden. Sie hat auch rein garnichts damit zu tun, wie die Modelle im Inneren ablaufen. Die Klimasensitivität ist eine Funktion der Auswahl der Antriebe und dem gewünschten Output (dem historischen Temperaturgang), und sonst nichts.

Unter Berücksichtigung des Mangels an Verständnis auf seiten der Regierungen kann das noch ein langer Kampf bergauf werden. … Aber ich weiß ja nichts Besseres zu tun.

w.

Nachsatz vom Verfasser: Ich halte die ganze Vorstellung von einer “Klimasensitivität” für bedeutungslos im Kontext von natürlichen thermoregulierten Systemen, wie das Klima eins ist. In derartigen Systemen wird eine Zunahme in einem Teilbereich von einer Abnahme in einem anderen Teilbereich oder über einen längeren Zeitraum konterkariert. Hierzu verweise ich auf meine Beiträge It’s Not About Feedback und Emergent Climate Phenomena als Diskussionsbeiträge.

Original hier 

Übersetzung: Helmut Jäger, EIKE




Genauigkeit, Präzision und ein Watt pro Quadratmeter

Ich war darauf gekommen, hierüber nachzudenken aufgrund einer seltsamen Behauptung in einer jüngst in dem Magazin Nature Climate Change erschienenen Studie mit dem Titel Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods (paywalled) [etwa: Auf Modellen basierende Beweise der Wärmeaufnahme im tiefen Ozean während Perioden ohne Änderung der Temperatur an der Erdoberfläche]. Ich liebe dieses „Auf Modellen basierende Beweise“, aber das war es nicht, was meine Aufmerksamkeit erregte. Es war vielmehr das folgende Statement (Hervorhebung von mir):

Es gab Jahrzehnte wie z. B. 2000 bis 2009, als beobachtete Zeitreihen der globalen Mitteltemperatur nur eine geringe Zunahme oder sogar einen leicht negativen Trend gezeigt haben (eine Stillstands-Periode). Das beobachtete Energie-Ungleichgewicht an der TOA für diese jüngste Dekade zeigt jedoch, dass ein Gesamtenergie-Fluss in das Klimasystem von etwa 1 W/m² irgendwo im System Erwärmung hervorrufen sollte. Hier analysieren wir Simulationen von Klimamodellen für das 21. Jahrhundert, die ein konsistentes Strahlungs-Ungleichgewicht an der TOA von etwa 1 W/m² enthalten, wie im vergangenen Jahrzehnt beobachtet. (Referenzen am Ende dieses Beitrags)

Wie auch immer, hier kommen einige Neuigkeiten hinsichtlich jener Behauptung eines konsistenten TOA-Ungleichgewichtes aus dem CERES-Satelliten-Datensatz:

Abbildung 1: Gemessene Strahlungsniveaus an der TOA auf Basis der CERES-Satellitendaten, beginnend im Januar 2001. Die Zahlen auf der horizontalen Achse entsprechen den Monaten. Gezeigt werden die in das System eintretende Sonnenenergie (rote Linie), die das System verlassende Sonnenenergie (dunkelblaue Linie) und die das System verlassende langwellige (infrarote) Strahlung (hellblaue Linie). Das monatliche Gesamt-Ungleichgewicht an der TOA wird unten in violett gezeigt. Das gleitende 12-Monats-Mittel für jede Variable wird als dünne Linie gezeigt. Komischerweise sind die Variationen der ausgehenden langwelligen Strahlung etwa 6 Monate außer Phase mit der einfallenden Strahlung. Alle Strahlungswerte sind positiv. Ungleichgewicht an der TOA ist Solareinstrahlung abzüglich reflektierte Solarstrahlung abzüglich ausgehende langwellige Strahlung, d. h. Inflow kleiner als Outflow [dieser Satz lautet im Original: TOA Imbalance is solar less reflected solar less outgoing longwave, i.e. inflow less outflow]. 12-Monats-Mittel variieren zu wenig, um als Änderungen in diesem Maßstab hervorzutreten.

Nun gibt es eine Reihe von interessanten Dingen in dieser Graphik. Da ist zunächst die Tatsache, dass zwar die jahreszeitlichen Variationen ziemlich groß sind, mehrere Zehner-Watt pro Quadratmeter, die jährlichen Variationen aber so klein sind. In diesem Maßstab kann man sie kaum erkennen. Also wollen wir den Maßstab ausdehnen und einen genaueren Blick lediglich auf die Variationen des Gesamt-Energie-Ungleichgewichtes an der TOA werfen (violette Linie in Abbildung 1 unten). Das Ergebnis zeigt Abbildung 2:

Abbildung 2: Das Gesamt-Energie-Ungleichgewicht „durch die Lupe”: Auf der horizontalen Achse sind die Monate aufgetragen. Die dünne Linie zeigt gleitende zentrierte 12-Monats-Mittel der Ungleichgewichts-Daten an der TOA. Alle Strahlungswerte sind positiv. Das TOA-Ungleichgewicht ist solare kleiner als reflektierte solare kleiner als ausgehende langwellige Strahlung, d. h. Inflow kleiner Outflow [Original siehe oben! Ich bin einfach nicht sicher, das richtig übersetzt zu haben. A. d. Übers.]

Hier fangen die kleinen Variationen in den gleitenden 12-Monats-Mittelwerten an, sich zu zeigen. Allerdings beträgt der Mittelwert selbst 5 W/m² … das ist nicht gut. So viel Ungleichgewicht ist nicht glaubwürdig.

Das zeigt den Unterschied zwischen Präzision und Genauigkeit. Man sieht, dass die Messungen offensichtlich ziemlich präzise sind – das 12-monatige gleitende Mittel variiert nur um ein Dreiviertelgrad während des gesamten Zeitraumes.

Absolut sind sie jedoch nicht so genau; das wissen wir, weil sie sich nicht ausbalancieren … und es ist sehr zweifelhaft, dass sich die Erde um 5 W/m² außer Gleichgewicht befindet. Das ist eine sehr große Menge, die sicher bemerkt worden wäre.

Nun habe ich schon zuvor darüber berichtet, wie James Hansen mit diesem Problem umgeht. Er sagt:

Die durch die am weitesten entwickelte Generation von den Strahlungshaushalt messenden Satelliten erreichte Präzision wird gezeigt durch das planetarische Energie-Ungleichgewicht, gemessen durch CERES (Wolken und das Strahlungsenergie-System der Erde; Loeb et al. 2009). Darin zeigt sich ein mittleres 5-Jahres-Ungleichgewicht von 6,5 W/m² (Loeb et al. 2009). Weil dieses Ergebnis nicht plausibel ist, wurden Faktoren zur Kalibrierung der Instrumente eingeführt, um das Ungleichgewicht auf ein solches Niveau zu senken, wie es die Klimamodelle simulieren, also 0,85 W/m² (Loeb et al. 2009).

Ergebnis: Hansen hat eher die Levitus-Daten als die CERES-Daten verwendet, um die Behauptungen eines Strahlungs-Ungleichgewichtes von etwa 1 W/m² zu stützen. Allerdings ist nicht alles verloren. Die Präzision der CERES-Daten ist sehr gut. In Abbildung 2 kann man zum Beispiel erkennen, wie sich das Strahlungs-Ungleichgewicht an der TOA von Jahr zu Jahr unterscheidet. Also dehnen wir den Maßstab noch einmal aus und werfen einen sogar noch genaueren Blick nur auf die gleitenden 12-Monats-Mittelwerte für alle vier Strahlungsmessungen in Abbildung 1.

Abbildung 3: Ein noch näherer Blick, diesmal lediglich auf die kleinen Variationen der gleitenden 12-Monats-Mittel der CERES-Daten wie in Abbildung 1 dargestellt. Alle Strahlungswerte sind positiv. TOA-Ungleichgewicht ist solare kleiner als reflektierte solare kleiner als ausgehende infrarote Strahlung.

Jetzt beginnt man etwas zu erkennen.

Als erstes ist mir die Präzision der einfallenden Solarstrahlung aufgefallen (rote Linie). Wie zu erwarten war, ist die Sonne ziemlich stabil, die Strahlung variiert nur wenig im Vergleich zu den Variationen des reflektierten Sonnenlichtes und der langwelligen Ausstrahlung. Und die Beobachtungen reflektieren dies getreulich. Also scheint klar, dass  ihre Instrumente zur Messung von Strahlung ziemlich präzise sind.

Als nächstes fiel mir auf, dass die Änderung des Ungleichgewichtes (violett) stärker in Beziehung steht zur Änderung des reflektierten Sonnenlichtes (dunkelblau) als zu den Variationen der langwelligen Ausstrahlung. Ich habe das reflektierte Sonnenlicht in der Graphik oben (dunkelblau) besonders hervorgehoben. Das wird durch die Korrelation bestätigt. R² zwischen dem TOA-Ungleichgewicht und dem reflektierten Sonnenlicht beträgt 0,67; aber zwischen dem TOA-Ungleichgewicht und der langwelligen Ausstrahlung ist R² nur 0,07.

Es sieht wie ein wichtiges Ergebnis aus, dass das Ungleichgewicht hauptsächlich in Beziehung zur Albedo steht und dass sich wegen der Variation der Albedo die Variationen der reflektierten Sonnenenergie in der Größenordnung von ± drei zehntel eines Watts innerhalb weniger Jahre bewegen.

Schließlich bin ich wieder einmal überrascht, wie insgesamt stabil das System ist. Zwölf-Monats-Mittel aller drei Variablen sind alle stabil bis zu etwa ±0,3 W/m². Bei einer Gesamtzahl von 340 W/m² in beide Richtungen ist das plus oder minus eines Zehntelprozents … Das nenne ich extrem stabil. Ja, bei längeren Reihen sieht man wahrscheinlich größere Schwingungen, aber das ist immer noch sehr stabil.

Und das bringt mich zurück zu dem Zitat aus der Studie, mit der ich diesen Beitrag begonnen habe. Sie sagen, dass es

… ein konsistentes Strahlungs-Ungleichgewicht gibt an der Obergrenze der Atmosphäre von etwa 1 W/m², wie es im vergangenen Jahrzehnt beobachtet worden ist…

Nun, ihren Referenzen 2 und 3 zufolge basiert diese Behauptung auf dem Gedanken, dass die überschüssige Energie von den Ozeanen aufgenommen wird. Und diese Behauptung ist weit verbreitet wiederholt worden. Ich habe über diese Behauptungen hier etwas geschrieben. Die Behauptungen basieren alle auf den Levitus-Ozean-Temperaturdaten, welche eine zunehmende Wärme in den Ozeanen zeigen. Hier folgt meine Graphik des jährlich erforderlichen Antriebs zur Auslösung dieser Änderungen, die im ozeanischen Wärmegehalt nach Levitus gezeigt werden:

Abbildung 4: Jährlicher Antrieb in W/m², der erforderlich ist, um die Energiemenge in den Levitus-Daten auszulösen, die in den Ozean eintritt oder aus diesem herauskommt. Die Daten stehen für die oberen 2000 Meter Wasser. Trotz der Verwendung von Mittelwerten sowohl von Hansen als auch in der hier besprochenen Studie sind weder das Mittel noch der Trend statistisch signifikant. Weiteres hier.

Für unsere Zwecke möchte ich darauf hinweisen, dass es hinsichtlich des in den Levitus-Daten gezeigten Energiegewinns und –verlustes sehr großer Änderungen der Energiemenge von Jahr zu Jahr bedarf, die in den Ozean eindringen. Diese Energie muss von irgendwoher kommen, und sie muss irgendwohin verschwinden, wenn sie den Ozean wieder verlässt. Da der solare Input während der Periode in etwa konstant ist, muss diese Energie aus Änderungen entweder der langwelligen Ausstrahlung oder des reflektierten Sonnenlichtes stammen … und wir haben präzise (obwohl vielleicht ungenaue) Daten von CERES hierfür. Glücklicherweise spielt das Fehlen von Genauigkeit in diesem Fall keine Rolle, weil wir an Änderungen von Jahr zu Jahr interessiert sind. Hierfür ist alles, was wir brauchen, Präzision, und die CERES-Daten sind sehr präzise.

Also … jetzt möchte ich den in Abbildung 4 gezeigten Antrieb des ozeanischen Wärmegehaltes nach Levitus mit den CERES-Daten vergleichen. Abbildung 5 zeigt den Unterschied:

Abbildung 5: Antrieb aus den Levitus-Daten des ozeanischen Wärmegehaltes verglichen mit den CERES-Daten in Abbildung 3.

Wie man sieht, haben sie eine Reihe großer Probleme mit ihren Behauptungen hinsichtlich eines konsistenten Ungleichgewichtes von 1 W/m² während des letzten Jahrzehnts.

Erstens widersprechen dieser Behauptung die gleichen Daten, von denen sie behaupten, dass sie sie stützen. Da ist nichts, was „konsistent“ ist in den Levitus-Daten, es sei denn, man verwendet ein langzeitliches Mittel.

Das zweite Problem liegt in den Levitus-Daten selbst … Woher kommt die Energie bzw. wohin geht sie? Während das TOA-Ungleichgewicht nach CERES nicht akkurat ist, ist es sehr präzise, und es würde eine Fluktuation in der Größenordnung zeigen, wie sie in den Levitus-Daten zum Ausdruck kommt. Wenn wirklich so viel Energie in den Ozean eindringen bzw. diesen verlassen würde, hätte der CERES-Satellit dies sicherlich beobachtet … also wo ist sie?

Ich habe bereits hier beschrieben, was ich als unrealistische Fehlerbalken in den Levitus-Daten ansehe. Mein jüngster Vergleich mit den CERES-Daten ändert nicht meine frühere Schlussfolgerung, dass nämlich die Präzision der Levitus-Daten erheblich überschätzt wird.

Und zum Schluss, der Gedanke, dass wir über ausreichend präzise, genaue und vollständige Beobachtungen verfügen, um das TOA-Ungleichgewicht mit beispielsweise 0,85 W/m² zu berechnen … nun, ich nenne es vorläufig und mathematisch optimistisch. Wir haben einfach nicht die Daten, um die Energiebilanz der Erde mit einer Genauigkeit von ± 1 W/m² zu berechnen, weder aus den Ozeanen noch von den Satelliten.

Weitere Beiträge von mir zu den CERES-Daten:

Observations on CERES TOA forcing versus temperature

Time Lags In The Climate System

A Demonstration of Negative Climate Sensitivity

CERES data: Unfortunately, when I go to verify it’s still available, I get:

The Atmospheric Science Data Center recently completed a site wide redesign.  
It is possible that the page you are looking for is being transitioned.  Please try back later.
If the page you have requested is still not available, it may have been renamed or deleted.
It is recommended that you use the Search interface on the ASDC Web Site to find the information you were looking for.

Since I got there via the afore mentioned “Search interface on the ASDC Web Site”, I fear we’re temporarily out of luck.

[UPDATED TO ADD] I’ve collated the global and hemispheric monthly averages from R into a “.csv” (comma separated values) Excel file available here.

Levitus data

REFERENCES FOR THE NATURE CLIMATE CHANGE ARTICLE:

2. Hansen, J. et al. Earth’s energy imbalance: Confirmation and implications.
Science 308, 14311435 (2005).

3. Trenberth, K. E., Fasullo, J. T. & Kiehl, J. Earth’s global energy budget.
Bull. Am. Meteorol. Soc. 90, 311323 (2009).

4. Trenberth, K. E. An imperative for climate change planning: Tracking Earth’s
global energy. Curr. Opin. Environ. Sustain. 1, 1927 (2009).

5. Trenberth, K. E. & Fasullo, J. T. Tracking Earth’s energy. Science 328,
316317 (2010).

Link: http://wattsupwiththat.com/2013/08/30/accuracy-precision-and-one-watt-per-square-metre/

Übersetzt von Chris Frey EIKE




Bemerkungen zum Unsinn der Energiepolitik am Beispiel von British Columbia, Kanada

<xml> </xml>

British Columbia, British Utopia

Willis Eschenbach
Ein Kommentator hat mich auf einen anderen Blog der kanadischen Provinz British Columbia (BC) hingewiesen. Dort hatte man im Jahr 2008 eine auf Kohlenstoff basierende Energiesteuer eingeführt. Bevor ich auf die Kosten oder die aktuellen Ergebnisse dieses Vorgangs eingehe, möchte ich einen Blick auf die möglichen Vorteile werfen. Ich meine: wenn es keine Vorteile bringt, liegen die Kosten irgendwie neben den Gleisen. Die kohlenstoffbasierte Energiesteuer in BC wurde mit der Begründung propagiert, dass sie helfen würde, die vermeintliche durch CO2 verursachte globale Erwärmung zu bekämpfen. Um wie viel also werden die Aktionen unserer nördlichen Nachbarn die Welttemperatur beeinflussen?
Nun, das ist schwer zu beantworten, aber wir könnten mit einem Gedankenexperiment eine obere Grenze der möglichen Abkühlung festlegen. Dem gegenwärtigen Klima-Paradigma zufolge bestimmt CO2 die globale Temperatur, und die Temperaturänderung für jede Verdoppelung des CO2-Gehaltes betrage etwa 3°C. Das heißt, wenn wir die Emissionen kennen, können wir die resultierende Temperaturänderung berechnen.
Das Gedankenexperiment geht so: Man nehme an, dass British Columbia im Jahr 1850 als separater Staat gebildet worden wäre mit dem hohen ethischen Ziel, sich von den teuflischen kohlenstoffbasierten Treibstoffen freizumachen. Und anstatt diesen Staat „British Columbia“ zu nennen, haben sich die frühen Kolonisten entschlossen, ihn „British Utopia“ zu nennen, weil sie dabei waren, gegen das böse Kohlendioxid das ultimative Opfer zu bringen. Sie würden niemals wieder fossile Treibstoffe verwenden, ihr Land wäre ein wirkliches Utopia. Also haben sie eine Mauer um British Utopia errichtet und mit niemandem Handel getrieben, um den lästigen Kohlenstoff aus dem Handel herauszuhalten. Um CO2-Emissionen zu vermeiden, haben sie keinerlei Öl verwendet, weder ihr eigenes noch solches von anderswo her. Sie haben kein Zement hergestellt oder importiert, weil dabei zu viel CO2 in der Manufaktur freigesetzt worden wäre. Die Utopisten haben keine Kohle zur Heizung oder für Transporte oder die Herstellung von Stahl benutzt, sondern ausschließlich wunderbares erneuerbares Holz. Da der Kohlenstoff im Holz zuvor aus der Luft geholt worden war, würde das Verbrennen kein zusätzliches CO2 in die Atmosphäre blasen, sondern es würde lediglich genau die Menge ersetzt werden, die zuvor im Holz eingelagert worden ist. Und man nehme weiter an, dass sie das alles bis heute durchgehalten hätten.

Für mich klingt das so, als hätten sie nur kurze Zeit gelebt unter brutalen Bedingungen. Sie hätten infolge der vielen Holzfeuer eine dunstige braune Atmosphäre geatmet. Und wenn man sein Land aufgrund von Holz verwaltet, könnte es am Ende so aussehen wie in Haiti … [auf Deutsch bei EIKE hier]. Aber lassen wir das für den Moment und stellen die wichtige Frage:
Falls die Bewohner von British Utopia der Menschheit dieses noble Opfer im Jahre 1850 dargebracht und den fossilen Treibstoffen abgeschworen hätten … um wie viel wäre es heute in der Welt kühler?
Bild rechts: um wie viel es auf der Welt kühler wäre, falls die britischen Utopisten den teuflischen Kohlenstoff-Gewohnheiten im Jahr 1850 abgeschworen hätten.
Mit den Hypothesen des IPCC unter dem gegenwärtigen Paradigma können wir glücklicherweise berechnen, um wie viel es heute kühler wäre, wenn es die Bewohner von British Utopia aufgegeben hätten, CO2 zu emittieren. Das CDIAC [Carbon Dioxide Information Analysis Center] hat Daten sowohl für Kanada als auch für die Welt, die die CO2-Emissionen seit 1750 zeigen. Und da für ein gegebenes Land die CO2-Emissionen eine Funktion der Bevölkerungszahl ist und wir die historische Population in BC als Bruchteil des Ganzen kennen, können wir die Gesamtemissionen von BC herausfiltern und folglich auch die Größe der utopianischen Abkühlung. Hier also wird der wahre kanadische Hockeyschläger gezeigt, der uns sagt, um wie viel kühler es Jahr für Jahr in der Welt wäre mit dem Selbstopfer der British Utopianer:
Die blaue Kurve in der Abbildung zeigt, um wie viel sich der Planet während der letzten eineinhalb Jahrhunderte abgekühlt hätte durch die virtuosen Aktionen der British-Utopianer. Wenn sie einfach „nein“ zu fossilen Treibstoffen gesagt hätten, zeigt die blaue Linie, um wie viel es heute kühler wäre. Das wären etwa fünf Tausendstel von einem Grad … Mann, diese Utopianer wissen wirklich, wie man die größte Ausbeute für sein Geld bekommt, oder? Man gebe sämtlichen modernen Komfort für eineinhalb Jahrhunderte auf, man lebe Jahrzehnt für Jahrzehnt in einem Dunklen Zeitalter, während überall sonst Party herrscht – und was haben sie als Folge von 150 Jahren Selbstentbehrungen vorzuweisen?
Fünf Tausendstel Grad Abkühlung!
Aber Moment, es wird noch schlimmer … man denke an die Enkelkinder!
An der rechten Seite der Graphik habe ich weitere fünfzig Jahre projizierter Emissionen gezeigt. Ein junges Paar, das heute eine Familie gründet – in fünfzig Jahren werden deren Enkelkinder in den Dreißigern sein. Was also könnte man mit der kohlenstoffbasierten Energiesteuer in BC für diese Enkelkinder erreichen?
Ich habe zwei mögliche Zukunftsszenarien gezeigt. Eines ist das „Business as Usual“-Szenario in rot. Dabei setzt sich der Trend nach 1970 fort, der sich auf etwa 1,5% jährlicher Zunahme der Emissionen in BC beläuft. Das kann man pessimistischerweise erwarten, wenn es keine Energiesteuer irgendeiner Art gäbe. Das ist der Worst-Case.
Und in grün habe ich das absolute Best-Case-Ergebnis einer solchen Energiesteuer gezeigt. Das ist das totale Phantasie-Ergebnis, bei dem die BC-Emissionen auf ihrem Niveau aus dem Jahr 2008 verbleiben (dem Datum der Einführung der Steuer), und sie nehmen fünfzig Jahre lang überhaupt nicht zu. Natürlich würde der atmosphärische CO2-Gehalt weiterhin steigen infolge der konstant sich fortsetzenden Emission der im Jahr 2008 emittierten CO2-Menge, aber nicht so stark wie im „Business as Usual“-Szenario.
Die Differenz zwischen diesen beiden Szenarien, dem Worst Case und dem Best Case zeigt die theoretisch maximal mögliche Abkühlung, die aus einer kohlenstoffbasierten Energiesteuer resultieren könnte. Das repräsentiert die schwarze Linie in der unteren rechten Ecke … und diese Abkühlung beträgt drei Tausendstel Grad.
Da also haben wir es! All die Pein, die die Bevölkerung von BC erduldet, all die Meilen Papierkram, alle Opfer, alle Schädigungen der Armen, alle gesammelten Steuern und die gehätschelten Bürokraten für all das – alles, was das gute kanadische Volk für ihre Enkelkinder erreicht hat, bewirkt eine Abkühlung um drei tausendstel Grad!


Alles, was ich sagen kann, ist, dass ich sicherlich hoffe, dass die Enkelkinder eine angemessene Dankbarkeit zeigen für dieses Inter-Generationen-Geschenk und dass sie den alten Knackern eine nette Dankeskarte schicken, wie es Miss Manners verlangt [?]. Schließlich zählt der gute Wille, und man bekommt nicht oft ein Geschenk von so großer Bedeutung…
Aber ernsthaft, Leute: Die Anti-Kohlenstoff-Zeloten müssen die Massen hypnotisiert haben. Ich weiß keine andere Erklärung für eine solche Idiotie. Beispiel:
Nehmen wir mal an, es käme jemand und sagte „Ich kann garantieren, dass ich den Planeten während der nächsten fünfzig Jahre um drei tausendstel Grad kühlen kann“. Und nehmen wir weiter an, man hätte das überprüft und gefunden, dass dieser Jemand die Wahrheit sagt, dass er nämlich wirklich eine Abkühlung um drei Tausendstel Grad während der nächsten fünfzig Jahre garantieren kann.
Wie viel würden Sie persönlich dafür bezahlen wollen?
Würden Sie eintausend Dollar für eine garantierte Abkühlung um drei Tausendstel Grad zahlen, die nicht heute, sondern in fünfzig Jahren stattfindet?
Ich würde das nicht tun. Das ist es nicht wert. Zu viel Geld für zu wenig Nutzen.
Aber die kollektive Verrücktheit der Einwohner von BC hat einen Punkt erreicht, an dem sie gewillt sind, eine die Wirtschaft beeinträchtigende Steuer zu etablieren, und zwar durch eine komplette Bürokratie, mit Vollstreckungsbeamten und Stapeln von Papierkram. Und an dem sie gewillt sind, Millionen und Abermillionen Dollar auszugeben in dem wahnsinnigen Bemühen, dem Best Case-Szenario einer Abkühlung um drei Tausendstel Grad zu folgen; nicht jetzt, sondern in fünfzig Jahren.
Alles, was mir da zu tun übrigbleibt ist, meinen Kopf zu schütteln und mich über die Verrücktheit von Massen zu wundern. Ein Plan wird vorgeschlagen, jemand nimmt eine Kosten-Nutzen-Analyse vor, der Nutzen ist zu gering, um die Hoffnung zu hegen, dass er auch nur gemessen werden kann und sich noch mehrere Jahrzehnte nicht einstellt … und die Reaktion der Leute besteht darin zu sagen „toller Plan, los, lasst ihn uns sofort umsetzen!“
Nun ja … ich bin ein Optimist und hoffe, dass an irgendeinem Punkt unsere kanadischen Nachbarn aufwachen werden und sagen „Was?!“
P. S. Wie oben erwähnt, möchte ich einen Blick auf den Nutzen, die Kosten und die Auswirkungen einer kohlenstoffbasierten Energiesteuer werfen. In diesem Beitrag habe ich nur den (fehlenden) Nutzen angesprochen, so dass man erwarten kann, dass es noch ein paar weitere Beiträge geben wird, in denen es um die Auswirkungen und die Kosten geht. Tatsächlich sind diese Beiträge schon weitgehend geschrieben, weil ich eigentlich nur einen Beitrag schreiben wollte, der jedoch unerträglich lang geworden ist … also werde ich über die Kosten und den Nutzen einer Steuer in BC später sprechen [siehe nächsten Beitrag! A. d. Übers.]
P.P.S. Bitte sagen Sie mir nicht, dass dies lediglich der erste Schritt ist. Die Steuerzahler in BC haben bereits eine halbe Milliarde Dollar für diese Farce ausgegeben, und das ist noch nicht einmal die Hälfte. Falls der erste Schritt eine Milliarde Dollar kostet, um eine Abkühlung von 0,003°C zu erreichen, will ich nicht wissen, worin der zweite Schritt besteht, egal wie er aussieht.
Link: http://wattsupwiththat.com/2013/07/11/british-columbia-british-utopia/
Der zweite Beitrag wurde einen Tag später ebenfalls bei Wattsupwiththat veröffentlicht:

Treibstoff auf der Autobahn in British Pre-Columbia

Willis Eschenbach
Unterstützer der kohlenstoffbasierten Energiesteuer in BC, über die ich oben geschrieben habe, haben behauptet, dass diese Steuer den Daten zufolge ein Erfolg war … und da ich immer ein Mensch bin, der lieber immer alles überprüft, habe ich beschlossen, einmal selbst auf diese Daten zu schauen. Ich habe nicht gedacht, dass die Steuer größere Auswirkungen hätte, aber ich war darauf vorbereitet, irgendetwas zu finden. Die Wirklichkeit ist in dieser Hinsicht komisch. Ich mag manchmal gar nicht wissen, wo der Hund begraben liegt … wie auch immer, eine typische Behauptung lautet:
MOTORENBENZIN (VERKEHR)
Die obigen Abbildungen zeigen Änderungen des Gesamtverbrauchs aller Produkte aus Petroleum-Treibstoff (Gegen­stand der Kohlenstoffsteuer). Um etwas darüber zu erfahren, wie die Kohlenstoffsteuer das Verhalten der Fahrer beeinflusst hat, kann man einfach die Änderungen beim Verbrauch von Motorenbenzin untersuchen (eine Komponente des Gesamt-Ölverbrauchs). Seit 2008 ist der Pro-Kopf-Verbrauch in BC um 7,3% stärker zurückgegangen als im übrigen Kanada – ein substantieller Unterschied. Schon in den Jahren von 2000 bis 2007 war der Benzinverbrauch in BC rascher zurückgegangen als im übrigen Kanada.
Die Steuer gilt für alle kohlenstoffbasierten Treibstoffe, Heizöl, Flugzeugbenzin, Kerosin, Erdgas, alles. Für einige dieser Arten sind keine Daten verfügbar, also habe ich mir den Verbrauch auf Autobahnen angeschaut, Benzin und Diesel, um zu sehen, ob die Steuer irgendwie Auswirkungen darauf hat, wie die Menschen in den gefrorenen Norden fahren.
Statistics Canada hat eine ausgezeichnete Website, von der ich die meisten meiner Daten hinsichtlich des Treibstoffverbrauchs habe. Als erstes kommen hier die Änderungen vom Pro-Kopf-Verbrauch von Benzin und Diesel (als Kombination) pro Provinz für die Jahre 1993 bis 2011. Diese Analyse betrifft nur den Benzin- und Dieselverbrauch auf den Straßen und nicht für Benzin oder Diesel, um Traktoren und landwirtschaftliche Geräte auf den Äckern zu betreiben. (Man beachte, dass die Kohlenstoffsteuer auch für Treibstoffverbrauch in der Landwirtschaft und alle anderen Verbraucher gilt, für alles).

Abbildung 1: Pro-Kopf-Verbrauch von Benzin und Diesel in Kanada, unterteilt nach Provinzen. Nur Treibstoffe auf Autobahnen wurden gezählt. Die dicke rote bzw. blaue Linie zeigt den Treibstoffverbrauch in BC bzw. Kanada. Nunavut und die Nordwest-Territorien sind nicht mitgezählt, weil von dort Daten aus den frühen Jahren fehlen, bevor Nunavut gegründet worden war. (Datenquelle)
Das sieht zwar interessant aus, gestattet aber noch keine Einsicht in die subtilen Änderungen Jahr für Jahr. Dafür müssen wir auf die Änderungen der Prozentanteile hinsichtlich der Emissionen pro Provinz, um zu erkennen, wo der Verbrauch steigt und wo er fällt.
Wenn man sich die prozentualen Veränderungen von irgendwas anschaut, lautet die erste Frage, welchen Startpunkt man als Ausgangspunkt für die prozentuale Veränderung nimmt. Weil die Steuer im Jahre 2008 eingeführt worden ist, habe ich jenes Jahr als Startpunkt gewählt. Abbildung 2 zeigt das Ergebnis, und angesichts der Behauptungen der Befürworter dieser Steuer ist das Ergebnis ziemlich komisch … außer man lebt in BC. Ich denke, wenn man Ziel des Witzes ist, verliert dieser seine Komik. Wie auch immer, hier folgt die prozentuale Änderung im Pro-Kopf-Verbrauch von Benzin und Diesel auf Autobahnen.

Abbildung 2: Prozentuale Änderung des Treibstoffverbrauchs mit dem Jahr 2008 als Startpunkt. Die blaue Linie zeigt die korrespondierende prozentuale Änderung im wirklichen (inflationsbereinigten) Bruttoinlandsprodukt in Kanada. 2011 ist das letzte Jahr, in dem in StatCan Daten vorliegen.
Das erste, was auffällt, ist ein Phänomen, das ich auch in meinen Analysen der Fahrgewohnheiten in den USA gefunden habe – die Amerikaner fahren mehr in guten wirtschaftlichen Zeiten und weniger in schlechteren Zeiten. Ähnlich ist es beim Treibstoffverbrauch sowohl in BC als auch in Gesamt-Kanada. Der Verlauf war ähnlich der nationalen ökonomischen Lage.
Danach fiel mir auf, dass es in BC von 1993 bis 2008 den geringsten Zuwachs im Treibstoffverbrauch auf Autobahnen gegeben hatte, verglichen mit allen anderen Provinzen.
Als nächstes sind die Änderungen des Autobahnen-Treibstoffverbrauchs nach Einführung der Steuer interessant. Abbildung 3 zeigt einen vergrößerten Ausschnitt von Abbildung 2 und stellt die jüngste Periode von 2004 bis 2011 in den Mittelpunkt stellt.

Abbildung 3: Vergrößerter Ausschnitt von Abbildung 2, die die Änderungen im Straßen-Treibstoffverbrauch nach Einführung der Steuer zeigt. Die kohlenstoffbasierte Energiesteuer in BC war 2008 eingeführt worden.
Also … genau wie im übrigen Kanada (dicke schwarze Linie) ging der Treibstoffverbrauch in BC von 2004 bis 2008 zurück, als die Steuer eingeführt worden ist … außer dass der Rückgang schneller erfolgte als im nationalen Mittel.
Und auch wie im übrigen Kanada erreichte der Treibstoffverbrauch in BC im Jahr 2009 seinen Tiefpunkt, also im Jahr nach Einführung der Steuer. Ich kann nur vermuten, dass dies mit der blauen Linie zusammenhängt, die das reale Bruttoinlandsprodukt von Kanada repräsentiert.
Und genau wie im übrigen Kanada ist der Straßen-Treibstoffverbrauch in BC bis zum Ende der Aufzeichnung wieder gestiegen … außer dass der Anstieg schneller erfolgt ist als im nationalen Mittel.
Das also ist der Witz des Ganzen: Von 2004 bis zum Steuerjahr 2008 zeigte der Straßen-Benzinverbrauch in BC die schnellste Abnahme des Treibstoffverbrauchs im Land. Der Verbrauch fiel dreimal so stark wie im restlichen Kanada während dieses Zeitraumes. Das war vor der Steuer.
Nach Einführung der Steuer setzte sich der Rückgang fort, aber nur für ein Jahr. Das gilt auch für das übrige Kanada und die USA. Dies zeigt, dass der Rückgang seine Ursache zumindest teilweise in den globalen wirtschaftlichen Schwierigkeiten hat.
Und seit 2009 zeigt BC zusammen mit dem Yukon-Territorium und Neufundland/Labrador den stärksten Anstieg des Treibstoffverbrauchs im Lande. Der Autobahn-Benzinverbrauch seit 2009 stieg in BC viermal schneller als im übrigen Kanada.
Und schließlich ist der Straßen-Energieverbrauch seit 2008, also seit der Einführung der Steuer, in BC gestiegen, nicht gefallen. Und nicht nur das, seit Einführung der Steuer ist der Verbrauch in BC am viertschnellsten im Vergleich mit allen anderen Provinzen gestiegen.
Kann man sagen, dass die kohlenstoffbasierte Energiesteuer den Treibstoffverbrauch in BC beeinflusst hat? Nein, denn wir haben ja nur den Straßen-Treibstoffverbrauch betrachtet … aber der Verbrauch auf den Autobahnen in BC hat sich sicher nicht geändert. Nun, das stimmt nicht ganz.
Vor der Steuer ging der Pro-Kopf-Verbrauch von Starßen-Treibstoff in BC schneller zurück als in fast allen anderen Provinzen.

Nach der Steuer war dieser Verbrauch in BC schneller gestiegen als in fast allen anderen Provinzen.

Also – ja, ich würde sagen, dass ich unrecht hatte; die Steuer hatte einen Einfluss auf den Straßen-Treibstoffverbrauch in BC … aber wahrscheinlich nicht den, den die Befürworter erwartet hatten.
P. S. Man erinnere sich daran, dass die Befürworter den Rückgang des Benzinverbrauchs auf Autobahnen in BC in höchsten Tönen gepriesen hatten … warum bin ich nicht zu diesem Ergebnis gekommen? Warum zeigt sich bei mir eine Zunahme?
Nun, weil ich den gesamten, auf den Autobahnen verbrauchten Treibstoff gezeigt habe, nicht nur den von Benzin. Und obwohl es eine kleine Abnahme des Benzinverbrauchs in BC gegeben hatte, gab es einen größeren Zuwachs beim Dieselverbrauch. Als Ergebnis ist der Straßen-Treibstoffverbrauch in BC nicht 7,3% geringer als im übrigen Kanada, wie sie es glauben machen wollen, indem sie die Zahlen für den Dieselverbrauch einfach weglassen – der Verbrauch ist in BC um 4,2% stärker gestiegen als im übrigen Kanada. Wie ich sagte, es zahlt sich aus, misstrauisch gegenüber Statements von solchen Leuten zu sein, engstirnige Fanatiker.
P.P.S. In meinem obigen Beitrag zur kohlenstoffbasierten Energiesteuer in BC sagte ich, dass ich (das Fehlen von) Vorteilen, die Kosten und die Folgen der Steuer diskutieren wollte. Jener Beitrag zeigte, dass der größte mögliche Vorteil der BC-Steuer eine Abkühlung um drei Tausendstel Grad nach fünfzig Jahren war. In diesem Beitrag geht es um die kuriosen Folgen der Steuer, nämlich um die Tatsache, dass der Autobahn-Treibstoffverbrauch (Benzin plus Diesel) vor der Steuer zurückgegangen und nach deren Einführung gestiegen war, und zwar stärker als im übrigen Kanada.
Link: http://wattsupwiththat.com/2013/07/12/fuel-on-the-highway-in-british-pre-columbia/#more-89728
Alles übersetzt von Chris Frey EIKE




Australien und ACORN-SAT messen höhere Tiefst-Temperaturen als die (angegebenen) Höchsttemperaturen! Wie das?

Es ist ein Datensatz mit täglichen Daten, was ich mag. Und sie scheinen etwas von Anthony Watts und seinem Surface Station Project gelernt zu haben, es gibt Photos und Beschreibungen und Metadaten von jeder einzelnen Station. Außerdem sind die Daten gut auf Fehler untersucht und überprüft worden. Auf der Site heißt es:
Experten-Begutachtung
Alle wissenschaftlichen Arbeiten in dem Bureau sind Gegen­stand von Begutachtungen durch Experten. In Anerkennung des öffentlichen Interesses an ACORN-SAT als Basis für Analysen zur Klimaänderung hat das Bureau zusätzlich eine internationale Begutachtung seiner Arbeitsweisen und Methoden initiiert.
Eine Reihe weltweit führender Experten traf sich 2011 in Melbourne, um die Methoden zur Entwicklung von ACORN-SAT zu begutachten. Sie kamen zu dem Ergebnis, dass die Methoden und Datenanalysen des Bureaus unter den besten der Welt liegen.
und
Methoden und Entwicklung
Die Erstellung einer modernen homogenisierten australischen Temperaturaufzeichnung erfordert extensive wissenschaftliche Kenntnisse – zum Beispiel darüber, wie Änderungen der Technologie und Verschiebungen der Station die Konsistenz der Daten mit der Zeit beeinflussen.
Die Klimadaten-Experten des Bureau of Meteorology haben die digitalisierten Daten sorgfältig analysiert, um eine konsistente – oder homogene – Aufzeichnung täglicher Temperaturwerte während der letzten 100 Jahre zu erhalten.
Als Ergebnis davon war ich begeistert, die Sammlung dieser Temperaturdaten zu finden. Also habe ich ein R-Programm geschrieben und die Daten zur Untersuchung herunter geladen. Aber gerade als ich damit fertig war und mit meiner Untersuchung nach bester klimawissenschaftlicher Tradition beginnen wollte, ging plötzlich alles schief!
Was war geschehen? Bei der Forschung nach dem ACORN-SAT-Datensatz war ich zufällig auf eine Website gestoßen mit einem Beitrag vom Juli 2012, etwa vier Monate nach der Veröffentlichung des ACORN-SAT-Datensatzes. Der Autor stellte die überraschende Behauptung auf, dass an einer ganzen Reihe von Tagen in verschiedenen Aufzeichnungen im Datensatz die tägliche Tiefsttemperatur HÖHER lag als das Tagesmaximum … oh, das war gar nicht schön!
Nun, ich dachte mir, dass neue Datensätze manchmal Kinderkrankheiten aufweisen, und da dieser Beitrag von vor fast einem Jahr stammte und kurz nach der Veröffentlichung des Datensatzes erschienen war, dachte ich, dass man dieses Problem inzwischen gelöst habe…


…aber dann kam ich endlich zu Verstand und erinnerte mich, dass dies das Australian Bureau of Meteorology (BoM) war, und da wusste ich, dass ich ein Narr wäre, dies nicht zu checken. Die Reputation des Bureaus ist nicht Gold, sondern tatsächlich Zinn … also schrieb ich ein Programm, das alle Tage an allen Stationen mit diesem speziellen Problem finden sollte.
Von allen 112 ACORN-SAT-Stationen hatten nicht weniger als 69 zumindest einen Tag in der Aufzeichnung, an dem die Tiefsttemperatur dieses Tages höher lag als die Höchsttemperatur des gleichen Tages. Im gesamten Datensatz fanden sich 917 Tage, an denen das Minimum höher lag als das Maximum…
Ergebnisse wie diese hasse ich absolut. Für die meisten Anwendungen spielt dieses Ergebnis fast keine Rolle. Es sind tägliche Datensätze, wobei jede Station 100 Jahre lang Daten besitzt, 365 Tage im Jahr. Das bedeutet, dass der gesamte Datensatz aus 4 Millionen Daten besteht, so dass diese 917 Fehler gerade mal 0,02% der Daten ausmachen, falls … Aber es bedeutet auch, dass man den Ergebnissen einfach nicht trauen kann, wenn ich diese Daten verwende. Es bedeutet, wer auch immer diesen Datensatz zusammengestellt hatte, hat nicht seine Hausaufgaben gemacht.
Und traurigerweise bedeutet es auch, dass wir nicht wissen, was sie noch alles nicht getan haben könnten.
Noch einmal, es geht nicht darum, dass diese Probleme im ACORN-SAT-Datensatz aufgetaucht waren. Alle neuen Datensätze weisen Anfangsfehler auf.
Es geht darum, dass die Autoren und Kuratoren des Datensatzes ihrer Verantwortung nicht gerecht geworden sind. Sie hatten ein Jahr Zeit, dieses einfachste aller Probleme zu lösen, und soweit ich das sagen kann, haben sie in dieser Hinsicht gar nichts getan. Sie passen nicht auf, so dass wir nicht wissen, ob die Daten gültig sind oder nicht.
Ich muss zugeben, diese Art schäbiger „veröffentliche es“-Klimawissenschaft wird langsam zur Gewohnheit…
DIE ERGEBNISSE
Station, Anzahl der Fehlertage (an denen die Tiefsttemperatur höher liegt als die Höchsttemperatur)
Adelaide, 1
Albany, 2
Alice Springs, 36
Birdsville, 1
Bourke, 12
Burketown, 6
Cabramurra, 212
Cairns, 2
Canberra, 4
Cape Borda, 4
Cape Leeuwin, 2
Cape Otway Lighthouse, 63
Charleville, 30
Charters Towers, 8
Dubbo, 8
Esperance, 1
Eucla, 5
Forrest, 1
Gabo Island, 1
Gayndah, 3
Georgetown, 15
Giles, 3
Grove, 1
Halls Creek, 21
Hobart, 7
Inverell, 11
Kalgoorlie-Boulder, 11
Kalumburu, 1
Katanning, 1
Kerang, 1
Kyancutta, 2
Larapuna (Eddystone Point), 4
Longreach, 24
Low Head, 39
Mackay, 61
Marble Bar, 11
Marree, 2
Meekatharra, 12
Melbourne Regional Office, 7
Merredin, 1
Mildura, 1
Miles, 5
Morawa, 7
Moree, 3
Mount Gambier, 12
Nhill, 4
Normanton, 3
Nowra, 2
Orbost, 48
Palmerville, 1
Port Hedland, 2
Port Lincoln, 8
Rabbit Flat, 3
Richmond (NSW), 1
Richmond (Qld), 9
Robe, 2
St George, 2
Sydney, 12
Tarcoola, 4
Tennant Creek, 40
Thargomindah, 5
Tibooburra, 15
Wagga Wagga, 1
Walgett, 3
Wilcannia, 1
Wilsons Promontory, 79
Wittenoom, 4
Wyalong, 2
Yamba, 1
Link: http://wattsupwiththat.com/2013/06/28/australia-and-acorn-sat/
Übersetzt von Chris Frey EIKE




Energie kaufen aus dem Energie-Laden?

Bild rechts: Elemente einer Blei-Säure-Autobatterie. Quelle 
Der Autor des Gastbeitrags hat teilweise recht. Seine These lautet, dass die Lösung des Problems, große Mengen Strom zu speichern, einen sehr großen Unterschied ausmachen würde, vor allem für unregelmäßige Quellen wie Wind und Sonne. Da hat er recht, das würde es. Aber er hat unrecht, wenn er nicht darauf hinweist, wie teuflisch schwierig es bislang war, dieses Ziel in der realen Welt zu erreichen.
Die Stromspeicherung ist eine sehr seltsame Ecke wissenschaftlicher Bestrebungen. Fast alles in einem Auto aus dem Jahr 2013 unterscheidet sich von einem Auto aus dem Jahr 1913 … außer der Batterie. Autobatterien sind immer noch Blei-Säure-Batterien, und deren Aussehen unterscheidet sich nur minimal von dem vor einhundert Jahren.
Nun, wir haben Nickel-Kadmium-Batterien und Ähnliches, aber die Autobatterie als Speicher ist der Leithammel für die billige Speicherung von Elektrizität. Autos brauchen eine überraschend große Menge Energie zum Start, vor allem, wenn der Motor nicht gleich anspringt. Falls es einen billigeren Weg gäbe, diese große Menge zu speichern, wäre dies längst in jedes Auto des Planeten eingebaut. Angesichts dieses riesigen Marktes und der offensichtlichen Profite darin haben sich viele Menschen den Kopf über dieses Problem zerbrochen, seit Thomas Edison sein berühmtes Statement über Autobatterien abgegeben hat.
Und trotz dieser ein Jahrhundert langen gewaltigen Denkleistung menschlichen Erfindergeistes regieren die Blei-Säure-Batterien im Jahr 2013 immer noch. Es ist eine Anomalie, wie die Kernfusion, die sich als unglaublich schwierig zu lösen heraus gestellt hat. Potentielle Lösungen sind auf diesem Weg alle herausgefallen, durch hohe Kosten oder Kapazität oder Energiedichte oder gefährliche Komponenten oder langzeitliche Stabilität oder Verstopfung von Filtern oder der Seltenheit einiger Materialien oder die Gefahr einer Explosion oder Schwierigkeiten bei der Herstellung – die Anzahl der Fallgruben ist Legion.
Folglich werde ich begeistert sein, wenn wir irgendetwas anderes außer einer Blei-Säure-Batterie in unseren Autos hätten. Weil das nämlich der Beweis wäre, dass wir den ersten Schritt gemacht hätten … aber nicht einmal das würde ausreichen. Das andere Problem ist die gewaltige Energiemenge, um die es hier geht. Hier sind einige Zahlen:
Der mittlere Leistungsverbrauch von New York City bewegt sich im Mittel über 24 Stunden 7 Tage die Woche und 365 Tage im Jahr in einer Größenordnung von 5 Gigawatt (5 x 10^9 Watt) ununterbrochen. Nehmen wir eine Stadt, die nur ein Zehntel so groß ist. Davon gibt es viele auf dem Planeten, allein in China Dutzende und Dutzende Städte dieser Größe. Dann wollen wir uns überlegen, wie viel Speicherplatz wir benötigen, um gespeicherte Energie drei Tage lang für diese Stadt zur Verfügung zu stellen. Die Zahlen sehen so aus:  
5 x 10^8 Watt dauerhaft für 72 Stunden bereitgestellt entsprechen:
3.6 x10^10 Watt-Stunden Speicher geteilt durch
3.6 x 10^3 Sekunden/Stunde ergibt
1.3 x10^14 Joule Speicherbedarf
Das bedeutet also, dass wir 130 Terajoule (130 X 10^12 Joules) Energie speichern müssen … das einzige Problem dabei ist, dass sich nur sehr wenige Menschen intuitiv vorstellen können, wie viel Energie 130 Terajoule ist, und ich gehöre definitiv nicht dazu.
Lassen Sie mich also eine andere Energie-Einheit benutzen, eine, die für mich anschaulicher ist. Diese Einheit ist die „Energiemenge der Atombombe von Hiroshima“. Die erste jemals in einem Krieg gezündete Bombe setzte die furchtbare Energie von 60 Terajoule frei, genug, um eine Stadt dem Erdboden gleichzumachen.
Und wir schauen hier darauf, zweimal so viel Energie zu speichern…
Ich bin sicher, dass die Probleme hinsichtlich Skalierbarkeit und Sicherheit und Energiedichte und Verfügbarkeit und Garantie für diese riesige Menge Energie klar zutage treten.
Darum mag ich den Beitrag des Gastautors so, und er hat recht hinsichtlich der Speicherung einer Menge für eine Stadt … es ist ein böses Problem.
Letztendlich hat Judith wie üblich einen interessanten Beitrag auf ihrem interessanten Blog gepostet. Ich schaue nicht auf sehr viele Blogs, aber ihrer hat auf meiner Liste einen Spitzenplatz inne. Mein Dank für ihren Beitrag zur laufenden Diskussion.
Willis Eschenbach
P. S. – Edisons berühmtes Statement über Autobatterien? Ihm wurde viel Geld angeboten in jenen Tagen, um eine bessere Batterie für Elektroautos zu konstruieren und zu bauen als die Blei-Säure-Batterie. Er nahm das Geld und verschwand in seinem Labor. Monat für Monat hörte man nichts von ihm. Also haben ihn die Geschäftsleute, die ihm das Geld gegeben hatten, erneut besucht. Er sagte, er habe die Batterie nicht, und im Grunde hatte er nicht einmal die Form der Batterie.
Natürlich haben sie ihn angeklagt, das Geld einfach genommen und nichts dafür getan zu haben. Nein, versicherte er ihnen, das stimmt überhaupt nicht.
Er sagte, dass er tatsächlich große Fortschritte gemacht habe, weil er jetzt mindestens fünfzig Wege kennt, wie man eine Batterie für ein Elektroauto NICHT baut…
Kurioserweise erfand Edison am Ende eine Nickel-Eisen-Peroxid-Batterie, die jedoch ein kommerzieller Fehlschlag war … also kam nicht einmal er über Blei-Säure hinaus.
Genauso kennen wir Hunderte und Aberhunderte Wege, wie man eine Batterie für eine Stadt nicht baut. Also nehme ich an, dass dies im Sinne Edisons ein Fortschritt ist, aber nach einem Jahrhundert wird die Wartezeit doch allmählich lang. Ich habe den Verdacht, dass wir das Puzzle vielleicht lösen, vielleicht mit so etwas wie einer vanadium flow battery oder was auch immer, aber … es ist ein langwieriges Puzzle.
Link: http://wattsupwiththat.com/2013/06/29/getting-energy-from-the-energy-store/
Übersetzt von Chris Frey EIKE