Eine kleine Sensation, von der Presse unbemerkt: Sonnenaktivität erreichte im späten 20. Jahrhundert nun doch Maximalwerte

Abbildung 1: Vergleich der Entwicklung von globaler Temperatur, CO2 und Sonnenaktivität. Aus Wikipedia. Quelle: Leland McInnes at the English language Wikipedia [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC-BY-SA-3.0 (http://creativecommons.org/licenses/by-sa/3.0/)], via Wikimedia Commons

Das Problem: Die Sonnenaktivität wird mittlerweile gar nicht mehr allein an den wackeligen Sonnenflecken festgemacht. Das oben dargestellte Diagramm ist ein Update von 2014, das offenbar von einem User mit dem wenig vertrauenserweckenden Namen “Kopiersperre” zur Verfügung gestellt wurde. Die aktualisierten Verlaufskurven der Sonnenaktivität gibt es bei der Österreichischen Zentralanstalt für Meteorologie und Geodynamik (ZAMG) sowie der Forschergruppe PAGES:

Abbildung 2: Schwankungen des solaren Klimaantriebes in Jahrtausenden, Jahrhunderten und Jahrzehnten. Oben: Im 20. Jahrhundert war die stärkste Sonnenaktivität seit 11.000 Jahren (hier 7.000 Jahre) zu verzeichnen. Mitte: Dem starken Antrieb des Hochmittelalters und dem geringeren in den Jahrhunderten danach folgte der ungewöhnliche Anstieg zum aktuellen Niveau. Unten: Erst im kurzfristigen Maßstab tritt der elfjährige Zyklus deutlich hervor (Fröhlich 2000 aktual., Wagner u.a. 2007). Abbildungs-Quelle: ZAMG

Abbildung 3: Sonnenaktivität während der vergangenen 400 Jahre.Weiße Kurve gibt die Total Solar Irradiance (TSI) an, die gelbe Kurve repräsentieren die Sonnenflecken. Abbildungsquelle: PAGES.

Die starken Veränderungen im Verständnis der Sonnenaktivität haben Matthes & Funke Ende 2015 bereits in einem Konferenzbeitrag auf Seite 9 dargestellt (alte Kurve SATIRE-TS in rot):

Abbildung 4: Neue und alte Kurven zur Sonnenaktivität während der vergangenen 165 Jahre. Quelle: Seite 9 in Matthes & Funke 2015.

Aber es kommt noch besser. Die Sonne erzielte am Ende des 20. Jahrhundert nicht nur ihre Maximum der letzten Jahrhunderte, sondern war offenbar so stark wie nie zuvor in den vergangenen 10.000 Jahren. Matthes et al. zeigten es in einer aktuellen Publikation von 2016 im Fachblatt Geoscientific Model Development Discussions:

Abbildung 5: Sonnenaktivität während der letzten 10.000 Jahre. Quelle: Abb. 20 in Matthes et al. 2016

Die außergewöhnlich starke Sonnenaktivität in der zweiten Hälfte des 20. Jahrhundert hatte übrigens bereits Sami Solanki vor mehr als 10 Jahren in Nature berichtet. Danach zog er sich jedoch auf mysteriöse Weise aus der Klimadiskussion zurück. Ist dies vielleicht der Grund, weshalb die Sonnenforscher nun nahezu unbemerkt unterhalb des medialen Radars operieren? Die unerwartet starke Sonne wirft unbequeme Fragen auf, denen man gerne ausweicht. Könnte die hohe Sonnenaktivität vielleicht doch irgendetwas mit der starken Erwärmung 1980-2000 zu tun haben?

Auf jeden Fall kann uns nun niemand mehr erzählen, dass Sonnenaktivität und Temperatur divergieren und daher der Zusammenhang widerlegt sei. Die Attribution muss auf jeden Fall neu aufgerollt werden, das ist alternativlos.

Erstmals erschienen auf dem Blog „kaltesonne“ hier: http://www.kaltesonne.de/eine-kleine-sensation-von-der-presse-unbemerkt-sonnenaktivitat-erreichte-im-spaten-20-jahrhundert-doch-maximalwerte/




Auch das UK-Stromsystem zunehmend unter Stress

Die in der Studie angesprochenen Themen sind umfassend:

„Die Mid-term Adequacy Forecast (MAF) ist eine Pan-Europäische Abschätzung der Risiken bzgl. der Versorgungssicherheit und beschreibt die Notwendigkeit für Flexibilität während des nächsten Jahrzehnts. Das von ENTSO-E verwendete Verfahren berücksichtigt die Transformation des Energiesystems mit zunehmender variabler Erzeugung durch erneuerbare Energiequellen“.

Während die Forscher auf die verschiedenen Daten der Betreiber der national relevanten Übertragungssysteme zurückgreifen (im Falle UK das National Grid), ist die Methodik unterschiedlich und – am wichtigsten – mit einem höheren Grad an Objektivität. Dies ist ein mehr von außen kommender Blick als von irgendeiner heimischen Organisation, und die Aussichten für Großbritannien sind in der Tat besorglich:

„Die Simulationen zeigen die mittlere Loss Of Load Expectation (LOLE) und Energy Non-Served-Werte (ENS) von ~7 bis 8 Stunden bzw. ~15 Gwh. Großbritannien hat einen Zuverlässigkeits-Standard von 3 Stunden pro Jahr LOLE, was über die Mittelfrist-Ergebnisse der Adequacy Forecast hinausgeht“ (S. 16).

Dies ist ein sehr bedeutendes Ergebnis, wobei sowohl der Loss of Load hours als auch Energy Non-Served am höchsten sind im Vergleich mit allen anderen untersuchten europäischen Netzwerken.

ENTSO-E kommt zu dieser weit reichenden Schlussfolgerungen, weil man dort viel weniger optimistische Annahmen macht als gegenwärtig in UK bzgl. der Verfügbarkeit neuer Strom-Ausgleichsleitungen [electricity interconnectors] über den Kontinent. Dies ist eine wichtige Erinnerung daran, dass die Konstruktion neuer Verbindungen von UK nach Europa allein nicht notwendigerweise Strom liefert, solange es nicht gleichzeitig Verstärkungen und neue Verbindungen anderswo im Europäischen Netzwerk gibt.

Allerdings ist man bei ENTSO-E bemüht zu betonen, dass es trotz ihrer Analyse aktuell kein Risiko hinsichtlich der Versorgungssicherheit gibt, selbst wenn die vielen erforderlichen Ausgleichsleitungen nicht gezogen werden. Man glaubt nämlich, dass der Kapazitäts-Mechanismus von UK sicherstellt, dass ausreichende Erzeugung zur Verfügung steht.

Dies ist Politik, aber eine eindeutige Botschaft schimmert durch den Wust von Fakten: Falls die Interkonnektoren nicht kommen, und das ist eine reale Möglichkeit, dann wird UK abhängig sein von der teuren Notfallmaßnahme des Capacity Mechanism.

Die Lichter werden wohl nicht ausgehen, aber große Teile von UK werden nicht in der Lage sein, sie überhaupt noch anzuknipsen.

Link: http://www.thegwpf.com/uk-electricity-system-under-increasing-stress/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Mit diesem Beitrag muss ich an die Fachleute beim EIKE appellieren, denn fast alle hier vorkommenden Fachbegriffe habe ich noch nie gehört. Soweit ich es verstehe, gibt es zwei Möglichkeiten: Entweder Licht machen wird immer teurer, oder Licht machen geht gar nicht mehr weil zu teuer. – C. F.




Entwicklung von Schiefergas in Europa und den USA

Aussichten und Hindernisse für Schiefergas in Europa

Jay Lehr, Ph.D.

Europa ist in einer besonders guten Lage hinsichtlich der Entwicklung und des Verbrauches von Erdgas-Ressourcen, und zwar wegen seines großen Marktes, einer etablierten Pipeline-Infrastruktur, zunehmender Nachfrage nach Energie und wegen der derzeitigen Abhängigkeit von Erdgasimporten.

Die Umstände um Schiefer-Flüssigkeiten und -gas in Europa unterscheiden sich grundlegend von denen in den USA. In Europa herrscht eine hohe Bevölkerungsdichte, und die lokalen Behörden haben sehr viel Macht, den Landverbrauch zu kontrollieren. Auch gehören Mineralrechte typischerweise den europäischen Regierungen. Das bedeutet, dass die Erzeugung von Kohlenwasserstoffen für Landbesitzer und lokale Gemeinden kaum Vorteile bringt. Entwicklungen in großem Maßstab finden oftmals nur statt, wenn Gemeinden und die Öffentlichkeit die Risiken als minimal ansehen und wenn es für die Gemeinden manchmal Vorteile bringt.

Als Folge dieser Umstände steckt die Förderung von Schiefergas in Europa noch in den Kinderschuhen – trotz des großen Marktes und hoher Energiepreise. Die erste Erkundungsbohrung wurde im Jahre 2005 in Schottland niedergebracht, und seitdem sind Erkundungsbohrungen bzgl. Schiefergas nur in sieben Ländern erfolgt: Bulgarien, Dänemark, Deutschland, Polen, Rumänien, Schweden und UK.

Insgesamt sind bislang 128 Förder- und Erkundungsbohrungen mit einer Schiefergas-Komponente in Europa durchgeführt worden. 32 dieser Bohrungen sind flache, in Schweden niedergebrachte Testbohrungen. In Litauen, Polen und UK wurden insgesamt acht Löcher gebohrt, um Öl zu fördern und/oder Erdgas zu erhalten.

Die Opposition an der Basis gegen hydraulisches Brechen sowie die Ausbeutung von Schiefer-Öl und -gas ist im gesamten Kontinent unverändert stark. In UK und Rumänien war es zu großen Demonstrationen gekommen gegen Versuche zur Ausweitung der Bohrungen. Der Druck der Öffentlichkeit hat zur Verhängung von Moratorien bzgl. der Schiefergas-Förderung und -erzeugung in Bulgarien und Deutschland geführt – wo man zuvor ein paar Erkundungsbohrungen genehmigt hatte – ebenso wie in der Tschechischen Republik, Frankreich und den Niederlanden, wo keine Versuche bzgl. Fracking unternommen worden waren.

Europäische Regierungen treiben die Förderung voran

Trotz dieser Rückschläge arbeiten das Europaparlament und einige nationale Regierungen daran, die Ausbeutung zu fördern. Zum Beispiel hat die Regierung in Spanien das hydraulische Brechen explizit legalisiert. Am 13. August 2015 verkündete UK seine neuen Maßnahmen, die darauf abzielen, Anträge auf Schiefergas-Planungen rasch zu genehmigen im Zuge eines neuen Planungsprozesses, der auch bevollmächtigt ist, Stadt- oder Landkreisparlamenten das Recht auf Fracking-Anträge zu verwehren. Die positive Haltung der Regierung in UK bzgl. Fracking hat schon jetzt dazu geführt, dass eine Reihe von Petroleum-Unternehmen nach dem Erwerb von Ländereien mit Schiefergas-Potential trachten in Erwartung der Genehmigung für Erkundung und Ausbeutung.

Innerhalb der Europäischen Union wird sowohl im Lissabon-Vertrag als auch dem Energiecharter-Vertrag [Energy Treaty Charter; näheres hier bei Wikipedia. Anm. d. Übers.] die Souveränität der einzelnen Staaten hinsichtlich ihrer Energieressourcen ausdrücklich festgeschrieben. Am 22. Januar 2014 hat die Europäische Kommission nicht bindende „Empfehlungen und Kommunikationen“ für deren Rahmenwerk zur Schiefergas-Förderung [„Recommendation and Communication” for its Shale Gas Enabling Framework] übernommen und veröffentlicht. Die Recommendation Communication der EU sieht vor, dass jedes Mitgliedsland ein integriertes Verfahren einführt hinsichtlich der Gewährung von Genehmigungen, dass Risiko-Abschätzungen für potentielle Bohrstellen erforderlich sind und bzgl. der Verpflichtung der Betreiber, nur die besten Methoden anzuwenden.

Einige europäische Politiker und Unternehmen weisen darauf hin, dass die Schiefergas-Erzeugung in den USA Arbeitsplätze geschaffen sowie niedrige Öl- und Erdgaspreise mit sich gebracht hat im Vergleich zu den Preisen in Europa. Einige Unternehmen erwägen sogar, ganz nach Nordamerika überzusiedeln. Das in Deutschland ansässige Unternehmen BASF, das weltgrößte Chemie-Unternehmen, hat die Herstellung von Chemikalien aus Europa an die US-Golfküste verlagert, um von den niedrigen Erdgaspreisen infolge der Schiefergas-Erzeugung zu profitieren [warum herrscht in den deutschen Medien dazu eigentlich so dröhnendes Schweigen? Anm. d. Übers.].

Viele europäische Politiker, besonders in Osteuropa, verleihen ihren Wünschen Ausdruck, größere Energie-Unabhängigkeit zu erreichen, und die jüngsten politischen Unruhen in der Ukraine haben die diesbezüglichen Bedenken noch erheblich verstärkt.

Erkenntnis aus Erkundungs-Bohrungen: Förderung ,nicht günstig‘

In Gebieten, in denen die Ausbeutung bereits begonnen hat, haben sich die geologischen Erkenntnisse aus einer Reihe von Gründen als nicht günstig erwiesen. Dazu gehörte auch der geringe Kohlenstoffgehalt in der geologischen Formation, was zeigt, dass dort höchstens eine geringe Menge von Öl und Gas existieren könnte, wenn überhaupt.

Beispielsweise hat das Interesse an Schiefergas-Lagerstätten in Polen seit dem Jahr 2013 deutlich abgenommen. Von 121 Schiefergas-Konzessionen, die in Polen bis heute erteilt worden waren, sind 90 aufgegeben worden. Chevron, ConocoPhillips, Eni, ExxonMobil, Marathon, Talisman und Total haben sich allesamt aus Polen zurückgezogen, hauptsächlich weil sich die Geologie als unerwartet ungünstig erwiesen hat.

UK freut sich hingegen über günstige geologische Bedingungen, und es hat ein relativ begünstigendes Schema von Vorschriften für hydraulisches Brechen – zumindest derzeit. Neue Vorschriften für hydraulisches Brechen in England und Wales wurden im Infrastrukturgesetz von UK im Jahre 2015 vorgestellt [U.K. Infrastructure Act of 2015 ]. Diese Vorschriften setzen klare Kriterien für die Art und das Timing der erforderlichen Analysen von Risiken und Umwelt-Auswirkungen, aber auch für Gebiete, die für Fracking-Operationen gesperrt sind. Spezial-Genehmigungen sind mit diesen Vorschriften auch möglich, um eventuellen außerordentlichen Umständen Rechnung zu tragen.

Bestimmungen für den Fall, dass lokale Planungskommissionen die Erkundung oder Entwicklung für Schiefergas ablehnen, sind ebenfalls Teil der neuen Vorschriften. Falls es dazu kommt, müssen diese Fälle unter den neuen Vorschriften als Priorität behandelt werden, die dringend eines Beschlusses bedürfen, und lokale Behörden, die wiederholt die Genehmigung für Öl und Gas akzeptieren oder zurückweisen, werden innerhalb des vorgegebenen Zeitrahmens von 16 Wochen gekennzeichnet. Stattdessen kann über solche Anträge, die von lokalen Behörden nicht bearbeitet werden, seitens des Secretary of State for Community oder lokaler Regierungen befunden werden.

Jay Lehr, Ph.D., is science director of The Heartland Institute. Ken Chew, Ph.D., is an independent analyst of unconventional oil and gas resources. This article is adapted from material contained in the Renewable Energy and Shale Gas Encyclopedia, published by Wiley in 2016.

Link: https://www.heartland.org/news-opinion/news/prospects-and-roadblocks-for-shale-gas-development-in-europe

Und hier jetzt eine Betrachtung über die Schiefer-Revolution in den USA, bezeichnenderweise aus europäischer (britischer) Sicht:

Alptraum der OPEC: US-Schiefer-Revolution lebt und blüht auf

Ambrose Evans-Pritchard, The Daily Telegraph

Die schlimmsten Befürchtungen der OPEC bewahrheiten sich gerade. Zwanzig Monate nach der schicksalhaften Entscheidung von Saudi-Arabien, die Weltmärkte mit Öl zu überschwemmen, ist es dem Land immer noch nicht gelungen, der US-Schiefer-Industrie das Genick zu brechen.

Die von Saudi-Arabien angeführten Golfstaaten hatten sicherlich Erfolg bei der Zerschlagung einer Reihe von globalen Mega-Projekten in der Tiefsee. Investitionen in die Erkundung von 2014 bis 2020 werden um 1,8 Billionen Dollar geringer ausfallen als zuvor angenommen, jedenfalls den Beratern von IHS* zufolge. Aber im besten Falle ist dies ein bitterer Sieg.

[*IHS = Information Handling Services, seit dem Jahr 2004 nur noch kurz IHS, ist ein
weltweit tätiges Unternehmen für Analysen und Informationen mit Sitz in den
USA. Quelle bei Wikipedia. Anm. d. Übers.]

Die Betreiber hydraulischen Brechens in Nordamerika senken die Kosten so rasch, dass die meisten von ihnen inzwischen zu Preisen produzieren können, die weit unter dem Niveau liegen, das erforderlich ist, um den saudischen Wohlstand und deren Militär zu erhalten – oder um die OPEC-Haushaltsdefizite abzudecken.

Scott Sheffield, scheidender Chef von Pioneer Natural Resources, hat den Fehdehandschuh in der vorigen Woche zurückgeworfen – mit einigem poetischen Pathos – mit der Behauptung, dass die Erzeugungskosten vor Steuern im Permian-Becken in West-Texas auf 2,25 Dollar pro Barrel gefallen sind.

„Wir können definitiv wettbewerbsmäßig mit allem mithalten, was Saudi-Arabien hat. Wir haben das beste Gestein“, sagte er. Revolutionäre Verbesserungen bei der Bohrtechnologie und der Datenanalyse haben die Kostenberechnungen schneller geändert als irgendjemand für möglich gehalten hätte.

Die ;Abnehm-Rate‘ der Erzeugungskosten während der ersten vier Monate lag bei jeder Bohrung der US-Fracker bei 90 Prozent pro Dekade. Sie sank auf 31 Prozent im Jahre 2012. Jetzt liegt sie bei 18 Prozent. Die Bohrbetreiber haben gelernt, mehr zu extrahieren.

Mr. Sheffield sagte, dass das Permian-Becken genauso ergiebig ist wie das riesige Ghawar-Feld in Saudi-Arabien. Die Ausbeutung kann von 2 Millionen bis 5 Millionen Barrel pro Tag reichen, selbst falls der Ölpreis nie über 55 Dollar steigen würde.

Sein Unternehmen hat die Produktionskosten allein im vorigen Jahr um 26 Prozent gesenkt. Pioneer ist inzwischen so effizient, dass bereits 5 neue Plattformen errichtet werden trotz der derzeit geringen Preise in den vierziger Dollar. Es steht nicht allein.

Die Baker-Hughes-Zählung von Ölbohr-Plattformen in den USA ist während sieben der letzten acht Wochen gestiegen, und zwar auf 374, und dies unterstreicht den Effekt. Mehrfach-Bohrungen bedeutet, dass derzeit routinemäßig drei Bohrungen von der gleichen Plattform niedergebracht werden, manchmal auch sechs oder noch mehr. Die mittlere Bohrloch-Produktivität im Permian-Becken ist seit Anfang 2012 um das Fünffache gestiegen.

Die Beratungsgesellschaft Wood Mackenzie schätzte in einem neuen Bericht, dass die full-cycle break-even costs bei Wolfcamp und Bone Spring im Permian-Becken auf 37 Dollar gefallen sind und auf 35 Dollar in der Ölprovinz in South Central Oklahoma. Die Mehrheit der US-Schieferfelder ist bereits bei 60 Dollar machbar.

Dies ist eine kalte Dusche für die OPEC. Die Golf-Exporteure hatten darauf gebaut, dass Absicherungs-Verträge, die die US-Schieferunternehmen am Leben hielten, zu einem brutalen Zusammenbruch dieser Unternehmen bei Auslaufen jener Verträge in der ersten Hälfte dieses Jahres führen würde.

Aber keine solche Götterdämmerung* ist eingetreten. Einige wenige übereifrige Mitspieler haben Bankrott gemacht, aber Blackstone, Carlyle und andere private Konzerne warten bereits am Rande, um unter Druck geratende Anteile zu kaufen und die Infrastruktur zu übernehmen.

[Im Original steht tatsächlich Gotterdamerung! Vielleicht ist der Autor Wagner-Kenner. Anm. d. Übers.]

Full post

Link: http://www.thegwpf.com/opecs-nightmare-us-shale-revolution-alive-and-kicking/

Beide Beiträge übersetzt von Chris Frey EIKE




Sind Festlands- und Ozean-Temperaturmittel von Bedeutung?

Temperaturen addieren sich nicht!

Technisch gesehen ist Temperatur keine extensive Quantität. Dies wird illustriert durch die Tatsache, dass wenn man einen Eimer Wasser mit einer Temperatur von 30°C hat und dem Wasser den Inhalt eines anderen Eimers von Wasser mit 30°C hinzufügt, man keine Wassertemperatur von 60°C bekommt.

Energie ist eine extensive Sache: Falls man ein Volumen Wasser mit einer thermischen Energie von 4000 Megajoule hat und ein gleich großes Volumen hinzufügt, wird man zweimal die thermische Energie haben. Die mittlere Energie pro Einheit kann verglichen werden mit dem Strahlungsenergie-Budget pro Einheit.

Das Verhältnis von Temperatur zu thermischer Energie ist nicht für alle Materialien gleich, sondern hoch variabel, abhängig von den physikalischen Eigenschaften der Substanz. Es hängt ebenso von der Menge einer Substanz ab, d. h. der Masse. In der Physik und der Materialwissenschaft ist es oft am bequemsten, die „spezifische Wärmekapazität“ zu studieren, das ist die Änderung des Energiegehalts pro Einheit der Masse pro Grad Temperaturänderung. Folglich ist es eine Eigenschaft für jede Art von Material, unabhängig von einem bestimmten Objekt.

Im internationalen Standard-System (S.I.) wird dies gemessen in joule / kilogram / kelvin oder J/kg/K . Kelvin hat die gleiche Größenordnung wie Grad Celsius und ist in diesem Zusammenhang austauschbar. Einige Beispiele für allgemeine Materialien:

Tabelle 1: Spezifische Wärmekapazität verschiedener Materialien in J/kg/K. Datenquelle

Also könnte man Temperaturänderung als ein „Proxy“ für eine Änderung der thermischen Energie für äquivalente VOLUMINA des GLEICHEN Materials betrachten. In diesem Zusammenhang könnte man eine ,mittlere Temperaturänderung‘ berechnen für jenes Medium und auf die Änderung der thermischen Energie rückschließen, welche beispielsweise mit einfallender und ausgehender Strahlung in Bezug gesetzt wird. Falls dies eine Oberflächentemperatur ist, impliziert dies die Hypothese, dass die Erdoberfläche die Temperatur bis zu einer gewissen Wassertiefe repräsentiert und diese repräsentative Tiefe die Gleiche bleibt in den Gebieten, über die gemittelt wird, um den „Volumen“-Zustand oben zu berücksichtigen. Das ist für die ,durchmischte Schicht‘ des Ozeans einigermaßen fragwürdig, kann aber als grobe Energie-Proxy durchgehen.

Allerdings ist sofort klar, dass man nicht beginnen kann, Luft und Wassertemperatur zusammenzufügen oder zu mitteln; oder Temperaturen über Land und Wasser. Das sind keine kompatiblen Medien. Das ist wie die Frage, was das Mittel ist zwischen einem Apfel und einer Orange: Es hat keinerlei physikalische Bedeutung. Es kann mit Sicherheit nicht die Grundlage sein für eine Berechnung des Energiehaushaltes, da es nicht mehr eine Maßzahl für die Änderung der thermischen Energie ist.

Wie aus der Tabelle oben ersichtlich: Luft, Felsgestein und Erde werden eine viermal so hohe Temperaturänderung aufweisen als Wasser als Folge der gleichen einfallenden Energiemenge.

Niemand wird auf den Gedanken kommen, Temperaturaufzeichnungen in Grad Fahrenheit mit solchen in Grad Celsius zu mitteln. Trotzdem scheint es aus irgendwelchen Gründen so, als ob die Vermischung von Land- und Ozeandaten (SST Sea Surface Data) bei niemandem ein Heben der Augenbrauen auslöst.

Änderungsrate in den globalen Temperatur-Datensätzen


Abbildung 1: Vergleich von Änderungsraten in Temperatur-Datensätzen über dem Festland und über dem Ozean (30 Monate Gaussian low-pass filter). Quelle der Daten.

Abbildung 1 zeigt die Änderungsrate in zwei Datensätzen der Wassertemperatur und dem BEST-Datensatz vom Festland, mit einer Verkleinerung um einen Faktor zwei. Mit diesem Skalierungsfaktor sehen sie alle ziemlich eng beieinander liegend aus. Die große Spitze in den ICOADS-Daten liegt an einer erkannten Änderung der Datenmenge infolge Änderungen der Schiffsrouten und der Daten-Sammelverfahren während und nach WW II. Das UKMO bearbeitete den HadISST-Datensatz mit dem Ziel, diesen Bias zu entfernen.

Die Änderungsrate der Festlands-Lufttemperatur, wie sie vom „BEST“-Datensatz Berkeley geschätzt worden ist, ist sehr ähnlich der Änderungsrate der Wassertemperatur, außer dass die Änderungsrate doppelt so hoch ist.*

[*Original: The rate of change of near surface land air temperature as estimated in the Berkeley “BEST” dataset is very similar to the rate of change in the sea surface temperature record, except that it shows twice the rate of change. Ändert sich nicht die Landtemperatur viel stärker als die Wassertemperatur? Was verstehe ich an diesem Satz nicht? Anm. d. Übers.]

Meerwasser besitzt eine spezifische Wärmekapazität, die viermal so groß ist wie Felsgestein. Dies bedeutet, dass sich die Temperatur des Gesteins vier mal stärker ändert als Wasser bei der gleichen Änderung der thermischen Energie, beispielsweise durch einfallende Solarstrahlung.

Erde ist im Allgemeinen eine Mixtur feiner Gesteinspartikel und organischem Material mit einem signifikanten Wassergehalt. Die beiden Temperatur-Datensätze sind konsistent, wenn man Land als ,nasse Felsen‘ betrachtet. Auch erklärt dies teilweise die viel größeren Temperaturschwankungen in Wüstengebieten: Die Temperatur trockenen Sandes wird sich viermal schneller ändern als die von Meerwasser und ist zweimal so volatil wie in Nicht-Wüstengebieten.

Dies unterstreicht auch, warum es unangemessen ist, Land- und Wassertemperaturen zusammen zu mitteln, wie es in vielen anerkannten globalen Temperaturaufzeichnungen gemacht worden ist, beispielsweise bei HadCRUT4 (eine abartige Mischung von HadSST3 und CRUTem4) ebenso wie bei GISS-LOTI und bei den neuen BEST Land- und Wasser-Mittelwerten.

Es ist ein klassischer Fall von ,Äpfeln und Orangen‘. Falls man das Mittel zwischen einem Apfel und einer Orange nimmt, ist das Ergebnis ein Obstsalat. Das ist keine brauchbare Gemengelage für Berechnungen auf physikalischer Grundlage wie etwa dem Energiehaushalt der Erde und der Auswirkung von Strahlungs-„Antrieben“.

Die unterschiedliche Wärmekapazität wird die Daten zugunsten der Lufttemperaturen über Land verdrehen, welche viel schneller variieren und folglich eine irrige Grundlage liefern, um energie-basierte Berechnungen vorzunehmen. Außerdem sind die Landtemperaturen auch durch den Wärmeinseleffekt und andere Verzerrungen beeinträchtigt. Daher werden diese effektiv verdoppelt, bevor sie die globale Land- + Wasseraufzeichnung kontaminieren.

In disem Sinne bieten die Satellitendaten ein physikalisch konsistenteres globales Mittel, weil sie ein konsistenteres Medium messen. Falls man Energie-Berechnungen auf der Grundlage von Strahlung durchführen möchte, ist es wahrscheinlich bedeutsamer, SST-Daten als Kalorimeter zu nutzen.

Klimasensitivität ist definiert als das ∆rad , ∆T-Verhältnis, gewöhnlich im Zusammenhang mit einer linearen Approximation zur Planck-Rückkopplung, welche über relativ kleine Abweichungen in der etwa 300 K umfassenden Temperatur-Bandbreite gültig sind. Andere Rückkopplungen werden als Störungen gesehen, die von der dominanten Planck’schen Strahlungs-Rückkopplung addiert oder subtrahiert werden. All dies und sogar die weitaus komplexeren globalen Zirkulationsmodelle sind im Grunde Berechnungen des Energie-Gleichgewichtes. Der Energie-Erhaltungssatz ist eines der solidesten Axiome der Physik. Ein fundamentaler Test jedweder Theorie oder Gleichung ist, ob der Energie-Erhaltungssatz berücksichtigt ist.

Horizontaler Wärmetransport stellt sicher, dass die Festlandstemperatur durch die ozeanische Wärmekapazität beeinflusst wird: der thermische Anker des Klimasystems. Es ist bekannt, dass Temperaturen in Küstengebieten stabilisiert werden durch die Nachbarschaft von Land und Wasser und dass die zentralen Gebiete der Kontinente eine viel größere tägliche und jährliche Variation zeigen. Allerdings bleibt die Landtemperatur nahe der Oberfläche volatiler als die SST, und Analysen von Klimamodellen zeigen, dass sie über Land eine größere Klimasensitivität aufweisen und einen unterschiedlichen vertikalen Temperaturgradienten zeigen (1). FALLS man das als zuverlässig nehmen kann (die meisten Modelle nehmen eine konstante Relative Feuchtigkeit an).

In diesem Zusammenhang ist ein Temperaturanstieg die finale Folge aller Inputs, „Antriebe“ und Rückkopplungen, von denen viele über Land unterschiedlich sein können. Zieht man eine nicht-thermodynamisch relevante „mittlere“ Temperatur von zwei unterschiedlichen Ökologien mit unterschiedlicher Klimasensitivität heran, um ein ,Mittel‘ zu erzeugen, scheint auch die Klimasensitivität offen für Bias.

Schlussfolgerungen

Temperaturen sind keine abstrakten Statistiken; deren physikalische Bedeutung muss berücksichtigt werden bei der Auswahl, was man mit ihnen macht. Die Verwendung von Mittelwerten von Land- + Wassertemperaturen, verzerrt durch übertriebene Wichtung der volatileren landbasierten Temperaturen, wird physikalisch fehlerhafte Ergebnisse zeitigen.

Die meisten Klimadaten sind nicht einfach dimensionslose Zahlen. Jedes Processing sollte im Zusammenhang mit den physikalischen Größen betrachtet werden, die sie repräsentieren. Falls Temperaturen oder Temperaturanomalien als Energie-Proxy betrachtet werden für Berechnungen auf Energiegrundlage, sollte dies explizit erwähnt werden, und jedwede Verzerrungen, die sich hieraus ergeben, müssen angesprochen werden.

Die physikalische Signifikanz, Validität und Grenzen von „mittleren“ Land- + Wassertemperaturen sollte man berücksichtigen, wenn man sie verwendet. Dies ist jedoch nur sehr selten der Fall, wenn überhaupt.

(1) Geoffroy et al 2015 : “Land-sea warming contrast: the role of the horizontal energy transport” [ paywalled ] http://link.springer.com/article/10.1007/s00382-015-2552-y

Link: https://climategrog.wordpress.com/2016/02/09/are-land-sea-averages-meaningful-2/

Übersetzt von Chris Frey EIKE

Der (anonyme) Autor ClimateCrog hat einen Abschluss in Physik, Berufserfahrung in der Spektroskopie , Elektronik und Software-Engineering , einschließlich 3-D- Computer-Modellierung der Streuung von E- m -Strahlung in die Erdatmosphäre .




Globale Erwärmung in der Arktis

Berichte von Fischern, Seehundjägern und Entdeckern weisen allesamt übereinstimmend auf eine radikale Veränderung der Klimabedingungen hin sowie auf Temperaturen in der Arktischen Zone, wie man von dort bis heute noch nie gehört hat.
Erkundungs-Expeditionen berichten, dass man bis zu einer geographischen Breite von 81°29′ kaum noch Eis angetroffen habe.
Sondierungen bis zu einer Tiefe von 1300 Metern zeigten, dass der Golfstrom immer noch sehr warm ist.
Große Eismassen sind ersetzt worden durch Moränen aus Erde und Steinen, während gut bekannte Gletscher an einigen Stellen vollständig verschwunden sind.
In der östlichen Arktis gibt es nur noch sehr wenige Weißfische und Seehunde, während riesige Schwärme von Heringen und Stinten [smelts] in den Fischgründen gefunden wurden, wo sonst die Seehunde jagen. Nie zuvor waren diese Schwärme so weit nördlich gesehen worden.
Es ist abzusehen, dass der Meeresspiegel infolge der Eisschmelze steigen und die meisten Küstenstädte unbewohnbar machen wird.
———————————————-
Ich muss mich entschuldigen – habe ich doch vergessen zu erwähnen, dass dieser Bericht am 2. November 1922 erschienen ist, und zwar als Meldung der AP und veröffentlicht in der Washington Post – vor 93 Jahren!
Bemerkung des Übersetzers hierzu: Der Hinweis auf diesen Artikel findet sich unter folgendem Link: https://www.truthorfiction.com/newspaper-article-from-1922-discusses-arctic-ocean-climate-change/. Oben rechts ist der – leider kaum lesbare – Ausschnitt zu sehen. Weil sonst kein Link hierzu angegeben werden kann, folgt hier die Meldung im englischen Original:
„The Arctic Ocean is warming up, icebergs are growing scarcer and in some places the seals are finding the water too hot, according to a report to the Commerce Department yesterday from the Consulate, at Bergen , Norway. 
Reports from fishermen, seal hunters and explorers all point to a radical change in climate conditions and hitherto unheard-of temperatures in the Arctic zone. 
Exploration expeditions report that scarcely any ice has been met as far north as 81 degrees 29 minutes. 
Soundings to a depth of 3,100 meters showed the gulf stream still very warm. 
Great masses of ice have been replaced by moraines of earth and stones, the report continued, while at many points well known glaciers have entirely disappeared. 
Very few seals and no white fish are found in the eastern Arctic, while vast shoals of herring and smelts which have never before ventured so far north, are being encountered in the old seal fishing grounds. 
Within a few years it is predicted that due to the ice melt the sea will rise and make most coastal cities uninhabitable.