Langzeit-Temperaturmessungen: Besser im Boden als in Wetterhütten Das wahre Klimaarchiv steckt im Erdboden

Im Falle der Atmosphäre wird dies durch den Einfluss des Wassers in seinen verschiedenen Aggregatzuständen nochmals komplizierter. Bei festen Körpern ausreichender Größe lassen die Temperaturänderungen im Inneren dagegen eine ziemlich exakte Bilanzierung der Zu- und Abflüsse an thermischer Energie zu. Wenn es um klimatische Langfristtrends geht, sind Messungen der Temperatur im Boden daher aussagekräftiger als solche in der Luft.

Die Verhältnisse sind bei festen Körpern vergleichsweise einfach, weil hier der Transport von Materie nur eine untergeordnete Rolle spielt. Sie weisen meist ein streng geordnetes Kristallgitter auf, in dem die Atome bzw. Moleküle ortsfest an ihre Nachbarn gebunden sind. Diese Bindungen kann man sich wie Federn vorstellen, wodurch die einzelnen Gitterteilchen hin und her schwingen können, Bild 1. Je mehr Energie ihnen zugeführt wird, desto heftiger werden diese Schwingungen. Da sie mit ihren Nachbarn elastisch verbunden sind, geben sie diesen dabei auch einen Teil ihrer Energie weiter. Dieser Energietransfer erfolgt ständig und in alle Richtungen: Jedes Gitterteilchen gibt jedem seiner Nachbarn immer wieder einen Teil seiner Schwingungsenergie ab und erhält zeitlich versetzt von diesen auch wieder Energie zurück. Allerdings geben Gitterelemente, die ein hohes Maß an Schwingungsenergie aufweisen, im statistischen Mittel an ihre Nachbarn mehr Energie ab, als sie von diesen zurückerhalten. Deshalb hat Wärme in einem festen Körper die Tendenz, sich gleichmäßig in alle Richtungen auszubreiten bzw. zu verteilen. Sie „fließt“ von Bereichen hoher Temperatur weg und hin zu Bereichen mit niedrigerer Temperatur. Allerdings erfolgt die sogenannte Wärmediffusion im Unterschied zum Wärmetransport durch Konvektion, wie er in Flüssigkeiten und Gasen dominiert, ziemlich langsam.

Wichtig ist die Erkenntnis, dass Wärmetransportvorgänge – grob vereinfacht – mit dem Verhalten von Wasser vergleichbar sind, welches bekanntlich immer die Tendenz hat, nach unten zu fließen, und schließlich sogar im Boden versickert. Wärme fließt immer von Bereichen mit höherem Temperaturniveau in Richtung auf Bereiche mit niedrigerer Temperatur und nicht umgekehrt. Das zugrundeliegende Naturgesetz ist der zweite Hauptsatz der Thermodynamik. Er hat zahlreiche Ausprägungen, doch genügt es für unsere Betrachtungen festzuhalten, dass Wärme nicht von selbst von einem Körper niedriger Temperatur auf einen Körper höherer Temperatur übergehen wird.

 

Bild 1. Im Kristallgitter fester Körper sind die Gitterelemente mit ihren Nachbarn fest verbunden. Die Verbindungen sind elastisch wie Federn, so dass die Teilchen hin und her schwingen können (Grafik: Autor)

Die Wärmediffusion im Boden erfolgt äußerst langsam

Diese für feste Körper geltenden Zusammenhänge treffen in eingeschränkter Form auch für Konglomerate bzw. Haufwerke fester Körper wie z.B. wie Sand oder Erdreich zu. Die geringe Geschwindigkeit der Wärmeübertragung ist dabei für das Nachvollziehen von Wetter- und Klimavorgängen von Vorteil. Einen Eindruck von der Trägheit dieser Vorgänge vermittelt der Tagesgang der Temperaturprofile im Boden zwischen Oberfläche und 1 m Tiefe an einem typischen Sommertag, Bild 2.

Bild 2. Tagesgang der Temperaturprofile im Boden zwischen Oberfläche und 1 m Tiefe an einem typischen Sommertag [BAYE]

Das hier aufgeführte Beispiel ist typisch für die Verhältnisse bei einem mitteleuropäischen Kulturboden (unbewachsener sandiger Lehmboden) an einem weitgehend wolkenlosen Sommertag. Man erkennt deutlich, dass die Oberfläche am Tag stark aufgeheizt wird, die Wärme aber nur langsam tiefer eindringt. Nachts kühlt sich der Boden – ebenfalls von der Oberfläche ausgehend – wiederum sehr stark ab, bis sich der Zyklus mit dem nächsten Tag wiederholt. Die Eindringtiefe der Temperatur für einen Tageszyklus liegt je nach Bodenart bei lediglich etwa 10 bis 50 cm.

Wenn man sich die Darstellung in Bild 2 am Mittag bzw. um Mitternacht ansieht, so fällt vor allem die enorme Spanne von 35 K (Kelvin, entspricht °C) zwischen Minimal- und Maximaltemperaturen auf. Das ist mehr als doppelt so hoch wie die typischerweise von meteorologischen Stationen in 2 m Höhe gemessene Tagesdifferenz von etwa 15 K. Auf die Gründe hierfür wird zu einem späteren Zeitpunkt in einem weiteren Artikel, der sich mit der Strahlungsbilanz der Erdoberfläche beschäftigt, näher eingegangen.

Der Erdboden ist ein Langzeit-Temperaturarchiv

Die geringe Geschwindigkeit des Wärmetransports im Erdboden hat für die Klimawissenschaft den Vorteil, dass er einen zwar trägen, aber dafür getreuen Speicher für die mittel- bis längerfristige Entwicklung der Temperatur am jeweiligen Ort darstellt (mathematisch ausgedrückt funktioniert er wie ein Integrator). Mit zunehmender Tiefe hält er für Zeiträume von Tagen und Jahren bis zu Jahrhunderten getreu fest, wie viel Wärmeenergie er erhalten und wieder abgegeben hat 1). Dabei werden die kurzfristigen Schwankungen mit zunehmender Tiefe der Messstelle immer stärker herausgefiltert, Bild 3. In einer Tiefe von etwa 12-18 m ist nur noch der Jahreseinfluss feststellbar. Geht man noch tiefer, so kann man nach [PAUL] Schwankungen der Oberflächentemperatur auf Zeitskalen von hunderten bis tausenden von Jahren rekonstruieren (vergleichbar mit Klimaarchiven anderer Art z.B. in Eiskernen). Ab einer gewissen Tiefe beginnt sich dann die sich aus dem Inneren der Erde nach oben ausbreitende Wärme des Erdinneren bemerkbar zu machen und überlagert letztlich die von der Oberfläche ausgehenden Einflüsse.

Bild 3. Jahresgang der Temperatur in der Luft sowie im Erdboden im Jahre 2013. Bei 12 m ist faktisch nur noch der Gesamt-Jahreseinfluss zu erkennen (Daten: WIKI und PIK, Grafik: Autor)

An der in Bild 3 aufgetragenen Lufttemperatur ist außerdem zu erkennen, dass die Bodentemperatur weniger auf die Lufttemperatur reagiert als vielmehr auf die erhaltene und wieder abgegebene Menge an Strahlungsenergie. Zu erkennen ist dies an der Tatsache, dass der Boden in Tiefen bis zu 1 m im Sommer teils weit höhere mittlere Temperaturen aufweist als die Luft. Dies beweist, dass – statistisch gemittelt – nicht die Luft den Boden aufheizt, sondern umgekehrt der Boden mit der aus Sonnenstrahlung stammenden Wärme die Luft. Dies gilt sogar im Winter.

Der Boden verrät die wahren Klimaveränderungen

Eine weitere interessante Erkenntnis aus dem Verlauf der Bodentemperaturen ergibt sich dann, wenn man sie mit dem Langzeitverlauf der Lufttemperaturen über den verfügbaren Aufzeichnungszeitraum von 1898 bis 2014 vergleicht, Bild 4.

Bild 4. Vergleich des Verlaufs der Bodentemperaturen in 12 m Tiefe und der Lufttemperatur über den Zeitraum 1898 bis 2014 (Daten: WIKI und PIK, Grafik: Autor)

Beim Blick auf die Gleichungen des linearen Trends erkennt man, dass die Lufttemperaturen mit fast der doppelten Rate gestiegen sind wie die Temperaturen des Bodens. Natürlich wäre ein Vergleich über noch längere Zeiträume von großem Interesse, doch stehen dafür leider keine entsprechenden Zeitreihen zur Verfügung.

Beim Blick auf den Verlauf der Bodentemperaturen fällt auf, dass der Trend im Zeitraum zwischen 1898 und 1990 – bis auf einen massiven mehrjährigen Peak auf bis zu 10,5 °C in den 30er Jahren – nahezu ohne Anstieg verläuft. Erst ab 1990 ist eine deutliche Trendänderung nach oben festzustellen, doch wurde der Wert von 10,5 °C erst wieder im Jahr 2007 erreicht. Seither verharrt die 12-m-Bodentemperatur auf diesem hohen Niveau.

Betrachtet man den linearen Trend, so fällt auf, dass der Anstieg der 12-m-Bodentemperatur mit ca. 0,5 K/ Jahrhundert nur knapp halb so hoch liegt wie derjenige der Lufttemperatur mit ca. 0,9 K/ Jahrhundert.

Interessant ist jetzt natürlich die Frage, welche Einflüsse zum deutlichen Anstieg der Bodentemperaturen in den letzten beiden Jahrzehnten geführt haben, denn dies fällt weitgehend in jene Zeitperiode ab 1998, in welcher der von den meteorologischen Stationen weltweit ermittelte globale Anstieg der Temperaturen nahezu zum Stillstand gekommen ist. Die Lufttemperaturen in Deutschland zeigen für diesen Zeitraum allerdings einen deutlichen Trend nach oben.

Die Sonne führt Regie

Eine plausible Erklärung erhält man, wenn man den Verlauf der Temperaturentwicklung in 12 m Tiefe mit denjenigen ebenfalls in Bild 4 eingetragenen Mittelwerten der Sonnenscheindauer vergleicht. Die Ähnlichkeit beider Kurvenverläufe weist darauf hin, dass ihre Kopplung sehr eng sein dürfte. Der Anstieg der Temperaturen sowohl im Boden als auch in der Luft ist eindeutig mit einer Zunahme der Sonnenscheindauer von ca. 4,5 h/ d auf inzwischen 4,9 h/d verknüpft. Das entspricht einer Zunahme um fast 9 % innerhalb des Beobachtungszeitraums von 116 Jahren. Dass zusätzlich eingestrahlte Sonnenenergie auch eine Temperaturerhöhung zur Folge hat, bedarf eigentlich keiner weiteren Erläuterung. Dass viele Klimawissenschaftler, statt diesen einfach nachzuweisenden und völlig plausiblen Zusammenhang näher zu erforschen, sich auf das Thema „Treibhausgas CO2“ gestürzt haben, ist angesichts der überragenden Bedeutung der Sonnenenergie für den Wärmehaushalt der Erde schwer nachzuvollziehen.

Wo bleiben Wolken und Regen?

Weiterer interessanter Aspekt dieser Auswertung ist, dass sie den gängigen Erklärungsansätzen der Vertreter des „menschengemachten katastrophalen Klimawandels“ (AGW, Anthropogenous Global Warming) nicht entspricht. Mit zunehmender mittlerer Temperatur der Meeresoberflächen und der Böden sind zwangsläufig eine höhere Wasserverdunstung und ein höherer Wassergehalt der – wärmer gewordenen – unteren Lufthülle verknüpft. Die logischerweise zu erwartenden Folgen wären eine verstärkte Wolkenbildung und damit eine geringere Sonneneinstrahlung. Stattdessen ist – zumindest für Deutschland – genau das Gegenteil zu beobachten, Bild 5.

Bild 5. Während die mittlere Sonnenscheindauer in Deutschland den letzten 116 Jahren deutlich zugenommen hat, sind die Niederschlagsmengen nahezu unverändert geblieben (Daten: PIK, Grafik: Autor)

Dies deutet darauf hin, dass die Verhältnisse wesentlich komplexer sind, als dies von den meisten AGW-Vertretern dargestellt wird. Möglicherweise wirken sich langfristige zyklische Schwankungen der Strömungsverhältnisse in der Atmosphäre so aus, dass sie die eigentlich zu erwartende erhöhte Wolkenbildung nebst entsprechender Verringerung der Sonneneinstrahlung völlig überlagern. Auch weist der Trend der letzten Jahre eine Stagnation der Niederschlagshöhen aus, was mit erhöhter Sonnenscheindauer nicht zusammenpasst. Aus diesen Fakten ergeben sich natürlich Fragen, die im Rahmen dieses bewusst kurz gehaltenen Aufsatzes jedoch nicht mehr behandelt werden können. Hierauf werde ich zu einem späteren Zeitpunkt zurückkommen.

Fred F. Mueller

Ich danke Hr. Dipl.-Met. Hans-Dieter Schmidt für Anregungen und fachliche Unterstützung

1)     Mathematisch lässt sich das Verhalten des Bodens als Integrator beschreiben. Es bildet sich darin eine sich nach unten fortpflanzende gedämpfte Wärmewelle. Deshalb ergeben sich auch mit zunehmender Tiefe Verschiebungen der Phasenlage des Temperaturgangs im Verhältnis zur Oberfläche. Bei 12 m Tiefe ist eine Verschiebung um rund 180 ° festzustellen, hier treten Minima und Maxima also im Gegentakt zum Jahreszeitverlauf am Boden auf. Das zeigt sich beispielsweise auch, wenn man die Korrelation der Werte für die Lufttemperaturen und diejenigen für die Bodentemperaturen ermittelt: Vollzieht man dies für die Werte aus identischen Jahren, so erhält man lediglich einen eher unbefriedigenden Korrelationskoeffizienten von 0,46. Berücksichtigt man jedoch einen Versatz von einem Jahr, so verbessert er sich auf 0,59.

Quellen

[BAYE] Bayer, A.: Modellierung der Temperaturentwicklung oberflächennaher Boden- und Gesteinsschichten arider Gebiete unter Berücksichtigung der solaren Einstrahlung und der Topographie. Diplomarbeit, im Studiengang Technische Geowissenschaften, Institut für Geophysik der Universität Stuttgart

[PAUL] Das Klimasystem und seine Modellierung (05-3103) – André Paul Atmosphärischer Strahlungstransport und Klima: Nachträge.

[PIK] http://www.pik-potsdam.de/services/klima-wetter-potsdam/klimazeitreihen/bodentemperatur

[WIKI] http://de.wikipedia.org/wiki/Zeitreihe_der_Lufttemperatur_in_Deutschland




Problematische Adjustierungen und Divergenzen (hier einschließlich der Juni-Daten)

Bild rechts: Graphik Steven Goddard

In dem Beitrag mit den April-Daten wurden in den Schlussfolgerungen folgende Fragen gestellt: „Warum laufen die neuen Satelliten- und Beobachtungs-Datensätze in unterschiedliche Richtungen? Kann man sich irgendeinen Grund vorstellen, dass beide gleichzeitig korrekt sein können?“

Prof. Robert Brown von der Duke University hat zu diesen Fragen eine exzellente Antwort hier gegeben. Um dieser Antwort die gebührende Aufmerksamkeit zu verschaffen, folgt hier der vollständige Kommentar:

Rgbatduke 10. Juni 2015

Die beiden Datensätze sollten nicht divergieren. Punkt! Es sei denn, unsere Kenntnisse über die thermische Dynamik der Atmosphäre sind falsch. Das heißt, ich werde meine „Meinung“ hinzufügen und belegen, dass diese auf einfacher Atmosphärenphysik beruht, die sich in jedem relevanten Lehrbuch findet.

Dies bedeutet nicht, dass sie nicht systematisch differieren, sondern es bedeutet einfach, dass die zunehmende Divergenz ein starker Beweis eines Bias‘ ist bei der Berechnung des Oberflächen-Datensatzes. Dieser Bias kommt nicht wirklich überraschend angesichts der Tatsache, dass jede neue Version von HadCRUT und GISS insgesamt Gegenstand von Abkühlung in der Vergangenheit und/oder Erwärmung in der Gegenwart ist. Das ist genauso unwahrscheinlich wie wenn man zehn- oder zwölfmal eine Münze wirft und sich jedes Mal ,Zahl‘ für beide Produkte zeigt. Tatsächlich, wenn man hier die Null-Hypothese aufstellt, dass „die Korrekturen der globalen Temperaturanomalien unverzerrt“ sind, beträgt der p-Wert dieser Hypothese weniger als 0,01, geschweige denn 0,05. Falls man beide wesentlichen Erzeugnisse zusammen betrachtet, ist er sogar kleiner als 0,001. Mit anderen Worten, es steht absolut außer Frage, das die Daten von GISS und HadCRUT mindestens an diesem Punkt hoffnungslos korrumpiert sind.

Eine Art und Weise, mit der sie korrumpiert sind, ist der bekannte Wärmeinsel-Effekt (UHI), bei dem städtische Daten oder solche von unangemessen aufgestellten Wetterstationen eine lokale Erwärmung zeigen, die nicht der räumlichen Mitteltemperatur in der umgebenden Landschaft entspricht. Dieser Effekt ist substantiell und eindeutig erkennbar, wenn man beispielsweise bei Weather Underground hineinschaut und die Temperaturverteilung an persönlichen Wetterstationen (PWS) in einem Gebiet betrachtet, in dem sich sowohl innerstädtische als auch ländliche Messpunkte befinden. Die städtischen Temperaturen zeigen konstant eine Temperatur, die um 1 bis 2 K höher liegt als in der umgebenden Landschaft. Temperaturen an Flughäfen haben oftmals das gleiche Problem, da sich die Messpunkte willkürlich direkt neben den großen asphaltierten Rollbahnen befinden. Primär werden sie dazu gebraucht, um den Piloten und den Fluglotsen zu helfen, Flugzeuge sicher landen zu lassen, und nur sekundär werden die dort gemessenen Temperaturen fast unverändert als „die offizielle Temperatur“ jenes Ortes verwendet. Anthony Watts hat hierzu systematische Untersuchungen angestellt, und es handelt sich um ein ernstes Problem bei allen wesentlichen Anomalien der gemessenen Temperaturen.

Das Problem mit dem UHI besteht darin, dass er systematisch zunimmt, unabhängig davon, was das Klima macht. Städtische Zentren wachsen immer weiter, mehr Einkaufszentren werden gebaut, mehr Straßen zugepflastert, und all das dehnt sich immer mehr aus, womit der Abstand zwischen den schlecht aufgestellten offiziellen Wetterstationen und der nächstgelegenen unberührten Landschaft immer größer wird.

HadCRUT trägt dem UHI in keiner Weise Rechnung. Falls es das tun würde, müsste die Korrektur im gesamten Datensatz eine mehr oder weniger gleichmäßige Subtraktion sein, die proportional zur globalen Bevölkerung ist. Diese Korrektur wäre natürlich eine abkühlende Korrektur und nicht eine erwärmende, und während es unmöglich ist zu sagen, wie groß diese Korrektur ist, wenn man sich nicht durch die unbekannten Details wühlt, wie HadCRUT berechnet wird und aus welchen Daten.

Bei GISS ist es sogar noch schlimmer. UHI-Korrekturen werden zwar angebracht, doch endet dies entweder neutral oder negativ. Das ist so, anstatt dass der UHI, der relativ zur Vergangenheit eine abkühlende Korrektur erfordert im Vergleich zur Schätzung unverzerrter globaler Temperaturen, zu einer Erwärmungs-Korrektur führt. Als ich das erkannte, war ich sprachlos – und voller Bewunderung für das Team, dass diese Untersuchung durchgeführt hatte. Ich möchte, dass sie für mich meine Steuern berechnen. Am Ende kommt heraus, dass die Regierung mir Geld schuldet.

In der Wissenschaft jedoch stehen sowohl GISS als auch HadCRUT (und auch alle anderen Temperaturen schätzenden Institutionen, die gleiche Verfahren anwenden) vor einem ernsten, ernsten Problem. Sicher können sie Schlagzeilen ausstreuen, bei denen die Gegenwart umgeschrieben und der Stillstand hinweg geschrieben wird. Sie können ihre politischen Herren zu Gefallen sein und ihnen ermöglichen eine skeptische (und empfindliche!) Öffentlichkeit davon zu überzeugen, dass wir hunderte Milliarden Dollar ausgeben müssen, um ultimativ die Emission von CO2 zu stoppen, was gut über eine Billion Dollar anwachsen könnte, wenn wir dem Rest der Welt „helfen“ müssen, Gleiches zu tun. Sie können die Alarmisten in ihrem Glauben bestärken, dass ihre wissenschaftliche Verlogenheit dem höheren Ziel dient, den „Planeten zu retten“. Aber die Wissenschaft ist unabhängig von ihren menschlichen Wünschen oder Notwendigkeiten! Eine fortgesetzte Divergenz zwischen jedem wesentlichen Temperaturindex einerseits und RSS/UAH andererseits ist unfasslich und ein einfacher Beweis, dass die Temperaturindizes korrumpiert sind.

Um es direkt zu sagen, die Divergenz ist schon jetzt groß genug, um die Augenbrauen zu heben, und wird nur ein wenig durch die Tatsache kaschiert, dass RSS/UAH nur etwas über 35 Jahre lang sind. Falls die Betreiber von HadCRUT und GISS TEMP nur ein Minimum an Verstand hätten, würden sie intensiv daran arbeiten, die Gegenwart abzukühlen, um sie besser zu den Satellitendaten passend zu machen, anstatt sie nach oben zu korrigieren und die schon jetzt wachsende Divergenz noch größer werden zu lassen. Kein Atmosphärenphysiker wird eine systematische Divergenz zwischen beiden akzeptieren angesichts der Tatsache, dass beide notwendigerweise eine Adiabate aufweisen, die sowohl gut verstanden als auch direkt messbar ist (z. B. mit Wetterballonen). Mit diesen wiederholten Messungen konnten die genauen Zusammenhänge zwischen den Temperaturen am Boden und in der unteren Troposphäre auf vorhersagbare Weise validiert werden. Die [Feucht-]Adiabate beträgt im Mittel 6,5°C pro 1000 m. Temperaturen der unteren Troposphäre beispielsweise aus RSS erfassen hauptsächlich die Schicht der Atmosphäre um 1500 m über Grund und glätten von Natur aus sowohl mit der Höhe als auch mit der Umgebung (d. h. es werden nicht Temperaturen an bestimmten Punkten gemessen, sondern die gemittelte Temperatur eines Volumens über einem Gebiet auf der Erdoberfläche). Damit wichten sie die lokale Erwärmung über städtischen Gebieten korrekt in der tatsächlichen globalen Anomalie, und sie sollten auch gewichtet werden, um die durch CO2 verursachte Erwärmung zu schätzen.Letzteres kann man aber besser in ungestörten ländlichen Gebieten oder noch besser in vollständig unbewohnten Gebieten durchführen wie der Sahara (wo es nicht wahrscheinlich ist, dass es eine starke Wasserdampf-Rückkopplung gibt).

RSS und UAH werden direkt und regelmäßig durch Ballonaufstiege bestätigt und mit der Zeit auch untereinander. Sie sind nicht zwanglos oder ungeprüft. Sie werden allgemein akzeptiert als genaue Repräsentationen von LTTs (und des atmosphärischen Temperaturprofils allgemein).

Es verbleibt aber die Frage, wie akkurat/präzise diese Messungen sind. RSS durchläuft einen ausgeklügelten Monte Carlo-Prozess zur Ermittlung von Fehlerbandbreiten, und zusammengefasst lässt sich sagen, dass sie wahrscheinlich auf 0,1 bis 0,2°C von Monat zu Monat genau sind (ähnlich den Fehlerbehauptungen bei HadCRUT4). Sie sind jedoch viel genauer, wenn man über Monate oder Jahre glättet, um einen Trend abzuschätzen, da allgemein erwartet wird, dass der Fehler nicht einem Bias unterliegt. Auch dies nimmt man für HadCRUT4 an, aber all das bedeutet nur, dass eine Trend-Differenz ein ernstes Problem der Konsistenz darstellt angesichts des Umstandes, dass sie durch die ALR [?] verbunden sein müssen und die Präzision sogar Monat für Monat angemessen ist, um es zu über 95% sicher zu stellen,

[Hier weiß ich einfach nicht weiter. Der Satz lautet im Original: „Again this ought to be true for HadCRUT4, but all this ends up meaning is that a trend difference is a serious problem in the consistency of the two estimators given that they must be linked by the ALR and the precision is adequate even month by month to make it well over 95% certain that they are not, not monthly and not on average.“ Anm. d. Übers.]

Falls die Divergenzen weiter anwachsen, möchte ich vorhersagen, dass das gegenwärtige Grummeln über die Anomalie zwischen den Anomalien sich zu einem absoluten Aufruhr verstärken wird, der sich nicht legen wird, bis die Anomalie-Anomalie gelöst ist. Der Auflösungsprozess – falls die Götter es gut mit uns meinen – wird eine ernsthafte Bewertung der aktuellen Reihe von „Korrekturen“ an HadCRUT und GISS TEMP sein, was der Öffentlichkeit vor Augen führen wird, dass diese Korrekturen ausschließlich nach oben erfolgt waren sowie auch die Tatsache, dass der UHI ignoriert oder als negativ berechnet worden ist.

rgb

Weitere Informationen zu GISS und UHI gibt es hier. [Die Qualität der umfassenden Arbeiten von Kowatsch und Kämpfe zu diesem Punkt wird aber nicht erreicht. Anm. d. Übers.].

——————————————

In den folgenden Abschnitten sollen wie zuvor die jüngsten Fakten gezeigt werden. Die Informationen werden in drei Abschnitten und einem Anhang dargelegt. Der erste Abschnitt wird zeigen, wie lange einige Datensätze keine Erwärmung mehr zeigen. Im Moment haben nur die Satellitendaten flache Verläufe über mehr als ein Jahr. Im zweiten Abschnitt wird gezeigt, wie lange viele Datensätze keine statistisch signifikante Erwärmung mehr zeigen. Im dritten Abschnitt wird gezeigt, wie sich das Jahr 2015 derzeit im Vergleich zum Jahr 2014 sowie den wärmsten Monaten und Jahren jemals macht. Für drei der Datensätze war 2014 das wärmste Jahr. Im Anhang werden die Abschnitte 1 und 2 auf andere Weise illustriert. Graphiken und eine Tabelle sollen den Sachverhalt verdeutlichen.

Abschnitt 1

Diese Analyse verwendet den jüngsten Monat, für den Daten verfügbar sind bei WoodForTrees.com (WFT). Alle Daten bei WFT sind auch auf den unten genannten speziellen Quellen verfügbar. Wir beginnen mit der Gegenwart und gehen zurück bis zum am weitesten in der Vergangenheit liegenden Monat, wo die Neigung mindestens etwas negativ in mindestens einer Berechnung ist. Falls also die Neigung von September 4 X 10↑-4, aber von Oktober -4 X 10↑-4 ist, lassen wir die Zeit ab Oktober laufen, so dass uns niemand vorwerfen kann, unehrlich zu sein wenn wir sagen, dass die Neigung ab einem bestimmten Monat flach verläuft.

1. Bei GISS ist die Neigung in keiner nennenswerten Periode flach.

2. Bei Hadcrut4 ist die Neigung in keiner nennenswerten Periode flach.

3. Bei Hadsst3 ist die Neigung in keiner nennenswerten Periode flach.

4. Bei UAH ist die Neigung flach seit März 1997 oder seit 18 Jahren und 4 Monaten (bis Juni nach Version 6.0)

5. Bei RSS ist die Neigung flach seit Januar 1997, also seit 18 Jahren und 6 Monaten (bis Juni).

Die nächste Graphik zeigt einfach die Linien, um Obiges zu illustrieren. Die Länge der Linien zeigt die relativen Zeiten, in denen die Neigung Null ist. Zusätzlich zeigt die aufwärts geneigte blaue Linie oben, dass der CO2-Gehalt während dieses Zeitraumes stetig zugenommen hat.

Graphik: www.WoodForTrees.org – Paul Clark

Wenn man zwei Dinge plottet so wie ich es getan habe, zeigt nur das Linke eine Temperaturanomalie.

Die tatsächlichen Zahlen sind bedeutungslos, da die beiden Neigungen im Wesentlichen Null sind. Für CO2 werden keine Zahlen gezeigt. Einige haben gefordert, dass das Protokoll der CO2-Konzentration geplottet werden soll. Allerdings gibt es diese Option bei WFT nicht. Die aufwärts gerichtete CO2-Linie allein zeigt, dass während der CO2-Gehalt während der letzten 18 Jahre stetig zugenommen hat, die Temperaturen flach verlaufen sind für verschiedene Zeiträume in beiden Datensätzen.

Abschnitt 2

Für diese Analyse stammen die Daten von Nick Stokes Trendviewer, verfügbar auf der Website http://moyhu.blogspot.com.au/p/temperature-trend-viewer.html. Diese Analyse zeigt, wie lange es Nicks Kriterien zufolge keine statistisch signifikante Erwärmung mehr gegeben hatte. Die Daten reichen in jedem Datensatz bis zur jüngsten Aktualisierung. In jedem Falle zeigt sich die untere Fehlergrenze negativ, so dass eine Neigung Null im gezeigten Monat nicht ausgeschlossen werden kann.

Nicks Kriterien zufolge hat es in vielen Datensätzen keine statistisch signifikante Erwärmung seit 11 bis 22 Jahren mehr gegeben. C1 steht für das Vertrauenslimit im 95%-Niveau.

Details für die Datensätze:

For UAH6.0: Since October 1992: Cl from -0.009 to 1.742
This is 22 years and 9 months.
For RSS: Since January 1993: Cl from -0.000 to 1.676
This is 22 years and 6 months.
For Hadcrut4.3: Since July 2000: Cl from -0.017 to 1.371
This is 14 years and 11 months.
For Hadsst3: Since August 1995: Cl from -0.000 to 1.780
This is 19 years and 11 months.
For GISS: Since August 2003: Cl from -0.000 to 1.336
This is 11 years and 11 months.

Abschnitt 3

Dieser Abschnitt zeigt Daten über 2015 und andere Informationen in Gestalt einer Tabelle. Die Tabelle zeigt fünf Datensätze, und zwar UAH, RSS, Hadcrut4, Hadsst3, and GISS.

Die Zeilen enthalten Folgendes:
1. 14ra: Dies ist die Endposition für das Jahr 2014 in jedem Datensatz.

2. 14a: Mittlere Anomalie für 2014.

3. Jahr: Dies zeigt das wärmste Jahr jemals für jeden einzelnen Datensatz. Man beachte, dass die Satelliten-Datensätze das Jahr 1998 als das wärmste Jahr zeigen, die anderen aber das Jahr 2014.

4. ano: Das Mittel der monatlichen Anomalien des darüber genannten wärmsten Jahres.

5. mon: Dies ist der Monat, in dem jeder einzelne Datensatz die höchste Anomalie zeigt. Die Monate werden mit den ersten drei Buchstaben eines jeden Monats gekennzeichnet sowie den letzten beiden Ziffern der Jahreszahl.

6. ano: Die Anomalie des darüber genannten Monats

7. y/m: dies ist der längste Zeitraum, in dem die Neigung nicht positiv ist, gezeigt als Jahre/Monate. So bedeutet 16/2, dass die Neigung 16 Jahre und 2 Monate lang Null betrug. Zeiträume kürzer als ein Jahr werden nicht gezählt und als „0“ dargestellt.

8. sig: Dies ist der erste Monat, in dem die Erwärmung Nicks Kriterien zufolge nicht statistisch signifikant ist. Den ersten drei Buchstaben des Monatsnamens folgen die letzten beiden Ziffern für die Jahreszahl.

9. sy/m: Diese Spalte zeigt die Jahre und Monate in Zeile 8. Abhängig vom Zeitpunkt der letzten Aktualisierung können die Monate um einen Monat abweichen.

10. Jan: Anomalie des Januars 2015 für jenen speziellen Datensatz.

11. Feb: Anomalie des Februars 2015 für jenen speziellen Datensatz.

12. bis 15. Entsprechend die Monate 2015 bis Juni-Daten

16. ave: Dies ist die mittlere Anomalie aller Monate bis heute, berechnet durch Addition aller Zahlen geteilt durch die Anzahl der Monate.

17. rnk: Dies ist die Stellung des Jahres 2015, die jeder Datensatz einnehmen würde ohne Berücksichtigung der Fehlerbalken und unter der Annahme keiner Änderungen.

Falls man alle jüngsten Anomalien selbst nachvollziehen möchte:
For UAH, version 6.0 was used. Note that WFT uses version 5.6. So to verify the length of the pause on version 6.0, you need to use Nick’s program.
http://vortex.nsstc.uah.edu/data/msu/v6.0beta/tlt/tltglhmam_6.0beta2
For RSS, see: ftp://ftp.ssmi.com/msu/monthly_time_series/rss_monthly_msu_amsu_channel_tlt_anomalies_land_and_ocean_v03_3.txt
For Hadcrut4, see: http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.4.0.0.monthly_ns_avg.txt
For Hadsst3, see: http://www.cru.uea.ac.uk/cru/data/temperature/HadSST3-gl.dat
For GISS, see:
http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt

Um alle Punkte ab Januar 2015 als Graphik zu sehen, siehe die folgende WFT-Graphik. Man beachte, dass die UAH-Version 5.6 gezeigt ist. Die Version 6.0 ist bei WFT noch nicht gezeigt.

www.WoodForTrees.org – Paul Clark

Wie man sieht, beginnen alle Linien an der gleichen Stelle im Januar 2015. Dies macht es einfach, den Januar 2015 mit der jüngsten Anomalie zu vergleichen.

Anhang

Hier werden alle Daten für jeden Datensatz getrennt zusammengefasst. [Ich verzichte hier auf eine Übersetzung, weil es sich doch nur um eine Aufstellung von Zahlen handelt. Die Aussage zu Beginn ist von mir fett hervorgehoben. Anm. d. Übers.]

RSS

The slope is flat since January 1997 or 18 years, 6 months. (goes to June)
For RSS: There is no statistically significant warming since January 1993: Cl from -0.000 to 1.676.
The RSS average anomaly so far for 2015 is 0.304. This would rank it as 6th place. 1998 was the warmest at 0.55. The highest ever monthly anomaly was in April of 1998 when it reached 0.857. The anomaly in 2014 was 0.255 and it was ranked 6th.

UAH6.0

The slope is flat since March 1997 or 18 years and 4 months. (goes to June using version 6.0)
For UAH: There is no statistically significant warming since October 1992: Cl from -0.009 to 1.742. (This is using version 6.0 according to Nick’s program.)
The UAH average anomaly so far for 2015 is 0.204. This would rank it as 4th place. 1998 was the warmest at 0.483. The highest ever monthly anomaly was in April of 1998 when it reached 0.742. The anomaly in 2014 was 0.170 and it was ranked 6th.

Hadcrut4.4

The slope is not flat for any period that is worth mentioning.
For Hadcrut4: There is no statistically significant warming since July 2000: Cl from -0.017 to 1.371.
The Hadcrut4 average anomaly so far for 2015 is 0.685. This would set a new record if it stayed this way. The highest ever monthly anomaly was in January of 2007 when it reached 0.832. The anomaly in 2014 was 0.564 and this set a new record.

Hadsst3

For Hadsst3, the slope is not flat for any period that is worth mentioning. For Hadsst3: There is no statistically significant warming since August 1995: Cl from -0.000 to 1.780.
The Hadsst3 average anomaly so far for 2015 is 0.500. This would set a new record if it stayed this way. The highest ever monthly anomaly was in August of 2014 when it reached 0.644. The anomaly in 2014 was 0.479 and this set a new record.

GISS

The slope is not flat for any period that is worth mentioning.
For GISS: There is no statistically significant warming since August 2003: Cl from -0.000 to 1.336.
The GISS average anomaly so far for 2015 is 0.82. This would set a new record if it stayed this way. The highest ever monthly anomaly was in January of 2007 when it reached 0.97. The anomaly in 2014 was 0.75 and it set a new record. (Note that the new GISS numbers this month are quite a bit higher than last month.)

If you are interested, here is what was true last month:
The slope is not flat for any period that is worth mentioning.
For GISS: There is no statistically significant warming since November 2000: Cl from -0.018 to 1.336.
The GISS average anomaly so far for 2015 is 0.77. This would set a new record if it stayed this way. The highest ever monthly anomaly was in January of 2007 when it reached 0.93. The anomaly in 2014 was 0.68 and it set a new record.

Schlussfolgerung

Vor zwei Monaten war die NOAA das fünfte Rad am Wagen. Seit GISS es NOAA und HadCRUT4 nachgemacht hat, fühlte man sich dort offenbar berufen, den Anpassungen zu folgen, wie es hier dokumentiert ist.

Link: http://wattsupwiththat.com/2015/08/14/problematic-adjustments-and-divergences-now-includes-june-data/

Übersetzt von Chris Frey EIKE




Abkehr vom Klima – Zurück zum Wetter

"Klima“ und Wetter

Alle Welt spricht vom „Klima“, meistens unheilverkündend und drohend. Kaum sind die Katastrophen-Meldungen der letzten „Klima“-Konferenz im Unterbewusstsein des strapazierten Publikums versickert, werden die Katastrophentrommeln zur Einstimmung auf die nächste „Klima"-Konferenz geschlagen.

Bundeskanzlerin und Vizekanzler, beide ehemals Bundes-Umweltminister, sprechen oft und gerne über „Klima“. „Die Grünen“ ohnehin; der angeblich bedrohliche „Klima“-Wandel ist nach dem Atomausstieg das einzig verbliebene Thema ihrer auf Angst und schlechtem Gewissen gegründeten und auf Bevormundung wie Drangsalierung ausgerichteten Politik. Welcher Politiker wollte es sich mit „Die Grünen“ verscherzen? Die nächsten Wahlen kommen bestimmt. Potentielle Koalitionspartner dürfen nicht vergrault werden. Diese Verbeugung vor den „Grünen“ ist weltweit zu beobachten. Als deutliches Beispiel sei das jüngst in Frankreich verabschiedete Gesetz zur „Energetischen Transition“ genannt.  

 
Doch wichtiger als solches Parteienkalkül ist die parteiübergreifende Einigkeit: Die fossilen Energieträger müssen zurückgedrängt werden. Mögen die Gründe für diese wirtschafts-, energie- und umweltpolitische Maxime von Lager zu Lager sehr unterschiedlich sein, in einem Punkt herrscht Einigkeit: Mit „Klima“ lässt sich einzigartig argumentieren, um der Verbrennung von Erdöl, Erdgasund vor allem von Kohle gewaltiges Katastrophenpotential anzuhängen. Denn wer wollte einem politischen Programm widersprechen, nach dem der ansonsten drohende Weltuntergang abgewendet werden soll. Und warum sollte es illegitim sein, einem richtigen und für überaus wichtig erachteten Ziel eine zweifelhafte oder falscheBegründung zu geben? Also ziehen alle die „Klima-Karte“. Das Ziel heiligt die Mittel! Die Drohformel lautet :

.   Verbrennung setzt CO2 frei
.   CO2 ist Treibhausgas
.   Treibhausgas erzeugt „Klima“-Erwärmung
.  „Klima“-Erwärmung verursacht weltweit Katastrophen.

Wie sollten Medien und Öffentlichkeit  bei dieser Konstellation schweigen?  Im Gegenteil: „Klima“ ist intensivst beackertes Lieblingsthema. Im „Klima“-Theater gibt es täglich neue Vorstellungen. Der Schuft ist stets und überall das „Treibhausgas“, der „Klimakiller“, sprich: das CO2.

Und wo bleibt der mündige Bürger? Muss er sich fraglos, ohnmächtig von dem gewaltigen Strom an Daten, Interpretationen, Meinungen und Warnungen zum „Klima“-Wandel in die schier grundlose See von Angst und Bedrohung reißen lassen? Oder gibt es abseits aller Spekulationen, Prognosen und Prophezeiungen doch noch einen Platz der Tatsachen, an dem er mit Vernunft – und nur mit Vernunft – fest und sicher ankern kann?

„Klima“ ist ein vager Begriff. Gleichgültig ob wir vom Wetter-“Klima“, Konsum-“Klima“, Verhandlungs-“Klima“, Raum-“Klima“ sprechen, stets geht es um Erahntes, Erspürtes, Imaginiertes, Interpretierbares und Interpretationsbedürftiges. Nie geht es um einen eindeutigen Sachverhalt, um eine exakt nachprüfbare Tatsache.
Die Weltorganisation für Meteorologie (WMO) definiert „Klima“ als den mindestens dreißigjährigen Durchschnitt von „Wetter“. Folglich ist „Klima“-Wissenschaft die Wissenschaft vom mindestens dreißigjährigen Durchschnitt des Wetters und der Wetterfolgen.

 „Klima“ ist definitionsgemäß ein auf dem Wege der Durchschnitts- und Trendberechnung erzeugtes theoretisches Konstrukt. Wie alle Durchschnitte aus sehr vielen Einzelgrößen ändert sich auch „Klima“, wenn überhaupt, niemals rasch oder gar dramatisch. „Klima“ ist äußerst träge. Wer von dramatischem „Klima“-Wandel“ spricht, hat nichts verstanden. Eher zeigt ein Elefant hohe Sprünge, als dass sich das „Klima“ dramatisch ändert.

Nehmen wir zum Beispiel das für „Klima“-Wissenschaft winzig anmutende Gebiet der Kölner Bucht. Fragen wir ausschließlich nach ihrem durch Temperatur beschriebenen „Klima“. Allein für diese Antwort benötigen wir mindestens 5.256.000 tatsächlich gemessene Werte, nämlich die für mindestens zwanzig Standorte, über mindestens dreißig Jahre, stündlich tatsächlich gemessene Lufttemperatur. Dennoch hätten wir nur eine äußerst magere Teilantwort. Wir wüssten nichts über die Sonnenscheindauer, die Niederschläge, die Windverhältnisse und die Art und Häufigkeit von Extrem-Wetterlagen.

Wir wüssten erst recht nichts zur „Klima-Entwicklung“. Dazu wären die entsprechenden meteorologischen Daten mindestens weiterer dreißig Jahre erforderlich – sowie auf Durchschnitts-Rechnung bestens programmierte Computer.
Praktisch ist immer nur das Wetter. „Klima“ kommt lange, lange nach Wetter. Ohne Wetter gäbe es kein „Klima“. Aber umgekehrt wird es immer Wetter geben, völlig unabhängig davon, ob eine Unmenge von Wetterdaten zu „Klima“ kondensiert wird, oder ob der „Durchschnittswolf“ ungedreht bleibt.

Wetter findet statt. Wetter ist aktuell. Wetter kann sein: schön, gut, schlecht, furchtbar, heiß, warm, kalt, eisig, regnerisch, trocken, windstill, windig, stürmisch, orkanartig usw.. Wetterwechsel können allmählich, rasch, dramatisch sein.
„Klima“ hat keine Folgen. Aber jedes Wetter hat seine eigenen Folgen für Mensch und Natur. Je extremer das Wetter ist, desto extremer sind die Folgen. Auf gefährliche, zerstörerische Wetterereignisse, Wetterlagen kann man versuchen, sich nach besten Kräften vorzubereiten. Wetterschäden kann man so weit wie möglich beseitigen.
An diese Banalitäten gilt es nach Jahren des „Klima“-Wahns und nach Jahren einer an Vagheit kaum zu überbietenden „Klima“-Wandel-Debatte zu erinnern. So wie man weder die „Durchschnittsmutter“  noch ihre „durchschnittlich“ 1,38 Kinder jemals treffen wird, wird man niemals „Klima“ beobachten oder erleben können. Beobachtet und erlebt wird immer das Wetter.

Aber ist den mit „Klima“ Argumentierenden überhaupt an exakter Beobachtung und rationaler Argumentation gelegen? Wollen sie überhaupt vor dem morgen drohenden Unwetter schützen oder die Schäden des gestrigen Unwetters beseitigen? Ist „Klima“ nicht gerade deshalb so beliebt, weil sich auf dem Boden von definitorischer Vagheit und oft weit über die eigene Lebenserwartung hinausreichender Langfristigkeit so herrlich unkontrollierbar und ungestraft spekulieren, warnen und Untergang prophezeien lässt? Liefert „Klimaforschung“ nicht genau das, was sich seit Jahrtausenden als Herrschafts- und Zuchtinstrument bestens bewährt hat:
Katastrophendrohung gepaart mit Heilsversprechen bei  Wohlverhalten.

"Klima-Forschung“

Im letzten Drittel des vorigen Jahrhunderts begann ein bis dahin am Rande existierendes Arbeitsgebiet an Universitäten und außeruniversitären Forschungseinrichtungen mit einer gewaltigen „Landnahme“ bei etablierten Wissenschaften. Das neue Arbeitsgebiet nannte sich „Klima-Forschung“ oder „Klima-Wissenschaft“. Die dienstbar gemachten altehrwürdigen Wissenschaften sind Meteorologie, Ozeanographie, Polarforschung sowie als „Hilfswissenschaften“ Physik, Chemie, Biologie und Mathematik.

Die „Klima-Forschung“ hat einen für „Wissenschaft“ im tradierten Sinne tödlichen Entwicklungsfehler: „Klima-Forschung“ wurde in starken Fesseln der Politik groß gezogen.

Von frühen Tagen an gilt als Finanzierungs-Voraussetzung, dass das „Klima“ erkrankt sei. Das Papier der Bewilligungsbescheide für die gewaltig aufwachsenden Zuwendungen an „Klima-Forscher“ und „Klima-Modellierer“ trug wie ein Wasserzeichen die Prämisse, dass sich das „Klima“ gefahrbringend entwickele, dass für den gesamten Erdball eine riesige Gefahr unübersehbar schrecklicher „Klima“-Folgen bestehe.

Das „Klima“-Katastrophenpotential – eigentlich gemeint sind Wetterfolgen – gab und gibt der Politik den entscheidenden Finanzierungsimpuls. Und die „Klima-Wissenschaft“ setzte und setzt alles daran, dass dieser Katastrophen-Ast, auf dem sie bestens sitzt, wächst und weiter wachsen wird.

Verursacher der „Klima-Misere“ sei der Mensch. Die „Klima-Erkrankung“ sei menschengemacht, also anthropogen. Diese Prämisse des anthropogenen „Klima-Wandels“ ist zu verstehen als Ausdruck eines kollektiven schlechten Gewissens, mindestens als kollektiver Kater nach Jahrzehnten einer rasanten Industrialisierungsparty, auf der die fossilen Primärenergieträger Erdgas, Erdöl und Kohle die Rolle des Champagners inne hatten. Eine rasch an Bedeutung gewinnende Stimmung fragte mit unüberhörbarem Zweifel: „Darf es so weiter gehen?“ Und die „Klima-Wissenschaft“ antwortete so erwartungsgemäß wie eindringlich: „So darf es nicht weiter gehen!“

Mit der Katastrophen-Prämisse eng verbunden ist die Therapie-Prämisse. Da die „Klima-Erkrankung“ die Folge übermäßiger menschenverursachter CO2-Emissionen sei, gelte es zur „Klima-Rettung“ Vorschläge auszuarbeiten, wie die anthropogene CO2-Emission minimiert werden könne. Auch dieser Instrumentalisierung durch die Politik hat die „Klima-Forschung“ stets engagiert entsprochen.

Neben die aus Geistesgeschichte und Philosophie gespeiste, an den Einzelnen gerichtete anthropotechnische Forderung:                                                    
„Du musst Dein Dein Leben ändern“ (vgl. P. Sloterdijk) trat die industrie- und energiepolitische Kollektivforderung: „Wir müssen das Weltklima retten“.
Diese Kollektivforderung trägt unübersehbar religionsähnliche oder religionsersetztende Merkmale wie „unbedingter Wahrheitsanspruch“, „Endzeit-Prophetie“, „Heilsversprechen“, „Fanatismus“, „Intoleranz“.
Die zur Rettung des Weltklimas über eine Minderung der anthropogenen CO2-Emissionen im Einzelnen vorgelegten „wissenschaftlichen“ Anregungen, Vorschläge und Forderungen wurden rasch unübersehbar. Darum riefen bereits 1988 die Vereinten Nationen und die Weltorganisation für Meteorologie eine zwischenstaatliche Organisation (IPCC) ins Leben mit der Aufgabe, Ordnung, Übersicht und politische Bewertung in die wissenschaftlichen „Klima-Befunde“ zu bringen.
Auftragsgemäß hat das IPCC bisher fünf Sachstandsberichte sowie mehr als zehn Sonderberichte vorgelegt.

Die Sachstandsberichte sind jeweils zweigeteilt in einen kompakten politischen Teil sowie einen äußerst umfangreichen Materialteil. Der Materialteil enthält die Originaltexte zu den Ergebnissen aktueller „klima-wissenschaftlicher“ Forschungsarbeiten.

Die Kurzfassung ist als politisch orientierte Lese- und Interpretationshilfe zum Materialteil gedacht. Sie richtet sich an die Entscheider in den das IPCC tragenden Ländern. Sie wird von politisch ausgewählten Autoren verantwortet. die von den Regierungen dieser Länder benannt werden. Diese Regierungsvertreter „aller Herren Länder“ verhandeln in langwierigen Konferenzen und unüberschaubaren Abstimmungsprozeduren den Zustand wie die voraussichtliche Entwicklung des weltweiten „Klima“. Die politische Kurzfassung ist daher das Ergebnis von politischen und wirtschaftlichen Interessen, Opportunitäten, Machtverhältnissen, Mehrheitsvoten, Argumentationsgeschick und ähnlich sachfremden Kriterien.

So verständlich der politische Wunsch nach kurzfassender Auswertung und prägnanter Schlussfolgerung sein mag, so inakzeptabel ist der gewählte Weg. Die – politisch ausgewählten – Redakteure der IPCC-Kurzfassungen agieren wie ein „klimawissenschaftliches Zentralkomitee“ oder wie ein „klimawissenschaftlicher Vatikan“ mit weltweit exklusivem Exegese- und Vorschlagsrecht.

Jedoch sind Zustand und voraussichtliche Entwicklung des „Klima“ keine politische sondern sie sind ausschließlich eine (natur-)wissenschaftliche Frage. „Klima-Forschung“, so sie diesen Namen verdient, ist reinste Naturwissenschaft. Eine wissenschaftliche Frage kann nicht und darf nicht nach Mehrheits- und Machtverhältnissen beantwortet werden.

Man stelle sich einmal vor, die Auswertung und Zusammenfassung der ungeheuren Experimental-Daten-Mengen der CERN-Wissenschaftler am weltgrößten Teilchenbeschleuniger in Genf würden einem von den CERN-Trägerstaaten politisch ausgewählten Redaktionskomitee übertragen. Ein gewaltiger Aufschrei wäre die Folge.
Eine Frage an die Wissenschaft muss ausschließlich „wissenschaftlich“, also durch beleg- und nachprüfbare Forschungsarbeit beantwortet werden. Und auch die Antwort muss „wissenschaftlich“ bewertet werden. So lange dieser rein innerwissenschaftliche Prozess nicht zu eindeutig beleg- und nachprüfbaren Ergebnissen geführt hat, ist die Antwort offen.

„Klima-Wahrheit“

Also lautet die Kernfrage: Welche „Klima-Wahrheit“ liegt vor?
Die Antwort ist so einfach wie ernüchternd :

1. Bei der im Zentrum stehenden Frage nach „Klimawandel“ handelt es sich überhaupt nicht um eine „Klima-Frage“. Es gibt kein umfassendes „Welt-Klima“. Es gibt auf der Welt nur einzelne Klimazonen, von arktisch über gemäßigt, subtropisch bis tropisch.  

Die Frage nach dem globalen „Klimawandel“ ist nicht mehr und nicht weniger als die Frage nach der Entwicklung der Erdwärme. Sie wird bestimmt als die sowohl für Jahreszeiträume als auch über weltweit verteilte Messpunkte gemittelte Durchschnittstemperatur der boden- bzw. wassernahen Luft.
„Welt-Klima“ muss zutreffend heißen „Erdwärme“.

Die Probleme der Messung und rechnerischen Verarbeitung der Messergebnisse zu einer einzigen Erdwärme eines bestimmten Jahres sind gigantisch. Umso erfreulicher ist es, dass nach Jahren heftiger Debatten und Auseinandersetzungen in der Fachwelt nun weitgehend Einvernehmen herrscht:
Während der letzten rd. 130 Jahre zwischen dem Ende des Neunzehnten Jahrhunderts und dem Anfang des Einundzwanzigsten Jahrhunderts ist es auf der Erde im Trend um knapp ein Grad Celsius wärmer geworden. Die trendmäßige Erwärmung beträgt demnach weniger als 0,01 Grad Celsius pro Jahr. Für die letzten 16 Jahre von 1998 bis 2014 wurde keine trendmäßige Erwärmung mehr gemessen.

2.  Ebenfalls während der genannten letzten 130 Jahre ist der CO2-Gehalt der Luft von etwa 0,03 Vol.-Prozent auf etwa 0,04 Vol.-Prozent angestiegen. Im Gegensatz zur Erderwärmung ist dieser Trend ungebrochen und wird mit Sicherheit auch in den kommenden Jahren anhalten.

3.  CO2 und einige andere Spurengase absorbieren einen Teil der Wärmestrahlung (Infrarotstrahlung), während kurzwelligere Strahlung, und derart ist der größte Teil der Sonnenstrahlung, passieren kann. Insbesondere aus der Infrarot-Strahlung der Erde wird ein Teil durch diese Spurengase absorbiert und davon wiederum nur die Hälfte zur Erde zurück gestrahlt. Diese Eigenschaft macht CO2 und einige andere Spurengase zu so genannten Treibhausgasen.

Da jedoch die CO2-Absorptionsbanden bereits weitgehend gesättigt sind, nimmt der Treibhauseffekt durch zusätzliches CO2 nur noch mit dem Logarithmus der CO2 -Konzentration zu: Für eine in Grad Celsius konstante Erwärmungswirkung bedarf es jeweils einer Verdoppelung des CO2-Gehaltes der Luft.

Anders ausgedrückt: Zusätzlich in die Luft gelangende und dort verbleibende CO2-Moleküle haben von Molekül zu Molekül eine rapide abnehmende Treibhauswirkung. Diese "Sättigung der Strahlungs-Banden" ist physikalisch unbestritten.

Entsprechend ergibt sich von den Klimamodellen berechnete enorme Erderwärmung von 2 bis 5 Grad Celsius für die nächsten 100 Jahre gar nicht aus einer prognostizierten CO2-Zunahme. Vielmehr wurden und werden in die Modelle ausschließlich hypothetische, durch keinerlei tatsächliche Beobachtungen gestützte „Sekundäre Verstärkungs-Prozesse“ eingebaut. Vor allem wird postuliert, dass die bisherige Erderwärmung um knapp ein Grad Celsius während der letzten über einhundert Jahre zu einer höheren Luftfeuchtigkeit (zusätzlichen Wasserdampf in der Luft) führt. Da Wasserdampf das wichtigste Treibhausgas ist, soll dieser zusätzliche Wasserdampf in der Modell-Theorie zu weiterer Erwärmung führen.

Im Gegensatz zu dieser Theorie zeigen die tatsächlichen meteorologischen Messungen der vergangenen Jahrzehnte keine Zunahme des Wasserdampf-Gehaltes der Atmosphäre, und sie zeigen auch keine zusätzliche Erwärmung.
„CO2-Freispruch“

Man mag es nicht glauben, aber es ist richtig: Weitere Wahrheiten gibt es nicht.

Einzig auf diesen drei völlig unspektakulären Tatsachen wurde weltweit ein gigantisch-monströses „Klima-Politik“-Gebilde errichtet. Im Zentrum steht das anthropogene CO2, ein Gas, das für den Menschen ungiftig und für das Pflanzenwachstum unerlässlich ist (Photosynthese) und das etwa 0,04 Prozent des Luftvolumens ausmacht (in 10 Litern Luft befindet sich ein Schnapsgläschen CO2).
Dem CO2 wird ohne wissenschaftlichen Grund die Rolle des „Klima-Killers“ zugewiesen.

Sämtliche Politik, soweit sie von „Klima-Rettung durch Verminderung menschenverursachter CO2-Emissionen“ bestimmt wird, folgt einem CO2-Trugbild, einem CO2-Wahn:

1. Die tatsächlich beobachtete Erderwärmung ist mit etwa einem Grad Celsius über mehr als einhundert Jahre derart unspektakulär, dass sie für einen Treibhaus-Effekt keinen Platz lässt.

2. Trotz unverändert stetiger Zunahme des CO2-Gehaltes der Atmosphäre gibt es seit nunmehr 16 Jahren keinen Erwärmungstrend. Auch wenn es zu früh ist, diese „Erwärmungspause“ sicher zu verstehen und einzuordnen, bietet sie ausreichend Grund zur Besinnung und Entdramatisierung im weltweiten „CO2-Drama“.

3. Von Jahr zu Jahr zeigt sich deutlicher, dass die milliardenschweren Klimamodelle versagt haben. Für die inzwischen nachprüfbaren Jahre prognostizierten sie sämtlich eine viel zu hohe Erderwärmung. Der wichtigste Grund für die Fehlprognosen ist die systematische Überschätzung der Bedeutung des (anthropogenen) CO2 für die Erdwärme.

Damit ist das anthropogene CO2 „freigesprochen“.

Das anthropogene CO2 ist für Erdwärme und Erderwärmung nicht relevant. Dieser „CO2-Freispruch“ ist zentral und unabdingbar. Was immer zu „Erderwärmung“, „Klima“ und „Klimafolgen“ festgestellt und gefolgert werden kann, muss nach dem „CO2-Freispruch“ stehen. Ob und welche Folgen die unspektakuläre und zur Zeit pausierende Erderwärmung von etwa einem Grad Celsius über mehr als einhundert Jahre auch gehabt haben mag: Das anthropogene CO2 ist „aus dem Spiel“.
„Klima-Politik“

Entgegen aller Behauptungen, Warnungen und Verängstigungen zeitigt der leichte Anstieg der durchschnittlichen Erdtemperatur von knapp einem Grad Celsius über einen Zeitraum von mehr als einhundert Jahren keinerlei besorgniserregende Begleiterscheinungen oder Folgewirkungen:
Extreme Wetterereignisse wie Stürme, Orkane, extreme Niederschlagsmengen, Perioden extremer Dürre, dramatische Hitze- oder Kälteperioden sind weltweit  nach Anzahl und Ausmaß nicht vermehrt aufgetreten. Extremwetter-Ereignisse gehören unabwendbar zur meteorologischen Erdgeschichte. Ihr Auftreten ist das Ergebnis hochkomplexer, zufallsbestimmter (stochastischer) Wetterprozesse.
Obwohl also die weltweiten Wetterbeobachtungen für die jüngere und jüngste Vergangenheit keine trendmäßige Veränderung extremer Wetterereignisse verzeichneten, haben die durch diese Wetterkatastrophen verursachten Schäden (Tote, Verletzte, Ernteausfälle, Sachschäden) zugenommen. Der Grund liegt im Bevölkerungs- und Besiedelungswachstum. Ein Orkan über einem unbesiedelten Landstrich richtet geringere Schäden an als ein Orkan über einem dicht besiedelten Landesteil. Darauf weisen nachdrücklich  auch die Rückversicherer hin.

In der nun seit Jahrzehnten geführten „Klima-Debatte“ ging es scheuklappenartig stets nur um „Klima“ und „Klimakatastrophen“. So wurde eine kollektive Angstneurose gezüchtet. Extreme Wetterereignisse, die früher als „normal“, als „zu den natürlichen Launen des Wetters“ gehörend hingenommen, oft auch erlitten wurden, spielen heute immer häufiger die Rolle von Vorboten der rasch nahenden ganz großen „Klimakatastrophe“. So wusste z. B. das ZDF im Juli 2015 zunächst aus fragwürdiger Datenquelle zu berichten, dass erste Halbjahr 2015 sei weltweit das heißeste aller (Aufzeichnungs-) Zeiten gewesen. Nur Tage später wurde die Gefahr einer neuen Eiszeit propagiert, da der Golfstrom -“natürlich“ verursacht durch den „Klimawandel“- versiegen könne.  

                                                                       
Die Katastrophenverstiegenheit findet ihren – je nach Geschmack erheiternden oder bedrückenden – Ausdruck auch im jüngsten „Monitoringbericht 2015“ des Umwelt-Bundesamtes. Dort wird tatsächlich „Klima Angst“, benannt als „psychische Betroffenheit von der ständigen Androhung von Stürmen und Hochwassern“, als zu therapierende Folge des „Klima-Wandels“ aufgeführt. „Die ich rief die Geister, werd‘ ich nun nicht wieder los!“

Es gibt keine Beschleunigung des seit über einhundert Jahren beobachteten moderaten Anstiegs der Weltmeere. Die Meldungen zu einem in jüngster Zeit angeblich beschleunigten Meeres-Spiegel-Anstieg werden von den tatsächlichen Messungen nicht bestätigt. Weltweit zeigen weder die Pegel-Daten noch die Satelliten-Daten eine Beschleunigung des Meeres-Spiegel-Anstieges. Wenn überhaupt von einer Trendveränderung die Rede sein soll, müsste eher von einer Abschwächung des Meeresanstiegs gesprochen werden.

Die Tatsache, dass es weltweit keine trendmäßige Zunahme von extremen Wetterereignissen gibt, kann kein „Trost“ sein für die von derartigen Wetter-Katastrophen heimgesuchten Menschen, Tiere und Natur. Aber dies muss ein Grund sein, von der „Erwärmungs-Katastrophik“ abzulassen und sich mit aller Kraft wie allen Mitteln auf die unmittelbare Vor- wie Nachsorge zu Wetter-Katastrophen zu konzentrieren.

Inzwischen sind im öffentlichen Bewusstsein wie in der Politik die guten und vom CO2 völlig unabhängigen Gründe für eine schrittweise und nachhaltige Reduzierung des Einsatzes fossiler Energieträger fest verankert.

Weitgehend unbestritten gilt, dass
    ⁃    die Erde nicht beliebig und grenzenlos ausgebeutet werden darf,
    ⁃    der Auf- und Ausbau einer eigenen Versorgung mit erneuerbarer Energie den Energieimport und damit den Kapitalabfluss in politisch „unzuverlässige“ Länder mindert  
    ⁃    die sparsame und effiziente Energieverwendung in allen Lebensbereichen ein unverzichtbares Gebot der Wirtschaftlichkeit und Wohlstandsmehrung ist.

Dass es Zeit ist, die imaginäre „Klima“-Debatte mit ihren völlig nichtssagenden Durchschnittswerten aufzugeben, wird auch klar, wenn man die tatsächliche Temperatur an tatsächlichen Orten betrachtet. Dazu wurde jüngst vermeldet, dass an einem heißen Tag dieses Sommers im Zentrum großer Städte eine um 12 Grad Celsius höhere Tageshöchsttemperatur gemessen wurde als im etwa zwanzig Kilometer entfernten, unbesiedelten Umland. Über beiden Orten wehte oder stand die selbe Luft mit dem selben CO2-Gehalt. Und dem von hitzebedingter Kreislaufschwäche geplagten älteren Menschen im Stadtzentrum werden das berühmt-berüchtigte „Zwei-Grad-Erwärmungsziel“ (G8-Gipfel 2009) ebenso wie der „Verzicht auf fossile Energieträger ab dem Zweiundzwanzigsten Jahrhundert“ (G20-Gipfel 2015) kaum als Stärkung in den Sinn gekommen sein.

Entsprechendes gilt für die ruß- und feinstaubgeplagten Menschenmassen in China und in den vielen anderen Ländern mit veralteten Kohlekraftwerken. Binnen kurzer Frist könnten diese mit modernsten Filtern aufgerüstet werden, so dass sehr bald einhundert-prozentig ruß- und staubfreier Kraftwerksbetrieb gewährleistet wäre.
CO2 würde zwar weiterhin entweichen. Aber darf dieses Gesetz jeglicher Verbrennung ein Alibi sein, heute möglichen Menschen- und Umweltschutz bis zum „post-fossilen Sankt-Nimmerleins-Tag“ zu vertagen?

Weitere Beispiele ließen sich anfügen: Die übertriebene Fixierung auf die Reduzierung menschenverursachter CO2-Emissionen führt  zu massiven Fehlsteuerungen. Politische Aufmerksamkeit und Energie werden fehlgeleitet, zweifelhafte und unsinnige gesetzliche Vorschriften bleiben in Kraft oder werden zusätzlich erlassen und erhebliche Kapitalströme werden fehlgelenkt.

Es gibt allerbeste Gründe für eine „klimapolitische Entspannung“. Eine dem Menschen, der Umwelt und der Natur dienende Energie- und Umweltpolitik sollte sich wieder am Hier und Heute orientieren. Und die „Klimawissenschaft“ sollte ihre Energie und Arbeit statt in aussichtslos komplexe mathematische Simulations- und Prognosemodelle in die Erforschung und das Verstehen der Grundlagen jeglicher „Klima-Aussage“ investieren. Das wären vor allem die Ozeanographie, die Polarforforschung und ganz besonders die Meteorologie.

Diese Rückbesinnung sollte die anthropozentrische Übertreibung der Erwärmungs- und CO2-Debatte mindern, die sich in dem „Zwei-Grad-Erwärmungs-Begrenzungs-Ziel“ nachdrücklichst manifestiert.
 
Die in unübersehbare Dimensionen aufgewachsene Förderung und Verbrennung fossiler Energieträger basierte und basiert auch heute oftmals auf rücksichtsloser Ignoranz gegenüber den damit verbundenen Natur- und Umweltschäden („macht Euch die Erde untertan“).

Die Vorstellung, die globale Erdwärme über den anthropogenen CO2-Ausstoß beeinflussen zu können, offenbart eine gigantische Selbstüberschätzung des Menschen für das globale Erdschicksal

(„Gott der Allmächtige schuf den Menschen nach seinem Ebenbilde“).

———————————————————————————————-
* W. Krelle, D. Beckerhoff u. a., Ein Prognosemodell für die wirtschaftliche Entwicklung der Bundesrepublik Deutschland, Meisenheim, 1969
D. Beckerhoff, Wer atmet, der sündigt, Bonn, 2012; Konkurs der Modelle, Bonn, 2013; Bonjour CO2, Bonn 2013

———————————————————————————————-




Die Norweger zeigen uns einen Vogel – Ganz schrecklich politisch unkorrekt

Sicher hängt Ihnen das Thema „Energiewende“ längst zum Hals heraus – Ihnen als Lesern dieser Web-Seite ganz bestimmt. Denn mit diesem Thema haben sich seit 2008 immerhin 54 Beiträge befasst und mit dem Thema Energiepolitik 96 Stück. Und sämtliche können Sie immer noch aufrufen. Aber tun Sie es lieber nicht. Lesen Sie stattdessen ein knackiges Interview. Hier ist alles wunderbar und leicht verständlich zusammengefasst, was man über die „Energiewende“, die zutreffender „Stromwende“ heißen muss, wissen sollte. Die Überschrift lautet: „Die Norweger zeigen uns einen Vogel“.

Unter Anwendung der vier Grundrechenarten …(1)

Befragt wird in dem Interview Dr. Kurt Gehlert aus Iserlohn. Der heute 75jährige ist Bergbaufachmann und Fracking-Experte und lehrte als Professor an der Fachhochschule Bielefeld. Seine Kernaussage findet sich am Schluss des Gesprächs und lautet: „Die Energiewende ist klar erkennbar unter den in Deutschland gegebenen Bedingungen als gescheitert zu betrachten, wenn man sie naturwissenschaftlich-technisch unter Anwendung der vier Grundrechenarten in die Zukunft projiziert.“  In dieser Offenheit, man könnte auch sagen: Brutalität, pflegen sich Wissenschaftler nur zu äußern, wenn sie emeritiert sind, sonst hätten sie Nachteile zu befürchten. Denn Aussagen dieser Art sind bei Politikern und Energiewende-Profiteuren höchst unerwünscht, also ganz schrecklich „politisch unkorrekt“. Ebenfalls selten geworden ist, dass Medien dergleichen veröffentlichen. Aber die Westdeutsche Allgemeine Zeitung (WAZ) hat es getan, zu finden in ihrer Online-Ausgabe vom 12. August. Geführt hat das Gespräch Thomas Reunert.

Am Ende ein desillusioniertes Volk

Gehlert äußert in dem Gespräch das, was viele andere Fachleute schon lange nicht anders und immer wieder so darstellen und mit Fakten belegen. Ich habe auf dieser Web-Seite ebenfalls immer wieder auf sie hingewiesen und sie zitiert. Am Ende des Gesprächs fragt der Journalist Thomas Reunert den emeritierten Professor nach dessen Zukunftsprognose für die Versorgung der Deutschen mit Strom. Gehlert antwortet: „Keine Kernkraftwerke mehr, aber ein Mix von modernen Braunkohle-, Steinkohle- und Gaskraftwerken. Fast alle Windräder und Biogasanlagen sind am Ende ihrer Lebensdauer und stillgelegt, Photovoltaikanlagen sind zwar abgeschrieben, liefern aber durch Alterung nur noch die Hälfte bis 70 Prozent ihrer ursprünglichen Leistung. Es gibt keine EEG-Vergütung mehr und keinen Vorrang der Einspeisung. Die Politik konstatiert besorgt: Unsere Amtsvorgänger haben uns ein desillusioniertes Volk hinterlassen.“

Den Wortlaut des Gesprächs finden Sie hier.

Übernommen von K.P.Krauses Blog hier

(1) Dass auch die perfekte Anwendung der vier Grundrechenarten nicht vor Fehlern bewahrt, zeigt die folgende Überschlagsrechnung, die P. Würdig Reetz vorgenommen hat. Er bezieht sich dabei auf die Aussage von Dr. Gehlert im Interview, dass zur Speicherung einer Woche Dunkelflaute ..

Zitat aus dem Interview: 

„..Kapazitäten für 7 Tage = 10 080 Minuten, wenn wir eine einwöchige Flaute und fehlenden Sonnenschein nicht ausschließen können. Fazit: In Deutschland müssen rund 125 Mal so viele Speicherseen bis 2050 geschaffen werden, wie heute existieren. Diese Flächen und Volumen in topographisch machbaren Gebieten hätten und haben wir gar nicht. Damit es fassbar wird: 20 Kubikkilometer Wasser müssen 50 Meter Fallhöhe bekommen, um gegebenen Falls über Turbinen in den unteren See mit 20 Kubikkilometer Fassungsvermögen zu laufen. Zum Vergleich der Bodensee mit 48 Kubikkilometer Inhalt. Er müsste fast in der Mitte mit einer 125 Meter hohen Staumauer geteilt werden…Zitatende

dazu P. Würdig Reetz

Elektrische Leistung in Deutschland: 80 GW

(wird zwar etwas weniger angepeilt, aber der Bedarf kann auch steigen,… Ich gehe mal von dem Energiebedarf für eine Woche aus, dann ist man einigermaßen auf der sicheren Seite. Das sind:

80 GW * 24 h *7

= 13.440 GW h

=48.384.000 GW sec

gerundet 50 * 10 ^ 6 GW sec

= 50 * 10 ^ 6 * 10 ^ 9 W sec         (1 W sec = 1 J)

= 5 * 10 ^ 16  J

Das soll man speichern können, indem man ein Volumen von 20 km ^ 3 um die 50 m hoch hebt.

Das sind 20 * 10 ^ 12 kg

Gewicht 20 * 10 ^ 12 kp   (kilo-Pond)

1 J = 1 N * m

= 0,1 kp * m      (genauer: 1 kp = 9,81 N)

also, 1 kp * m = 10 J

Wenn man diese Masse 50 m hoch hebt ergibt sich eine potentielle Energie:

E-pot = 20 * 10 ^ 12 * kp * 50 m

= 10 ^ 15 kp*m

= 10 ^ 16 J

Um also die (elektrische) Energie für 1 Woche sicher zu haben, brauchen wir nicht einen dieser Seen von 20 km^3, sondern fünf.  Wie vorgeschlagen, den Bodensee mit einer 125m hohen Mauer dazwischen (eine Hälfte leer, alles andere auf der anderen Seite oben raufgepackt, so war das wohl gemeint),

Energiewende geschafft, hurrah !




0,02°C Erwärmung vermieden: die grundlegende Zahl, die im Informationsblatt der EPA fehlt

Wir hassen es, Nestbeschmutzer zu sein, aber die neuen Vorschriften werden zu nichts dergleichen führen.

Die EPA-Vorschriften trachten danach, die CO2-Emissionen durch die Stromerzeugung bis zum Jahr 2030 auf ein Niveau zu drücken, das um 30% unter dem Niveau des Jahres 2005 liegt. Dazu muss man sagen, dass die CO2-Emissionen von Kraftwerken von 2005 bis 2012 bereits um etwa 15% gesunken sind, was hauptsächlich Marktkräften geschuldet ist, die das weniger CO2 emittierende Erdgas den Vorzug vor der Kohle bei der Stromerzeugung geben. Offensichtlich will der Präsident diese Fortschritte festschreiben und den Markt manipulieren um zu sehen, ob der gleiche Rückgang in der doppelten Zeit erfolgt. Nichts als Intervention der Regierung, um die Ineffizienz des Marktes zu fördern. Aber wir schweifen ab.

Die EPA hat hervorgehoben, was sie mit ihrem Informationsblatt mit dem Titel By the Numbers erreichen will, das mit deren großer Ankündigung veröffentlicht wurde.

Aus irgendwelchen Gründen haben sie in ihrem Informationsblatt nicht angegeben, wie viel Klimawandel durch diesen Plan vermieden werden würde. Das sieht nach einer eigenartigen Auslassung aus, weil schließlich ohne die Keule der Bedrohung durch den Klimawandel niemand an den erzwungenen Abriss unserer primären Quelle der Energieerzeugung denken würde, und die neuen Emissions-Restriktionen würden nicht einmal einen Schimmer für das Auge des Präsidenten bedeuten.

Aber keine Sorge! Was die EPA ausgelassen hat, werden wir einbringen.

Mittels einer einfachen und öffentlich zugänglichen Klimamodell-Nachbildung mit der Bezeichnung MAGICC, die teilweise mit Unterstützung der EPA entwickelt worden ist, haben wir die Zahlen überprüft um festzustellen, wie viel Temperaturanstieg vermieden werden würde durch eine vollständige Umsetzung der neuen EPA-CO2-Reduktionen*.

Die Antwort? Weniger als zwei Hundertstel Grad Celsius bis zum Jahr 2100.

0,018°C, um genau zu sein.

[Und wie würde diese Zahl allein durch die Maßnahmen in D aussehen? Anm. d. Übers.]

Wir wissen nicht einmal, wie man eine so kleine Zahl praktisch ausdrücken kann, weil diese Zahl im Grunde so klein ist, dass sie gar nicht messbar ist.

Was zweifellos genau der Grund ist, warum sie im EPA-Informationsblatt fehlt.

Die Zahl ist allerdings nicht zu klein, als dass sie eine gewaltige Rolle in jeder und in allen Diskussionen um die neuen Vorschriften spielen kann.

————————————

*Details und zusätzliche Informationen hinsichtlich unserer Berechnung

Wir haben das MAGICC-Modell benutzt ( Model for the Assessment of Greenhouse-gas Induced Climate Change) – eine einfache Nachbildung eines Klimamodells, dass zum Teil mit Unterstützung der EPA entwickelt worden ist – um die Klimaauswirkungen der beantragten Vorschriften zu untersuchen.

MAGICC version 6 ist hier verfügbar als Online-Tool.

Wir analysierten die Klimaauswirkungen der neuen EPA-Vorschriften, indem wir zukünftige Emissionsszenarien modifizierten, die durch das IPCC etabliert worden waren, um die neuen Emissionsziele der EPA zu reflektieren.

Im Einzelnen handelt es sich bei den von uns untersuchten drei IPCC-Szenarien um die RCPs (Representative Concentration Pathways) um diejenigen mit den Bezeichnungen RCP4.5, RCP 6.0 and RCP8.5. RCP4.5 beschreibt ein Szenario mit geringem, RCP6.0 mit mittlerem und RCP8.5 mit hohen Emissionen.

Die Emissionsmengen der RCPs werden nicht auf ein einzelnes Land heruntergebrochen, sondern sind für Gruppen von Ländern definiert. Die USA befinden sich in der Gruppe OECD90.

Um die US-Emissionsmengen innerhalb eines jeden Szenarios festzulegen, haben wir folgende Annahmen gemacht:

1) Die CO2-Emissionen der USA machen 50% der OECD90-CO2-Emissionen aus.

2) CO2-Emissionen durch die Stromerzeugung machen 40% der Gesamt-CO2-Emissionen der USA aus.

Abbildung 1 zeigt den verlauf der CO2-Emissionen der Original-RCPs zusammen mit unserer Berechnung innerhalb jeder RCP des Beitrags durch die US-Stromerzeugung.

Abbildung 1: Verlauf von CO2-Emissionen definiert nach oder abgeleitet aus dem Original-Satz von RCPs, und zwar für die globalen Gesamt-CO2-Emissionen ebenso wie für die CO2-Emissionen, die der US-Stromerzeugung geschuldet sind.

Wie man sofort erkennt, ist der projizierte Beitrag der US-CO2-Emissionen aus der Stromerzeugung zu den gesamten globalen CO2-Emissionen verschwindend gering.

Die neuen EPA-Vorschriften beziehen sich auf die unteren drei Linien in Abbildung 1.

Um die Auswirkungen der EPA-Maßnahmen zu untersuchen, ersetzen wir die den US-Kraftwerken zuzuordnenden Emissionen in den Original-RCPs durch die von der EPA mittels ihrer neuen Vorschriften definierten Ziele. Wir berechneten diese Ziele (aufgrund der Auswirkungs-Analyse der Vorschriften, die die Vorschriften begleiten) zu 0,4864 GT C bis zum Jahr 2020 und 0,4653 GT C bis 2030. Danach wurden die Emissionen der US-Kraftwerke konstant auf dem Niveau des Jahres 2030 gehalten, bis sie unter jenes Niveau in den Original-RCP-Verordnungen fallen (im Einzelnen kommt es dazu im Jahre 2060 nach RCP4.5, 2100 nach RCP6.0 und irgendwann nach 2150 nach RCP8.5).

Dann verwendeten wir MAGICC, um den Anstieg der globalen Temperatur zu berechnet, der zwischen heute und dem Jahr 2100 projiziert ist, und zwar sowohl mit den Original-RCPs als auch mit den modifizierten RCPs, um die EPA-Vorschriften zu bewerten (wir verwendeten den MAGICC-Standardwert für die Gleichgewichts-Klimasensitivität der Erde {3,0°C}).

Das Ergebnis der sechs MAGICC-Läufe zeigt Abbildung 2:

Abbildung 2: Globale mittlere Temperaturanomalien 2000 bis 2100 wie vom MAGICC-Lauf projiziert mit den Original-RCPs ebenso wie mit den modifizierten RCPs, um die Auswirkungen der von der EPA geforderten Emissionsreduktion um 30% der US-Kraftwerke zu überprüfen.

Falls Sie durch Betrachten der Abbildung 2 die Auswirkung nicht erkennen können (weil die Linien praktisch alle übereinander liegen), haben wir die Zahlen in Tabelle 1 zusammengefasst:

In Tabelle 2 quantifizieren wir die Größe des projizierten Temperaturanstiegs, der durch die neuen EPA-Vorschriften vermieden wird.

Der Anstieg der projizierten zukünftigen Temperatur, der durch die EPA-Restriktionen auf die CO2-Emissionen bestehender Kraftwerke vermieden wird, beträgt zwischen jetzt und dem Ende dieses Jahrhunderts weniger als 0,02°C, wenn man das mittlere, vom IPCC definierte Emissions-Szenario zugrunde legt.

Während der EPA-Plan vorgeblich nur danach trachtet, die CO2-Emissionen zu reduzieren, ist das Ziel in Wirklichkeit, das Verbrennen von Kohle zu reduzieren. Die Reduktion des Verbrennens von Kohle wird Nebenwirkungen haben wie die Reduktion anderer klimatisch aktiver Treibhausgase und den Partikelausstoß. Wir haben die Auswirkungen der Änderung dieser Dinge nicht modelliert, weil Sensitivitäts-Tests mittels MAGICC zeigen, dass die kollektiven Änderungen dieser Mit-Emissionen ziemlich klein sind und sich weitgehend gegeneinander aufheben.

Link: http://www.cato.org/blog/002degc-temperature-rise-averted-vital-number-missing-epas-numbers-fact-sheet

Übersetzt von Chris Frey EIKE