Das Jahr 2015 soll das wärmste Jahr werden. Die Klimapaniker rüsten auf.

Unter der Überschrift: „2015: Anwärter auf das wärmste Jahr“ durfte der Leser erfahren, „dass führende Wetter- und Klimaforscher in Deutschland davon ausgehen, dass das Jahr 2015 das wärmste Jahr seit Beginn der Klimaaufzeichnungen vor 135 Jahren werden könnte.“ Der mit dpa – also ohne Reporternennung – gezeichnete Artikel nennt zudem keine Namen und Personen dieser angeblich führenden deutschen Klimaforscher, was uns bei EIKE nicht wundert.
Wer will sich schon namentlich festlegen und blamieren lassen. Bei langfristigen Prognosen bis 2100 fabulieren Schellnhuber und Co gerne und ausgiebig über ihre 2 Grad Fiebererwärmung, für die sie keinerlei wissenschaftliche Grundlagen vorweisen können. Aber bis zum Jahresende, das sind gerade noch 100 Tage, da will man seine Person bei Vorhersagen im Dunkeln lassen.
Wählen wir als Vergleich das letzte Jahr 2014, das laut Deutschem Wetterdienst einen Schnitt von 10,3 C in Deutschland erreichte. Richtig ist, dass der Sommer 2015 zu den wärmeren gehörte, und den Sommer 2014 übertraf. Das zeigt die folgende Grafik über die Sommer in der Gegenwart:

Grafik 1: Der Sommer 2015 war deutlich wärmer als letztes Jahr. Insofern sind die Wärmemeldungen erst einmal richtig.
Aber was von den angeblich führenden deutschen Klimawissenschaftlern nicht erwähnt wurde, ist die Tatsache, dass dieser Sommer, bedingt durch den warmen August eine Ausnahme war. Die Trendlinie der Sommertemperaturen ist in diesem Jahrtausend weiter fallend. Die Sommer werden in der Gegenwart kälter und nicht wärmer.
Doch kehren wir zu den weiteren Behauptungen in den Medien zurück. Reicht der diesjährige Sommer 2015 aus, damit das Jahr als Ganzes zu einem Wärme- Rekordjahr werden könnte?
Kurze Antwort: Wohl kaum. Besser gesagt: grottenfalsch.
Denn bereits mit dem leicht unterkühlten September 2015 war die Sommerwärme 2015 schon wieder aufgebraucht und die Temperaturen lagen deutlich unter dem Schnitt des letzten Jahres.
Und der Oktober bestätigt diesen Eindruck weiter. Im direkten Monatsvergleich mit dem letzten Jahr waren nach 10 Monaten bisher sieben Monate kälter und nur drei wärmer als letztes Jahr. Und da die zwei noch folgenden Monate gerade im letzten Jahr besonders mild waren, können sie nur noch schwer getoppt werden.
Wagen wir eine Prognose anhand der nun vorliegenden 10 Monate im Vergleich mit dem letzten Jahr. Selbst bei einer Annahme, dass die beiden letzten Monate fast gleich warm ausfallen wie im letzten Jahr, so dürfte sich die Jahrestemperatur für 2015 zwischen 9 C und 9,5 C einpendeln, auch weil die Trendlinie in diesen Bereich zeigt.
In der Grafik haben wir uns für 9,3 C entschieden. Und das sieht dann so aus.

Grafik 2: Die Jahrestemperaturen Deutschlands haben seit 18 Jahren eine leicht fallende Trendlinie. Das Jahr 2015 wird sich an dieser leicht fallenden Trendlinie orientieren.
Die Grafik 2 zeigt deutlich, von einer sich fortsetzenden Erwärmung sind wir in Deutschland weit entfernt. Alle Angaben sind natürlich aus dem Archiv des Deutschen Wetterdienstes in Offenbach. Die Temperaturen halten sich nicht an die Märchenaussagen der selbst ernannten angeblich führenden deutschen Klimaforscher: Ihre Kernaussagen sind falsch: 1) Das Jahr 2015 wird kein neues Rekordjahr und 2) Die Temperaturen sind in der Gegenwart keinesfalls steigend, sondern leicht fallend.
Doch seit wann stagnieren die Temperaturen nun in Deutschland? Es ist bekanntermaßen richtig, dass es seit 1850 immer wärmer wurde. Doch leider ist diese angenehme Zeit vorbei. Ein Blick in die Temperaturstatistik zeigt, dass seit über einem Vierteljahrhundert die Temperaturen nahezu stagnieren. Anzumerken wäre außerdem, dass diese vom DWD erhobenen Temperaturdaten nicht wärmeinselbereinigt sind, denn sonst hätten wir am Schluss eine leicht fallende Trendlinie.

Grafik 3: Die Temperaturen sind im letzten Vierteljahrhundert ziemlich ausgeglichen. Mit Wärmeinselbereinigung wären sie sogar leicht fallend.
Im ganzen Zeitraum sind die CO2-Konzentrationen in der Atmosphäre natürlich weiter gestiegen, auf nun 400 ppm. Das zeigt die eingeblendete kleine Grafik. Temperaturen und Kohlendioxidkonzentrationen zeigen keinen Zusammenhang.
Fazit: Die Panikmache vor der Klimakonferenz im Dezember in Paris läuft derzeit auf vollen Touren. Erstaunlich ist, dass die Medien alles ungeprüft abdrucken, was angeblich führende Klimaforscher in Deutschland behaupten. Kennzeichnend dafür ist auch, dass einige Artikel ohne den Namen des Reportes versehen sind. Als Leser hat man keinen Ansprechpartner. Das Kürzel dpa oder afp sind geeignete Deckungen für eine unseriöse Berichterstattung.
Gesamt: Das Jahr 2015 wird bestimmt nicht das wärmste Jahr in Deutschland sein. Das zeigen die Daten des Deutschen Wetterdienstes.
Josef Kowatsch




Turbinen schwächen die Windenergie

Aus Wind lässt sich weniger Energie anzapfen als  bisher angenommen. Das Umweltbundesamt etwa kam in einer Studie aus dem Jahr 2013 noch zu dem Schluss, dass sich mit Windenergie knapp sieben Watt elektrische Leistung pro Quadratmeter erzeugen lassen. Doch wie ein internationales Team um Forscher des Max-Planck-Instituts für Biochemie in Jena nun zeigt, ist die Rate deutlich niedriger. Die Forscher berechneten für den US Bundesstaat Kansas, dass Wind dort maximal 1,1 Watt Elektrizität pro Quadratmeter liefern kann. Denn die Turbinen bremsen den Wind, so dass die erzeugte elektrische Energie nicht linear mit der Anzahl an Rotoren pro Fläche steigt. Das macht sich vor allem bei einer sehr hohen Dichte von Windkraftanlagen bemerkbar. Der Effekt tritt überall auf. Wie viel Strom pro Fläche Windkraft tatsächlich liefert, variiert aber von Region zu Region leicht. In Kansas ließe sich noch viel mehr Windenergie effizient nutzen. Das Potenzial auszuschöpfen, das das Umweltbundesamt für die Windenergie in Deutschland sieht, wäre jedoch vermutlich nicht sinnvoll.
Abbildung: Nur begrenzt ausbaufähig: Windparks wie hier auf der Smoky Hills Fram in Kansas.
(Proceedings of the National Academy of Sciences, 24. August 2015).
Text veröffentlicht in Max Plank Forschung 3.2015, S. 42, Das Wissenschaftsmagazin der Max-Planck-Gesellschaft.




Ist das Klima chaotisch?

Wie das so geht bei derartigen Untersuchungen, wurde das Thema unserer Diskussion und Untersuchung bald zu einer größeren und noch interessantesten Frage – welcher der vielen natürlichen Datensätze (Temperatur, Regenmenge, Ausbrüche, Druck usw.) und/oder korrespondierende Klimamodelle sind chaotisch?
Natürlich muss ich mit der offensichtlichen Frage anfangen: was ist mit „chaotisch“ gemeint? Ein chaotisches System ist eines, in dem ähnliche Ausgangsbedingungen exponentiell entweder konvergieren oder divergieren. Ein Beispiel ist die Meeresoberfläche. Falls man zwei versiegelte leere Flaschen von einem Schiff mitten in einem Ozean ins Wasser wirft, je eine auf jeder Seite des Schiffes, werden sie mit der Zeit auseinanderdriften. Dieser Vorgang wird zunächst langsam ablaufen, dann aber schneller und immer schneller, wenn die Flaschen nämlich von verschiedenen Strömungen und Winden in verschiedenen Gebieten erfasst werden.
Ob ein Datesatz chaotisch ist oder nicht, wird allgemein mit Hilfe des Lyapunov-Exponenten [?] festgestellt. Dabei handelt es sich um eine Maßzahl des „Dehnungsfaktors“ [stretching factor]. In unserem Beispiel mit den Ozeanen misst der Dehnungsfaktor, wie schnell sich die beiden Punkte mit der Zeit auseinander bewegen. In einem chaotischen Datensatz nimmt der Dehnungsfaktor allgemein mit der Zeit zu oder ab. In nicht-chaotischen Datensätzen andererseits bleibt der Dehnungsfaktor mit der Zeit konstant. Die folgende Abbildung zeigt die „Lyanupov-Kurven“ der Evolution des Dehnungsfaktors mit der Zeit bei einigen natürlichen und berechneten Datensätzen.

Abbildung 1: Lyanupov-Kurven für einige Datensätze. Alle Datensätze sind vor der Analyse trendbereinigt und standardisiert worden.
Nun habe ich vier Arten von Datensätzen graphisch dargestellt, gekennzeichnet durch die vier Farben. Der erste Typ (rot), meist überdeckt von den blauen Linien, zeigt eine Auswahl von vier verschiedenen Zufalls-Datensätzen – normal, gleichmäßig, eine Poisson-Verteilung [?] und ein hoher Hurst-Exponent, teils Gauss’sche Zufallszahlen. Im Grunde liegen die Lyanupov-Kurven von Datensätzen mit Zufallszahlen ziemlich genau übereinander. Beginnend am Zeitpunkt 0 erreichen sie sehr schnell ihren maximalen Wert und verharren dann dabei. Wie zu erwarten war gibt es in den Zufallsdaten keinen Trend des Dehnungsfaktors mit der Zeit.
[Dieser Abschnitt enthält einige Fachbegriffe, die ich noch nie gehört habe. Um sicherzustellen, dass die Übersetzung korrekt ist, folgt hier das Original: Now, I’ve graphed four types of datasets above, indicated by the four colors. The first type, shown in red and mostly obscured by the blue lines, shows four different varieties of random numbers—normal, uniform, poisson, and high Hurst exponent fractional Gaussian random numbers. Basically the Lyapunov curves of the random number datasets are all plotting right on top of each other. Starting from time = 0, they climb rapidly to their maximum value and then just stay there. As we would expect from random data, there’s no trend in the stretching factor over time.]
Die nächste Gruppe in blau zeigt die Lyanupov-Kurven für ein halbes Dutzend klimabezogener Datensätze, nämlich:
● HadCRUT4 monatliche mittlere Lufttemperatur 1850 bis 2015
● Jährlichen Minimal-Wasserstand im Nil 622 bis 1284 [ Annual Nilometer Minimum River Height]
● Monatliche Gezeiten in Stockholm 1801 bis 2001
● Tägliche Maximum-Temperatur der Aufzeichnung in Central England 1878 bis 2015
● Tägliche mittlere Temperatur in Armagh, Irland, 1865 bis 2001
● Jährliche mittlere Durchflussmenge des Nils in m³ pro Sekunde, 1870 bis 1944
Wie man sieht, sind hinsichtlich der Lyanupov-Analyse alle sechs dieser klimabezogenen Datensätze (blaue Linien) nicht unterscheidbar von den vier Zufallsdatensätzen (rote Linien), welche wiederum untereinander ununterscheidbar sind. Keiner zeigt irgendwelche Spuren chaotischen Verhaltens.
Eine weitere Gruppe von Datensätzen, und zwar jene unten in gelben Farben, unterscheiden sich ziemlich von den Zufalls- und den Beobachtungs-Datensätzen. Bei ihnen handelt es sich um einige chaotische Datensätze. Man beachte, dass sie alle eines gemeinsam haben – wie oben erwähnt, nimmt die Entfernung voneinander (bestimmt nach dem „Dehnungsfaktor“) mit der Zeit zu. Die Rate des Auseinanderdriftens erreicht einfach nicht einen höchsten Punkt und bleibt dort, wie es bei den anderen beiden Datensätzen der Fall war. Die Rate des Auseinanderdriftens in chaotischen Datensätzen nimmt mit der Zeit unverändert weiter zu.
Schließlich sind noch ein paar andere Datensätze in violett gezeigt. Diese zeigen Beobachtungen von Phänomenen, die man gewöhnlich als „Treiber“ [forcings] betrachtet. Eine davon zeigt die Änderungen der Sonnenaktivität mit den täglichen Sonnenflecken als Proxy für die Aktivität von 1880 bis 2005. Die andere ist die jährliche optische Tiefe [Dichte?] von Aerosolen von 800 bis 2000, welche normalerweise eine Funktion vulkanischer Aktivität ist und aus Eisbohrkernen berechnet wurde. Komischerweise liegen diese beiden Datensätze irgendwo zwischen den Zufalls-Beobachtungen oben und den chaotischen Datensätzen unten. Zusätzlich zeigen beide eine signifikante Variation des Dehnungsfaktors mit der Zeit. Die Sonnenflecken zeigen einen leichten, wenngleich signifikanten Anstieg. Die optische Tiefe der Aerosole geht zurück, und es sieht so aus, als würde sie danach wieder steigen. Es scheint also, dass diese beiden Datensätze schwach chaotisch sind.
Diese Ergebnisse waren für mich sehr überraschend. Ich habe lange gedacht, ohne dies nachzuprüfen, dass das Klima chaotisch ist … allerdings zeigt diese Analyse, dass zumindest jene sechs Beobachtungs-Datensätze, die ich oben analysiert habe, nicht im Mindesten chaotisch sind. Aber was weiß ich schon … ich bin von gestern.
Gibt es überhaupt irgendwelche Klima-Datensätze, die chaotisch sind, und sei es auch nur schwach chaotisch? Ich denke schon. Es scheint, dass die Wassertemperatur tropischer Ozeane leicht chaotisch ist … aber dieser Frage werde ich im nächsten Beitrag nachgehen, in dem es um den Gedanken von Dan Hughes geht hinsichtlich der Hurst-Analyse, um zwischen chaotischen und nicht-chaotischen Datensätzen zu unterscheiden.
CODE: To calculate the Lyapunov exponent I’ve used the lyap_k function from the R package tseriesChaos. Here are the functions I used to make Figure 1:

Link: http://wattsupwiththat.com/2015/10/22/is-the-climate-chaotic/
Übersetzt von Chris Frey EIKE
Anmerkungen von Prof. Dr. Horst-Joachim Lüdecke:
Der Aufsatz von Willis Eschenbach verwirrt, denn ihm sind unsere nachfolgend aufgeführten Arbeiten, die alle den Hurst-Exponenten als maßgebende Größe berücksichtigen, eigentlich bekannt, wurden aber weder erwähnt noch berücksichtigt. Zumindest bei einer Blogdiskussion (Judith Curry) über eine dieser Arbeiten war Eschenbach sogar mit dabei, ohne allerdings dabei tiefere Kenntnis über autokorrelierte Zeitreihen an den Tag zu legen, was seinen Aufsatz in WUWT verständlicher macht. Ich hatte in einem E-Mail-Verkehr mit ihm damals versucht, ihm die Grundzüge der DFA-Analyse zu erklären. Ob mit Erfolg, weiß ich nicht. (US-Kollegen haben oft die für mich oft befremdliche Art, wenn sie an einer Information interessiert sind, unglaublich nett und höflich um diese zu bitten und zu kommunizieren. Ist das Thema abgeschlossen oder kann man die Info nicht zufriedenstellend erbringen, wird der Austausch dann kommentarlos und abrupt abgebrochen, kein Dankeschön, nichts).
Der Blog "kalte Sonne" und die ersten beiden der unten aufgeführten Publikationen belegen, dass das Klima sehr wohl maßgebende zyklische Eigenschaften auf Zeitskalen von mehreren 100.000 Jahren (Milankovitch) bis zumindest herunter von 200 Jahren (de Vries / Suess Zyklus) aufweist. Chaotische Eigenschaften hat es überdies. Das Klima ist anscheinend beides, geforscht wird heute, wie sich die Anteile auswirken bzw. wie stark sie sind.

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Paleoclimate forcing by the solar de Vries / Suess cycle, Clim. Past Discuss 11, 279-305, 2015
http://www.clim-past-discuss.net/11/279/2015/cpd-11-279-2015.pdf

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records,
Clim.
Past. 9, 447-452 (2013), http://www.clim-past.net/9/447/2013/cp-9-447-2013.pdf 

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011), http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf
Bei einem Vergleich von natürlichen Zeitreihen mit den Ergebnissen aus Klimamodellen auf der Basis von Hurst Exponenten kann kaum Sinnvolles herauskommen. Für eine Hurst-Analysyse (mindestens 500 Datenpunkte) sind Messdaten erforderlich – Temperaturzeitreihen in aller Regel – aber auch Niederschlagsreihen. Solche Messdaten sind stets zufällig + autokorreliert. Nebenbei: Niederschlagsdaten sind nach bisherigen Untersuchungen nicht autokorreliert, also offenbar rein zufällig, hier.
Die Eigenschaft "zufällig + autokorreliert" weisen aber in aller Regel die Ergebnisse von Klimamodellen nicht auf, weil die Algorithmen in Klimamodellen den Hurst-Exponenten H auf unnatürliche Werte weit über 1 treiben (Natürliche Temperaturzeitreihen liegen um 0,5 < H < 0,9, der Wert H = 1 entspricht schon rotem Rauschen usw. Eine Zeitreihe mit H > 1 entfernt sich mit zunehmender Zeit beliebig weit vom Ausgangswert, ist also chaotisch, offenbar liefert hier auch der Ljyapunov Exponent ein ähnliches Werkzeug wie die Autokorrelationsanalyse DFA).
Jeder Algorithmus erhöht den Hurst-Exponent unnatürlich und verfälscht ihn, und Klimamodelle enthalten nun einmal Algorithmen. Man kann es auch von folgender Seite sehen: Es ist nicht einfach, zufällige Zeitreihen mit einer vorgegebenen Autokorrelation künstlich zu erzeugen. Ich bezweifle stark, dass es Zeitreihen von Klimamodellen gibt, die zufällige Ergebnisse liefern und dabei realistische Autokorrelationswerte (H < 1) aufweisen. Aber man weiß ja nie was den "Modellieren" noch so alles einfällt. Ein Vergleich von Messdaten mit Klimamodellergebnissen, der auf unterschiedliche Autokorrelation (Hurst-Exponenten) abzielt, erscheint mir daher sinnlos. Man vergleicht Äpfel mit Birnen.
Die physikalische Ursache für die Autokorrelation von realen Temperaturzeitreihen ist übrigens unbekannt. Es könnten in den Reihen steckende Zyklen sein, es kann aber auch etwas anderes sein. Um Zyklen zu entdecken oder gar näher zu analysieren ist die Autokorrelationsanalyse (DFA) leider nicht geeignet. Sie ist aber für vieles andere geeignet (s.o. unsere Arbeiten), näheres dazu würde hier zu weit führen.




Moderne wissenschaftliche Legenden

Nach meinen Erfahrungen bei der Bekämpfung dieser Legenden braucht es für jede Legende das Äquivalent zu einem Speer aus Eichenholz, der durch deren Herz gestoßen wird auf einer einsamen Straßenkreuzung um Mitternacht.
Zufällig habe ich heute über Methan nachgedacht. Dieses Gas soll vermeintlich das Untergangs-Gas schlechthin vor allen anderen Triebhausgasen sein, viele Male stärker als CO2. Mache reden über Dinge wie die „Methan-Zeitbombe“, die irgendwo ticken soll und die uns alle nach Thermageddon blasen wird oder zumindest ins Klimatorium … der vermeintliche Fundort dieses explosiven Zeugs hat sich mit der Zeit geändert…
Also habe ich mal gegoogelt nach „Methan viele Male stärker als CO2“. Dabei zeigten sich an vorderster Stelle die folgenden sechs Ergebnisse, von Nr. 1 abwärts:
EPA: 20 mal so stark
EDF: 84 mal so stark
thinkprogress: 34 mal so stark
onegreenplanet: 100 mal so stark
psehealthyenergy: 20 mal so stark
global-warming-forecasts: 72 mal so stark
In diesen Zahlen erkennt man die initiale Bestätigung, dass der Methan-Alarmismus in Wirklichkeit eine moderne wissenschaftliche Legende ist … eine der roten Flaggen für derartige Legenden ist, dass niemand die genaue Zahl kennt, aber – Himmel, jeder ist absolut sicher, dass sie wirklich, wirklich groß und wirklich,wirklich schlecht für uns ist.
Also fragte ich mich … Das IPCC sagt, dass die Änderung der atmosphärischen Absorption bei einer Verdoppelung des CO2-Gehaltes eine Zunahme um 3,7 W/m² ist. Wie viel Änderung würde aus einer Verdoppelung des Methan-Gehaltes folgen?
Um diese Frage zu beantworten klickte ich mich auf die wundersame MODTRAN site. Unter Verwendung der heutigen Werte für CO2 (~400 ppmv) und Methan (~1,81 ppmv) ergibt sich eine Ausstrahlung [upwelling radiation] von 287,5 W/m².
Dann habe ich den Methangehalt auf 3,62 ppmv verdoppelt, die Berechnungen noch einmal durchgeführt und bekam 286,7 W/m², die von der Obergrenze der Atmosphäre TOA emittiert werden …

…was bedeutet, dass falls sich aus irgendwelchen Gründen während der nächsten 100 Jahre der Methangehalt verdoppelt, der Gesamteffekt eine Zunahme der atmosphärischen Absorption um 0,8 W/m² wäre . Weniger als ein Viertel des Effektes einer CO2-Verdoppelung … schau an, schau an. Das soll das fürchterliche Methan sein, elf mal so stark wie CO2? Weniger als ein Watt pro Verdoppelung?
Also wollte ich natürlich meine Berechnungen noch einmal durchgehen. Zu diesem Zweck verwendete ich die Formeln des IPCC bei der Berechnung der Änderung des Antriebs durch eine gegebene Änderung des Methan-Gehaltes. Diese Formeln finden sich hier, siehe Tabelle 6.2. Ich möchte Sie nicht mit den Berechnungen langweilen, aber sie zeigen: falls sich das atmosphärische Methan-Niveau vom gegenwärtigen Niveau von 1,81 ppmv auf 3,62 ppmv verdoppeln würde, würde der Antrieb um 0,54 W/m² zunehmen. Ein wenig geringer als die 0,8 W/m² von MODTRAN, aber von gleicher Größenordnung, deutlich unter 1 Watt pro Quadratmeter …
Etwas langsamer zum besseren Verständnis. FALLS sich die Methan-Konzentration im nächsten Jahrhundert verdoppeln würde, würden wir eine Zunahme des Antriebs von
Einem halben
Watt pro Quadratmeter
pro Jahrhundert
erwarten.
Und nun … wie wahrscheinlich ist es, dass sich der Methan-Gehalt innerhalb von 100 Jahren verdoppeln wird? Um dies zu beantworten können wir auf die jüngsten Änderungen des Methan-Niveaus schauen. Die jüngsten gemessenen Daten zeigen Folgendes:

Abbildung 1. Quelle: NOAA/ESRL
Eine Verdoppelung des heutigen Niveaus (1810 ppbv oder 1,81 ppmv) wären weitere 1810 ppbv. Wie man sieht, hat der Methan-Gehalt schneller bis etwa zum Jahr 1992 zugenommen, danach etwa linear mit einer geringeren Rate. Die Aufzeichnungsperiode macht etwa ein Drittel eines Jahrhundert aus (36 Jahre). Während dieser Zeit erfolgte eine Zunahme um etwa 250 ppbv. Dies bedeutet, dass im nächsten Jahrhundert bei einem „Business-as-Usual“-Szenario eine Zunahme um etwa das Dreifache erwarten können, oder 750 ppbv. Dies ist weit entfernt von einer Verdoppelung, welche 1810 ppbv betragen würde.
Und der verstärkte Antrieb durch jene 750 ppbv? Nun … es ist ein läppisches Viertel von einem Watt pro Quadratmeter. Aber noch einmal langsamer. Unter einem „Business-as-Usual“-Szenario würden wir eine Zunahme des Antriebs durch Methan erwarten von
Einem Viertel
von einem Watt pro Quadratmeter
pro Jahrhundert.
Was ist, wenn die Anreicherungs-Rate aus dem Ruder läuft und das Methan anfängt, mit dem Dreifachen der gegenwärtigen Rate zuzunehmen? Das wäre zusätzlich 2250 ppbv pro Jahrhundert, welche zu einem zusätzlichen Antrieb von … zwei Dritteln eines einsamen Watts pro Quadratmeter führen würde. MODTRAN zeigt einen etwas höheren Wert, aber immer noch unter 1 W/m². Mickrig!
Und wie groß ist die Wahrscheinlichkeit einer so hohen Rate, dreimal so hoch wie die gegenwärtige Rate von 750 ppbv pro Jahrhundert? Sehr gering. Das erkennt man durch die Betrachtung der letzten 1000 Jahre bzgl. des Methan-Niveaus. Man beachte, dass hier keine globalen Werte stehen wie in Abbildung 1. Da es einen Methan-Gradienten vom Nord- zum Südpol gibt, sind die Werte aus der Antarktis um einiges geringer als in Abbildung 1. Allerdings sind wir am Trend interessiert, der global überall der Gleiche sein dürfte:


Abbildung 2. Quelle: NASA GISS
Von 1900 bis 2000, welches im vorigen Jahrtausend das Jahrhundert mit der schnellsten Zunahme des atmosphärischen Methan-Gehaltes war, stieg die Konzentration um etwa 800 ppbv, ein wenig stärker als die jüngste Zunahme von 750 ppbv pro Jahrhundert (Abbildung 1). Es zeigt sich also keine Beschleunigung der Zunahme-Rate von Methan. Im Gegenteil zeigt sich eher eine Verlangsamung, zeigen doch die letzten beiden Jahrzehnte der Aufzeichnung lediglich eine Zunahme von etwa 400 ppbv. Und tatsächlich ist meine „Business-as-Usual“-Schätzung etwa so hoch wie der Rekord-Anstieg während der letzten eintausend Jahre.
Als Ergebnis denke ich, dass es kaum Aussichten gibt, dass sich die Zunahme des Methan-Gehaltes während der kommenden 100 Jahre verdoppelt, geschweige denn verdreifacht … und selbst bei der sehr unwahrscheinlichen Verdreifachung läge die Zunahme des Strahlungsantriebs immer noch unter 1 W/m² pro Jahrhundert. Nicht pro Jahrzehnt. Pro Jahrhundert.
Ich sage also, das ist kein Gas zum Fürchten. Das ist nichts weiter als ein kümmerliches Beispiel eines Chicken-Little-Gases [?]; ein Lachgas, wenn man so will. Für jeden, der hinsichtlich Methan besorgt ist, sind das gute Nachrichten. Man kann aufhören, sich Sorgen zu machen. Selbst eine extreme Zunahme von Methan über 100 Jahre würde nur einen trivialen Unterschied ausmachen bei dem Strahlungsantrieb. Der Gedanke, dass Methan eine Hauptfigur im Temperaturspiel ist, ist eine moderne wissenschaftliche Legende.
Postskriptum: Ja, ich weiß um die Behauptungen von Einigen, denen zufolge Methan einige starke Rückkopplungen aufweist. Und ja, ich habe diese betrachtet. Eine lautet, dass steigende Temperatur auch einen zunehmenden Methangehalt bedeutet, weil Methan ein Nebenprodukt des Lebens ist, und Leben liebt Wärme. Mehr Wärme = mehr Leben = mehr Verfall = mehr Methan. Die Relation kann man hier einsehen.
Das Problem jener Rückkopplung ist aber: welche Zunahme der Methan-Emissionen auch immer die jüngste globale Temperaturzunahme bewirkt haben könnte, ist bereits in beiden obigen Graphiken enthalten, Abbildungen 1 und 2. Also ist diese Rückkopplung bereits berücksichtigt in der vorhergesagten Zunahme von 750 ppbv pro Jahrhundert.
Die zweite Rückkopplung ist der Tatsache geschuldet, dass Methan nur etwa zehn Jahre lang in der Atmosphäre verbleibt. Danach zerfällt es folgendermaßen (vereinfacht):
CH4 ==> CO2 + 2H2O
Wenn also das CH4 verschwunden ist, verbleiben zwei unterschiedliche Treibhausgase, Kohlendioxid und Wasserdampf. Oh, wie ängstigend!
Aber das Problem mit jener Rückkopplung ist, dass die Zahlen bzgl. Methan so klein sind. Die atmosphärischen Niveaus der drei Gase sind etwa Folgende:
Methan: 1,8 ppmv
CO2: 400 ppmv
Wasserdampf: 6400 ppmv.
Nun dauert die Umwandlungszeit von Methan in der Atmosphäre größenordnungsmäßig zehn Jahre. Dies bedeutet, dass jedes Jahr ein Zehntel Methan umgewandelt wird oder 0,18 ppmv pro Jahrzehnt, d. h. 0,02 ppmv pro Jahr.
Dies bedeutet, dass die Menge des zu CO2 und H2O zerfallenden Methans das CO2-Niveau jedes Jahr um etwa 0,02 ppmv zunehmen lässt (oder 2 ppmv pro Jahrhundert). Der Wasserdampfgehalt nimmt doppelt so viel zu oder um etwa 0,04 ppmv … bedeutungslos gering.
Link: http://wattsupwiththat.com/2015/10/11/scientific-urban-legends/
Übersetzt von Chris Frey EIKE




Tote durch Biogas-Anlagen

Abbildung rechts mit Untertitel auf der Internetseite des BR[1] über die zitierte Sendung: Risiko Biogasanlage: Fischsterben ist die Folge
– Video nicht mehr verfügbar –
 Video der BR Sendung über Tod durch Biogas Anlagen
Tote Fische durch Kernkraftwerke sind dem Autor bisher noch nicht bekannt geworden. Wohl bekannt ist, dass sich das warme, saubere und Sauerstoff reiche Wasser der Kühlteiche thermischer Kraftwerke bestens für den Angelsport eignet. Hier vor Ort in Großkrotzenburg am Main wurde um den Kraftwerksteich herum ein wertvolles „Feuchtbiotop für die Vogelwelt“ angelegt, welches öffentlich nicht zugänglich ist.
Klar, ist es technisch leicht möglich die ökologische Brühe von Biogasanlagen sowohl bei technischen Defekten wie bei menschlichem Versagen durch Risikoanalyse und Risikoschutzmaßnahmen sicher einzudämmen. Die Behörden hätten nur die dazu erforderliche „Umwallung“ der Anlagen anordnen müssen. Über das Baumaterial der Umwallung haben die ökologisch orientierten Gutachter, Sachverständigen, Biogas- und Fisch-Aktivisten nichts im Radio-Streifzug verlauten lassen. Meterdicken Beton wie bei Kernreaktoren wird man nicht brauchen. Aber mit nackten, rein ökologischen Erdwällen wird es auch hier nicht ohne Restrisiko abgehen.
Es ist gut, dass nun die im Zusammenhang mit Biogas-Anlagen getöteten Fische gezählt werden. Dass es beim Biogas auch tödliche Unfalle gab, habe ich im November 2005 erfahren. Damals war ich zugewählter Sachverständiger für Umweltpolitik der FDP in Berlin und Brüssel. In einem Tankfahrzeug mit gehäckselten Schweinedärmen hatte sich eine Schwefelwasserstoffwolke in ungewöhnlich hoher Konzentration gebildet. Beim Öffnen wurde sie in der Entladehalle der Biogasanlage frei. Damals wurde drei Menschen getötet. Ich hatte deswegen Kontakt mit dem Gewerbeaufsichtsamt in Cuxhaven.
Weitere tödliche Unfälle sind mir nicht bekannt. Das ist nicht verwunderlich. Von alleine kommen diese Vergiftungszahlen nicht in die Öffentlichkeit. Die Medizinerin Anna Charlotte Fuhrmeister[2] schrieb 2005 in ihrer medizinischen Doktorarbeit über Vergiftungen diesen bemerkenswerten Satz: „Die Höhe der Zahlen ist auch abhängig davon, wie stark die Öffentlichkeit am Thema Vergiftungen zu bestimmten Zeiten interessiert ist. Ist das Interesse größer, wird es auch mehr Berichte, mehr Studien zu dem Thema geben. Die veröffentlichten Zahlen werden sich dementsprechend verändern, ohne dass es zwingend zu einer veränderten Situation gekommen ist.“
Wann werden Abgeordnete auf den Gedanken kommen, die Todesfälle im Zusammenhang mit „Erneuerbaren Energie“ abzufragen einschließlich der Wegeunfälle beim Transport der vielen Teile? Vielleicht dauert es jetzt nicht mehr lange, nachdem getötete Vögel im Fall der Windkraft gezählt werden und nun auch getötete Fische im Fall der Biogas-Anlagen, bis auch die menschlichen Todesopfer beim Vollzug des EEG statistisch erfasst werden.


[1] http://www.br.de/radio/b5-aktuell/sendungen/der-funkstreifzug/biogasanlagen-umwelt-verschmutzung-102.html
[2] http://hss.ulb.uni-bonn.de/2005/0664/0664.pdf