Wie die NOAA und schlechte Model­lierung eine „Ozean-Versauerung“ erfunden haben: Teil 2 – schlechte Modelle

    Versauern die oberen Schichten der Ozeane wirklich?

Im Teil 1 ordnete ein Herr Bednarsek von der NOAA den Zerfall von Schalen der Flügelschnecken [Thecosomata; mehr dazu hier bei Wikipedia. Anm. d. Übers.] anthropogenem CO2 zu, obwohl die Beweise eindeutig sind, dass aufwallendes Tiefenwasser mit geringeren pH-Werten dafür verantwortlich war. Auf der Grundlage von Modellen, die Mitarbeiter der NOAA herangezogen hatten, behauptete Bednarsek, dass die oberen Ozeanschichten saurer werden und weniger geeignet sind als Habitat für Thecosomata im Vergleich zu vorindustriellen Zeiten. Allerdings ist das Auffinden des Ortes und der Tiefe, in der sich anthropogenes CO2 derzeit befindet, eine sehr, sehr schwierige Sache. Weil der Ozean ein großes Reservoir anorganischen Kohlenstoffes enthält, 50 mal größer als das atmosphärische Reservoir, ist der anthropogene Beitrag ziemlich gering. Außerdem umfasst anthropogener Kohlenstoff weniger als 2% der CO2-Menge, die jedes Jahr kombiniert von Ozean aufgenommen und wieder ausgegast wird. Folglich gibt es nur ein sehr schwaches Signal im Verhältnis zu Rauschen, was eine genaue Erkennung von anthropogenem CO2 verhindert. Trotz zugegebenermaßen großer Unsicherheiten versuchen die Modellierer stur zu folgern, welche Schichten des Ozeans versauern.

(To clarifying terminology, an organic carbon molecule is a molecule that is joined to one or more other carbons, such as carbohydrates and hydrocarbons. CO2 with a lone carbon is considered inorganic, and when dissolved can take 3 forms (or “species”) collectively referred to as Dissolved Inorganic Carbon (henceforth DIC): 1) Carbonic acid (H2CO3), 2) Bicarbonate ion (HCO3) after losing one H+ 3) Carbonate ion (CO3-2) after losing a second H+ )

[Diesen Absatz lasse ich mangels Fachkenntnis in Chemie lieber unübersetzt, bevor ich falsche deutsche Begriffe verwende. Anm. d. Übers.]

Die Modellergebnisse basieren jedoch auf drei sehr dubiosen Annahmen:

1) Die Modelle nehmen an, dass die Oberflächenschichten anthropogenes CO2 absorbieren, indem sie ein Gleichgewicht mit der atmosphärischen Konzentration erreichen. Mit kleineren Adjustierungen berechnen die Modelle einfach, wie viel anorganischer Kohlenstoff (DIC) dem Ozean hinzugefügt wird auf der Grundlage eines gestiegenen CO2-Gehaltes der Atmosphäre seit vorindustrieller Zeit.

2) Die Modelle nehmen an, dass CO2 in den oberen Ozeanschichten diffundiert und durch den Ozean transportiert wird ähnlich wie Indikatoren wie CFCs. Weil sich CFCs unverhältnismäßig nahe der Oberfläche akkumulieren, nehmen die Modelle an, dass dies auch bei DIC der Fall ist.

3) Die Modelle nehmen an, dass sich die Biosphäre in einem stationären Zustand [steady state] befindet. Folglich tragen sie nicht einer gestiegenen Primärerzeugung und dem rapiden Export von Kohlenstoff in die Tiefe Rechnung.

Obwohl es keinerlei Zweifel daran gibt, dass die Ozeane anthropogenes CO2 aufnehmen, sind die Behauptungen, dass die oberen Schichten der Ozeane versauern, das Ergebnis falscher Modellhypothesen.

Welches Gleichgewicht?

Ein CO2-Gleichgewicht [equilibrium] zwischen Ozean und Atmosphäre wird sehr selten erreicht. Der pH-Wert an der Ozeanoberfläche und folglich die Sättigung mit Kalziumkarbonat [Kalk] werden bestimmt durch die Effizienz der biologischen Pumpe. Mit anderen Worten, wann wo wie viel CO2 in die Ozeanoberfläche eintritt, muss die CO2-Konzentration an der Oberfläche geringer sein als die atmosphärische Konzentration. Diese Differenz ist davon abhängig, wie viel CO2 in organischem Kohlenstoff gebunden ist mittels Photosynthese und nachfolgend in die Tiefe transportiert wird, oder wie viel CO2 nach oben wallt. Die Photosynthese zieht willkürlich alle CO2-Moleküle hinab, die in die Oberflächengewässer eingedrungen sind, entweder durch Aufwallen aus der Tiefe oder durch Diffusion aus der Atmosphäre. Trotz gegenwirkender Effekte wie Durchmischung und Diffusion erhält die biologische Pumpe einen starken vertikalen Gradienten aufrecht eines hohen pH-Wertes an der Oberfläche und geringem DIC, wobei pH-Werte mit der Tiefe abnehmen und DIC zunimmt. In Regionen, in denen ein starkes Aufwallen von DIC aus der Tiefe die Fähigkeit photosynthetisierender Organismen überkompensiert, Kohlenstoff abzuscheiden, fällt der pH-Wert an der Oberfläche und das CO2 wird in die Atmosphäre ausgegast. Viele Modelle schätzen, dass ohne die biologische Pumpe das atmosphärische CO2 um 200 bis 300 ppm über das derzeitige Niveau hinaus zunehmen wird.

Die Effizienz der biologischen Pumpe bestimmt, bis zu welchen Tiefen anthropogener Kohlenstoff vordringt. Allerdings modelliert Sabine [gemeint: Christopher L. Sabine, Pacific Marine Environmental Laboratory/NOAA, Seattle, Washington 98115-6349, siehe Link] nicht die Auswirkungen der biologischen Pumpe, wobei er komischerweise feststellt: „Obwohl die Ozean-Biologie eine integrale Rolle spielt bei der natürlichen Verteilung von Kohlenstoff im Ozean, gibt es keine endgültigen [conclusive] Beweise, dass die Aufnahme durch den Ozean und die Speicherung anthropogenen Kohlenstoffs bisher irgendetwas anderes involviert hat als eine chemische und physikalische Reaktion auf steigendes atmosphärisches CO2“.

Glaubt Sabine wirklich, dass die unleugbare biologische Pumpe unterscheidet zwischen anthropogenem und natürlichem Kohlenstoff? Oder glaubt er, dass es keinerlei Änderungen hinsichtlich der Primärerzeugung und dem Kohlestofftransport gegeben hatte? Nimmt die Primärerzeugung zu, nimmt auch der Transport von Kohlenstoff in die Tiefe zu. Die jährliche Primärerzeugung in der Arktis hat seit 1998 um 30% zugenommen. Wir können auf der Grundlage einer Zunahme von 61% von Mesoplankton zwischen 1994 und 2006 in der Sargasso-See die Primärerzeugung ableiten. Coccolithophores [hier] im Nordatlantik haben zwischen 1990 und 2012 um 37% zugenommen. Und Primärerzeugung und Kohlenstoff-Transport im Peru-Strom hat seit Ende der Kleinen Eiszeit dramatisch zugenommen. Der zunehmende Trend der Primärproduktion und der begleitende Kohlenstoff-Export sind potente Beweise, die eine alternative Hypothese stützen, der zufolge die biologische Pumpe den zunehmenden Eintrag anthropogenen Kohlenstoffs sequestriert hat.

Eine Untersuchung saisonaler Änderungen der oberflächennahen CO2-Konzentration illustriert, wie die biologische Pumpe bestimmt, wann und wie viel CO2 in den Ozean eintritt und wie viel DIC sich nahe der Oberfläche akkumuliert. Wie die folgende Graphik mit Bojen-Daten vor der Küste von Newport aus dem Jahr 2008 veranschaulicht (Evans 2011), erniedrigt jede Frühjahrs-Photosynthese das CO2 an der Ozeanoberfläche auf 200 ppm, weit unter den gegenwärtigen atmosphärischen Konzentrationen und viel niedriger als das, was aus dem Gleichgewicht einer vorindustriellen Atmosphäre zu erwarten ist. Frühjahrs-Oberflächengewässer sind übersättigt, und jedwedes Abtauchen oder Durchmischung dieser übersättigten Gewässer kann nicht aufwallendes Wasser oder Schichten unter der Oberfläche versauern. Außerdem sorgt der Abwärtstransport des Wassers im Frühjahr schlüssig für die Entfernung irgendwelchen anthropogenen CO2, welches in sonnendurchfluteten Gewässern noch übrig ist. Weitere Experimente zeigen, dass CO2 oftmals ein begrenzter Nährstoff ist, und das zusätzliches atmosphärisches CO2 die Photosynthese stimuliert. Mikrokosmos-Experimente zeigten: wenn der atmosphärische CO2-Gehalt höher war, verbrauchte die Plankton-Gemeinschaft 39% mehr DIC.

Die Saison der Aufwallung beginnt im Sommer und dauert bis zum Herbst. Wie oben dargestellt lassen Aufwall-Ereignisse die Oberflächen-Konzentration von CO2 rapide steigen, bis 1000 ppm. Die Physik schreibt vor, dass es keine Diffusion aus der Atmosphäre in den Ozean geben kann, wenn die ozeanische Konzentration höher ist als die atmosphärische Konzentration. Folglich gibt es praktisch keine anthropogenen Hinzufügungen während der Aufwall-Saison. Hier muss jedwede Abnahme des pH-Wertes oder der Karbonat-Sättigung an der Oberfläche auf Aufwallen zurückgehen.

Und schließlich, im Winter (nicht illustriert) zeigen die Oberflächengewässer eine stetige CO2-Konzentration von 340 ppm. Obwohl die Photosynthese herabgesetzt ist und die winterliche Durchmischung mehr unter der Oberfläche befindlichen Kohlenstoff und Nährstoffe an die Oberfläche bringt, bleibt die Atmosphäre unter dem Gleichgewicht mit der Atmosphäre. Obwohl die Oberflächen-Konzentrationen niedrig genug sind, um die Aufnahme atmosphärischen CO2 zuzulassen, sorgt die biologische Pumpe weiterhin dafür, dass Kohlenstoff in die Tiefe transportiert wird, so dass die Oberflächenschichten den ganzen Winter über übersättigt bleiben.

Die Diffusion von CO2 in den Ozean ist ein langsamer Prozess. Man glaubt, dass es etwa 1 Jahr dauert, bis die Ozeane mit einer atmosphärischen Störung ins Gleichgewicht kommen. Aber mit der Annäherung des Frühjahres verstärkt das zunehmende Sonnenlicht die Photosynthese. Wie viel anthropogenes CO2 auch immer in die Ozeanoberfläche im Verlauf des Jahres eingedrungen ist – es ist wieder einmal vollständig sequestriert und in die Tiefe gepumpt worden, was die CO2-Konzentrationen an der Oberfläche auf 200 ppm erniedrigt. Bednarseks Behauptung, dass anthropogenes CO2 das aufwallende Wasser entlang der Küste von Oregon und Kalifornien versauert, wird also wieder nicht gestützt.

Indikatoren simulieren den Transport anthropogenen Kohlenstoffes nicht korrekt

Indikatoren wie chlorofluorocarbons (CFCs) sind synthetische Gase, die biologisch inaktiv sind. Sie kamen während der zwanziger Jahre des vorigen Jahrhunderts in die Welt, hauptsächlich als Kühlmittel. Klimawissenschaftler haben vermutet, dass der physikalische Transport und die Akkumulation von CFCs sowie zunehmender anthropogener Kohlenstoff ähnlich sind. Unten in der Abbildung zeigt der rote Bereich unmittelbar südlich von Grönland ein Gebiet, in dem sich die meisten CFCs akkumuliert haben. Zu dieser lokalen Konzentration kommt es, wenn Wasser aus dem Atlantik mit hohem Salzgehalt sich abkühlt und das Oberflächenwasser zusammen mit den darin gelösten Gasen in die Tiefe sinkt und das Nordatlantische Tiefenwasser bildet. Man schätzt, dass dieses Absinken 18% aller CFCs unter 1000 m tief transportiert hat; was impliziert, dass gelöster anthropogener Kohlenstoff ähnlich transportiert und abgeschieden worden ist. Anderswo jedoch akkumulieren CFCs unverhältnismäßig in Oberflächengewässern, so dass die Modelle annehmen, dass sich gelöstes anthropogenes CO2 ähnlich näher an der Oberfläche akkumuliert.

Sowohl CFCs als auch CO2 sind Gase, und deren Löslichkeit wird von der Temperatur gleichlaufend moduliert. Warmes Wasser in den Tropen absorbiert die geringste Menge von CFCs und CO2, wie die dunkelblauen Bereiche in der folgenden Abbildung zeigen (aus Willey 2004). Folglich haben Äquator-Gewässer, welche die Kalifornische Tiefenströmung füttern, deren Wasser an der Westküste aufsteigt, ebenfalls die geringsten Mengen anthropogenen Kohlenstoffs absorbiert, wenn überhaupt welches. (Das extrem geringe Niveau der CO2-Diffusion in den tropischen Ozean plus die Übersättigung tropischer Gewässer widerspricht sehr jedweden Behauptungen, dass Korallenriffe signifikant beeinträchtigt sind durch anthropogene Versauerung).

Allerdings wird jedwedes in sonnendurchflutetes Wasser eindringende CO2 durch Photosynthese rasch in viel organische Materie umgewandelt, anders als bei den inerten CFCs. Obwohl gelöste CFCs und gelöster Kohlenstoff auf die gleiche Weise passiv transportiert werden, verhält sich organischer Kohlenstoff (lebend oder tot) sehr viel anders. Partikulärer Kohlenstoff sinkt rasch und bringt so Kohlenstoff von der Oberfläche in die Tiefe. CFC-Spurengase können dies nicht simulieren. Eine Durchsicht der Literatur zeigt: „Verschiedene Verfahren und Messungen haben Schätzungen erzeugt von Sink-Geschwindigkeiten für organische Partikel. Dieses Sinken weist eine riesige Bandbreite auf, nämlich von 5 bis 2700 m pro Tag. Allgemein liegt die Geschwindigkeit aber zwischen zehner und hunderten Metern pro Tag“. Niedrige Schätzungen sind verzerrt durch suspended Partikel, die mit den sinkenden Partikeln gemittelt werden. Schnellere Sinkraten werden bei pteropod shells, Foraminiferen, Diatomeen, Flügelschnecken, Panzer von Zooplankton und Anhäufungen von Abfallstoffen beobachtet, die alle in der Lage sind, 500 bis 1000 Meter pro Tag zu sinken. Diese Sinkraten sind viel zu schnell um zu gestatten, dass aufgenommenes CO2 aus deren Zerfall entweder das aufwallende Wasser versauert wie entlang der Küsten von Oregon bis Kalifornien, oder das Wasser an der Oberfläche.

Frühere Experimente hatten gezeigt, dass Einzelzellen sehr langsam sinken mit Raten von nur 1 Meter pro Tag und folglich erheblich unterschätztem Kohlenstoff-Export. Aus Einzelzellen bestehende Organismen werden sich jedoch zu Klumpen zusammenfügen, was die Sinkrate erhöht. Neue Studien zeigten die „allgegenwärtige Präsenz gesunder photosynthetischer Zellen, dominiert von Diatomeen, bis hinab zu 4000 m“. Je nach Länge der Zeit, mit der photosynthetische Zellen in der Dunkelheit bestehen, wurden Sinkraten berechnet mit einer Bandbreite von 124 bis 732 Meter pro Tag, was konsistent ist mit einer hoch effizienten biologischen Pumpe. Obwohl die Wissenschaftler der NOAA Bedenken geäußert haben, dass die globale Erwärmung die Effizienz der biologischen Pumpe verringern würde, indem Bestandteile der Phytoplankton-Gemeinschaften zu kleinen, langsam sinkenden Bakterien geschoben werden, zeigen neue Forschungen, dass sich auch Bakterien zu Clustern zusammenfinden, mit raschen Sinkraten von 440 bis 660 Meter pro Tag.

Die Abscheidung von Kohlenstoff ist abhängig von der Sinkgeschwindigkeit und wie schnell organisches Material abgelagert wird. Die Abscheidung variiert teilweise infolge Variationen in den Phytoplankton-Kolonien. In Tiefen um 1000 m wird angenommen, dass Kohlenstoff relativ permanent abgeschieden wird, wird Wasser aus dieser Tiefe doch 1000 Jahre lang nicht mit der Oberfläche ausgetauscht. Weber 2016 zeigt, dass 25% der organischen Partikel in hohen Breiten bis auf 1000 m sinken, während dies in niedrigen Breiten nur zu 5% der Fall ist. Aber langfristige Abscheidung erfordert keine Absinktiefe bis 1000 Meter. Es erfordert Absinken bis unter die Pycnocline-Schicht [hier bei Wikipedia steht, was das ist. Anm. d. Übers.], eine Region, in der sich die Dichte rapide ändert. Dichtes Wasser kann sich nicht so ohne Weiteres über die Pycnocline-Schicht hinauf bewegen, so dass der vertikale Transport von Nährstoffen und Kohlenstoff behindert wird, was zu langfristiger Abscheidung führt. Weil die Pycnocline-Schicht über den Globus variiert, ist das auch bei der Tiefe der Abscheidung der Fall.

Unten links (a) ist eine Graphik von Weber 2016, in der abgeschätzt wird, bis zu welcher Tiefe Partikel sinken müssen, um 100 Jahre lang abgeschieden zu werden. Im größten Teil des Pazifiks müssen die Partikel dazu nur auf Tiefen zwischen 200 und 500 Metern absinken. Im Gegensatz dazu müssen sie in den goldenen Gebieten um den Golfstrom, Neuseeland und Südafrika bis auf 900 Meter sinken.

Die Karte rechts (b) zeigt Schätzungen, welcher Anteil organischer Materie, welche die sonnendurchfluteten Gewässer verlässt, sequestriert wird. Das Gold im Indischen Ozean schätzt, dass 80% davon die 100-Jahre-Abscheidungstiefe erreichen werden. Entlang der Küste von Oregon bis Kalifornien ist das nur bei 60% der Fall. Auch dies weckt Zweifel an Bednareks Behauptung, dass kürzlich versauertes Wasser die Flügelschnecken beeinträchtigt. Anderswo in Graphik (b) erreichen nur 20% oder weniger des exportierten Kohlenstoffes die zur Abscheidung erforderliche Tiefe.

Die Kombination von Sinkgeschwindigkeiten und Abscheidungs-Tiefen zeigt, dass bedeutende Anteile der Primärproduktion im Zeitmaßstab von Tagen bis Wochen abgeschieden werden. Dies ist konsistent mit dem Erhalt des vertikalen DIC- und pH-Gradienten, der in unseren Ozeanen gefunden worden ist. Es steht jedoch im Widerspruch zu Behauptungen der NOAA-Wissenschaftler.

Verzerrt durch CFC-Beobachtungen schrieb Sabine: „Weil anthropogenes CO2 in die Ozeane eindringt mittels Gasaustausch an der Grenzschicht Wasser-Luft, finden sich die höchsten Konzentrationen anthropogenen CO2 nahe der Wasseroberfläche. Außerhalb von Tiefwassergebieten kann der Zeitmaßstab der Durchmischung von Wasser nahe der Oberfläche mit Tiefenwasser Jahrhunderte betragen, und bis Mitte der neunziger Jahre blieb die Konzentration athropogenen CO2 in der Tiefsee unter dem Erkennungshorizont mit der Delta-C*-Technik.

Wenn die NOAA-Wissenschaftler die Tatsache außer acht lassen, dass Kohlenstoff in Partikelform bis zu harmlosen Tiefen im Zeitmaßstab von Tagen bis Wochen anstatt von „Jahrhunderten“ abgeschieden werden kann, scheint dies der Grund für ihre katastrophalen Fehleinschätzungen der Ozean-Versauerung zu sein. Außerdem, weil sich CFCs nahe der Oberfläche akkumuliert haben mit nur minimalen Anteilen in tieferen Ozeanbereichen, bietet das Spurengas absolut keinen Hinweis, wie Aufsteigen historisches DIV an die Oberfläche bringen kann. Verlässt man sich daher auf ein CFC-Spurengas, werden ihre Modelle fälschlich annehmen, dass gesteigerte Konzentrationen von DIC nahe der Oberfläche auf sich akkumulierenden anthropogenen Kohlenstoff zurückgehen müssen und nicht auf aufgestiegenen historischen Kohlenstoff.

Der Steady State der Biosphäre im Ozean?

Bei einem gegebenen stetigen Prozentanteil von Primärproduktion werden zunehmende Mengen Kohlenstoff im Verhältnis zu gesteigerter Produktivität exportiert. Folglich ist es vernünftig zu hypothetisieren, dass falls die maritime Produktivität seit dem Ende der Kleinen Eiszeit, also seit vorindustrieller Zeit, zugenommen hat, die gesteigerte Produktion die gesteigerten Mengen anthropogenen Kohlenstoffs abgeschieden hat. Obwohl es nur wenige Ozeanbecken ohne Sauerstoff gibt, wo sich organische Sedimente gut erhalten können, zeigen alle diese Becken, dass seit der Kleinen Eiszeit die maritime Produktivität und der Kohlenstoffexport tatsächlich mit der Erwärmung der Ozeane zugenommen haben.

Hier folgen Forschungen von Chavez 2011, die zeigen, dass während der Kleinen Eiszeit die maritime Primärproduktion (d) niedrig war, aber um das 2- bis 3-fache zugenommen hat während der letzten 150 Jahre. Sedimente zeigen, dass rasch sinkende Diatomeen um das 10-fache am Ende der Kleinen Eiszeit zugenommen haben, aber wahrscheinlich aufgrund limitierten Siliziums reduzierte sich der Fluss von Diatomeen in Ozean-Sedimente auf eine etwa 2-fache Zunahme über die Kleine Eiszeit. Nichtsdestotrotz finden zahlreiche Studien, dass Schätzungen der Diatomeen-Vielfalt repräsentativ sind für die Kohlenstoffexport-Erzeugung in küstennahen Aufstiegsgebieten.

Die gesteigerte Primärproduktion fällt zusammen mit einer über 100-fachen Zunahme von Fischschuppen und Gräten (f). Und konsistent mit einer Notwendigkeit für mehr Nährstoffe, um die gesteigerte Primärproduktion zu stützen, zeigen Proxy-Beweise eine 2-fache Zunahme von Nährstoffen in der Wassersäule (c). Es sind diese Beweise, welche die Forscher dazu bringen anzunehmen, dass die beobachteten dekadischen Zunahmen aufgestiegenen DIC und Nährstoffe Teil eines viel längeren Trends sein können. Und schließlich, im Gegensatz dazu, dass die globale Erwärmung zur Erklärung für den aufgebrauchten Sauerstoff herangezogen wird, ist die Ablagerung gesteigerten organischen Kohlenstoffes eine viel bessere Erklärung für Beobachtungen gesunkener Sauerstoff-Konzentrationen in der Wassersäule (a) und in Sedimenten (b). Weil sich die Primärproduktion bis 1900 verdoppelt hatte, lange bevor globale Erwärmung oder bevor anthropogenes CO2 signifikante Konzentrationen erreicht hatte, ist es unwahrscheinlich, dass anthropogenes CO2 zu gesteigertem Aufstieg beigetragen hat, zu gesteigerter Primärproduktion oder irgendwelchen anderen Trends in diesem Gebiet.

Gesteigerte Primärproduktion allein garantiert jedoch nicht, dass absinkender partikulärer Kohlenstoff genügend Kohlenstoff entfernt, um anthropogenen Hinzufügungen entgegen zu wirken. Es gibt jedoch eine Dynamik, die nahelegt, dass dies der Fall sein muss. Erstens betrachte man, dass bei einer Untersuchung der Elemente einer Phytoplankton-Kolonie ein allgemeines Verhältnis von 106 Kohlenstoff-Atomen auf 16 Stickstoff-Atome entdeckt worden ist (d. h. Redfield-Verhältnis). Angesichts des Umstandes, dass Stickstoff typischerweise photosynthetische Produktion begrenzt, falls Kohlenstoff und Stickstoff im gleichen Redfield-Verhältnis aufsteigen, solange nicht andere Prozesse für einen Stickstoff-Überschuss sorgen, könnte die Photosynthese lediglich aufgestiegenen Kohlenstoff assimilieren, aber nicht genug, um dem gesamten zusätzlichen anthropogenen Kohlenstoff Rechnung zu tragen.

Kalk bildende Organismen exportieren jedoch größere Anteile anorganischen Kohlenstoffs, weil ihren sinkenden Schalen aus Kalziumkarbonat Stickstoff fehlt. Dies kann zu einem Überschuss an Stickstoff beitragen relativ zu bis in Oberflächengewässer aufgestiegenem Kohlenstoff. Zweitens, Diazotrophen [noch einmal bei Wikipedia] sind Organismen, die atmosphärischen Stickstoff in biologisch nutzbare Formen konvertieren. Freilebende Diazotrophen wie das Cyanobakterium Trichodesmium können so üppig auftreten, dass ihr Erblühen beobachtet werden kann. (Die Blüten einer Spezies sind primär verantwortlich für die Färbung des Roten Meeres). Einige Diazotrophen bilden symbiotische Beziehungen, um sowohl aufgestiegenen als auch anthropogenen Kohlenstoff zu assimilieren. Außerdem, wie bei Mackey 2015 (sowie deren Literaturhinweisen) diskutiert, zeigen bis heute fast alle Studien, dass die Stickstoff-Bindung aufgrund gesteigerten CO2 zunehmen wird“.

Berücksichtigt man all dies, zeigen die Beweise, dass die NOAA-Wissenschaftler eine Charakterisierung des „Steady State“ des Ozeans haben, die verkehrt herum steht. Es gibt keine starre Rate von Primärproduktion und Export, welche die Assimilation anthropogenen Kohlenstoffes und deren Pumpen in die Tiefe verhindert. Im Gegenteil, die kombinierte Dynamik der Stickstoff-Bindung und der biologischen Pumpe zeigen, dass die oberen Schichten des Ozeans wahrscheinlich ein pH-Gleichgewicht [pH homeostasis] oder einen pH-Steady-State erhalten haben, zumindest seit vorindustrieller Zeit. Eine Zunahme atmosphärischen Kohlenstoffs, ob nun aus natürlichem Aufsteigen oder aus anthropogenen Quellen, wird höchst wahrscheinlich rasch assimiliert und in Ozeantiefen transportiert, wo sie für Jahrhunderte und Jahrtausende sicher abgelagert sind. Behauptungen, denen zufolge der obere Ozean seit vorindustrieller Zeit versauert sind, beruhen nicht auf Messungen, sondern sind lediglich das Ergebnis der Modellierung eines „toten“ Ozeans unter Ignoranz entscheidender biologischer Prozesse (mehr dazu hier).

Jim Steele is Director emeritus Sierra Nevada Field Campus, San Francisco State University and author of Landscapes & Cycles: An Environmentalist’s Journey to Climate Skepticism

Link: https://wattsupwiththat.com/2017/03/02/how-noaa-and-bad-modeling-invented-an-ocean-acidification-icon-part-2-bad-models/

Übersetzt von Chris Frey EIKE, der inhaltlich aber nicht immer ganz folgen konnte.




Beim Klimawandel bleiben Fake-News wohl „politisch korrekt“

WWF zum Welt-Eisbärtag: Lebensraum geht mit erschreckender Geschwindigkeit verloren

Zum „Welt-Eisbärtag“ meldeten einschlägige NGOs und kommunale Institutionen unisono, dass der Klimawandel die niedlichen Eisbären weiterhin am Bestand bedroht und dagegen dringendst (mit CO2-Vermeidung) geholfen werden muss:
SOLARIFY, 26.02.2017: Eisbären sterben aus
Weltnaturschutzorganisation stuft sie daher als „gefährdet“ ein.

BERLINER ZEITUNG, 24.02.17: Welt-Eisbär-Tag: Kleiner Fritz soll große Wirkung zeigen
Es geht um die gefährdeten Artgenossen von Eisbärenbaby Fritz in der Arktis: Vor dem Welt-Eisbärentag am 27. Februar ruft Tierparkdirektor Andreas Knieriem zu mehr Bewusstsein für den vom Menschen verursachten Klimawandel auf.
„Ich hoffe, dass die große Zuneigung, die unserem Fritz entgegen gebracht wird, die Menschen auch zum Nachdenken anregt – nicht nur am Welt-Eisbär-Tag“. Bei wildlebenden Eisbären werde in den kommenden 45 Jahren ein Rückgang der Population um 30 Prozent und mehr erwartet.

muenchen.de, Tierpark Hellabrunn: Das Eisbär-Baby genoss seinen ersten Ausflug ins Freie

WWF:
WWF zum Welt-Eisbärtag: Der Lebensraum für Eisbären geht in erschreckender Geschwindigkeit verloren

Nur das (Des-)Informationsportal Klimaretter.Info muss man diesmal loben. Es brachte zwar erst letzten September eine rührende Story zu gefährdeten Eisbären (Eisbären ohne Eis), hielt sich am Jahrestag aber zurück.

Doch der Eisbär vermehrt sich so stark, dass er zur Plage wird

Wie inzwischen allgemein bekannt, leiden die Eisbären jedoch überhaupt nicht unter einem Klimawandel. Im Gegenteil, sie vermehren sich und werden eher zur Plage.

EIKE 4.03.2016: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)

Bild aus dem EIKE-Artikel. Es zeigt den Populationsverlauf seit dem Jahr 1960 und ab dem Jahr 1990 den Verlauf, wenn danach die massive Bejagung eingestellt worden wäre.

Wie sie uns einen Eisbären aufbinden

Auf Achgut wurde das Thema der angeblich weiterhin so gefährdeten Eisbären aufgrund des Anlasses in einem Artikel zusammengefasst, weshalb daraus zitiert wird.

Achgut.com, Dirk Maxeiner: Wie sie uns einen Eisbären aufbinden
… Die Eisbären werden nicht weniger, sondern mehr. Deshalb zum Mitschreiben: Laut der neusten Untersuchungen beträgt die Zahl der Eisbären jetzt zwischen 22 600 und 32 250. Das ist das vier bis sechsfache des Bestandes nach dem zweiten Weltkrieg. Neben den Populationen der Eisbären und nehmen auch die ihrer Beutetiere, der Sattelrobben, zu. Mehr dazu hier und hier.
Auch in Regionen wie Buffin Bay und Kane Basin, in denen bislang tatsächlich abnehmende Populationen vermutet wurden, ist davon keine Rede mehr, sondern die Bestände sind stabil. Die ortsansässigen Inuit haben darauf übrigens schon seit längerem hingewiesen. Das Schrumpfen der Eismassen in den arktischen Sommern macht den Polarbären offenbar nichts aus.
Das hinderte die Klima-Katastrophen-Fraktion natürlich nicht daran, weiter den Stuss vom in der Arktis dahinsiechenden Meister Petz zu verbreiten. Vor drei Tagen (27.2.2017) war „Welt Eisbärtag“ und die gute alte Fakenews wurde prompt wieder ausgepackt. Beispielsweise
hier und hier und hier. Die Verfasser dieser Traktate sind gegen Fakten mindestens so immun wie die Bevölkerung von Mekka gegen christliche Missionierung.
Alle Prognosen, die ein Aussterben der schönen Tiere innerhalb kurzer Zeit voraussagten, treffen nicht zu. Das ist deshalb besonders delikat, weil die Eisbären schon seit 2008 eine politische Mission haben. Da wurden sie nämlich vom „U.S. Fish and Wildlife Service“ (FWS) nach dem sogenannten „Endangered Species Act“ als erste Art überhaupt gelistet, die vom Klimawandel bedroht sei. Klima-Aktivisten sehen darin einen möglichen juristischen Hebel um gegen die Emittenden von Kohlendioxid als Verursacher dieses „Aussterbens“ vorzugehen.

Ein Vorreiter beim Fake-New ist der WWF

Ganz perfide und bewusst verfälschend informiert der WWF. Dort heißt es im Text: … Der Klimawandel ist für die Eisbären der Arktis eine sehr ernste Gefahr. Die letzten 20.000 bis 25.000 Eisbären sind massiv bedroht, bereits 2050 könnten zwei Drittel der Tiere ausgestorben sein … “
Wie man am Bestandsverlaufs-Bild sehen kann, kennzeichnen die „20.000 bis 25.000“ Eisbären eine sich seit dem Jahr 1960 stetig erhöhende Population. Die Angabe „ … die letztenEisbären … „ ist somit eine bewusst fälschende, weil eine Bestandsverringerung suggerierende Darstellung.

Quellen

[1] Süddeutsche Zeitung, 18. Dezember 2016: Falschmeldungen Schulz fordert EU-weites Gesetz gegen Fake News
http://www.sueddeutsche.de/politik/fake-news-schulz-fordert-eu-weites-verbot-von-falschmeldungen-1.3299552

[2] POLITICALLY INCORRECT, 18. Dez 2016: Heiko Maas will fünf Jahre Haft für “Fake-News”

Bundesjustizminister Heiko Maas (SPD) fordert die Justiz auf, härter gegen gefälschte Nachrichten in Sozialen Netzwerken wie Facebook vorzugehen. “Verleumdung und üble Nachrede sind nicht von der Meinungsfreiheit gedeckt. Das muss die Justiz auch im Netz konsequent verfolgen”, sagte Maas BILD am SONNTAG.

Bei “übler Nachrede und Verleumdung einer Person des öffentlichen Lebens” drohe eine Freiheitsstrafe von bis zu fünf Jahren. “Das sollte jedem klar sein, der versucht, mit solchen Lügen politische Debatten zu manipulieren. Den rechtlichen Rahmen sollten wir konsequent ausschöpfen”, so Maas.




Warum spekulieren?

Es gibt zwei Anlässe im Leben eines Menschen, bei denen er nicht spekulieren sollte: Wenn er es sich nicht leisten kann, und wenn er es sich leisten kann“ – Mark Twain

Mein Thema heute ist die Vorherrschaft von Spekulation in den Medien. Was bedeutet das? Warum ist das so allgegenwärtig? Sollten wir etwas dagegen tun? Falls ja, was – und warum? Sollten wir uns überhaupt darum kümmern? Ist Spekulation überhaupt validierbar? Und so weiter.

Ich möchte diesem Spekulationstrend beitreten und darüber spekulieren, warum es so viel Spekulation gibt. Im Zuge, diesem Trend zu folgen, möchte ich meine Standpunkte ohne jedwede faktische Stützung darlegen, einfach indem ich eine Reihe von schlichten Behauptungen aufstelle.

Bevor wir anfangen, möchte ich eine Definition klären. Mit Medien meine ich Filme, Fernsehen, Internet, Bücher, Zeitungen und Zeitschriften. Um dem allgemeinen Trend der Spekulation zu folgen, wollen wir nicht zu viele Kleinstunterscheidungen treffen.

Anfangen können wir damit, uns zu fragen, bis zu welchem Grad sich die Medien der reinen Spekulation verschrieben haben. Jemand könnte hierzu eine Studie durchführen und Fakten präsentieren, aber bislang hat das niemand getan. Ich würde es mit Sicherheit nicht tun. Es gibt keinen Grund, sich damit zu behelligen. Die Erfordernis, eine Faktenbasis für eine Behauptung zu demonstrieren, ist schon vor langer Zeit entfallen. Sie wurde ausgesondert mit dem universellen Lob für das Buch Backlash von Susan Faludis, welches im Jahre 1991 den National Book Critics Circle Award für Allgemeine Sachbücher verliehen bekam, und welches hunderte Seiten quasi-statistischer Behauptungen auf der Grundlage einer Prämisse enthält, welche niemals belegt wurde und die fast mit Sicherheit falsch war.

Aber das ist ein alter Hut, und ich erwähne es hier nur, um Standards zu setzen.

Heute weiß natürlich jedermann, dass „Hardball“, „Rivera Live“ und ähnliche Shows nichts weiter sind als ein stetiger Strom von Vermutungen über die Zukunft. Die Talkshows am Sonntag Morgen sind reine Spekulation. Jeder weiß, dass es sonntags keine Nachrichten gibt.

Man beachte auch die vage und versteckte Spekulation. Die Anfechtung seitens der Alliierten würde „die Bühne bereiten für einen großen Handelskrieg mit vielen der gleichen Länder, die Bush zusammenhalten möchte in der zerbrechlichen Koalition gegen den Terror“. Mit anderen Worten, in der Story wird spekuliert, dass Zölle den Kampf gegen den Terrorismus beeinträchtigen können.

Inzwischen bin ich unter dem Faludi-Standard zu dem festen Standpunkt gekommen, dass Medien hoffnungslos von Spekulation durchsetzt sind, und wir können darangehen, die Auswirkungen dieses Umstandes zu betrachten.

Nun könnte man diese Story über Zölle lesen und sich fragen „na und?“. Es ist keine schlechte Geschichte. Ist es nicht vernünftig, über Auswirkungen gegenwärtiger Ereignisse auf diese Weise zu reden? Ich antworte, absolut nicht! Derartige Spekulationen sind komplette Zeitverschwendung.Sie sind sinnlos. Es ist Mist auf der Frontseite der Times.

Der Grund dafür, dass es sinnlos ist, ist natürlich der Umstand, dass niemand weiß, was die Zukunft bereit hält.

Stimmen wir alle darin überein, dass niemand weiß, was die Zukunft bereit hält? Oder muss ich Ihnen das erst beweisen? Ich stelle diese Frage, weil es einige sehr gut untersuchte Auswirkungen der medialen Berichterstattung gibt, was passiert, wenn man das Fernsehgerät verkehrt herum aufstellt: die Kinder werden sagen, dass das Popcorn aus der Tüte herausfällt. Dieses Ergebnis wäre erheiternd, falls es auf Kinder beschränkt bleibt. Aber die Studien zeigen, dass niemand davon ausgenommen ist. Alle Menschen unterliegen diesem medialen Effekt, einschließlich all jener unter uns, die glauben, dass wir ich-bewusst und hip und gut unterrichtet sind.

Medien bringen eine Glaubwürdigkeit mit, die total unverdient ist. Wir alle haben schon das erlebt, was ich den Murray Gell-Mann Amnesie-Effekt nenne. (Ich beziehe mich auf diesen Namen, weil ich über dieses Thema einmal mit Murray Gell-Mann diskutiert habe, und mit der Einführung eines berühmten Namens impliziere ich größere Bedeutung für mich selbst und den Effekt, welche er anderenfalls nicht hätte).

Kurz beschrieben lautet der Gell-Mann-Amnäsie-Effekt so: Man schlägt die Zeitung auf und stößt auf einen Artikel über etwas, über das man gut Bescheid weiß. In Murrays Fall war das Physik. In meinem Fall war es Show-Business. Man liest den Artikel und stellt fest, dass der Journalist absolut keine Ahnung hat, weder hinsichtlich der Fakten noch der Thematik. Oftmals ist der Artikel so falsch, dass er tatsächlich die Story von hinten aufzäumt – indem Ursache und Wirkung vertauscht werden. Ich nenne dies die „wet streets cause rain“-Storys [was man etwa übersetzen könnte mit „weil die Straßen nass sind, regnet es“]. Zeitungen sind voll davon.

In jedem Falle liest man mit Verbitterung oder auch amüsiert die multiplen Fehler in einer Story und blättert dann um zur Seite mit den nationalen oder internationalen Angelegenheiten. Diese liest man dann so, als ob sie irgendwie genauer sind über Palästina als der Unsinn, den man eben gelesen hat. Man blättert um und vergisst, was man weiß.

Das ist der Gell-Mann-Amnäsie-Effekt. Ich möchte betonen, dass er in anderen Arenen des Lebens nicht aktiv ist. Im normalen Leben ist es so: falls jemand einen permanent anlügt, wird man bald alles, was jener sagt, verwerfen. Vor Gericht gibt es eine gesetzliche Doktrin von falsus in uno, falsus in omnibus, was bedeutet Unwahrheit in einem Teil – Unwahrheit in Allem. Aber wenn es um Medien geht, glauben wir gegen alle Beweise, dass es uns unsere Zeit wahrscheinlich wert ist, andere Teile der Zeitung zu lesen. Und das, wenn das fast mit Sicherheit nicht der Fall ist. Die einzig mögliche Erklärung für unser Verhalten ist Amnäsie.

[Und ich dachte, nur die Deutschen wären so zeitungsgläubig, wie sie nun mal sind! Anm. d. Übers.]

Ein Problem mit der Spekulation besteht also darin, dass man den Gell-Mann-Effekt unberechtigter Glaubwürdigkeit huckepack mit sich herumträgt, was die Spekulation als brauchbarer aussehen lässt als sie ist.

Ein weiteres Thema ist die schiere Masse von Spekulation. Die schiere Masse impliziert einen Wert, der fadenscheinig ist. Ich nenne dies den There-Must-Be-A-Pony-Effekt, abgeleitet aus dem alten Witz, dass ein Kind am Weihnachtsmorgen die Treppe herabkommt, den Raum voller Pferdemist vorfindet und vor Freude in die Hände klatscht. Seine erstaunten Eltern fragen: Warum bist du so glücklich? Es antwortet, bei so viel Pferdemist muss ein Pony da gewesen sein.

hier steht, was damit gemeint ist; Anm. d. Übers.] geht üblicherweise den Vermutungen der Experten nach, und während der eine oder andere auch mal einen Treffer erzielt, sind diese Vermutungen über die Zeit nicht besser als Zufall. Dies würde man auch erwarten. Weil niemand die Zukunft kennt.

Ich möchte im Vorübergehen noch erwähnen, dass Expertentum mit den Jahren eine subtile Veränderung durchlaufen hat. In den alten Zeiten haben Kommentatoren wie Eric Sevareid die meiste Zeit damit zugebracht, Ereignisse in einen Zusammenhang zu stellen und einen Standpunkt zu beschrieben über das, was bereits geschehen ist. Darüber sprechen, was sie dachten, war wichtig oder irrelevant hinsichtlich der Ereignisse, die bereits stattgefunden hatten. Dies ist natürlich eine legitime Funktion der Expertise in jedem Bereich menschlichen Wissens.

Aber mit den Jahren hat sich das vertrauen in Expertentum von der Diskussion über Geschehenes weg verschoben hin zu Diskussionen über das, was geschehen könnte. Und hier haben die Experten keinerlei Vorteil aus ihrer Expertise. Schlimmer noch, sie könnten versuchen, wie die Sonntagspolitiker die eine oder andere Agenda durchzupauken mittels der Prophezeiung von deren unmittelbar bevorstehenden Kommen oder Niedergang. Das ist politischer Aktionismus, keine Prophezeiung*.

Die zweite Gruppe, von denen manche Menschen die Vorstellung haben, dass sie über die Zukunft Bescheid wissen, sind Spezialisten unterschiedlicher Art. Die wissen das aber auch nicht. Als Grenzfall möchte ich daran erinnern, dass es einen neuen Bereich gibt, der Spezialisten gebiert – ich weigere mich, es eine Disziplin oder einen Studienbereich zu nennen – Futurismus genannt. Das Narrativ hier lautet, dass einen Weg gibt, Trends zu studieren und zu wissen, was die Zukunft bringt. Das wäre tatsächlich wertvoll, falls es möglich wäre. Aber es ist nicht möglich. Futuristen wissen nicht mehr über die Zukunft als Sie und ich. Man lese deren Zeitschriften von vor ein paar Jahren, und man wird eine endlose Kette der Irrtümer finden.

Expertise ist kein Schutzschild gegen grandiose Fehleinschätzungen. Darum war es Thomas Watson, der Chef von IBM, der prophezeite, dass die Welt höchstens 4 oder 5 Computer brauchen würde. Das ist so falsch wie etwas nur sein kann – prophezeit von einem Mann, der in jeder Hinsicht informiert war darüber, wovon er sprach.

Nicht nur, dass er einen Trend falsch bewertete oder eine Technologie, sondern auch, dass er die Myriaden Verwendungszwecke nicht verstand, für die man eine Maschine allgemein rüsten kann. Genauso lag auch Paul Ehrlich, ein brillanter Akademiker, der sein gesamtes Leben ökologischen Themen widmete, mit fast allen seinen großen Prophezeiungen falsch.

Er lag falsch hinsichtlich schwindender Ressourcen, hinsichtlich der Bevölkerungsexplosion, und er lag falsch mit seiner Prophezeiung, dass bis zum Jahr 2000 50% aller Spezies ausgestorben sein würden. Er widmete sein Leben intensiv empfundenen Bereichen – und lag doch spektakulär falsch.

Nun gut, könnte man sagen, wir akzeptieren, dass man die Zukunft nicht kennen kann in der Art und Weise, wie ich es hier beschreibe. Aber was ist mit dringlicheren Dingen wie etwa die Auswirkungen unerledigter Gesetzgebung? Sicher ist es wichtig, darüber zu reden, was passieren kann, falls bestimmte Gesetze eingeführt werden. Nun – nein, ist es nicht. Niemand weiß, was passieren wird, wenn das Gesetz eingeführt wird. Hierfür möchte ich zwei Beispiele nennen, eines von den Linken und eines von den Rechten.

hier bei Wikipedia] prophezeit immer noch düsterste Effekte, die unmittelbar bevorstehen.

Dieses Scheitern bei der Prophezeiung von Auswirkungen eines Programms spiegelte sich in hysterischem Geschrei von den Rechten bei den Republikanern über steigenden Mindestlohn. Chaos und düstere Zeiten würden sicher folgen, wenn Firmen ihre Türen schließen und das Land in eine überflüssige Rezession gestürzt würde. Aber was waren die wirkliche Auswirkungen? Im Grunde gar keine. Wer diskutiert jetzt noch darüber? Niemand! Was wird geschehen, falls es einen neuen Versuch geben würde, den Mindestlohn anzuheben? Die gleichen düsteren Prophezeiungen noch einmal. Haben wir irgendetwas gelernt? Nein!

Aber mein Punkt ist – bei bevorstehender Gesetzgebung ebenso wie mit allem Anderen – niemand kennt die Zukunft.

Gleiches ist auch wahr hinsichtlich der Auswirkungen von Wahlen und Verabredungen. Welche Auswirkungen hat die Wahl eines bestimmten Präsidenten oder eines Obersten Gerichtshofes? Niemand weiß es. Einige von Ihnen sind alt genug, sich an die berühmte Kolumne von Art Buchwald während der Tage der Johnson-Regierung zu erinnern. Buchwald schrieb einen Beitrag mit dem Titel „Thank God we don’t have Barry Goldwater“ [seinerzeit der Gegenkandidat zu Johnson. Anm. d. Übers.]. Darin erinnerte er daran, wie jedermann befürchtete, dass Goldwater uns in einen großen Krieg ziehen würde. Also wählten wir Johnson, der nichts Eiligeres zu tun hatte als 200.000 Soldaten nach Vietnam zu schicken. Das ist es, was passiert, wenn man einen sich friedlich gerierenden Kandidaten wählt [a dove-ish candidate]. Man bekommt einen Krieg. Oder man wählt den intellektuell brillanten Jimmy Carter, und wird Zeuge, wie er persönlich damit endet zu bestimmen, wer auf den Tennisplätzen des Weißen Hauses spielen darf. Oder man wählt Richard Nixon, der den Stecker aus der Vietnam-Sache herausziehen kann und der dann den Kampf noch Jahre fortsetzt. Und dann China öffnet*.

hier bei Wikipedia steht mehr. Anm. d. Übers.]

Genauso ist die Historie von Entscheidungen des Obersten Gerichtshofes eine endlose Folge von Fehlern hinsichtlich Prophezeiungen von Rechtsprechung, wenn man erst einmal vor Gericht landet. Nicht alle sind überraschend, aber sehr viele schon.

Können wir also hinsichtlich unmittelbar bevorstehender Ereignisse überhaupt irgendetwas vorhersagen? Nein! Dazu reicht es schon sich anzuschauen, was vor dem Fall der Mauer in Berlin gesagt worden ist. Schon dabei sieht man, dass niemand auch nur ein paar Stunden im Voraus etwas prophezeien kann. Menschen sagten alle Arten von Dummheiten bzgl. des Kommunistischen Weltreiches – nur Stunden vor dessen Zusammenbruch. Ich kann hier keine Beispiele zitieren, weil ich dazu erst Faktensuche betreiben müsste, was ich versprochen habe, nicht zu tun. Aber glauben Sie mir, man findet idiotische Statements noch von 24 Stunden zuvor.

Niemand kennt die Zukunft!

Nun ist das keine neue Information.Es war Mark Twain, der gesagt hat: „Ich habe einen Haufen Schwierigkeiten in meinem Leben vorhergesehen, und die meisten davon sind niemals passiert“.

Und Vieles von dem, was die Politiker sagen, ist nicht so sehr eine Prophezeiung, sondern ein Versuch, es wahr werden zu lassen. Es ist Argumentation maskiert als Analyse. Aber es überredet nicht wirklich irgendjemanden. Weil die meisten Menschen es durchschauen.

Falls Spekulation also nutzlos ist, warum gibt es dann so viel davon? Liegt es daran, dass die Menschen sie haben wollen? Das glaube ich nicht. Ich selbst spekuliere, dass sich die Medien der Spekulation zugewandt haben aus den Medien eigenen Gründen. Schauen wir also mal auf die Vorteile der Spekulation von einem Standpunkt der Medien aus:

1. Sie ist unglaublich billig. Schwatzen ist billig. Und Spekulations-Shows sind das Billigste, was man im Fernsehen bieten kann. Sie sind fast genauso billig wie das Senden eines Testbildes. Spekulation erfordert keine Forschung, keinen großen Stab an Mitarbeitern. Minimalen Aufwand. Lediglich den Moderator, Buchung der Teilnehmer – an denen es keinen Mangel gibt – und fertig! Einfach Show! Keine Reporter in verschiedenen Städten auf der ganzen Welt, keine Film-Crew am Drehort. Keine Ultimaten, kein Filmmaterial, welches bearbeitet werden müsste, keine Editoren … nichts! Einfach nur Gerede. Billig.

2. Man kann nicht verlieren. Obwohl die Spekulation nur zufällig auch mal stimmt, was bedeutet, dass man in jedem Falle zu 50% falsch liegt, erinnert sich niemand daran, weshalb sich auch niemand darum schert. Man ist niemals haftbar. Die Zuhörerschaft erinnert sich nicht an gestern, geschweige denn an die vorige Woche oder den vorigen Monat. Medien existieren nur im ewigen Jetzt, in dieser Minute, in dieser Krise, bei diesem Fernsehansager, in dieser Kolumne, bei dieser Spekulation.

Einer der klarsten Beweise hierfür ist die Kontroverse um die Currents of Death [= elektromagnetische Strahlung unter Strom-Überlandleitungen. Anm. d. Übers.]. Sie hatte ihren Ursprung im Journal The New Yorker, welches seit fünfzig Jahren eine sprudelnde Quelle falscher wissenschaftlicher Spekulation ist. Aber mein Punkt ist Folgender: Viele der Menschen, die vor zehn Jahren wild darauf waren, in ihren Häusern gefährliche elektromagnetische Strahlung zu messen, geben jetzt Tausende Dollar aus für den Kauf von Magneten, die sie um ihre Arme und Fersen wickeln wegen der vermeintlich die Gesundheit fördernden Effekte von Magnetfeldern. Diese Menschen erinnern sich nicht daran, dass es sich dabei um genau die gleichen magnetischen Felder handelt, die sie früher zu vermeiden trachteten. Und weil sie sich nicht erinnern, kann das Journal genau wie der Medien-Spekulant nicht verlieren.

Diesen Gedanken, dass man dabei nicht verlieren kann, möchte ich noch etwas weiter ausführen. Das ist nicht auf die Medien beschränkt. In den meisten Bereichen des intellektuellen Lebens hat man die Werte der Spekulation entdeckt und wild für sich vereinnahmt. In der Akademia wird Spekulation normalerweise als Theorie gewürdigt. Es ist faszinierend: sogar obwohl die intellektuelle Haltung der postmodernen deconstructionist era gegen die Theorie ist, besonders gegen allumfassende Theorien, ist das was jeder Akademiker zum Ausdruck bringen möchte, eine Theorie.

Dies ist teilweise übergeschnappte Wissenschaft, aber es ist auch ein Flucht-Türchen. Eine genaue Lektüre der Texte von Jane Austen kann man gut als falsch empfinden, und ein kenntnisreicherer Antagonist kann auch zeigen, dass sie falsch sind. Aber die Theorie der radikalen Feminisierung und autoritären Revolte in den Arbeiten von Jane Austen sind auch unberührbar. Unsere Standpunkte hinsichtlich der Ursprünge der Ersten Weltkrieges können durch andere Institutionen wesentlich genauer erklärt werden als von uns. Aber ein Beitrag eines New Historicist, in welchem durchaus unsere eigene Phantasie enthalten sein kann, welche das sein könnten, würden so sein wie als ob man während des ersten Krieges Soldat war … nun, das ist nicht debattierbar.

Ein hervorragender Bereich für spekulative akademische Arbeiten ist das Unbekannte. Dieser Tage sind religiöse Gegenstände in Ungnade, aber es gibt immer noch viele gute Themenbereiche. Die Natur des Gewissens, die Arbeit des Gehirns, der Ursprung von Aggression, der Ursprung der Sprache, der Ursprung des Lebens auf der Erde, SETI und Leben auf anderen Welten … all das ist großartiges Zeug. Wunderbares Zeug. Man kann endlos darüber debattieren. Aber dem kann nicht widersprochen werden, weil niemand die Antwort auf irgendeines dieser Themen kennt – was wahrscheinlich auch niemals der Fall sein wird.

Aber das ist nicht die einzige Strategie, die man heranziehen kann. Weil die medien-indoktrinierte Öffentlichkeit Behauptungen aus der Vergangenheit ignoriert und vergisst, kommen heutzutage selbst Autoren ungeschoren davon, wenn sie harte Daten präsentieren, die sich dann erwiesenermaßen als falsch herausstellen.

Dann gibt es da die spekulativen Arbeiten von Anthropologen wie Helen Fisher, die behaupten, uns etwas über die Ursprünge der Liebe oder der Untreue mittels Verweisen auf andere Gesellschaften, auf das Verhalten von Tieren und fossilen Aufzeichnungen zu vermitteln. Wie kann sie falsch liegen? Es ist unüberprüfbar, unbeweisbar, einfach so Stories.

Und damit nicht jemand sich vorstellt, dass Dinge in der Hard Science anders sind, denke man an die String-Theorie, seit fast zwanzig Jahren die dominante physikalische Theorie. Mehr als eine Generation von Physikern hat an der String-Theorie gearbeitet. Aber – falls ich sie richtig verstehe, was vielleicht nicht der Fall ist – die String-Theorie kann nicht getestet oder bewiesen oder widerlegt werden. Obwohl einige Physiker bei dem Argument, dass eine unüberprüfbare Theorie nichtsdestotrotz wissenschaftlich ist, die Augen verdrehen, wer leistet wirklich Widerstand? Man erkenne: Eine unüberprüfbare Theorie ist ideal! Die Karriere ist gesichert!

Kurz gesagt, so lange man spekuliert, kann man nicht verlieren. Diese Erkenntnis ist weit verbreitet. Und sie ist perfekt für das Informations-Zeitalter, welches ein Füllhorn von Wissen verspricht, aber nur ein Füllhorn voll Quacksalberprodukten liefert.

Und nirgendwo steht geschrieben, dass die Medien akkurat oder nützlich sein müssen. Das waren sie nicht während der allermeisten Zeit der Historie. Also spekulieren sie jetzt … na und? Was ist daran falsch?

1. Die Tendenz zum Exzess. Die Tatsache, dass es sich nur um Gerede handelt, macht Dramatik und Spektakel unwahrscheinlich – es sei denn, das Gerede wird hitzig und exzessiv. Also wird es exzessiv. Nicht in jeder Show tritt der Kampf um Stoff nach Art eines Kreuzverhörs zutage, aber es ist eine Tendenz in allen Shows.

2. Die „Verkritisierung“ von allem und jedem ist möglich. Die meiste Spekulation ist nicht fesselnd, weil die meisten Ereignisse nicht fesselnd sind – Mensch, ich frage mich was mit der Deutschen Mark passieren wird! Werden sie ihre Arbeits-Probleme unter Kontrolle bekommen? Dies dient dem wohlbekannten Bedarf der Medien nach einer Krise. Krise bei der Deutschen Mark! Oh je! Passt auf! Krisen einigen das Land, ziehen Zuschauer in großer Zahl an und liefern etwas, über das sich treffend spekulieren lässt. Ohne Krise wird das Gerede bald zu einer Debatte darüber degenerieren, ob die Schiedsrichter eines Footballspiels das letzte Footballspiel hätten noch einmal begutachten sollen. Es gibt also eine Tendenz zu Dringlichkeit und Bedeutung zu hypen und ein Geh-Hin-Gefühl zu vermitteln, wenn das nicht wirklich angemessen ist. Man betrachte die ellenlange Schriftrolle unten im Bildschirm bei der Beerdigung der Königin-Mutter. Wie auch immer die Story um die Königin-Mutter geartet ist, es ist keine Krise. Ich habe sogar ein paar Tage lang die Berichterstattung über meine eigene Scheidung auf CNN verfolgt. Es ist irgendwie schmeichelhaft, obwohl die Darstellung falsch war. Aber meine Scheidung ist mit Sicherheit keine ultimative Brandnachricht.

3. Oberflächlichkeit als Norm. Es muss schnell gehen. Man muss sofort zu den Höhepunkten kommen. Spekulation ist der Oberflächlichkeit förderlich. Das ist es, oder?

4. Endlose Präsentation von Unsicherheit und Konflikten kann Lösungen von Dingen in die Quere kommen. Es gibt einige Beweise, dass die Verteilungskämpfe im Fernsehen nicht nur nicht die Meinungen der meisten Menschen repräsentieren – die nicht so polarisiert sind – sondern dass sie dazu tendieren, die Lösungen aktueller Streitfälle in der realen Welt schwieriger zu machen. Zu allermindest verschleiern diese Verteilungskämpfe die Erkenntnis, dass Streitfälle jeden Tag gelöst werden. Kompromisse bei relativ zentralen Positionen sind viel einfacher als bei extremen oder feindlichen Positionen, die miteinander im Konflikt stehen: Greenpeace gegen die Holzindustrie.

5. Die unendliche Kette von Spekulationen pflastert den Weg zum Streit über Brustimplantate, Hysterie über das Jahr-2000-Problem oder globale Erwärmung, Artikel im The New Yorker über Todesströmungen [currents of death] und eine Vielzahl anderer Resultate, deren Eintreffen keine guten Dinge wären. Es kommt irgendwann zu der Vorstellung – was für die Medien sehr bequem ist – dass am Ende nichts sicher ist. Wenn das tatsächlich nicht wahr ist.

Ich möchte auf eine vorzeigbare schlimme Auswirkung der Hypothese hinweisen, dass nichts wirklich erfahrbar ist. Das Whole Word Reading [ein neues System zum Erlernen von Wörtern in der Grundschule, Anm. d. Übers.] wurde eingeführt durch die Bildungsschulen im ganzen Land, meines Wissens ohne irgendein Test der Effizienz der neuen Methode. Sie war auf einmal da. Generationen von Lehrern wurden mit diesen Methoden indoktriniert. Als Folge davon weisen die USA eine der höchsten Analphabetenrate in der industrialisierten Welt auf. Die Hypothese, dass man nichts mit Sicherheit weiß, hat schreckliche Konsequenzen.

GK Chesterton sagte (in einem anderen Zusammenhang): „Falls man an nichts glaubt, glaubt man an alles“. Genau das erleben wir heute. Die Menschen glauben alles.

Wir müssen anfangen, uns daran zu erinnern, dass jeder, der seinerzeit sagte, das Jahr-2000-Problem sei kein wirkliches Problem, entweder niedergebrüllt oder von der Öffentlichkeit fern gehalten worden ist. Gleiches gilt für Bereiche wie das Aussterben von Spezies und globale Erwärmung. Man hört niemals jemanden, der sagt, das ist keine Krise. Das möchte ich nicht weiter vertiefen, weil es uns zur Heranziehung von Fakten bringen könnte, aber ich möchte zwei Berichte erwähnen, von denen ich spekuliere, dass Sie von diesen noch nie gehört haben. Der erste Bericht findet sich im Magazin Science vom 18. Januar 2001 (Oha! Eine Tatsache!), dass im Gegensatz zu früheren Studien die Antarktische Eismasse zu- und nicht abnimmt, und dass diese Zunahme bedeutet, dass wir endlich ein Ende des Schrumpfens der Eismasse sehen, welche bereits seit Tausenden von Jahren im Gange ist, seit Beginn des Holozäns. Ich weiß nicht, was überraschender ist – das Statement, dass das Eis zunimmt, oder das Statement, dass die Schrumpfung Tausende Jahre der globalen Erwärmung vorausgegangen ist.

Die zweite Studie ist ein Bericht der National Academy of Sciences über die ökonomischen Auswirkungen des jüngsten El Nino-Ereignisses von 1997 [zur Erinnerung, dieser Beitrag stammt aus dem Jahr 2002, Anm. d. Übers.]. Jene Erwärmung erbrachte einen Gesamt-Profit von 15 Milliarden Dollar für die Wirtschaft. Darin enthalten sind die Verluste von 1,5 Milliarden in Kalifornien durch Regen, welche jedoch ausgeglichen wurden durch billigere Treibstoffrechnungen infolge eines milderen Winters und einer längeren Wachstumssaison. Gesamtergebnis 15 Milliarden an gestiegener Produktivität.

Das Andere, was ich erwähnen möchte ist, dass während der letzten 100 Jahre, während die mittlere Temperatur um lediglich 0,3°C gestiegen ist, das Magnetfeld der Erde um 10% abgenommen hat. Dies hat viel stärkere Auswirkungen als globale Erwärmung und ist potentiell für das Leben auf diesem Planeten weitaus ernster.

Unser Magnetfeld ist das, was die Atmosphäre bereit hält. Sie schirmt uns ab vor tödlicher Strahlung aus dem Weltall. Eine Abnahme des Erdmagnetfeldes um 10% ist extrem besorglich. Aber wer ist besorgt? Niemand! Wer ruft nach Gegenmaßnahmen? Niemand! Warum nicht? Weil man nichts dagegen tun kann. Wie das in Relation zur globalen Erwärmung zu setzen ist, möchte ich Ihrer eigenen Spekulation überlassen.

Persönlich denke ich, dass wir uns von den Medien abwenden sollten, und die Daten zeigen, dass wir das bereits tun, zumindest was die Fernsehnachrichten betrifft. Ich finde, dass wann immer es mir fehlt, den Medien ausgesetzt zu sein, ich viel glücklicher bin, und mein Leben fühlt sich besser an.

Abschließend möchte ich daran erinnern: Während es so Manches gibt, das wir nicht sicher wissen können, gibt es viele Dinge, die herausgefunden werden können und tatsächlich auch herausgefunden werden. Jedoch nicht durch Spekulation. Sondern durch sorgfältige Untersuchung und rigorose statistische Analyse. Da wir in diesem vorübergehenden Ozean von Spekulation schwimmen, vergessen wir, dass man Dinge mit Sicherheit wissen kann, und dass wir nicht in einer angstvollen Welt unendlicher, nicht gestützter Meinungen leben. Aber der Graben, der harte Fakten von Spekulation trennt, ist inzwischen so unbekannt, dass die meisten Menschen ihn nicht fassen können. Vielleicht kann ich ihn mit folgender Geschichte verdeutlichen:

Auf einem Flug nach Europa platzierte man mich neben einem Mann, der sehr unglücklich ist. Es stellt sich heraus, dass er ein Arzt ist, den man für eine zweijährige Doppelblind-Studie für die FDA [= die amerikanische Gesundheitsbehörde, Anm. d. Übers.] engagiert hatte bzgl. der Wirksamkeit von Medikamenten, und es könnte zum Fenster hinaus geworfen sein. Nun bedeutet eine Doppelblind-Studie, dass es vier separate Forscherteams gibt, die untereinander keinen Kontakt haben – vorzugsweise arbeiten sie an unterschiedlichen Universitäten in verschiedenen Teilen des Landes. Das erste Team definiert die Studie und legt die Behandlungsweisen fest, die wirklichen Arzneien und die Kontrollen. Das zweite Team erklärt die Einnahme den Patienten. Das dritte Team sammelt die Daten und schätzt unabhängig die Wirkung der Arznei auf jeden Patienten. Das vierte Team sammelt die Daten und führt eine statistische Analyse durch. Die Kosten dieser Art von Studien betragen, wie man sich vorstellen kann, Millionen Dollar. Und die Teams dürfen sich niemals treffen.

Mein Nachbar ist unglücklich, weil Monate nach Ende der Studie er in einem Wartesaal am Flughafen Frankfurt ins Gespräch mit einem anderen Mann dort gekommen war, und sie entdecken – zu ihrem Schrecken – dass sie beide in der Studie involviert waren. Mein Nachbar war in dem Team, welches die Arzneien verabreichte. Der andere Mann war in dem Team mit den Statistiken. Es gibt keinen Grund, warum einer den anderen zu diesem späten Zeitpunkt beeinflussen sollte, aber nichtsdestotrotz verlangt das Protokoll, dass sich die Teammitglieder niemals treffen. Und so wartet mein Nachbar jetzt darauf, von der FDA zu hören, ob diese die Studie insgesamt einstampfen wollte wegen dieses zufälligen Zusammentreffens in Frankfurt.

Das sind jene Strapazen, durch die man hindurch muss, falls man sicher sein will, dass seine Information korrekt ist. Aber wenn ich den Menschen diese Story erzähle, starren sie mich nur verständnislos an. Sie finden das absurd. Sie glauben nicht, dass es notwendig ist, all das zu tun. Sie glauben, es ist Overkill. Sie leben in der Welt von MSNBC und der New York Times. Und sie haben vergessen, was reale, zuverlässige Informationen sind sowie die Mühen, diese zu erhalten. Das ist so viel schwerer als einfach nur zu spekulieren.

Herzlichen Dank!

International Leadership Forum, La Jolla (26 April 2002)

Quelle: http://larvatus.com/michael-crichton-why-speculate/

Übersetzt von Chris Frey EIKE




Winter 2016/17 in Deutschland mit Hochdruck und eiskalten Über­raschungen- gute Aussichten für Frühjahr und Sommer?

 

Nur etwas überschätzt: Ein halbes bis ein Kelvin zu mild war der Winter diesmal in Mitteleuropa nicht, sondern fast temperaturnormal. Das ergab immerhin „Note 4“. Quelle: NOAA, Eingabezeitraum 21. bis 30.11.2016.

Hier zunächst die Daten für den abgelaufenen Winter 2016/17 (offizielles DWD- Deutschlandmittel):

Dezember 2016 +2,2°C Januar2017 -2,2°C Februar 2017 +2,9°C, Winter +1,0°C

Mittel 1981 bis 2010 Dez. +1,2°C Jan. +0,4°C, Feb. +0,9°C Winter 1980/81 bis 2009/10 +0,9°C

Abweichung Dez. +1 K, Jan. -2,6 K, Feb. +2,0 K, Winter +0,1 K

UKMO (Großbritannien): Stand 14.11.2016 Winter (D, J, F) mit undeutlicher Wahrscheinlichkeit nur in Norddeutschland zu mild (folgende Karte):

http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Bewertung: Fast zutreffend, besonders im Dez/Jan. war es an den Küsten zu mild, aber sehr unkonkret, Note 4

Bewertung: In der Nordostschweiz waren der Dezember etwas und der Januar deutlich sowie der Winter insgesamt etwas zu kalt, daher fast zutreffend, aber sehr unkonkret, Note 4

Bewertung: Winter insgesamt fast getroffen, aber Dezember und Februar deutlich und Januar völlig verfehlt, Note 5

Kaltwetter.com Prognose vom 28.11.2016: Winter insgesamt normal, wobei Dezember und Februar etwas zu mild werden sollen, der Januar aber deutlich zu kalt ausfällt.

IRI (folgende Abbildung), Vorhersage vom Nov. 2016: Mit leicht erhöhter Wahrscheinlichkeit zu mild.

Bewertung: Fast zutreffend, aber sehr unkonkret, Note 4

DWD (Offenbach): Leicht erhöhte Wahrscheinlichkeit für einen kalten oder normalen Winter (Stand Nov. 2016):

Bewertung: Nur bedingt zutreffend, eine höhere Wahrscheinlichkeit für „mittel“ wäre richtiger gewesen, dazu sehr unkonkret, Note 5

NASA (US- Weltraumbehörde) Karte vom November 2016: Winter in Mitteleuropa etwa 1,5 bis 2,5 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

Bewertung: Winter deutlich um mehr als 2 Intervalle verfehlt, da bei weitem nicht so mild, Note 6. Die später veröffentlichten Prognosen, speziell die Vorhersage eines zu kalten Januars, waren dann deutlich zutreffender.

Stefan Kämpfe (hier bei EIKE am 03.12.2016 veröffentlicht):

Dieses Fazit wurde aus 30% der Tendenz der 2- K- September- Regel, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 10% Analogfälle und 10% der vorwiegenden Tendenz der Langfristprognosen gewichtet. Aktualisierung voraussichtlich Ende Dezember.

Ein lehrbuchreifes Beispiel für Inkonsistenz- die Schwierigkeiten einer Langfristprognose: Der Februar- Schlingerkurs des CFSv2- Modells (NOAA)

Wie schwer sich Modellrechnungen schon mit der Temperaturprognose des Folgemonats tun, zeigt das folgende Beispiel. Der Eingabezeitraum vom 21. bis zum 31. Januar 2017 ergab überall in Europa einen viel zu milden Februar. Gemessen am ohnehin schon hohen CLINO- Wert 1981- 2010 sollte es in Süd- und Mitteldeutschland um 3 bis 4 Kelvin (graubrauner Farbton) und in Norddeutschland um 1 bis 3 Kelvin (roter bis dunkelroter Farbton, Quelle: NOAA) zu warm sein:

Nur 9 Tage später, als die Kaltluft eines Skandinavien- Hochs längst in Nord- und Mitteldeutschland angekommen war, sah die Februarprognose ganz anders aus:

Versagte diesmal die „2 K- Septemberregel“?

Der Winter 2016/17 war, gemessen am Langfrist- Mittel seit 1761/62, also etwas zu mild.

Fazit: Obwohl die Langfristprognosen diesmal ein etwas besseres Ergebnis als in der Vorsaison lieferten, sind sie keine sicheren Vorhersagen und bleiben mit vielen Mängeln behaftet. Der chaotische Charakter der Abläufe in der Atmosphäre lässt trotz modernster Computer und fortschreitender Erkenntnisse in Meteorologie und Klimatologie keine sicheren Langfristprognosen zu. Vor diesem Hintergrund erscheint die politische Agenda des „Klimaschutzes“, welche sich ja auf noch viel langfristigere Vorhersagezeiträume von Jahrzehnten bis zu 100 Jahren bezieht, als ein aussichtsloses Vorhaben.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 02.03. 2017




Auch der Februar wird in Deutschland seit 30 Jahren kälter

Pollenallergiker waren ab dem 15. Februar durch die Haselpollen geplagt. In den Städten und entlang der sehr milden Rheintals teilweise auch schon ab Ende Januar. natürlich etwas früher. Der Deutsche Wetterdienst (DWD) gibt den Monat am 26.2. mit einem Schnitt von 3 C für Deutschland an. In Weimar wurde der Beginn der Haselblüte diesmal am 2. Februar beobachtet:

Grafik 1: Der Eintritt der Haselblüte (Vorfrühlingsbeginn) variierte in Weimar seit 1990 zwischen Anfang Dezember und Ende März. Wegen dieser enormen Streuung ist der Verfrühungstrend nicht signifikant.

Im Folgenden wollen wir uns wieder fragen, wo ist diese Februartemperatur von 3 C einzuordnen: a) innerhalb der letzten 100 Jahre und b) wie verhielten sich die letzten 30 Februarmonate?

Wie jedermann weiß, werden beim Klima den Deutschen die schönsten Märchen aufgetischt. Es sollte immer wärmer geworden sein aufgrund der Zunahme der Treibhausgase, insbesondere von Kohlendioxid, und in den letzten beiden Jahrzehnten sollte der Erwärmungstrend besonders stark sein. Und vor allem die Wintermonate sollten die ersten Opfer der Erwärmung sein.

Im Folgenden wollen wir diese Orakel der gut verdienenden Computer-Erwärmungswissenschaft einer Prüfung unterziehen. Beginnen wir mit 100 Jahren Februartemperaturen anhand der Originaldaten des Deutschen Wetterdienstes:

Grafik 2: Der Monat Februar zeigt das gewohnte Bild aller deutschen Monate. Der Temperaturverlauf ähnelt einer Schwingung mit zwei Wellenbergen und einem leichten Tal. Zunächst wurde der Monat kälter bis über die Jahrhundertmitte hinaus. Vor der Jahrtausendwende wurde der Monat wieder wärmer und erreichte ein neues Plateau

Das derzeitige Plateau liegt nach dieser DWD-Grafik etwas höher als das vor über 100 Jahren. Es erfolgte jedoch nicht kontinuierlich wie die Trendlinie vorgibt, sondern hauptsächlich durch einen Temperatursprung in den Jahren zwischen 1986 bis 1989. Außerdem sind die Werte des Deutschen Wetterdienstes nicht wärmeinselbereinigt, die Zusatz-Temperaturen der immer wärmer werdenden Städte, Siedlungen und Industriezonen messen die Thermometer der Wetterstationen mit. Wo vor 100 Jahren noch freie Fläche war stehen heute wärmende Flughäfen, Häuser oder Industrie- und Gewerbezonen. Wärmeinselbereinigt wären beide Plateaus gleich hoch, bzw. der Februar wäre derzeit leicht kälter wie vor 100 Jahren.

Leider gibt es keine einzige deutsche Wetterstation, deren Umgebung unverändert geblieben ist und noch so dasteht wie vor 100 Jahren. Unbeheizte Klöster oder Forsthäuser am Waldrand mit Wetterstationen gibt es nicht mehr. Wir wollen als Beispiel aber doch die Zugspitze betrachten, deren Besucherströme und der damit verbundene wärmende Ausbau erst nach der Einheit so richtig zugenommen haben und derzeit verstärkt anhält und Deutschlands höchster Berg mit 2962 m Höhe noch bis vor der Wende mit weniger Touristen und mit weniger Zusatzwärme beeinflusst war.

Grafik 3: Die Zugspitze, Deutschlands höchster Berg zeigt einen ähnlichen Temperaturverlauf wie die Deutschlandtemperaturen. Allerdings ist das momentane Temperaturplateau nicht so ausgeprägt wie beim DWD-Februarverlauf der letzten 100 Jahre.

Ergebnis: Die Zugspitze als weniger mit Zusatzwärme aus den Wärmeinseln beeinflusste Wetterstation zeigt über die letzten 100 Jahre gar keine Erwärmung. Trotz eines mit – 7,8C relativ warmen Februars 2017 im Vergleich zu den Vorjahren.

Die beiden Grafiken zeigen erneut, dass die behauptete CO2 induzierte Erwärmung im Monat Februar wirkungslos ist, falls es sie überhaupt geben sollte. Der Leser muss wissen: CO2 als erwärmendes Treibhausgas konnte bislang noch durch keinen einzigen wissenschaftlichen Versuch bestätigt werden, selbst Svante Arrhenius hatte am Ende seines Lebens entnervt aufgegeben. Deshalb bleibt die Treibhauserwärmung seit über 100 Jahren eine Hypothese. Die Temperaturen werden von anderen Faktoren bestimmt.

Die letzten 30 Jahre des Monates Februar in Deutschland

30 Jahre sind eine Klimaeinheit, deshalb ist es notwendig, diesen Zeitraum anhand der Daten des DWD näher zu untersuchen. Die einzelnen deutschen Stationsleiter erheben ihre Daten gewissenhaft und auch die wissenschaftlich ausgebildeten Mitarbeiter in der 2.ten Reihe des DWD werten die Einzelergebnisse sorgfältig aus. Nur eben, dass die einzelnen Jahreswerte nicht wärmeinselbereinigt sind. Das Ergebnis ist überraschend, weil es den ständigen Medienerwärmungsmeldungen, die auf uns Deutsche hereinprasseln, widerspricht. Diese nun folgenden Grafiken werden natürlich in den Medien nicht abgebildet, sondern immer nur behauptet, dass es wärmer würde und dann orakelt, dass die Apfelbäume bald zu Jahresanfang blühen würden.

Grafik 4: Der Monat Februar wurde in den letzten 30 Jahren kälter in Deutschland, das zeigen die vom Deutschen Wetterdienst bzw. von den einzelnen Stationsleitern sorgfältigst erhobenen Temperaturdaten. Allerdings sind die Daten nicht wärmeinselbereinigt, sonst wäre die Trendlinie noch fallender.

Wärmeinselarme Stationen:

Nun gibt es in Deutschland auch Wetterstationen, deren Umgebung sich in den letzten 30 Jahren weniger durch menschliche Zusatzwärme verändert hat. Wie oben erwähnt, scheidet die Zugspitze wegen der umfangreichen Baumaßnahmen, die derzeit verstärkt anhalten, als wärmeinselarme Station für die letzten 30 Jahre und erst recht für die letzten 20 Jahre aus. In einem früheren Artikel sind wir bereits ausführlich darauf eingegangen. http://www.eike-klima-energie.eu/news-cache/warum-die-zugspitze-und-andere-bergstationen-fuer-temperaturvergleiche-wenig-brauchbar-sind/

Eine WI-arme Wetterstation ist hingegen Neugersdorf (sprich Neu-Gersdorf) in der Oberlausitz. Der kleine Ort befindet sich am Nordhang des Hutungsberges, Landkreis Görlitz im Quellgebiet der Spree an der deutsch-tschechischen Grenze im Lausitzer Bergland, nahe dem kleinsten Mittelgebirge Deutschlands, dem Zittauer Gebirge; daran schließen sich nach Osten das Iser- und Riesengebirge an. Wie im Erzgebirge lebt man auch hier vom Einfluss des böhmischen Windes, aber Neugersdorf hat klimatisch und geografisch wenig mit dem Erzgebirge zu tun.

Grafik 5: In der Oberlausitz sind die Februar-Temperaturen viel stärker gefallen als bei den DWD-Stationen. Neugersdorf ist ein Beispiel für eine ländliche Station, deren Umgebung keine größeren Änderungen in den letzten 30 Jahren erfahren hat.

Im Folgenden zeigen wir mit Amtsberg die Februartemperaturen einer weiteren wärmeinselarmen Station im Vergleich zu den DWD-Deutschlanddaten.

Grafik 6: Die ländliche und wärmeinselarme Station Amtsberg/Dittersdorf zeigt zweierlei: Einmal ist sie kälter als die DWD-Daten, auch vor 30 Jahren, weil bei den DWD-Daten natürlich auch ausgeprägte wärmeinselbehaftete Stationen in den Städten und Flughäfen mitgezählt werden. Zum anderen geht die Trendlinienschere immer mehr auseinander. Die freie Fläche in Deutschland – das sind 85%- kühlt viel stärker in den letzten 30 Jahren ab als der Gesamtschnitt.

Ergebnis: Bei der wärmeinselarmen, ländlichen Station Amtsberg-Dittersdorf im Erzgebirge ist die Februarabkühlung wie erwartet stärker. Somit zeigt auf dem Lande der Monat Februar genauso wie der Monat Januar eine enorme Abkühlung. Dabei haben die CO2-Konzentrationen, die erwärmend wirken sollten, besonders in den letzten 30 Jahren weltweit und damit auch in Amtsberg und Neugersdorf zugenommen.

Februar in der Gegenwart: Gegenwart = letzte 20 Jahre.

Als Gegenwart definieren wir die letzten 20 Jahre. Gerade in diesem Zeitraum wurden wir Deutsche besonders geängstigt über die Gefahr einer zunehmenden Klimaerwärmung. Angeblich wären wir mittendrin und besonders die Wintermonate und die Gegenwart sollte abrupt wärmer werden, so die Prognosen der gläubigen Erwärmungswissenschaft.

Die Realität der deutschen DWD- Wetterstationen zeigt das genaue Gegenteil:

Grafik 7: In der Gegenwart, also in den letzten 20 Jahren ist die Trendlinie des Monates Februar viel stärker negativ als über 30 Jahre. Der Hauptteil der Abkühlung des Monates Februar passierte also in den letzten 20 Jahren. Anmerkung: Die Zugspitze hat wegen der oben geschilderten starken Zunahme des Wärmeinseleffektes in den letzten 20 Jahren eine ebene Trendlinie mit y = + 0,003 x

Ergebnis: Besonders in den letzten 20 Jahren wurden wir Deutsche durch falsche Medienberichte gequält: Eine katastrophale Erwärmung wurde uns prophezeit und die drei Wintermonate sollten doch die Vorreiter der Erwärmung sein. Insbesondere die behördlich anerkannten und ideologisierten deutschen Umweltverbände wie BUND, NABU, WWF und Greenpeace malten ihren Mitgliedern wahre Katastrophenszenarien in ihren Mitgliederzeitschriften der letzten Jahre vor. Die wirkliche Klimaänderung des Monates Februar in Deutschland heißt Klimaabkühlung. Wie es weitergeht weiß niemand, denn das Klima der nächsten 30 Jahre ist nicht vorhersagbar.

Ein Blick weit nach Osten: Keine Februar- Erwärmung seit 50 Jahren!

Grafik 8: Am kältesten, dauerhaft bewohnten Ort der Erde (Oimjakon, etwa 700 Einwohner, gelegen in einem Hochtal des ostsibirischen Berglandes) gibt es schon seit 50 Jahren keine Februar-Erwärmung. Der Februar blieb hier unter minus 42 °C kalt. Für 2017 liegen noch keine Werte vor.

Eines ist aber sicher: Der angebliche wärmende CO2-Treibhauseffekt hatte keine erwärmende Wirkung beim Februar in den letzten 100 Jahren in Deutschland. Hätte sich Deutschland in den letzten 100 Jahren nicht verändert, dann wären die Februartemperaturen der Gegenwart sogar etwas unter dem Temperatur-Wellenberg vor 100 Jahren. Einzig in den Städten und in den anderen Wärmeinseln wurde der Februar in den letzten 100 Jahren wärmer.

Und die letzten 30 Jahre? Es bleibt fraglich, ob es überhaupt eine deutsche Wetterstation gibt, in welcher der Monat Februar in den letzten 30 Jahren wärmer wurde.

Wieder – wie schon beim Monat Januar – sind die Leser aufgerufen, bei ihrer Heimatwetterstation nach den Temperaturdaten der letzten 30 Jahre zu forschen und deren Trendlinienverlauf bei den Kommentaren uns zu melden. Genauso sind die Leser aufgerufen, ihre Tageszeitungen auf das Kälter werden des Monates Februar hinzuweisen. Wir bitten die Leser, sich die Falschmeldungen der Medien nicht weiter gefallen zu lassen. Weil es im Januar und Februar kälter wurde müssen logischerweise auch alle zeitigen Frühjahrsblüher verspätet sein. Das werden wir in einem unserer nächsten Artikel zeigen. Schließlich blüht das Märzenveilchen immer noch oder wieder im März wie zu Mozarts Zeiten.

Josef Kowatsch, täglicher Naturbeobachter und unabhängiger, weil unbezahlter Klimawissenschaftler.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher