Aussterben von Spezies und Abbruch des Golfstromes

Und wir nehmen uns die Behauptung vor, dass der vom Menschen verursachte Klimawandel einen starken Zufluss von Süßwasser aus den schmelzenden Gletschern in Grönland in Gang setzen wird. Dies soll zum Zusammenbruch der thermohalinen Zirkulation und/oder des Golfstromes im Nordatlantik führen. Das wiederum soll eine starke Abkühlung mit sich bringen ähnlich der wie vor 818 bis 8340 Jahren, als ein Eisdamm in Kanada brach und gewaltige Mengen Süßwasser in den Atlantik strömten.

Globale Erwärmung führt zu einem „großen Aussterben“

Unabhängig von den potentiellen finanziellen Kosten der globalen Erwärmung behaupten Einige, dass die moderate Erwärmung seit Mitte des 19. Jahrhunderts um 0,8°C immer mehr Spezies aussterben lässt. Anderen zufolge soll dies durch den Bevölkerungszuwachs verursacht werden. Tatsächlich hat sich National Geographic zu der Behauptung verstiegen, dass wir uns inmitten des „sechsten großen Aussterbe-Ereignisses der Erdgeschichte“ befinden. Nadia Drake proklamiert, dass die gegenwärtige Aussterberate 100 mal größer sein könnte als die normale Rate. Dies ist auch Gegenstand eines Buches mit dem Titel The Sixth Extinction von Elizabeth Kolbert. Falls das stimmen sollte, wären dies beachtliche Kosten entweder der globalen Erwärmung oder des Bevölkerungszuwachses.

Experten hinsichtlich der fünf derartigen Ereignisse in der Vergangenheit stehen nicht hinter diesem Gedanken. Der Paläontologe am Smithonian Doug Erwin, Experte hinsichtlich der Aussterbewelle im Perm, bei welcher durchaus etwa 90% aller damals lebenden Spezies ausgestorben sein können, sagt, dass all jene, die uns in einer ähnlichen Lage befindlich behaupten, einfach nicht wissen, was Massenaussterben eigentlich ist (hier). Erwin weist darauf hin, dass während der jüngeren menschlichen Historie zwischen 0 und 1% aller Spezies ausgestorben sind. Man beachte, was er The Atlantic in einem Interview gesagt hat:

Man kann also fragen „nun gut, wie viele geographisch weit verbreitete und reichlich vorhandene Meeres-Lebewesen [durably skeletonized marine taxa] sind bisher ausgestorben?“ Die Antwort lautet: „Die Zahl liegt nahe Null!“. Tatsächlich sind in den am besten überwachten Tierarten heutiger Tiere – Steinkorallen, Amphibien, Vögel und Säugetiere – irgendwo zwischen 0 und 1% aller Spezies ausgestorben. Zum Vergleich, das Massenaussterben zum Ende des Perm raffte über 90% aller Spezies auf der Erde dahin.

Der Umweltwissenschaftler Daniel Botkin (Biographie hier) hat geschätzt, dass die Aussterbe-Rate für Tiere und Pflanzen derzeit bei einer Spezies pro Jahr liegt. Das ist keine alarmierende Rate und sehr weit entfernt von einem „Massenaussterben“.

In der dänischen Presse habe ich darauf hingewiesen, dass wir schon lange mit viel zu hohen Zahlen bzgl. des Aussterbens von Spezies auf der Erde konfrontiert werden – dass wir etwa die Hälfte aller Spezies innerhalb einer Generation verlieren werden. Die richtigere Zahl liegt näher an 0,7% innerhalb von 50 Jahren. Dies führte zum Greenpeace-Chef von Dänemark Niels Bredsdorff, der darauf verwies, dass Greenpeace lange Zeit die Zahl 0,7% akzeptiert habe. – Lomborg, Bjørn. The Skeptical Environmentalist: Measuring the Real State of the World (p. 17).

Spezies sterben immer aus. Die meisten Spezies, die jemals auf der Erde gelebt haben, sind ausgestorben. Die mittlere Rate für Tiere und Pflanzen liegt etwa bei 1 pro Jahr (obwohl in einigen jüngeren wissenschaftlichen Studien von einer viel höheren mittleren Rate die Rede war, nämlich bis zu 6 pro Jahr). Die Aussterbe-Anzahl variierte mit der Zeit. Darunter waren 5 „Mega-Aussterbe“-Ereignisse seit der Bildung mehrzelliger Lebensformen vor etwa 550 Millionen Jahren. Während jedes einzelnen dieser Ereignisse scheint die Mehrheit der Spezies (nach geologischem Zeitmaßstab) innerhalb kurzer Zeit verschwunden zu sein. Zum stärksten derartigen Ereignis war es vor etwa 250 Millionen Jahren im Perm-Trias gekommen, als schätzungsweise 80% bis 90% aller damals lebenden Spezies ausstarben. – Botkin, Daniel B. 25 Myths That Are Destroying the Environment: What Many Environmentalists Believe and Why They Are Wrong (Kindle Locations 645-650).

Im IPCC-Bericht AR 5 (WG II) werden Lomborg und Botkin ein wenig verschwurbelt unterstützt. Auf Seite 43 der Technical Summary findet sich die folgende Graphik:

Abbildung 1: Raten der Änderungen der Verteilung verschiedener maritimer Lebensformen von 1900 bis 2000 (km pro Jahrzehnt). Positive Änderung bedeutet, dass sich diese Lebensformen ausgebreitet und allgemein in Richtung der Pole bewegt haben.


Während im AR 5 nicht von einem „großen Aussterben“ die Rede ist, wird aber doch von einem „großen“ Anteil sowohl von Festlands- als auch von Süßwasser-Spezies gesprochen, die vor der Gefahr stehen, infolge des Klimawandels auszusterben. Diese Prophezeiung basiert ausschließlich auf Modellrechnungen, und nichts dergleichen ist jemals beobachtet worden. Im AR 5 wird auch eingeräumt, dass nur sehr geringe Übereinstimmung besteht hinsichtlich des Anteils der gefährdeten Spezies (AR5 WGII, technical summary, Seite 67).

Das „große“ quaternäre Megafauna-Aussterben

Von Barnosky, 2008 gibt es eine Studie zum quaternären Megafauna-Aussterben (QME). Die Studie wird so eingeleitet:

Die jüngste Aussterbe-Episode, das Quaternäre Megafauna-Aussterben, raffte zwei Drittel aller Säugetierarten und die Hälfte aller Spezies mit einem Gewicht über 44 kg dahin, und zwar von vor 50.000 bis 3000 Jahren.

Nachdem er seine Stichprobe auf clevere Weise reduziert hatte, um zu der Angabe zwei Drittel zu kommen, proklamiert er:

Das QME tötete >178 Spezies der größten Säugetiere der Welt mit einem Gewicht von mindestens 44 kg (also etwa die Größe von Schafen bis zu Elefanten). Über 101 Gattungen verschwanden. Mit Beginn vor ~50.000 Jahren und weitgehendem Abschluss vor 7000 Jahren war es das letzte große Massen-Aussterben auf der Erde.

Das „große“ QME-Ereignis soll also etwa 178 Spezies der weltgrößten Säugetiere dahingerafft haben, nämlich all jene mit einem Gewicht über 44 kg (in etwa die Größe von Schafen bis zu Elefanten). Mora 2011 zufolge gibt es heutzutage 1,2 Millionen katalogisierte Spezies, und die Gesamtzahl könnte 8,7 Millionen lebende Spezies umfassen. Während also das Aussterben von 178 Spezies vor ~50.000 Jahren infolge eines rapiden Klimawandels bedauernswert ist, weil die Geschöpfe so interessant waren, war es geologisch kein signifikantes Ereignis. Es ist nicht einmal ansatzweise vergleichbar mit den fünf großen Aussterbe-Ereignissen. Ein „großes Aussterben“ wird vom American Museum of Natural History als ein Ereignis definiert, bei dem über die Hälfte aller Spezies innerhalb kurzer Zeit ausstirbt. Auf der Website des Museums liest man dazu:

Vor rund 65 Millionen Jahren, … vielfach in früheren Felsformationen vorhandene Fossilien sind in späteren Formationen einfach nicht mehr da. Eine Vielzahl von Tieren und Pflanzen starb plötzlich aus, von kleinen Meeres-Lebewesen bis zu großen Dinosauriern.

Spezies sterben zu jeder Zeit aus. Wissenschaftler schätzen, dass 99,9% aller Spezies, Tiere und Pflanzen, die je gelebt haben, inzwischen ausgestorben sind. Daher wäre das Verschwinden von Dinosauriern wie T. Rex und Triceratops vor rund 65 Millionen Jahren kein Aufhebens wert – außer bzgl. der Tatsache, dass mit ihnen rund 50% aller damals lebenden Tiere und Pflanzen ausgestorben sind. Wissenschaftler sprechen hierbei von einem Massen-Aussterben.

Also ist das quaternäre Megafauna-Aussterben um etwa drei Größenordnungen zu klein, um als „Großes Aussterben“ bezeichnet werden zu können, wie es Barnosky getan hat.

Das quaternäre Aussterbe-Ereignis begann vor ~50.000 Jahren und war vor 3000 Jahren weitgehend beendet. Die Aussterbe-Rate lag bei 0,004 Spezies pro Jahr, was viel niedriger ist als die mittlere langfristige Aussterbe-Rate von etwa 1 Spezies pro Jahr (Daniel Botkin, siehe oben). Offensichtlich ist das Aussterben der Säbelzahntiger, von Riesenwölfen [dire wolves], Mammuts und anderer Megafauna in der geologischen Historie kein außerordentliches Ereignis. Aber diese Tiere sind ihrer Größe wegen faszinierend, und wir messen ihnen viel mehr Gewicht zu als einer ausgestorbenen Kröte oder einem Insekt. Dies ist jedoch eine Werte-Beurteilung und kein geologisches Ereignis.

Barnosky verweist darauf, dass Menschen zur großen Gattung der Säugetiere gehören, doch haben sie trotzdem überlebt und sind gediehen. Sie behaupten außerdem, dass die Zunahme der menschlichen Biomasse weitgehend den Verlust großer Mengen nichtmenschlicher Biomasse bis vor 12.000 Jahren ausgleicht. Dann kam es zum Zusammenbruch von Megafauna-Biomasse, sind doch viele Megafauna-Spezies ausgestorben. Das klingt mir sehr nach „survivor guilt”. Vor 12.000 Jahren begann in etwa die menschliche Zivilisation. In China wurde bereits Reis kultiviert, in der Levante (heute das Gebiet der Staaten Israel und Syrien) gab es Ackerbau. Der Bau der großen Steinmonumente bei Gobekli Tepe in der heutigen Türkei begann ebenfalls um diese Zeit. Die Menschen begannen sesshaft zu werden und Landwirtschaft zu betreiben. Die Menschen haben sich ziemlich gut an die Bedingungen während des Younger Dryas und danach angepasst, was anderen Megafauna-Spezies nicht gelungen ist.

Vor 12.000 Jahren stand das Ende des Younger Dryas kurz bevor. Dies war eine 1000 Jahre lange Rückkehr zu Eiszeit-Bedingungen nach einer kurzem Warmphase von vor 15.200 bis 13.000 Jahren. Diese Zeiträume sind in Abbildung 2 dargestellt. Die Graphik zeigt den Temperaturverlauf, wie er sich aus dem Grönland-Eisbohrkern GISP2 ergab, untersucht von Alley 2004.

Abbildung 2: Daten aus Alley 2004

Zumindest in Grönland, aber vermutlich auch auf der ganzen Nordhemisphäre war es vor 12.000 Jahren sehr kalt. Eine Detailliertere zeitliche Aufschlüsselung gibt es hier. Abbildung 3 zeigt eine globale Rekonstruktion, hauptsächlich aufgrund maritimer Temperatur-Proxys, welche ziemlich genau das Gleiche zeigen, obwohl diese Reihe nur bis vor 12.000 Jahren zurück reicht:

Nachdem es vor 12.000 Jahren sehr kalt gewesen war, kam es danach zu einer rapiden weltweiten Erwärmung, besonders auf der Nordhemisphäre. Dies setzte viele Spezies unter Stress, zweifellos sind einige Spezies auch ausgestorben. Aber die Spezies, von denen wir besonders Notiz nehmen, sind die größeren Tiere. Einigen Schätzungen zufolge ist die Temperatur auf der Nordhemisphäre um 5°C bis 10°C innerhalb weniger Jahrzehnte gestiegen (Severinghaus et al., 1998). Diese extrem rasche Erwärmung dürfte auch auf viele andere Spezies Auswirkungen gehabt haben. Heutzutage gibt es einige Leute, die sich bzgl. eines Temperaturanstiegs um 0,8°C innerhalb von 137 Jahren Sorgen machen – aber man stelle sich eine Erwärmung von 5°C seit 1990 vor! Genau das hat auf der Erde am Ende des Youger Dryas stattgefunden.

Vor 12.000 Jahren hatte sich die Menschheit bereits in Afrika, Eurasien und den beiden Amerikas ausgebreitet. Der Aufstieg der Zivilisation und die Entwicklung neuer Jagdverfahren (Pfeil und Bogen, Speere und Speerwerfer – alles bereits vor mehr als 30.000 Jahren erfunden), machte die Jäger des Jungpaläolithikum sehr gefürchtet. Wir wissen, dass die Menschen zu jener Zeit auf die Jagd nach Megafauna-Spezies gegangen waren, und auch in Gegenden präsent waren, in denen die Megafauna ausstarb. In Australien verschwand die Megafauna innerhalb nur weniger tausend Jahre nach der Besiedelung des Kontinents durch Menschen und während einer Zeit mit stabilem Klima. Aber anderswo, wie in Eurasien, kam es zu Aussterbe-Ereignissen während Zeiten einer dramatischen Klimaänderung. Wahrscheinlich spielten sowohl die Jagd der Menschen jener Zeit als auch Klimawandel zusammen eine Rolle beim Aussterben der Megafauna. Eine Zusammenfassung der geologischen Beweise für beide Theorien gibt es aus dem Jahr 2014 hier sowie bei Barnosky 2008. Außerdem scheint klar zu sein, dass von der heute noch existierenden Megafauna vor 12.000 Jahren der Mensch am ehesten in der Lage war, sich an eine sich ändernde Welt anzupassen. Bis zu einem erheblichen Ausmaß haben die Menschen ihre Mit-Konkurrenten einfach überflügelt – Evolution im Vormarsch.

Barnosky erwähnt, dass heute einige Megafauna-Spezies heute vor dem Aussterben stehen. Viele dieser Spezies haben nur in Afrika überlebt. Das ist keine Überraschung. Afrika liegt beiderseits des Äquators und ist weniger verwundbar durch starken Klimawandel. Wegen ihrer Größe benötigt die Megafauna große Landgebiete, um in der Wildnis zu überleben. Sie werden in Nationalparks, auf privaten Ländereien und in Zoos geschützt. Aber mit dem Aufblühen der Menschheit ist der Mensch mehr am Erhalt dieser Spezies interessiert, und deren Aussterben ist unwahrscheinlich. Die Menschen des Jungpaläolithikums waren lediglich daran interessiert zu überleben. Die heutigen Menschen leben im Überfluss und sicher, und sie wenden Energie und andere Ressourcen auf, um das Überleben von Megafauna sicherzustellen – und nicht, um diese zu bedrohen.

Barnosky spekuliert, dass unser gegenwärtig hohes Niveau von „Biomasse“ großer Tiere nur durch fossile Treibstoffe erhalten werden kann und von der menschlichen „Biomasse“ dominiert wird. Das ist eine seltsame Art der Beschreibung des Tatbestandes, aber es könnte stimmen. Seine nächste Prophezeiung lautet, dass ein weiterer großer „Biomasse-Zusammenbruch“ unmittelbar bevorsteht, weil uns die fossilen Treibstoffe ausgehen. Dies jedoch ist unwahrscheinlich, weil seine Prophezeiung einer Versorgung mit Öl und Gas für nur noch 83 Jahre viel zu pessimistisch ist. In der Studie wird festgestellt, dass wir noch Ölvorräte für 50 Jahre und Gasvorräte für 200 Jahre haben. Ich habe die Gasversorgung in Ölversorgung umgerechnet mittels der USGS conversion von 6 MCF* Erdgas in 1 Barrel Öl-Äquivalent.

[*MCF = Mille (thousand) Cubic Feet. Früheres britisches Hohlmaß. Anm. d. Übers.]

Tabelle 1 (Quelle) zeigt eine wesentlich realistischere Schätzung bekannter Ressourcen von Kohlenwasserstoffen, die technisch förderbar sind. Sie ist sehr konservativ und enthält nicht alle bekannten Kohlenwasserstoffe. Alle in Tabelle 1 gelisteten Kohlenwasserstoffe können ökonomisch erzeugt werden zu Preisen, wie sie während der letzten 20 Jahre üblich waren. Es scheint, dass Barnosky nur „nachgewiesene“ oder „mögliche“ konventionelle Öl- und Gas-Lagerstätten gezählt hat. Die meisten der heute bekannten Öl- und Gasreserven werden jedoch als „unkonventionell“ klassifiziert (darunter Schiefer-Öl und Ölsande). Während die Produktion von unkonventionellem Öl und Gas teurer ist als die konventionelle Produktion, ist auch diese immer noch um eine Größenordnung billiger als die Erzeugung mittels Solar und Wind. . Kernkraft ist sogar noch billiger als Kohle und Erdgas, siehe hier. Unter dem Strich: Die verfügbare Energieversorgung ist nicht das Problem.

Tabelle 1. Quelle

Zwar spielte der Mensch im Paläolithikum (von vor etwa 40.000 bis 10.000 Jahren) eine gewisse Rolle beim quaternären Megafauna-Aussterben, doch war das eine sehr viel andere Menschheit als wir heute. Sie waren damals auf der Jagd für ihren Lebensunterhalt in einer sehr schwierigen Zeit. Dies führte zu physiologischen Änderungen, mussten sie sich doch an ein sehr kaltes Klima anpassen. Während dieser Periode konnten sie kaum Erfahrungen im Ackerbau sammeln, und wenn doch, dann nur in sehr primitiver Weise. Wenn die Nahrung vorbei spazierte, töteten und aßen sie das Wild. Wir haben schon früher gesehen, dass man sich nur dann um die Umwelt kümmern kann, wenn unser Einkommen stimmt und unseren Bedürfnissen Rechnung getragen wird (siehe den 1. Beitrag hier, auf Deutsch beim EIKE hier, Abbildung 2). Heute, wo das BIP in PPP$ über 2000 PPP$ pro Person hinausgeht, verbessert sich die Umwelt in jenem Land rapide.

Barnosky zufolge soll der Aufstieg des Menschen und weitere Aussterbe-Ereignisse von Megafauna einfach ein Ausgleich der Biomasse darstellen mit der Folge, dass mit dem Wachstum der Bevölkerung mehr bestehende Megafauna-Spezies aussterben. Ich finde diesen Ansatz hoch spekulativ, wenn ich an unseren Wohlstand denke und an unser Interesse, gefährdete Arten zu schützen. Es gibt einen Ausgleich der verfügbaren Landflächen, aber Biomasse? Mit moderner Landwirtschaft können wir viel mehr Menschen ernähren als früher. Außerdem können wir nahezu unbegrenzt Frischwasser verbrauchen. Und der Mensch hat ein offensichtliches Interesse, bestehende Megafauna-Spezies aus ästhetischen und humanitären Gründen zu erhalten und zu schützen. Sie laufen wohl nicht mehr in freier Wildbahn frei herum, aber ich bezweifle, dass wir es zulassen, dass große Tierarten aussterben. Das beste Mittel zum Erhalt von Megafauna ist eine wohlhabende und sichere menschliche Population.

[Jetzt folgt ein längerer Abschnitt zur Problematik der Eisbären. Hierzu sind jedoch auf der EIKE-Website jüngst ausführliche Beiträge veröffentlicht worden (am ausführlichsten hier), so dass dieser Abschnitt bei der Übersetzung übersprungen wird. Anm. d. Übers.]

Globale Erwärmung wird den Golfstrom zum Erliegen bringen und eine Mini-Eiszeit verursachen

Diesem hypothetischen Szenario zufolge soll schmelzendes Grönland-Eis den Salzgehalt im Atlantik zwischen Grönland und Norwegen verringern, was die Nordatlantische Thermohaline Zirkulation zum Erliegen bringt mit der Folge einer Kleinen Eiszeit wie vor 8200 Jahren. Aber dass es so kommt, ist sehr unwahrscheinlich. Vor 8200 Jahren ist ein gewaltiger Süßwassersee (Lake Agassiz) im Grenzgebiet zwischen den USA und Kanada, welcher ein Überbleibsel der letzten großen Vereisung war, nach dem Bruch eines Eisdammes in den Atlantik ausgelaufen. Dieses Ereignis verringerte den Salzgehalt des Oberflächenwassers und brachte die thermohaline Zirkulation zum Stillstand, was den Planeten über hunderte von Jahren abkühlte (siehe hier von Michael Michalek). Wir verweisen oft der Einfachheit halber auf eine Abkühlungsperiode vor 8200 Jahren, aber in Wirklichkeit gab es deren zwei, nämlich vor 8490 Jahren und dann wieder von vor 8340 bis 8180 Jahren. Lomborg schreibt dazu in Cool It:

Der Golfstrom ist vor 8200 Jahren zum letzten Mal zum Erliegen gekommen, als die letzten glazialen Eisschilde in Nordamerika schmolzen und einen gigantischen Süßwassersee um das Gebiet der heutigen Großen Seen entstanden ist. Eines Tages brach der Eisdamm, und eine beispiellose Masse Frischwasser ergoss sich in den Nordatlantik. Dadurch wurde das Absinken salzhaltigen Wassers aus dem atlantischen Strömungssystem unterbunden. Dies führte in Europa zu einer kleinen, fast 1000 Jahre langen Eiszeit …

Die Relevanz eines solchen Ereignisses hängt entscheidend davon ab, ob die Eisschmelze in Grönland von gleicher Größenordnung ist wie der antike Süßwassersee – und das ist nicht der Fall. Während des kommen Jahrhunderts [also dieses Jahrhundert, Anm. d. Übers.] erwartet das IPCC eine Eisschmelze in Grönland, die rund 1000 mal geringer ist als vor 8200 Jahren. Ein Modellierer-Team spielte ein Szenario durch, was geschehen würde, wenn das Grönlandeis mit einer drei mal so hohen Rate wie vom IPCC erwartet schmelzen würde – oder, wie sie es ausdrückten, „…obere Grenze der möglichen Schmelzraten“. Obwohl sie dabei eine Reduktion des Golfstromes heraus bekamen, zeigte sich, dass sich „die allgemeine Charakteristik nicht verändert“ und dass „eine abrupte Klimaänderung durch Schmelzen des grönländischen Eisschildes kein realistisches Szenario für das 21. Jahrhundert ist. …

Aus diesem Grunde auch äußert sich das IPCC in seinem Bericht aus dem Jahr 2007 sehr eindeutig zum Golfstrom: „Keines der gegenwärtigen Modelle simuliert eine abrupte Reduktion oder gar einen Stillstand des Golfstromes“. Den IPCC-Modellen zufolge reicht die Bandbreite von überhaupt keiner Änderung bis zu einer Reduktion um 50%, aber kein einziges Modell zeigt einen vollständigen Zusammenbruch. – Lomborg, Bjorn. Cool It (Kindle Locations 1334-1394).

Dieser Gedanke inspirierte den Film The Day after Tomorrow (,Am Tag danach‚) mit Dennis Quaid als Protagonist unter der Regie von Roland Emmerich. Der sehr ideenreiche Film ist angefüllt mit erheblichen wissenschaftlichen Fehlern, hat sich aber als Kassenschlager erwiesen. Sämtliche mir bekannten Geowissenschaftler, welche sich den Film anzusehen angetan hatten, verrissen ihn.

Schlussfolgerungen

Unter dem Strich gibt es keinen erkennbaren Trend hinsichtlich aussterben. Aber wir befinden uns mit Sicherheit nicht in einem „großen Aussterbe-Ereignis“. Der Golfstrom und das thermohaline Zirkulationssystem sind unverändert, und es gibt keinen „Lake Agassiz“, der darauf wartet, in den Atlantik auszulaufen. Das Eis in Grönland kann nicht schnell genug schmelzen, um den Salzgehalt bis zu einem Grad zu verdünnen, dass sich die Kaltphase von vor 8200 Jahren wiederholen kann.

Das Aussterben der quaternären Megafauna war sicher ein sehr trauriges Ereignis. Sowohl die Menschen der damaligen Zeit als auch radikale natürliche Klimaänderung spielten dabei eine Rolle, wie eindeutig aus den uns zur Verfügung stehenden Daten hervorgeht. Wenn man allerdings dieses sehr geringe Aussterbe-Ereignis mit den fünf großen Aussterbe-Ereignissen vergleicht, wie es Barnosky tut, legt man ein vollständiges Fehlen jeglicher Kenntnis der Verhältnismäßigkeit an den Tag sowie eine Ignoranz der geologischen Vergangenheit. Die wahren großen Aussterbe-Ereignisse waren entsetzliche Ereignisse, und der Verlust von 178 Spezies großer Tiere ist viele Größenordnungen zu klein, um dabei mithalten zu können. Um zu einer solchen Klassifizierung heutzutage zu kommen, müssten über eine halbe Million Spezies aussterben, und nichts dergleichen ist derzeit im Gange oder in absehbarer Zukunft zu erwarten.

Dr. Susan Crockford hat die Saga der Eisbären gut dokumentiert, welche fälschlich als „verwundbar“ bezeichnet werden, und man kann Einiges aus diesen Fiasko lernen. Man kann grundlegende politische Maßnahmen nicht auf die Grundlage nicht validierter Modelle und Prophezeiungen stellen. Der jüngste Trend, den Modellergebnissen ohne jedes Nachfragen zu glauben – oder noch schlimmer, die Modellergebnisse als reale Daten zu behandeln, muss aufhören. Sonst wird uns dieser Glaube an einem bestimmten Punkt über die Klippe springen lassen.

Link: https://wattsupwiththat.com/2017/12/16/extinctions-and-shutting-down-the-gulf-stream/
Übersetzt von Chris Frey EIKE




Ohne den Klima­wandel hätte das gleiche Wetter nicht so schlimme Folgen…

24.12.2017 Philippinen: Taifun fordert 200 Tote … Eines der größten Probleme ist der Anstieg des Meeresspiegels

Während die sonstigen Medien in ihren Meldungen über den Taifun bei den Philippinen auf einen Hinweis zum Klimawandel „verzichteten“, konnte es eine Homepage nicht lassen, eine Verbindung dazu „herzustellen“.
Nicht direkt, sondern nur so, dass jeder einfach daran denken muss. Schließlich „weiß“ man, dass ein „Anstieg des Meerespegels“ die unausweichliche Folge des vom bösen Westen verursachten, anthropogenen Klimawandels ist:
KLIMARETTER.INFO 24. Dezember 2017: [1] … Die Philippinen sind von einem schweren Tropensturm heimgesucht worden. Der Taifun „Tembin“, der auf den Philippinen „Vinta“ heißt, verwüstete kurz vor Weihnachten Mindanao, die südlichste Inselgruppe des Landes. Mehr als 200 Menschen kamen uns Leben …
… Die Philippinen gehören laut
einer Studie der Asiatischen Entwicklungsbank von 2012 zu den fünf am meisten vom Klimawandel bedrohten Ländern. Eines der größten Probleme ist der Anstieg des Meeresspiegels. Für den Inselstaat Philippinen bedeutet ein höherer Wasserspiegel in den Buchten, dass Taifune noch mehr Schaden anrichten können.
Im Artikel wird dazu als „Beleg“ auf eine Studie der Asiatischen Weltbank verlinkt. In dieser ist allerdings nichts weiter zu lesen, als dass steigende Pegel für niedrig liegende Küstenstädte ein Problem werden (können), als zusätzliche Information jedoch, dass dort Küsten öfters sinken, und dies – nicht steigende Pegel – das Problem sind [6].
Zudem erzeugen schwere Taifune Wellenhöhen von 10 … 20 m [8] [9]. Vollkommen unverständlich bleibt, warum einige Zentimeter Pegelerhöhungen über Jahrzehnte, dann „eines der größten Probleme“ darstellen soll.
Es ist nicht der erste Artikel von KLIMARETTER zu den Philippinen. Denn die Philippinen scheinen ein „Vorzeigebeispiel“ des schlimmen Klimawandels zu sein:
KLIMARETTER.INFO 07. August 2017: [2] Philippinen: Alleingelassen im Klimawandel Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel.In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen …
In diesem Vorgänger-Artikel wurde als Beleg bereits auf die gleiche „Studie“ der Asiatischen Weltbank verwiesen, dazu auf ein Interview von 2013 [4] mit einer Autorin des IPCC Meereskapitels zum IPCC Sachstandsbericht, welche damals zu den Pegeländerungen nichts weiter sagen konnte (eher: wollte), als dass alle Aussagen unsicher sind und zudem auf Simulationen beruhen:
[2]
… Drittens: Durch die Erwärmung des Ozeans und durch das Schmelzen der Gletscher und der Eisschilde erhöht sich der Meeresspiegel. Diese Erhöhung erfolgt doppelt so schnell wie noch vor ein paar Jahrzehnten. Aber hier müssen wir vorsichtig sein, dass wir nicht in Alarmismus verfallen, weil man mit den kurzfristigen Trends immer aufpassen muss.
Von 1870 bis heute hat sich der
Meeresspiegel um 19 Zentimeter erhöht. Wenn wir jetzt in die Projektionen gehen und fragen, wie stark der Meeresspiegel bis 2100 steigen wird, hängt das natürlich davon ab, wie viel an Treibhausgasen emittiert wird. Das Szenario RCP 2.6 mit einer starken Abschwächung des CO2-Ausstoßes geht von 26 bis 55 Zentimetern aus, das Szenario RCP 8.5 mit einem stark steigenden CO2-Ausstoß von 52 bis 98 Zentimetern.
Können Sie sich darauf festlegen, wie wahrscheinlich welche Prognose ist?
Nein, wir sind ja keine politischen Entscheidungsträger …

Auch auf den Philippinen gibt es Aktivist*innen, welche alarmistische „Studien“ platzieren

Wohl ein Gipfel an (Des-)Information zum Meerespegel um die Philippinen war eine pünktlich vor dem letzten Klimagipfel erschienene „Studie“ von Correctiv.org, an welcher KLIMARETTER wohl unterstützend beteiligt war: [2] „das Rechercheportal Correctiv, das bei seinem Meeresspiegel-Projekt mit klimaretter.info kooperierte“.
Der Autor berichtete darüber:
EIKE 13.08.2017:[7] Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
Darin hat der Autor detailliert und mit vielen Belegen gezeigt, dass die Darstellungen in dieser Studie zum Pegelanstieg bei den Philippinen falsch sind und die Recherche von Correktiv mit der alarmistischen Aussage zum Pegelanstieg bei Manila auf bewusstem Weglassen von Fakten beruht. Schlimmer noch, dass Correctiv dazu zwei Versionen – eine mit richtiger Darstellung (Manila versinkt, nicht der Meerespegel steigt) – und eine mit den klimaalarmistisch abgeleiteten Aussagen – veröffentlicht hat.
EIKE: [7]Correctiv.org hat von der Journalistin, Frau Manabat, zeitgleich zwei Artikel über Manila veröffentlicht.
Den auf klimaretter erschienen Artikel:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [6]
Philippinen: Allein gelassen Warum arme Länder durch den Klimawandelt noch ärmer werden … in dem der Klimawandel als Ursache des Pegelanstiegs „angeklagt“ wird.
Und den Zweiten, in dem die Landsenkung von Manila beschrieben wird:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [7]
Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen
Im ersten, – dem auf Klimaretter veröffentlichten Artikel [x] [x] – ist kein Hinweis zur Landabsenkung enthalten. Zwar kommt in der Überschrift das Wort „ … relativ zur Küste …“ vor. Dahinter wird ein Laie aber wohl kaum vermuten, dass genau dieses Wort den gesamten Artikel negiert. Der Link zur Weltbankstudie (siehe dazu [x]) ist ebenfalls so „getextet“, dass wohl niemand darauf kommen würde, dass gerade in dieser Studie eine Information zur Landabsenkung hinterlegt ist
Im Artikel hatte der Autor auch den wahrscheinlichen Pegelverlauf bei Manila „rekonstruiert“ (Bild 1).

Bild 1 Rekonstruktion des Pegelverlaufs Manila durch den Autor im Artikel [7]: Pegelverläufe Manila (blau), Cebu (rot), San Jose (grün). Pegel an den Startzeitpunkten auf den Pegel Manila normiert. Grafik vom Autor erstellt. Datenquelle: PSML Viewer

Nun wurde der „Anstieg“ des Meerespegels bei den Philippinen offiziell richtiggestellt

Inzwischen hat auch die NOAA das Problem ihrer Tiden-Pegeldarstellung zu Manila erkannt und eine Ergänzung hinterlegt.
Dazu muss man wissen, dass die NOAA-Tidenpegel immer ohne isostatische Korrekturen, also als reine Messwerte angegeben sind. Manila versinkt durch seine Bevölkerungszunahme und die damit einhergehende, exzessive Wasserentnahme buchstäblich im schlammigen Untergrund.
Das stellen die Messwerte richtig dar und als Pegelverlauf ergibt sich das folgende Bild (2). Nur ist in diesem nicht erkennbar, dass seit 1970 nicht der Meerespegel anstieg, sondern Manila so extrem in seinen Untergrund versunken ist.

Bild 2 Pegeldarstellung Manila auf der NOAA Homepage mit erklärendem Text (Reiter: Mean Sea Level Trend)


Mit dieser Darstellung „belegen“ „Klimawissenschaftler*innen“ regelmäßig die schlimmen Auswirkungen des Klimawandel-bedingten Pegelanstiegs gerade in dieser schon von Taifunen regelmäßig schlimm bis extrem heimgesuchten Zone.
Bei der NOAA hat man dieses Problem der vielen Fehlinterpretationen wohl erkannt, und nun hinter dem Reiter „Interannual Variation“ ein weiteres Pegelbild hinterlegt. Und das sieht wie folgt aus (Bild 3):

Bild 3 Zusätzliche Pegeldarstellung Manila auf der NOAA Homepage mit erklärendem Text (Reiter: Interannual Variation)


Warum der Pegel im Jahr 2000 aufhört, erschließt sich nicht. Aber man kann ihn mit dem einer daneben liegenden Messstation weiterführen und kommt dann zum Bild 4.

Bild 4 Pegeldarstellung Manila der NOAA vom Autor mit dem Pegelverlauf SAN JOSE bis zum Jahr 2016 ergänzt.


Und damit ist endlich auch offiziell durch die NOAA bestätigt, dass der Meeres-Pegel bei den Philippinen seit dem Jahr 1900 nicht zugenommen hat.
Der Autor jedenfalls ist stolz, dass die NOAA zum gleichen Ergebnis kommt, wie er mit seiner (der Studie des „Rechercheportals“ Correctiv.org widersprechenden) Pegelanalyse (Bild 1 [7]).

Taifune

Bleiben noch die Taifune als Bedrohung. Diese ist reell und in schlimmem Ausmaß vorhanden. Daran ist aber ebenfalls nicht ein (angeblicher) anthropogener Klimawandel der zusätzliche Treiber:
kaltesonne:
Wer hätte das gedacht: Studien können keine Zunahme der tropischen Wirbelstürme im Indischen und Pazifischen Ozean feststellen (3.12.2013)
Klimaaktivisten missbrauchen Taifun Haiyan für eigene Zwecke: Studien fanden für die vergangenen Jahrzehnte keine Zunahme der Taifunaktivität (18.11.2013)
und auch für die deutsche Nordseeküste, wie es gerade aktuell betätigt wurde:
kaltesonne, 27. Dezember 2017: Bundesamt für Seeschifffahrt und Hydrographie: Es gibt in Norddeutschland nicht mehr Sturmfluten als vor 50 Jahren
Dass jeder ausgegebene Cent zur CO2-Vermeidung als Lösung der dortigen „Klimawandel-bedingten“ Probleme sinnlos zum Fenster herausgeworfen ist, hat sogar die Münchner Rückversicherung einst bestätigt:
Münchner Rückversicherung, Pressemitteilung 11. November 2013: Überschwemmungen und Taifune sind in Ostasien die größten Wetterrisiken
… Peter Höppe, Leiter der Georisiko-Forschung von Munich Re: „Es gibt eigentlich keine Region in Ostasien, die vor Überschwemmungen gefeit ist.
Gründe für die starke Zunahme von Schäden durch Wetterkatastrophen sind vor allem soziökonomische Faktoren wie das weiterhin hohe Wirtschaftswachstum und der damit verbundene Anstieg an Werten in exponierten Gebieten. Städtische Ballungsräume an den Küsten und die schnell wachsenden Industrieparks, die in Flussdeltas liegen, sind besonders gefährdet.“
Neben Überschwemmungen geht von Taifunen die größte wetterbedingte Naturgefahr aus, sie zählen zu den schadenintensivsten Wetterereignissen. Davon sind vor allem die Ballungsräume in Südostasien betroffen, vornehmlich in Japan, Vietnam, Taiwan und auf den Philippinen sowie die schnell wachsenden Megastädte im Osten Chinas.
Das Auftreten von Taifunen wird durch eine periodische Klimaschwankung mit Phasen von ca. 30 Jahren beeinflusst. „In den vergangenen zehn Jahren lag die Taifunaktivität unter dem langjährigen Mittel. Schreibt man die aufgedeckten Zyklen in die Zukunft fort, so erwarten wir nun in den nächsten Jahren eine Phase mit höherer Taifunaktivität“, sagte Höppe.

Damit fällt für die Philippinen „eines der größten Probleme“ als Bedrohung weg

Es ist immer wieder erschütternd, „live“ zu erleben, wie Bedrohungsszenarien alleine aufgrund (bewusst?) falsch interpretierter Daten über viele Jahre rund um die Welt publiziert werden (können):
KLIMARETTER.INFO 07. August 2017: [2] Philippinen: Alleingelassen im Klimawandel Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel.In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen …
SWR2, Rubrik WISSEN 6.3.2017: Die Philippinen und der Klimawandel
Immer mehr Menschen auf den Philippinen verlieren ihr Zuhause – wegen Überschwemmungen und Stürmen infolge des Klimawandels.
Correctiv.org: Ein Dorf am Rand der Welt verschwindet Wie der Klimawandel die Menschen in einer entlegenen philippinischen Provinz heimsucht.
Unsere Datenrecherche belegt: Auf den Philippinen steigt der Meeresspiegel – relativ zum Land – stärker als in jeder
anderen Region der Erde.
FOCUS ONLINE, 26.01.2016: … Meeresspiegel steigt doppelt so stark wie bisher vermutet … Weltweit sei der Anstieg der Meeresspiegel allerdings sehr unterschiedlich. Während er auf den Philippinen fünf Mal so hoch sei wie der weltweite Durchschnitt …
– und niemand der „Fachwissenschaftler*innen“ bemerkt die Fehler.
Das gilt nicht nur für die Philippinen, sondern für viele, angeblich von steigenden Pegeln so bedrohten Küsten wie es alle Recherchen immer neu zeigen [10] [11] [12] [13] [14] und Professor Mörner gerade aktuell wieder belegt hat:
EIKE 29. November 2017: Änderungen des Meeresspiegels und Klima auf Fidschi: totale Falschinformationen von COP23
… In wahrer Wissenschaft muss man die realen Fakten erkunden, so, wie sie vor Ort beobachtet oder durch validierte Experimente gegeben werden. Auf den Malediven, in Bangladesh und Südindien gibt es sehr klare zu beobachtende Fakten, welche während der letzten 40 bis 50 Jahre stabile Meeresspiegel-Bedingungen belegen (http://dx.doi.org/10.2112/JCOASTRES-D-16A-00015.1). Gleiches wurde durch einsehbare Tidenmessungen in Tuvalu, Vanuatu und Kiribati im Pazifik gemessen.
… Dies impliziert, dass gemessene Fakten nicht das Meeresspiegel-Anstiegs-Szenario des IPCC stützen, sondern im Gegenteil dieses Szenario als unbegründete Falschinformation entlarven.

Trotz dieser erdrückenden, gegenteiligen Belege verkündet eine „Fachstelle“ weiterhin: „eines der größten Probleme ist der Anstieg des Meeresspiegels

Betrachtet man unter Berücksichtigung dieser Fakten – welche jedem leicht zugänglich sind – was die Beraterin für Klima und Energie unserer Berliner Politikkaste durch ihre Redakteur*innen als angeblich immer noch aktuell wieder verkünden lies:
KLIMARETTER.INFO, 24.12.2017: [1] Die Philippinen gehören laut einer Studie der Asiatischen Entwicklungsbank von 2012 zu den fünf am meisten vom Klimawandel bedrohten Ländern. Eines der größten Probleme ist der Anstieg des Meeresspiegels. … Für den Inselstaat Philippinen bedeutet ein höherer Wasserspiegel in den Buchten, dass Taifune noch mehr Schaden anrichten können … ,
muss man sich wirklich fragen, was eine Professorin C. Kemfert dabei denkt. Zumindest der Begriff „sich für etwas schämen“ scheint ihr unbekannt. Hier wird nicht neutrale Wissenschaft verkündet, sondern blütenreinste, klimaalarmistische Politik betrieben.
Leider muss man sich auch fragen, weshalb solche Personen schier „endlos“ mit Titeln und Preisen überhäuft werden (was natürlich nicht nur für die Professorin C. Kemfert gilt).
WIKIPEDIA: Ämter
Seit Juli 2016 gehört Kemfert dem Sachverständigenrat für Umweltfragen an.[3] Sie beriet EU-Kommissionspräsident José Manuel Barroso sowie die Weltbank und die UN.[4] Kemfert ist Gutachterin des Intergovernmental Panel on Climate Change (IPCC). Außerdem war sie Mitglied der Wissenschaftlichen Kommission Niedersachsen[5] und im Nachhaltigkeitsbeirat Brandenburg.[6] Sie ist zudem Mitglied des wissenschaftlichen Beirates des Österreichischen Instituts für Wirtschaftsforschung (WIFO)[7] sowie des Frankfurter Zukunftsrates[8] und der TU-Campus EUREF gGmbH.[9][10] Des Weiteren ist sie Mitglied im wissenschaftlichen Beirat des Energie Campus Nürnberg sowie des Deutschen Biomasseforschungszentrums (DBFZ)[11], des Kuratoriums der Technologiestiftung Berlin[12], der Deutschen Klimastiftung[13], von B.A.U.M.[14] sowie des Deutschen Studienpreises der Körber-Stiftung[15]. Seit 2010 ist sie im Beirat der Deutschen Umweltstiftung[16] und seit 2011 in der Jury der GreenTec Awards[17]. Ferner ist sie Jurorin des Deutschen Umweltpreises.[18] 2009 war sie auch Jurorin des Deutschen Nachhaltigkeitspreises.
WIKIPEDIA: Auszeichnungen
2006 wurde Kemfert von der Deutschen Forschungsgemeinschaft, der Leibniz-Gemeinschaft und der Helmholtz-Gemeinschaft Deutscher Forschungszentren als Spitzenforscherin ausgezeichnet (Elf der Wissenschaft).[34] Außerdem ist sie Preisträgerin des Deutschen Akademischen Austauschdienstes (DAAD).[35] 2010 war sie im Zusammenhang mit dem Deutschen Nachhaltigkeitspreis für die Auswahl „Deutschlands 50 Köpfe der Nachhaltigkeit“ nominiert.[36] 2011 wurde sie mit der Urania-Medaille[37] sowie mit dem B.A.U.M.-Umweltpreis[38] in der Kategorie Wissenschaft ausgezeichnet. 2011 wurde Claudia Kemfert in den Club of Rome aufgenommen.[39] 2016 erhielt sie den Deutschen Solarpreis in der Kategorie „Sonderpreis für persönliches Engagement“ sowie den Adam Smith Preis für marktwirtschaftliche Umweltpolitik

So lange unsere Medien solchen an Betrug grenzenden „Informationen“ blind vertrauen (wollen oder müssen), wird sich daran nichts ändern

Der Autor macht sich ab und zu – wenn es ganz schlimm wird, wie wieder zu COP23 – die (sinnlose) Mühe, der Redaktion „seiner“ Lokalzeitung ihren teils geballten Unsinn in Berichten zu Klima und Energie vorzuhalten und wenigstens auf ein Minimum an redaktioneller Verantwortung für ihre Medieninhalte hinzuweisen. Die letzte Antwort darauf war:
Sehr geehrter Herr… ,
Sie beschweren sich immer wieder über unsere Berichterstattung zum — von Ihnen bestrittenen — Klimawandel.
Dazu lässt sich folgendes sagen: Wir sind kein Klima-Fachblatt, wir veröffentlichen Recherchen von Agenturen, Fachjournalisten und Einschätzungen von renommierten (!) Wissenschaftlern.
Es ist ihr gutes Recht, dass alles für Humbug zu halten. Es ist aber auch unser gutes Recht, an der Reputation und der Motivation von Netzwerken wie „Eike“ zu zweifeln und damit auch an Ihren, mit erstaunlicher Selbstgewissheit vorgetragenen Theorien.
Mit freundlichen Grüßen
Dass der Autor in keinem seiner Artikel „Theorien“ vorträgt, sondern ganz bewusst ausschließlich aufzeigt, wenn die wirklichen Daten den Aussagen von „renommierten (!) Wissenschaftlern“ ganz einfach widersprechen, fiel der Redaktion nicht auf.
Aber es ist der Stoff, welcher es erst ermöglicht, dass eine Regierung von Fidschi sich vor 25.000 „renommierten“ Teilnehmern auf COP23 hinstellt und nicht nur unwidersprochen von ihrem angeblichen „Untergang“ fabulieren kann, sondern trotz dieser bewussten Falschdarstellung (auch von unserer Politikkaste) noch unterstützt wird.
EIKE 16. November 2017: Nochmals Fidji, die eher aufsteigenden, als untergehenden Atolle
EIKE 27. November 2017: Die Rede unseres Bundespräsidenten, F. W. Steinmeier auf COP23 über den Klimawandel war (k)eine investigative Sternstunde – Teil 2 (2)

Entschuldigung: Solche Übertreibungen sind erforderlich, denn ohne CO2-Reduzierung werden die Folgen unabsehbar

Natürlich ist alles, was derzeit zur Klimawandel-Vulnerabilität publiziert wird kein Betrug. Mögen die berichteten Daten auch (wissentlich) falsch sein und gemeldete Bedrohungen noch gar nicht vorliegen, so ist das nur der „guten Sache“ geschuldet. Denn wenn die Menschheit nicht sofort „umkehrt“, werden die Folgen furchtbar sein:
Potsdamer neueste Nachrichten 25.11.2015 (Interview mit J. Schellnhuber, PIK): Was weiß die Forschung heute über den zu erwartenden Anstieg des Meeresspiegels?
… Wenn wir in den Bereich von zwei Grad vorstoßen sollten, muss also langfristig mit um wenigstens sechs Meter erhöhten Wasserständen gerechnet werden. Wenn das ein langfristiger Prozess über Jahrtausende ist, wird man die Küsteninfrastrukturen zurückbauen können, viele Inselstaaten müssen dann aber evakuiert werden. Die Malediven wird es beispielsweise nicht mehr geben. Bei ungebremster Erderwärmung sind sogar bis zu 50 Meter Meeresspiegelanstieg möglich …

Woher weiß Herr Schellnhuber das so genau?
Weil es praktisch unfehlbare (von Menschen programmierte) Computerprogramme vorhersagen. Nicht eines, viele. Zwar ungenau, doch deshalb lässt man deshalb verschiedene Simulationen mehrere Hundert Läufe durchführen. Aus den breit gestreuten Ergebnissen siebt man dann die richtig vorhersagenden heraus. Das Ergebnis solcher Programme ab der nächsten 14 Tage ist deprimierend, je weiter man jedoch in die Zukunft blickt, um so sicherer und präziser werden sie – zumindest weiß das Herr Schellnhuber.
EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
Auch er wird dafür mit Titeln und Preisen überhäuft:
EIKE 29. Oktober 2017: Deutschland und Japan müssen im Wettrennen gegen den Klimawandel die Führung übernehmen
Schellnhuber erhält Blue Planet Preis
Damit könnte ein neuer Artikel beginnen:
kaltesonne 23. Dezember 2017: Was sind die Temperaturprognosen wirklich wert? Klimamodelle bei wichtigem Realitäts-Check glatt durchgefallen
Klimamodelle mussten in letzter Zeit viel Kritik einstecken. Weder hatten sie die gebremste Erwärmung der letzten 15 Jahre vorhergesagt, noch vermögen sie die natürlichen Wärmeperioden der letzten Jahrtausende nachzuvollziehen. Ein Team um Christopher O’Reilly hat nun überprüft, inwieweit die gängigen Klimamodelle die Wintertemperaturen der letzten 100 Jahre der Nordhemisphäre reproduzieren können. Die Forscher waren erstaunt, als die Prognoseleistung Mitte des 20. Jahrhunderts nahe Null fiel. Ein bitterer Fehlschlag. Irgendetwas scheint in den Modellen zu fehlen. Ist es angesichts der krassen Defizite eigentlich vertretbar, die Politik von ebensolchen Modellen leiten zu lassen und weitreichende Entscheidungen zu treffen?
Quellen
[1] KLIMARETTER.INFO 24. Dezember 2017: Philippinen: Taifun fordert 200 Tote
[2] KLIMARETTER.INFO 07. August 2017: Philippinen: Alleingelassen im Klimawandel Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel.
[3] SPIEGEL ONLINE 27.09.2012: Meeresspiegelkarte Ozeanbeulen bedrohen Küstenstädte
[4] KLIMARETTER.INFO, 30. September 2013: „Meeresspiegel steigt doppelt so schnell“
[5] Correctiv.org, Jacque Manabat, 28. Juli 2017: Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen
[6] Correctiv.org, Jacque Manabat, 28. Juli 2017: [6] Philippinen: Allein gelassen Warum arme Länder durch den Klimawandelt noch ärmer werden
[7] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[8] Deutscher Wetterdienst: Wetterlexikon Taifun Taifune stellen eine große Gefahr für die Schifffahrt auf dem Nordwest-Pazifik und seiner Randmeere (Wellenhöhen über 10 m) dar
[9] Wetterkanal: Tropenstürme 17. Oktober 2017: LAN auf dem Weg zum starken Taifun
Die signifikante Wellenhöhe am kommenden Samstag aus dem globalen US-Modell. Es werden Wellenhöhen bis fast 20 Meter berechnet, dabei sind deutlich höhere Einzelwellen überhaupt noch nicht berücksichtigt. Meterhohe Wellen werden selbst an den Küsten von Taiwan, dem chinesischen Festland und vielen japanischen Inseln erwartet.
[10] EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
[11] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)
[12] EIKE 15.04.2017: Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert
[13] EIKE 05.11.2017: Eilmeldung zu COP 23: Fidji geht doch nicht unter (wegen des westlichen CO2), es war nur ein alter Datensatz
[14] kaltesonne 29.7.2015: Marschallinseln im Pazifik besonders vom Klimawandel betroffen? In den letzten 2000 Jahren fiel dort der Meeresspiegel um anderthalb Meter




Winter 2017/18 – weiterhin Tendenz zu milder, wechsel­hafter Witterung

Ein Blick auf die Entwicklung der NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen Azoren und Island) zeigt, dass sich im Dezember 2017 zunehmend positive NAO- Werte einstellten, was mildes Westwetter in Mitteleuropa begünstigt und uns das alljährliche „Weihnachtstauwetter“ beschert hat:

Abb. 1: Seit Anfang Dezember herrschen durchweg positive NAO-Werte, was ein erhöhtes Luftdruckgefälle zwischen den Azoren und Island bedeutet. Die daraus resultierenden Westwinde halten die Kälte von Mitteleuropa fern. Quelle: NOAA (Wetterdienst der USA)


Bauernregeln werden zwar oft als altmodisch belächelt; doch oftmals haben sie einen wahren Kern. Sie stellen oft (unbewusst) auf die Erhaltungsneigung der großräumigen Zirkulation ab, welche kurz nach der Wintersonnenwende besonders groß ist. Die beiden Regeln „Dezember, wechselhaft und lind, der ganze Winter bleibt ein Kind.“ und „War bis Dreikönigstag kein (richtiger) Winter, so folgt (meist) keiner mehr dahinter“ machen wenig Hoffnung auf Winterwetter, zumal auch fast alle Modelle eine sehr milde Witterung in den Monaten Januar und Februar erwarten, freilich mit großer Unsicherheit:

Abb. 2a und 2b: Momentan sieht das wichtigste Langfristmodell, das CFSv2 des US-Wetterdienstes NOAA, einen extrem milden Januar (oben) und einen sehr milden Februar vorher. Zur Beachtung: Diese Prognosen sind experimenteller Art und keinesfalls stets zutreffend; doch momentan erwarten alle Institute, IRI, DWD, MeteoSchweiz und UKMO, einen milden Hochwinter 2018.


Fazit: Eindeutige, verlässliche Anzeichen für einen länger kalten Hochwinter 2018 fehlen. Es bleibt vorwiegend mild bis sehr mild. Kurze winterliche Episoden oder ein einzelner zu kalter Wintermonat sind noch nicht völlig ausgeschlossen, aber momentan wenig wahrscheinlich. Nur mit ganz viel Glück könnte sich also nach Mitte Januar noch eine Umstellung hin zu sehr kalter Witterung vollziehen; letztmalig erlebten wir Ähnliches im Winter 2011/12.
Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.12. 2017




Delta T und Delta F

Aus einer Reihe von Gründen halte ich diese Theorie für äußerst zweifelhaft. Ich untersuchte das dieser Behauptung zugrunde liegende Problem für alle Interessierten mathematisch in einem Beitrag „The Cold Equations“. Heute spreche ich jedoch nicht über Theorie, sondern ich möchte einige der empirischen Daten unter die Lupe nehmen.

Der CERES-Datensatz enthält Messungen der Ausstrahlung an der TOA. Es gibt darin aber auch viele subsidiäre Datensätze, welche sowohl aus CERES-Daten als auch anderen Satellitendaten und Messungen am Boden berechnet werden. Darunter sind die ausgehende IR-Strahlung von der Erdoberfläche. Ich wende die Stefan-Boltzmann-Gleichung auf jene Daten der IR-Ausstrahlung an, um die Oberflächen-Daten zu berechnen. Diese Daten habe ich einem Vergleich mit den Temperaturdaten von HadCRUT unterzogen. Sie stimmten gut überein mit Ausnahme bestimmter Gebiete in der Nähe der Pole. Ich schreibe dies der sehr dünnen Bestückung mit Wetterstationen in diesen Gebieten zu. Daher wurden für diese Gebiete die Daten der nächst gelegenen Stationen extrapoliert. Aber selbst mit jener Differenz in den Polargebieten beträgt die Standardabweichung der Differenz zwischen CERES und HadCRUT bei den monatlichen Daten lediglich 0,08°C, ist also extrem gering. Die CERES-Daten sind vollständiger als die HadCRUT-Daten, weshalb ich erstere als Oberflächentemperatur heranzog.

Jetzt wollen wir Änderungen des Antriebs-Ungleichgewichtes an der TOA vergleichen mit Änderungen der Temperatur an der Erdoberfläche. Zu diesem Zweck müssen wir die Saison-Einflüsse entfernen. Dies tun wir, indem wir das Mittel des gesamten Datensatzes für jeden Monat von den Daten für jenen Monat subtrahieren. Für jeden Monat bleibt dann die „Anomalie“ übrig – um wie viel jener Monat wärmer oder kälter ist im Vergleich zum Mittel.

Beispielsweise sind hier die Temperaturdaten, wobei die obere Graphik die Rohdaten zeigt, die mittlere Graphik die jährlich sich wiederholenden jahreszeitlichen Variationen und die untere Graphik die „Anomalie“, um wie viel der Globus wärmer oder kälter ist im Vergleich mit dem Mittel.

Abbildung 1: Rohdaten, jahreszeitliche Änderungen und Anomalie des CERES-Temperaturdatensatzes. Man beachte den Aufwärtstrend am Ende aufgrund des jüngsten El Nino. Seitdem ist es wieder kälter geworden, aber die CERES-Daten sind seit Februar 2016 nicht mehr aktualisiert worden.


Dem unrichtigen Paradigma zufolge, wonach Temperaturänderungen den Änderungen des Antriebs folgen, sollten wir eine Relation zwischen beiden in den CERES-Daten erkennen – wenn der Antrieb an der TOA einen großen Sprung macht, sollte dies auch die Temperatur tun, und umgekehrt. Allerdings zeigt sich, dass dies nicht der Fall ist:

Abbildung 2: Änderungen der Strahlung an der TOA (Antrieb) ∆F vs. Änderungen der Temperatur am Boden ∆T. Delta (∆) ist das Standardsymbol für „Änderung“. In diesem Falle sind das die Änderungen von Monat zu Monat. Der Hintergrund ist ein Hurrikan aus Satellitenperspektive. Diesen habe ich hinzugefügt, weil ich des ewigen alten Weiß‘ überdrüssig bin.


Wie man leicht erkennt, gibt es im CERES-Datensatz keine statistisch signifikante Relation zwischen den Änderungen des Antriebs an der TOA ∆F und den Änderungen der Temperatur an der Oberfläche ∆T.

Nun höre ich jetzt schon einige Individuen etwas sagen wie „Aber Moment, das ist ein viel zu kurzer Zeitraum, um Auswirkungen so geringer Änderungen zu erkennen … also 1 W/m² über einen Monat? Die Erde weist thermische Trägheit auf, sie würde also gar nicht reagieren…“

Betrachten wir also einen anderen Scatterplot. Diesmal betrachten wir die Änderung der gesamt-Energieabsorption an der Erdoberfläche (kurz- und langwellig) im Vergleich zur Änderung der Temperatur.

Abbildung 3: Änderungen der Energie-Absorption an der Oberfläche im Vergleich mit Änderungen der Temperatur an der Oberfläche ∆T.


Damit ist der Einwand der zu kurzen Zeitspanne annulliert. Eine Änderung von 1 W/m² über einen Monat ist in der Tat in der Lage, die Temperatur an der Oberfläche zu ändern, und zwar um ein Zehntelgrad.

Und schließlich: Ist dies lediglich ein Artefakt, weil wir CERES-Daten sowohl für die Temperatur als auch die Gesamt-Energieabsorption an der Oberfläche heranziehen? Dies können wir mittels Wiederholung der Analyse herausfinden, aber diesmal mit den HadCRUT-Daten anstatt der CERES-Daten …

Abbildung 4: Wie in Abbildung 3, jedoch mit den Temperaturdaten von HadCRUT.


Wie wir erwartet haben, gibt es Differenzen bei der Verwendung unterschiedlicher Temperatur-Datensätze. In beiden ist die Oberfläche in der Lage, die Temperatur im Verlauf eines Monats aus einer Differenz von 1 W/m² heraus zu ändern.

Also bleiben wir zurück mit Abbildung 2: Sie zeigt, dass es keine signifikante Relation gibt zwischen Änderungen des Antriebs an der TOA und Temperaturen an der Erdoberfläche.

Man beachte, dass ich hier NICHT behaupte, dass man mit diesem Verfahren die so genannte „Klimasensitivität“ berechnen kann. Vielmehr weise ich lediglich darauf hin, dass die CERES-Daten nicht die erwartete Relation zwischen Änderungen des Strahlungs-Ungleichgewichtes an der TOA und Änderungen der Temperatur an der Erdoberfläche zeigen.

Link: https://wattsupwiththat.com/2017/12/18/delta-t-and-delta-f/
Übersetzt von Chris Frey EIKE




Von der Licht­gestalt zum Aschen­brödel? Die Realität der Elektro­mobilität

Mit Schlagworten wie „Clever E-Mobility for Work“ oder „Unsere Antwort für eine saubere Zukunft“ bewirbt die Post-Tochter Streetscooter GmbH ihre Lösungen für den Paketauslieferdienst, einen batteriebetriebenen Lieferwagen für die Post, der auch an andere Lieferdienste verkauft wird. Auf seiner Webseite präsentiert sich das Unternehmen als Problemlöser für die zunehmende Umweltverschmutzung und Lärmbelästigung insbesondere in den urbanen Zentren. Auch gehe es um einen schonenderen Umgang mit den Ressourcen auf unserem Planeten. Man sehe sich in der Verantwortung, bereits heute Lösungen bereitzustellen, um die Zukunft für nachfolgende Generationen zu sichern. Soweit die schönen Worte.
Häme für die Autobranche
Zeitgleich mit der Vorstellung begann eine intensive Pressekampagne, in der die Medien die Neuentwicklung in den Himmel lobten. Man überschlug sich geradezu mit Lobeshymnen, während den Automobilherstellern vorgeworfen wurde, die Post ignoriert zu haben, bis diese clevererweise mithilfe externer Partner eine eigene Lösung entwickelt und selbst zum Hersteller geworden sei. In den Kommentarspalten wurde geradezu kübelweise Häme und Spott über die „unfähigen“ Automanager ausgegossen, die „zu dumm und zu gierig“ seien, um die Zeichen der Zeit zu erkennen. Warnungen von Fachleuten, die insbesondere die geringe Batteriekapazität der neuen Fahrzeuge skeptisch beurteilten und vor Reichweitenproblemen insbesondere im Winter warnten, wurden von „Dinosaurier“-Rufen übertönt. Inzwischen sind rund 5.000 dieser Fahrzeuge im Einsatz. Und der Winter ist da.
Erste Berichte über ernste Probleme
Schon vor einigen Monaten gab es in der Presse gelegentlich Hinweise auf Probleme und Beschwerden, die jedoch in den Foren sofort als „Einzelmeinungen“ einiger unzufriedener Quertreiber abgetan wurden. Auch ein Brand, bei dem gleich drei der Fahrzeuge im Depot abfackelten, wurde als Randerscheinung abgetan. Mit den zunehmend sinkenden Temperaturen scheinen sich jetzt jedoch die Schwierigkeiten derart zu häufen, dass man die Sache anscheinend nicht mehr unter dem Deckel halten kann. Auszugsweise werden hierzu Erkenntnisse einer Recherche der Zeitschrift „Welt“ vorgestellt [WELT]

Dem Bericht zufolge bleiben inzwischen immer mehr Fahrzeuge auf der Strecke liegen oder müssen vorzeitig zurück, weil die Reichweite aufgrund der beschränkten Batteriekapazitäten auf 70 km gesunken sei. Ein Grund hierfür sei der zunehmende Bedarf an elektrischem Strom für die Fahrzeugheizung. Dies stelle die Mitarbeiter vor das Dilemma, dass sie sich zwischen ausreichender Beheizung oder ausreichender Reichweite entscheiden müssten.

Die „Welt“-Journalisten sagen aus, dass eigene Recherchen in mehreren Bundesländern belegten, dass es tatsächlich zu solchen Stillständen mitten auf der Strecke komme. In einem Fall ist die Rede von einer „unglaublichen psychischen Belastung“, weil sich die Beschäftigten mit dem Fahrzeug nicht mehr auf die Straße trauten. In Süddeutschland berichteten Betriebsräte von technischen Mängeln der Heizung sowie von einer viel zu geringen Reichweite sowie von Ausfällen, die im zweistelligen Prozentbereich lägen. Weiterhin ist die Rede von Angst vor Unfällen wegen der Leichtbauweise sowie von mehreren Fällen wo die Motorhaube während der Fahrt aufgesprungen sei.

Bei der Frage der Beheizung der Kabine geht es übrigens nicht allein um die Bequemlichkeit des Fahrers: Wie jeder Autofahrer aus Erfahrung weiß, ist im Winter eine gute Heizung erforderlich, um die Scheibe durchgehend frei von Beschlag zu halten, welcher die Sicht beeinträchtigen könnte. Unfallgegner, welche in der kalten Jahreszeit mit einem Streetscooter aneinandergeraten, sei demnach empfohlen, unmittelbar nach dem Ereignis einen kritischen Blick auf die Front- und Seitenscheiben des Unfallgegners zu werfen und Sichtbeeinträchtigungen sofort mit dem Handy zu dokumentieren.

Probleme größer als zugegeben?

Aufgrund der Tatsache, dass sich die Post beim Start des Projekts PR-mäßig ziemlich weit aus dem Fenster gelehnt hat, scheint man dort seitens des Managements offensichtlich zu versuchen, diese Probleme nicht an die Öffentlichkeit dringen zu lassen. Dem Bericht in der „Welt“ zufolge gebe es aus Sicht der Mitarbeiter keine angemessene Reaktion aus dem Konzern. Beschwerden im Zusammenhang mit den alltäglichen Problemen würden mit dem Hinweis, es müsse sich um Bedienungsfehler handeln, abgebügelt. Trotz mehrfacher Hinweise auf notwendige Nacharbeiten am Fahrzeug gebe es kein Vorankommen der Entwicklung, und interne Papiere zu Verbesserungsvorschlägen seien Verschlusssache.

Maulkorb für Mitarbeiter

Besonders nachdenklich stimmt die Tatsache, dass Mitarbeiter, welche Mängel öffentlich bekannt machten, arbeitsrechtliche Schritte bis hin zu einer Abmahnung riskierten. In unserer freien und offenen Gesellschaft kann man letzteres als Eingeständnis dafür werten, dass an der Sache etwas dran ist und die Post mit rabiaten Mitteln versucht, den tatsächlichen Umfang der Probleme zu verschleiern. Fachleute gehen angesichts der geschilderten Sachlage davon aus, dass es in den nächsten Jahren zu noch massiveren Schwierigkeiten kommen dürfte. Einerseits unterliegen die im Streetscooter verbauten Batterien Alterungsprozessen, welche ihre Kapazität in den nächsten Jahren immer weiter nach unten drücken wird. Andererseits ist der Winter bisher noch vergleichsweise mild mit nur geringen Frosttemperaturen verlaufen. Sollten in einigen Jahren schwächer gewordene Batterien mit strengen Frösten auch tagsüber zusammentreffen, so könnte es durchaus zum Debakel kommen. Und dann dürften die hohen Herren von der Post in Erklärungsnöte geraten, nicht zuletzt auch angesichts der Tatsache, dass in das Projekt knapp 10 Mio. € an öffentlichen Geldern aus dem Bundesumweltministerium geflossen sind.

Fred F. Mueller

Quelle
[WELT] https://www.welt.de/wirtschaft/article171801021/Deutsche-Post-Winterprobleme-mit-dem-Streetscooter.html#Comments