Klimawandel : Wissenschaftliches Mobbing

Es ist das klassische Schema eines Westerns. Auf der einen Seite steht der Held. Er ist jung und aufrecht, ein Mann der Zukunft. Er heisst Reto Knutti, ist 45 Jahre alt, lehrt an der ETH Zürich Klimawissenschaften und wirkt seit 2001 als «bedeutendes Mitglied» (Wikipedia) beim Uno-Weltklimarat (IPCC) mit. Doch Knutti ist immer wieder Ziel perfider Attacken obskurer Mächte. Den Part des Bösewichts spielt Markus Häring. Er ist alt (67), arbeitete einst im Dienst der Erdölfirma Shell, ist Kolumnist bei der Basler Zeitung – und er zweifelt am menschengemachten Klimawandel.

Ein richtiger Western endet mit einem Showdown, bei dem der Gute natürlich obsiegt. So weit liess es die NZZ am Sonntag allerdings nicht kommen, die den Kampf des edlen Knutti und des düsteren Häring in der Ausgabe vom 10. März auf der Titelseite ankündigte («Klimaleugner diffamieren Wissenschaftler») und danach auf drei Seiten («Im Netz der Klimaleugner») breitwalzte. Denn mit den Skeptikern, so das Fazit des Blattes, sollte man eigentlich nicht einmal streiten. Sie wissen bestenfalls nicht, was sie sagen. Der menschengemachte Klimawandel ist eine wissenschaftlich erhärtete Tatsache, ein Faktum. Wer daran zweifelt, ist entweder ein Ignorant, oder er verfolgt unlautere Ziele.

Rat der Wissenden

Mit der Realität haben der NZZ-Western und seine zur Karikatur überzeichneten Antagonisten Reto Knutti und Markus Häring herzlich wenig zu tun. Doch das Muster, welches das Zürcher Intelligenzblatt hemmungslos bespielt, scheint sich in den akademischen Sphären global durchzusetzen: Die Klimaforschung ist nicht ein Ringen um das bessere Argument, sondern ein Kampf zwischen Wissenden und Dumpfbacken, Fortschrittlichen und Ewiggestrigen, Menschenfreunden und Menschenfeinden (siehe «Top Five der Klimaleugner», Seite 18). Denn beim Klima, das predigt auch das Bundesamt für Energie (BfE) in Bern seit Jahren, gibt es keine Meinungen, nur Fakten und Lügen. Es herrsche ein «97-Prozent-Konsens» (s. Seite 23), der vom Uno-Weltklimarat periodisch neu justiert wird. Und wer die vom Rat der Wissenden amtlich angeordneten Wahrheiten in Frage stellt oder gar ablehnt, ist ein Leugner, ein Feind der Wissenschaft.

Tatsächlich wurde der Treibhauseffekt, der unter anderem dem CO2 zu verdanken ist und ohne den die Welt eine unbewohnbare Eiswüste wäre, vor über hundert Jahren entdeckt. Es ist auch nicht neu, dass die Gletscher seit der Mitte des 19. Jahrhunderts, dem Ende der sogenannten Kleinen Eiszeit, am Schrumpfen sind. Margaret Thatcher warnte bereits in den 1980er Jahren – unter anderem in einer Rede vor den Vereinten Nationen – eindringlich vor dem CO2-Problem. Für die britische Premierministerin war es ein willkommenes Argument im Kampf gegen die Kohlegewerkschaften und für die Kernenergie.

Umweltaktivisten setzten damals allerdings auf das Waldsterben. Erst als das prognostizierte Ende des Baumes Anfang der 1990er Jahre stillschweigend abgesagt wurde, holte man das Klima wieder aufs Tapet. Im Rampenlicht der Weltöffentlichkeit stand nun plötzlich eine wissenschaftliche Randgruppe, die bis dahin ein stiefmütterliches Dasein gefristet hatte. Atmosphärenphysiker, Historiker, Ozeanologen und Glaziologen wurden über Nacht zu Medienstars.

Besonders gefragt waren nach dem journalistischen Grundgesetz natürlich jene, die möglichst düstere Weissagungen machten. Sie erhielten auch die meisten Forschungsgelder. Nur sind Prognosen bei einem derart komplexen Thema eine vertrackte Angelegenheit.

Erde wird immer grüner

Das Klima war immer Wandlungen unterworfen. Man weiss, dass es schon viel kälter war als heute, etwa während der Eiszeiten, oder auch wärmer, etwa im frühen Mittelalter. Über die Gründe – Sonnenaktivität, kosmische Strahlung, Verschiebung der Erdachse, Vulkane, Meteoriten – gibt es viele Thesen, aber nichts Gesichertes. Das ist bis heute so. Doch wie will man das Kommende voraussagen, wenn man nicht einmal das Geschehene richtig versteht?

Dass Treibhausgase wie das CO2 eine Rolle spielen, ist schon lange bekannt. Viel wichtiger für den Treibhauseffekt ist allerdings unbestrittenermassen der Wasserdampf. Hier wird es aber richtig kompliziert. Je nach Höhenlage, Konzentration und Aggregatzustand kann Wasser in der Atmosphäre die Temperatur auf der Erde erhöhen oder auch senken. Meere reagieren anders als Landflächen. Es gibt natürliche Puffer. CO2 wirkt wie ein Dünger auf Pflanzen und fördert das Wachstum; unser Planet wird immer grüner, wie die jüngsten Satellitenkarten der Nasa zeigen. CO2-Fresser sind auch die Abermilliarden von Einzellern in den Ozeanen, die das Kohlendioxid in Kalkablagerungen umwandeln und effizient aus dem Kreislauf entfernen.

Die Klimafrage löste seit der Jahrtausendwende einen veritablen Hype in den Wissenschaften aus. Wer die «Verbreitung der Pharaonenameise in Hinterindien» erforschen will, erhält kaum Geld; setzt man jedoch den Titel «Verbreitung der Pharaonenameise in Hinterindien unter dem Einfluss des Klimawandels», sieht das schon viel besser aus. Der Klimawandel durchdrang nun plötzlich alle möglichen Forschungsbereiche. Und natürlich durfte kein Forscher zum Schluss kommen, dass ein Grad mehr oder weniger Durchschnittstemperatur in seinem Fall keine Rolle spielt. Er würde damit ja seine eigenen Forschungsgelder kappen.

Wirklich neu sind die computergestützten Klimamodelle, auf die sich der IPCC bei seinen Prognosen beruft. Die Universität Bern spielte in dieser Disziplin eine Pionierrolle. Der Berner Professor Hans Oeschger (1927–1998) war ein international anerkannter Vorreiter der Klimaforschung. Das 2007 gegründete und nach ihm benannte Oeschger Centre for Climate Change Research (OCCR) gilt als Mekka der Klimaprognostiker. Eine Leitfigur auf diesem Gebiet ist der Berner Klimaforscher Thomas Stocker, der seit 1998 auch eine zentrale Rolle beim IPCC spielt. Das Gleiche gilt für seinen akademischen Ziehsohn Reto Knutti. Er wirkt an der ETH Zürich und arbeitet dort an Klimamodellen.

Klima-Code geknackt?

Nun haben Wissenschaftler seit den mittelalterlichen Alchemisten immer wieder versucht, den Code des Universums zu knacken. Karl Marx glaubte, die Gesetzmässigkeiten des menschlichen Lebens durchschaut zu haben und rational steuern zu können. Millionen von Menschen bezahlten seine wissenschaftlichen Visionen mit dem Leben; der Umbau der Gesellschaft nach Marx’ Rezepten mündete regelmässig in humanitäre Katastrophen (was viele seiner Anhänger allerdings bis heute nicht beeindruckt). Legionen von grandios gescheiterten Börsengurus, Planern und Politologen glaubten schon, die Zukunft wissenschaftlich vorauszusehen. Misst man die Weissagungen am Resultat, bleibt bestenfalls erheiternde Ernüchterung.

Ist beim Klima etwa alles anders? Hat der IPCC den geheimen Code geknackt? Damit die Modellrechnungen überhaupt möglich sind, beschränkt man sich im Wesentlichen auf das CO2. Die meisten anderen möglichen Faktoren werden ausgeblendet. Das führt zwar zu alarmierenden Resultaten. Ob diese auch mit der Realität übereinstimmen, hängt aber von den Prämissen ab, auf die man die Modelle stützt. Und diese sind mit zahllosen Unwägbarkeiten behaftet.

So funktioniert halt die Wissenschaft, mag man einwenden, nach dem Prinzip von Versuch und Irrtum. Und das wäre auch nicht weiter tragisch, wenn Fehler zugelassen und akzeptiert würden. Doch die Klimamodelle von Stocker und Knutti schliessen jeden Irrtum aus. Aus ihrer Sicht sind die Modelle keine Hypothesen, wie sie bei jeder Gelegenheit betonen, sondern Fakten, «gesicherte wissenschaftliche Erkenntnisse».

Die Klimaforschung ist ein ungemein facettenreiches und faszinierendes Feld. Fatalerweise ist die Wissenschaft unter dem Schirm der Uno mit der Politik zu einem amalgamartigen Komplex verschmolzen. Welchen Anteil an der Klima-Erwärmung man dem Menschen zuordnet, ob man die Folgen mehr oder weniger dramatisch einstuft, ist nicht eine Frage des Abwägens von Wahrscheinlichkeiten, von Thesen und Antithesen, Rede und Gegenrede, sondern primär eine Frage politischer, wirtschaftlicher und ideologischer Interessen.

Erbsenzähler und Modellbauer

Die Weltwoche konnte mit einem Studenten reden, der sowohl in Bern wie auch an der ETH Zürich im Bereich der Klimawissenschaften studiert hat. An beiden Hochschulen gebe es, so sagt er, unter den Dozenten «Erbsenzähler» und «Modellbauer». Als «Erbsenzähler» bezeichnet er jene, die anhand von konkreten Daten – etwa Jahrringen in Bäumen, Eiskernen, historischen Quellen und Messungen aller Art – Entwicklungen des Klimas zu rekonstruieren versuchten. Die Resultate stünden bisweilen in einem eklatanten Widerspruch zu den Modellen des IPCC. Doch das werde kaum offen thematisiert. Denn die Deutungshoheit liege bei den «Modellbauern», die kaum Feldforschung betreiben und im Wesentlichen über ihren Computern brüten.

Widerrede sei bei den «Modellbauern» verpönt. Wer grundsätzliche Zweifel anmelde, werde isoliert. Beim OCCR in Bern trage die «unité de doctrine» geradezu sektenhafte Züge. Eigenständiges Denken sei nicht gefragt, die wissenschaftliche Arbeit erschöpfe sich in der Regel im Zitieren bestimmter Autoren. Bei der ETH in Zürich, wo offener diskutiert werde, sei es eher eine Frage des Lifestyles. Vegan, bio oder solar gelten als coole Attribute, die CO2-Steuer als Mittel des sozialen Ausgleichs, die Klimawissenschaften als Mittel für den guten Zweck.

Das eingangs erwähnte, von der NZZ am Sonntag herbei fabulierte Westerndrama zwischen Reto Knutti und Markus Häring passt perfekt in dieses Schema. Nur ist der Basler Geologe nicht der gelangweilte Pensionär, als der er karikiert wird, «einer von Unzähligen, die Meinungsartikel und Bücher schreiben». Er gehört vielmehr zu den Pionieren der Umweltforschung in der Schweiz.

Nach seinem Studium der Geologie (Physik im Nebenfach) und seinem Doktorat (über Sedimente im Meer) war Markus Häring ein Jahrzehnt lang für den Erdölriesen Shell im Amazonas, in Australien, auf der Nordsee und in Nigeria als Feldforscher tätig. 1991 kam er – auch aus umweltschützerischen Überlegungen – in die Schweiz zurück, um sein Wissen über Tiefenbohrungen im Bereich der Erdsonden zu nutzen. Er zog mehrere Projekte erfolgreich durch und wurde deshalb zu einem gefragten Fachexperten beim Bundesamt für Energie in Sachen Geothermie.

Preis für die ernüchternde Erkenntnis

1999 wurde Häring mit der Planung und der Leitung eines 60 Millionen Franken teuren Geothermie-Versuchsprojektes bei Basel betraut. Es gelang, in eine Rekordtiefe von 5009 Metern zu bohren. Das Einpumpen von Wasser unter hohem Druck zur grossräumigen Auflockerung des Untergrundes – anders ist die nur langsam nachfliessende Wärme aus der Tiefe nicht zu gewinnen – löste ein leichtes Erdbeben (3,4 Grad auf der Richterskala) aus. Das Projekt wurde abgebrochen. Doch die 60 Millionen waren nicht verloren. Es war der Preis für die Erkenntnis, dass in der Schweiz die Stromproduktion aus Geothermie auf absehbare Zeit keine Option ist, auch weil die Energiedichte schlicht und einfach zu gering ist.

Häring arbeitete denn auch weiter für das BfE. Während Jahren erforschte er im Auftrag des Bundes die unterirdische Einlagerung der CO2-Emissionen von Gaskraftwerken, die man als Ersatz der Kernenergie in Erwägung zieht. Häring gelangte 2015 zum Schluss, dass die unterirdische Einlagerung von CO2 in der Schweiz nicht nur an der Wirtschaftlichkeit scheitert, sondern auch mit Risiken behaftet ist, die in keinem Verhältnis zum Ertrag stehen. Das Resultat widersprach natürlich den politischen Vorgaben. Seither bekam Häring keine Aufträge mehr vom BfE.

Markus Häring mag kein Klimaforscher im engeren Sinne sein. Doch mit der Erdgeschichte, den physikalischen und chemischen Vorgängen und insbesondere mit dem CO2 hat er sich ein Leben lang wissenschaftlich befasst. Er verfügt aber auch über eine praktische Erfahrung im Energiebereich. Anders als jene, die ihn verspotten, ist er nicht nur auf ein Spezialgebiet fokussiert.

Genau das ist es, was Härings faktenreich und nüchtern verfasste Bücher über den «2000-Watt-Irrtum» und den «Sündenbock CO2» von den futuristischen Theorien und Modellen abhebt: Der Autor deckt Schwachstellen bei den Mainstream-Theorien auf und plädiert für eine pragmatische Gesamtschau, die soziale, ökonomische und physikalische Aspekte miteinbezieht. Er ist Mitglied des Carnot-Cournot-Netzwerks, eines Zusammenschlusses von kritischen Wirtschaftsführern, Ökonomen, Ingenieuren und Naturwissenschaftlern, die nach alternativen Ansätzen im Umweltbereich suchen.

Angriff auf die Wissenschaft

Markus Häring hat nie behauptet, im Besitze der allein seligmachenden Wahrheit zu sein. Er verzichtet auch auf persönliche Angriffe gegen die «Modellbauer» der Klimatheorie – was ihm die NZZ am Sonntag implizit unterstellt (ohne dafür einen Beleg zu liefern). Sehr wohl kritisiert und hinterfragt er aber die Klimamodelle des IPCC. Doch Professoren wie Reto Knutti und Thomas Stocker betrachten jeden Einspruch als Angriff auf die Wissenschaft.

Tatsächlich liegt die grösste Bedrohung in genau dieser Geisteshaltung. Denn eine Wissenschaft, die sich selber nicht mehr permanent in Frage stellt und stellen lässt, sondern Hypothesen als ultimative Wahrheiten definiert, Zweifler mit den Mitteln des Mobs lächerlich macht, als Leugner ausgrenzt und kaltstellt, die sich politischen Zielen und Ideologien unterordnet, hat ihre wichtigste Tugend verloren – und damit auch jede Glaubwürdigkeit.

=================================================================

)*  Anmerkung der EIKE-Redaktion:  Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : Wissenschaftliches Mobbing | Die Weltwoche, Nr. 12 (2019)| 21. März 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor ALEX BAUR  für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Nord Stream oder LNG?

Nord Stream 1 & 2

Diese Leitung sollen jährlich 110 Milliarden Kubikmeter Erdgas aus Rußland unterhalb der Ostsee nach Deutschland transportieren. Dies ist der erste Streitpunkt: Sie umgeht damit die bisherigen Transportwege durch Drittländer. Diese Länder verlieren damit beträchtliche Transitgebühren und Dienstleistungen. Genau das ist ein Ziel der russischen Regierung: Sie will auch weiterhin über den Gashahn ihre Nachbarn disziplinieren können. Unvergessen sind die Liefereinschränkungen in die Ukraine in kalten Wintern. Diese Gefahr besteht heute so nicht mehr, da die „Pufferstaaten“ durchweg von Westen aus beliefert werden können.

Der Gasmann Schröder als ehemaliger Bundeskanzler und heutiger bester Freund und gut dotierter Günstling von Putin wird nicht müde zu betonen, welch zuverlässiger Handelspartner doch Rußland sei. Selbst im Kalten-Krieg sei immer Gas geliefert worden. Das ist zwar richtig, aber heute haben wir einen heißen Krieg in der Ost-Ukraine und gewaltsame Verschiebungen von Grenzen auf der Krim.

Das alles ficht echte deutsche Putin-Versteher nicht an. Um so geringer ist das deutsche Verständnis für den US-Steuerzahler: Dem geht es nämlich schon lange – nicht erst seit Trump Präsident geworden ist – mächtig gegen den Strich, daß sich Deutschland gern auf seine Kosten verteidigen läßt und gleichzeitig Russlands Aufrüstung auch noch mit den dafür dringend benötigten Devisen fördert. Die Politik unserer gelernten Agit-Prop-Sekretärin alles zu unterschreiben – ob Stickoxid Grenzwerte oder Zusagen zu Verteidigungsausgaben (2%-Kriterium) – wird nicht mehr lange gut gehen.

Die Energiewende

Deutschland steigt aus der Kernenergie aus, will möglichst schnell die Braunkohlekraftwerke abschalten und bereitet schon den Ausstieg aus der Steinkohle vor. Was bleibt, ist faktisch nur noch Erdgas als Primärenergieträger. Energiemix und Versorgungssicherheit war gestern.

Auch bildungsresistente Politiker sollten inzwischen verstanden haben, daß Wind Wetter ist. Entweder er weht oder er weht nicht. Da kann man so viele Windmühlen gegen bauen wie man will. Hier liegt nämlich genau die Crux: Wenn er weht, produzieren ganz viele Windmühlen ganz viel elektrische Leistung – demnächst mehr, als überhaupt verbraucht wird. Wenn er aber nicht weht, dann keine einzige. Noch mal in einfacher Sprache: Die mögliche Bandbreite bewegt sich zwischen Null Produktion (Windstille) und maximaler momentaner Nachfrage (durch alle Stromkunden zu einem Zeitpunkt). Die Natur läßt sich nicht durch Menschen steuern: Oft weht der Wind gerade besonders stark, wenn wenig elektrische Energie benötigt wird (Nachts, Sonntags) und umgekehrt.

Noch schlimmer geht es in unseren Breiten mit dem Sonnenlicht zu. Im Winter ist es bis zu 16 Stunden täglich dunkel. Deshalb ist es auch noch kalt und der Energiebedarf steigt stark an.

Ich kann die Einwände von Annalena und Anton schon hören: Wenn erstmal unsere Führerin ihre Wunderwaffe Speicher hat, ist auch der Endsieg in der Energiewende sicher. Hat sie aber nicht und wird sie auch auf absehbare Zeit nicht kriegen. So einfach, aber auch so grausam, ist die Natur.

Die besondere Rolle des Erdgases

Kohle, Kernenergie und Öl sind leicht transportierbar und einfach zu speichern. Erdgas als Gas aber nicht. Kohle und Kernenergie sind besonders preiswert, aber heute praktisch nur in Kraftwerken zur Stromproduktion einsetzbar. Mineralöl ist mit Abstand am flexibelsten einsetzbar und deshalb auf Grund der hohen Nachfrage am teuersten.

Nun stellen sie sich einfach mal vor, sie verfügen über riesige, schier unerschöpfliche Vorräte an Erdgas. Pech nur, sie sind völlig wertlos, weil weit von den Verbrauchszentren entfernt. Oft sogar Müll, wenn sie als Begleitgas der Ölförderung noch entsorgt werden müssen, was überdies meist sehr belastend für die Umwelt ist und deshalb schon in vielen Gebieten mit hohen Strafgebühren belegt ist. Glück, wenn ihre Förderanlagen in der Nähe von dicht besiedelten Wohngebieten liegen (z. B. „Hollandgas“, Niedersachsen etc.), dann können sie den Konkurrenten Heizöl über etwas günstigere Preise aus dem Markt drücken.

Die Achillesferse des Erdgases ist dessen Transport. Rohrleitungen und Verflüssigungsanlagen sind extrem kapitalintensiv. So soll allein Nord Stream zwischen 15 und 20 Milliarden Baukosten erfordern. Hinzu kommt noch der Energieverbrauch für den Transport, Transitgebühren, Wartung etc. Kein Mensch tätigt solche Investitionen für ein paar Kubikmeter oder will solche Anlagen nur ein paar Jahre nutzen. Die Transportkapazität von 110 Milliarden Kubikmeter pro Jahr (≈ 10,6 Bcf/d) entspricht einer Leistung von knapp 140 GWBrennstoff . Richtig erkannt, das ist eine ganze Menge. Mit der Wärmeversorgung von Einfamilienhäusern richtet man da wenig aus. Es muß also ein richtiger Absatz her.

Im Jahr 2017 betrug der Erdgasverbrauch in Deutschland 3230 PJ (897 TWhBrennstoff). Damit wurden neben Heizung und Industrie auch etwa 86 TWh elektrischer Energie erzeugt. Die Stromerzeugung aus Kernenergie betrug 76 TWh, aus Steinkohle 93 TWh und aus Braunkohle 148 TWh. Jetzt überschlagen wir mal den möglichen Erdgaseinsatz: Braunkohle- und Kernenergie- sind Grundlastkraftwerke. Man könnte sie durch modernste Gasturbinenkraftwerke mit Abhitzekesseln ersetzen. Es wird deshalb ein Wirkungsgrad von 60% angesetzt. Steinkohle übernimmt schon heute die Mittellast, d. h. Kraftwerke müssen dem Netz folgen und teilweise ganz abgeschaltet werden (Sonntags, Nacht). Dies würde den Erdgaskraftwerken nicht anders ergehen. Es wird für diese Betriebsweise ein Wirkungsgrad von 40% angesetzt. Macht also locker 606 TWhBrennstoff bzw. 2182 PJ zusätzlich. Der Erdgasverbrauch Deutschlands steigert sich auf 168%. Der Durchschnittspreis für Erdgas betrug in Deutschland 6,1 Cent pro kWh (2017). Davon entfielen 49,1% auf die Beschaffungskosten. Das sind also über 18 Milliarden zusätzliche Importkosten für Erdgas jährlich. Allerdings ohne Kohle und Kernenergie keine Versorgungssicherheit mehr – wenn Gas weg (aus welchen Gründen auch immer), auch Strom weg. Die gewaltigen Investitionskosten für neue Kraftwerke bezahlt selbstverständlich der Stromkunde. Die Investitionskosten für notwendige Gas-Infrastruktur der Gaskunde. Der wehrlose Haushaltskunde wird gleich zweimal zur Kasse gebeten. Bei einer steigenden Zahl von Kleinrentnern, prekär Beschäftigten und absehbaren Arbeitslosen (noch nicht integrierten Flüchtlingen, abgeschafften Autowerkern, eingeschränktem Konsum durch immer weniger frei verfügbare Einkommen etc.).

Bevor sich jetzt alle Blitzdenker zu Wort melden: Natürlich werden die „Regenerativen Energien“ weiter ausgebaut – dafür sorgen schon die Schlangenölverkäufer. Das ändert aber nichts an der Tatsache, daß wenn der Wind mal weht und die Sonne scheint, trifft das alle Anlagen. Man kann aber nicht mehr elektrische Leistung einspeisen als gerade verbraucht wird. Die Wunderwaffe Speicher gibt es nicht. Damit ändert sich aber auch nichts an der erforderlichen Leistung aus konventionellen Kraftwerken, da sich weder die Jahreszeiten noch das Wetter durch den Menschen beeinflussen lassen, auch nicht (wesentlich) die möglichen Betriebsstunden. Man kann die Lücke – vornehm ausgedrückt: Residuallast – nur über Erdgas abdecken. Eigentlich ganz einfach, könnten sogar die Annalenas verstehen, wenn sie denn wollten.

Aber noch einmal einen Schritt zurück. Wenn sie ihr Erdgas aus abgelegenen Weltgegenden zu den Verbrauchsschwerpunken (Kraftwerke) bringen wollen, wird das sehr teuer. Entweder ewig lange Pipelines oder Verflüssigungsanlagen mit entsprechender Transportkette. Sie können es drehen wie sie wollen, aber mit Kohle und Kernenergie können sie nicht konkurrieren. Da sie nicht billiger werden können, haben sie nur eine Chance: Sie müssen dafür sorgen, daß die anderen Energieformen teurer werden und/oder verunglimpft werden. Sie erfinden beispielsweise den „menschengemachten Klimawandel“. Sie fördern – ganz unverdächtig – massiv „regenerative Energien“ und sponsern ihre politischen Vertreter, weil sie (die offensichtlich nicht) genau wissen, daß mit Wetter-Energie gar keine zuverlässige Stromversorgung möglich ist. Gleichzeitig kehren sie ihren Nachteil in einen (vermeintlichen) Vorteil um: Der höchste Wasserstoffgehalt unter den Brennstoffen, der ihr Produkt zu einem schwer handhabbaren Gas macht, wird jetzt zum kleineren „CO2Fußabdruck“ umgedeutet (Neudeutsch framing).

Trump’sche Energiewende

Für Trump ist Energieverbrauch nicht per se schlecht. Ganz im Gegenteil: „Billige“-Energie hebt den Lebensstandard. Für den Privatmann bedeutet eine kleinere Energierechnung mehr Geld für andere Dinge des Lebens übrig zu haben. Für die Industrie weniger Kosten und damit mehr Geld für Investitionen und Gehälter.

Er hat das gemacht, was Politiker machen können, er hat alle unsinnigen und hemmenden Vorschriften wieder abgeschafft. Achtung, Wähler aufgepaßt: Das ist jederzeit in einer Demokratie möglich. Es ist also sinnvoll, vor einer Wahl die unterschiedlichen Wahlprogramme zu studieren und den Politikern aufmerksam zuzuhören.

Von den Fesseln befreit, ist die Öl- und Gasindustrie in den USA förmlich explodiert. Die USA sind auf dem Weg größter Ölproduzent (noch vor Saudi Arabien und Rußland) der Welt zu werden. Kann sich noch jemand an „peak oil“, die andere sozialistische Erfindung zum „Marktversagen“ erinnern? Nach dieser verquasten Theorie müßten die Ölvorräte der USA längst erschöpft sein. Tatsache ist jedoch, daß der bisherige Förderrekord aus den 1970er Jahren gerade übertroffen wurde. Das Ergebnis ist eine steigende Beschäftigung bei steigenden Einkommen. Gerade auch bei Minderheiten – die Flut hebt bekanntlich alle Boote. Wirtschaftspolitik ist immer noch die wirksamste Sozialpolitik. Leider gilt das auch anders herum, wie man gerade im Energiewende-Deutschland beobachten kann.

Die USA schwimmen zur Zeit in Öl und Gas. Dies hat zu einem Preisverfall in den USA geführt. Eine ungesunde Entwicklung, die zur Senkung der Produktion mit umgekehrten Konsequenzen führen würde. So beträgt der Rohölpreis in den USA (West Texas Intermediate) rund 90% des Referenzpreises in Europa (Brent). Die Antwort darauf ist ein Ausbau der Häfen in Texas für Supertanker zum Export von Rohöl. Noch schlimmer ist die Situation beim Erdgas. Alles begann mit dem Shale Gas Boom (Appalachian region). Parallel kam die zunehmende Ölförderung aus der Bakken-Formation (North Dakota) und dem Permian Basin (Texas, New Mexico) hinzu. Dort fallen nämlich gewaltige Mengen als Begleitgas an. Das Ergebnis ist ein Referenzpreis (Henry Hub, März 2019) für Erdgas von rund 2,82 $/MMBtu (0,0865 Eurocent/kWh). Da dieser Preis sogar unter dem von Kesselkohle liegt, drängt das Erdgas zeitweise die Kohlekraftwerke aus dem Markt. Es ist aber gar nicht beabsichtigt auf Kohle oder Kernkraft zu verzichten (Versorgungssicherheit). Auch hier bleibt nur der Export als Ausweg. Es mag sich zwar paradox anhören, aber die hohen Weltmarktpreise ziehen die heimatlichen Erdgaspreise über die zusätzliche Nachfrage aus dem Export nach oben und sichern damit der heimischen Industrie auch langfristig günstige Rohstoff- und Energiepreise.

Der LNG-Boom

Die USA können ihr Erdgas über Rohrleitungen nur nach Kanada (ist selbst ein Nettoexporteur) und Mexiko exportieren. Also bleibt nur der Seeweg. Der Gesamtexport im Jahr 2018 betrug 9,9 Bcf/d. Damit sind die USA zum ersten Mal seit 60 Jahren zum Nettoexporteur geworden und der Bezug über Rohrleitungen ist seit 20 Jahren zum ersten Mal kleiner als die Lieferungen ins Ausland.

Der Ausbau der Verflüssigungsanlagen geht schnell voran. Im Jahr 2018 wurde noch ganzjährig durchschnittlich 3,1 Bcf/d (87,8 Millionen m3pro Tag) Gas verflüssigt. Dieses Jahr gehen noch weitere Anlagen in Sabine Pass, Corpus Christi, Cameron, Freeport und Elba Island in Betrieb. Damit dürfte sich die Kapazität auf etwa 9 Bcf/d (0,255 Milliarden m3 pro Tag) Gas erhöhen.

Hat man Erdgas verflüssigt (Liquefied Natural Gas, LNG), hat man einen Quantensprung in der Flexibilität erreicht: Man ist nicht mehr auf starre Rohrleitungen angewiesen, sondern kann es mit Tankern weltweit und sogar mit Tankwagen in die hintersten Ecken transportieren. Ebenso benötigt man keine aufwendigen und energieintensiven geologischen Speicher mehr um die Lastspitzen an kalten Tagen (Bedarf der Heizungen) ausgleichen zu können. Schon heute werden stationäre Tankanlagen für die Glättung solcher Spitzen eingesetzt. Je mehr sich LNG in der Fläche ausbreitet, um so mehr Schiffe und LKW können es dann als (billigen) Treibstoff nutzen. LNG hat rund 60% der Energiedichte von Dieselkraftstoff und etwa 70% von Benzin.

Der Weltmarkt für LNG wächst schnell. 2017 gab es bereits 19 exportierende und 40 importierende Länder. Die drei größten Exporteure waren Qatar (77.5 MT, Millionen to), Australia (55.6 MT) and Malaysia (26.9 MT) und die drei größten Importeure Japan (83.5 MT), China (39 MT) and South Korea (37.8 MT). Der Bedarf in China wird weiter steigen, da China dringend den Kohleverbrauch in Haushalten und Industrie senken muß. Der Verbrauch in Japan wird demgegenüber mit jedem Kernkraftwerk, das wieder in Betrieb geht, weiter sinken. Durch LNG werden sich analog zu Rohöl die Erdgaspreise weltweit angleichen. Ist das LNG erstmal im Tanker, kann es weltweit umdisponiert werden – immer in Richtung der lokal höchsten Preise. Dies gilt auch dann, wenn beispielsweise ein japanischer Gasversorger feste Verträge mit einer Laufzeit über zwei Jahrzehnte mit einem US-Anbieter hat. Gibt es z. B. ein günstigeres „Tages-Angebot“ aus Australien, kann er seine Ladung aus den USA umleiten. Im Ölgeschäft ist es nicht unüblich, daß ein Tanker auf seiner Reise mehrfach verkauft wird.

Der Erdgaspreis hat auch eine wichtige Konsequenz für die „Alternativen Energien“. Die maximal zulässigen Stromkosten aus Wind und Sonne entsprechen (über dem dicken Daumen) ungefähr dem doppelten Erdgaspreis. Das Gaskraftwerk hat feste Kosten für Personal und Kapitaldienst – ob es nun läuft oder nicht. Das einzige was es spart, wenn es durch Wind und Sonne aus dem Netz gedrängt wird, ist der verringerte Gasverbrauch. Für den Süden der USA ergibt das bei einem aktuellen Erdgaspreis von 2,75 $/MMBtu, weniger als 2 Eurocent für eine Kilowattstunde „Wetterstrom“. Viel Spaß bei der Arbeit, liebe Schlangenölverkäufer. Damit kein Mißverständnis entsteht, noch einmal mit anderen Worten: Deutlich unter zwei Cent pro kWh darf eure elektrische Energie in der Herstellung (ohne Subventionen!) nur kosten, sonst seit ihr sehr bald wieder vom Markt verschwunden. Mit Kohle und Kernenergie hofft ihr ja bald ohnehin nicht mehr konkurrieren zu müssen.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Trend der Schneebe­deckung auf der Nordhemi­sphäre (1967 bis 2018): Vergleich zwischen Klima­modellen und Beobach­tungen

Abstract: Mittels Satelliten beobachtete Änderungen der Schneebedeckung auf der Nordhemisphäre werden verglichen mit den von den CMIP5-Klimamodellen prophezeiten Änderungen während der Satelliten-Ära, d. h. von 1976 bis 2018. Insgesamt wurden 196 Klimamodellläufe analysiert (von 24 Klimamodellen). Separate Analysen wurden für die jährlichen Veränderungen sowie für jede einzelne der vier Jahreszeiten durchgeführt. Eine längerzeitliche Reihe (1922 bis 2018) für das Frühjahr, in welcher Messungen am Boden mit Satellitenbeobachtungen kombiniert enthalten sind, wurde ebenfalls mit den Modellergebnissen verglichen. Es stellte sich heraus, dass die Klimamodelle praktisch nicht in der Lage waren, die beobachteten Trends abzubilden. Während die Schneebedeckung den Modellen zufolge in allen vier Jahreszeiten stetig abnehmen sollte, zeigte sich nur im Frühjahr und Sommer eine langzeitliche Abnahme, und das Muster der beobachteten Abnahme während dieser beiden Jahreszeiten wich ziemlich von den Modellprophezeiungen ab. Außerdem zeigen die beobachteten Trends im Herbst und Winter eine langzeitliche Zunahme, obwohl diese Trends statistisch nicht signifikant waren. Mögliche Ursachen für die schlechten Modellleistungen werden angesprochen.

Introduction

Die Schneebedeckung ist eine der Hauptkomponenten der Cryosphäre, zusammen mit Meereis, Permafrost und den verschiedenen Eisschilden und Gletschern. Die jahreszeitliche Schneebedeckung repräsentiert eine wesentliche Komponente des hydrologischen Zyklus‘ in mittleren und hohen Breiten. Außerdem unterstützt die Schneebedeckung auch eine große Wintersport-Industrie, während die Schneeschmelze eine wichtige Wasserquelle für viele Gebiete ist. Als Folge davon schätzen Sturm et al. (2017), dass der finanzielle Wert von Schnee für die menschliche Gesellschaft in der Größenordnung von Billionen Dollar angesiedelt ist. Boelman et al. (2019) unterstreichen, dass das Verständnis von Änderungen und Trends der Schneebedeckung auch bedeutsam ist für Wild-Habitate in Ökosystemen, in denen es jahreszeitlich bedingt schneit.

Zeitweilige Änderungen der Schneebedeckung haben auch einen bedeutenden Anteil am globalen Klimawandel, und zwar aus mindestens zwei Gründen. Erstens, Schneebedeckung wird weit verbreitet als Indikator von Klimawandel angesehen. Klimamodelle von den siebziger Jahren bis heute haben konsistent prophezeit, dass die vom Menschen verursachte globale Erwärmung infolge zunehmender atmosphärischer Treibhausgas-Konzentrationen zu einem signifikanten und kontinuierlichen Rückgang der Gesamt-Schneebedeckung führen soll. Zweitens, Änderungen der Schneebedeckung können zusätzlich zum Klimawandel beitragen, indem sich die Albedo an der Erdoberfläche ändert und teilweise auch, weil eine Schneedecke den Boden darunter isoliert.

Wöchentliche, aus Satellitenbeobachtungen abgeleitete Beobachtungen auf der Nordhemisphäre stehen von November 1966 an bis heute zur Verfügung (wobei historische Daten bzgl. Schneebedeckung geringere räumliche und zeitliche Auflösung für die Südhemisphäre zeigen). Diese Schätzungen sind gemeinsame Bemühungen zwischen der NOAA und dem Global Snow Lab an der Rutgers University. Dieser Datensatz (in der Folge als „Rutgers-Datensatz“ bezeichnet) repräsentiert die längste Aufzeichnung jedweder Umwelt-Variablen auf Satelliten-Basis, und sie wird ausgiebig genutzt von der klimawissenschaftlichen Gemeinschaft.

Verschiedene Messungen am Boden von lokalem Schneefall und Ausdehnung der Schneedecke erweitern die entsprechenden Daten auf die Zeit vor der Satelliten-Ära. Brown und Robinson (2011) konnten diese Datenquellen mit dem Rutgers-Datensatz kombinieren, um Schätzungen der Ausdehnung der Schneebedeckung auf der Nordhemisphäre für März und April bis zurück zum Jahre 1922 abgeben zu können (und bis zurück zu 1915 für Nordamerika). Mittels Mittelung der beiden monatlichen Schätzungen leiteten sie eine kombinierte „Frühjahrs“-Schätzung ab.

Während der siebziger und Anfang der achtziger Jahre gaben die mittels Satelliten gewonnenen Schätzungen und Trends der Schneebedeckung innerhalb der wissenschaftlichen Gemeinschaft zu Verwirrung Anlass. Obwohl die Klimamodelle prophezeit hatten, dass die globale (und hemisphärische) Schneebedeckung infolge der anthropogen verursachten globalen Erwärmung abnehmen sollte, hat die Schneebedeckung auf der Nordhemisphäre zumindest seit Beginn der Aufzeichnung tatsächlich zugenommen. Seinerzeit ließ dieser Umstand Skeptizismus hinsichtlich der Validität der Klimamodelle aufkommen.

Ende der achtziger Jahre begann die mittlere Schneebedeckung endlich zu schrumpfen. Obwohl Robinson und Dewey (1990) warnten, dass es immer noch „zu früh sei, um eine anthropogene Ursache der jüngsten Abnahme der hemisphärischen Schneebedeckung festzumachen“, erneuerte diese Trendumkehr das Vertrauen in Klimamodelle und die AGW-Theorie (welche inzwischen in der Öffentlichkeit immer mehr Interesse geweckt hatte).

Mit der Zeit wurde jedoch immer offensichtlicher, dass die beobachteten Änderungen der Schneebedeckung so ziemlich anders verliefen als von den Modellen prophezeit. Während die Modelle ein schrumpfen in allen vier Jahreszeiten simuliert hatten, beschränkte sich die beobachtete Schrumpfung weitgehend auf Frühjahr und Sommer, aber nicht auf Herbst und Winter.

Außerdem erfolgte das Schrumpfen im Frühjahr und Sommer hauptsächlich in einer einzigen Stufe Ende der achtziger Jahre. Das heißt, die mittlere Schneebedeckung im Frühjahr und Sommer war bis Ende der achtziger Jahre weitgehend konstant, ging dann zurück und verharrte seitdem wieder weitgehend konstant auf dem niedrigeren Niveau. Die Klimamodelle hatten mehr oder weniger einen kontinuierlichen Trend, aber keine stufenartige Änderung angenommen. Obwohl Foster et al. (2008) vorsichtigerweise nicht ausschließen wollten, dass ein Teil der Schrumpfung „zumindest teilweise einer vom Menschen verursachten Erwärmung zugeordnet werden kann“, argumentierten sie aber doch, dass diese stufenartige Änderung viel konsistenter mit einer Verschiebung der Arktischen Oszillation einher gegangen war, oder auch irgendeiner anderen Verschiebung des Klima-Regimes.

Nichtsdestotrotz zeigten viele Studien: wenn man einen linearen Trend berechnet für die beobachteten Frühjahrs- (oder Sommer-)Werte in einem Zeitraum, welcher diese Stufenänderung (d. h. 1967 bis 2012) mit erfasst, führte dieser Rückgang zu einem „negativen Trend“ und dazu, dass die von den Klimamodellen angenommene kontinuierliche Abnahme ebenfalls einen „negativen Trend“ für jene Jahreszeiten implizierte (und das auch für die anderen Jahreszeiten). Außerdem implizierten die jährlichen Mittelwerte ebenfalls einen insgesamt negativen Trend, da die beobachtete Schrumpfung im Frühjahr und Sommer erfolgte. Angemerkt wurde auch, dass die Klimamodelle immerhin den jährlichen Zyklus der Schneebedeckung nachbilden konnten.

Mit dem Vergleich linearer Trends im Frühjahr über einen bestimmten Zeitraum könnte man argumentieren, dass es eine gewisse Übereinstimmung gebe zwischen Klimamodell-Prophezeiungen und Beobachtungen. Im Einzelnen fand der beobachtete negative Frühjahrstrend der Schneebedeckung auf der Nordhemisphäre Eingang in den verbreitet zitierten 5. Zustandsbericht des IPCC (2013), was dort zu einem Hauptargument für die Schlussfolgerung wurde, dass die globale Erwärmung seit den fünfziger Jahren sehr ungewöhnlich sei. „Die Erwärmung des Klimas ist eindeutig, und seit den fünfziger Jahren sind viele der beobachteten Änderungen beispiellos über Jahrzehnte und Jahrtausende. Ozean und Atmosphäre haben sich erwärmt, die Schnee- und Eismenge hat sich verringert, der Meeresspiegel ist gestiegen, und die Konzentrationen von Treibhausgasen auch“ (Hervorhebung von mir [= dem Autor]).

Einige Studien sind noch weiter gegangen und zogen „Erkennungs- und Zuordnungs“-Studien heran auf der Grundlage von Klimamodellen. Damit wollen sie belegen, dass der Rückgang der Frühjahrs-Schneebedeckung nicht mit der natürlichen Variabilität erklärt und nur der vom Menschen verursachten globalen Erwärmung geschuldet sein kann. Im Wesentlichen werden in diesen Studien die Ergebnisse der CMIP5-Klimamodelle mit „ausschließlich natürlichen Antrieben“ und die Ergebnisse derjenigen Modelle, in die „natürliche und anthropogene Antriebe“ eingehen, verglichen mit den beobachteten Trends im Frühjahr, wobei nur mit letzteren ein negativer Trend simuliert worden ist. Dies ist ein ähnlicher Ansatz wie vom IPCC im AR 5 angewendet, um zu der Folgerung zu kommen dass „es extrem wahrscheinlich ist, dass menschlicher Einfluss die dominante Ursache der beobachteten Erwärmung seit Mitte des 20. Jahrhunderts ist“. Soon et al. (2015) zeigte jedoch, dass die Konstrukteure der CMIP5-Modelle nur einen kleinen Satz verfügbarer Schätzungen berücksichtigt haben, während die Erwärmung vielen (wenn nicht allen) Schätzungen zufolge mit natürlichen Klimaänderungen erklärt werden kann.

Aber selbst wenn man sich nur die linearen Trends anschaut, zeigen sich rätselhafte Diskrepanzen zwischen Modellprophezeiungen und Beobachtungen. Erstens, die beobachteten negativen linearen Trends im Frühjahr sind messbar größer bzgl. der Magnitude als von den Modellen simuliert. Obwohl das verbreitet bekannt war, scheint es nicht viel Kritik an der Zuverlässigkeit der Klimamodelle hervorgerufen zu haben – vielleicht weil die Vorzeichen des Trends in diesem Falle gleich sind. Eine zweite Diskrepanz ist, dass die Schneebedeckung auf dem tibetanischen Plateau und allgemeiner in China in allen Jahreszeiten zugenommen hat, während es den Klimamodellen zufolge in diesen Gebieten zu einer Abnahme derselben gekommen sein sollte.

Eine dritte wesentliche Diskrepanz jedoch ist deutlich kontroverser und hat eine heftige Debatte ausgelöst. Während der letzten Jahre gab es in vielen Gebieten der Nordhemisphäre schwere Schneestürme im Herbst und Winter. Teils aus diesem Grunde zeigen die linearen Trends für Herbst und Winter eine Zunahme der Schneebedeckung oder zumindest eine konstante Ausdehnung derselben. Dies steht in scharfem Gegensatz zu den Klimamodellen, welche (wie oben ausgeführt) für alle Jahreszeiten eine kontinuierliche Abnahme simuliert hatten.

Räisänen (2008) argumentierte, dass die Reaktion des winterlichen Gesamt-Schneefalls auf die globale Erwärmung nicht trivial ist, weil steigende Temperaturen auch die Niederschlagsmenge zunehmen lassen, und falls es kalt genug ist, diesen Niederschlag als Schnee fallen zu lassen, kann das unter dem Strich zu einer Zunahme des Schneefalls führen. Während einer Erwärmungsperiode prophezeien die Modelle für einige Gebiete zunehmenden Schneefall (wo die mittlere Temperatur unter etwa -20°C liegt), aber eine Abnahme in anderen Gebieten. Allerdings sind die Gebiete, in denen die Modelle zunehmenden Schneefall simulieren, bereits von einer Schneedecke überzogen. Daher kann die beobachtete Zunahme der winterlichen Schneebedeckung auf diese Weise nicht erklärt werden.

Obwohl in vielen Studien die beobachteten Trends der Frühjahrs-Schneebedeckung mit denen der Klimamodelle verglichen worden waren, gab es derartige Vergleiche der Trends in anderen Jahreszeiten kaum. Außerdem haben sich die meisten Vergleiche exklusiv auf lineare Trends konzentriert, während die beobachteten Trends oftmals unterschiedliche, nicht lineare Fluktuationen von Jahr zu Jahr aufweisen. Daher vergleichen wir in dieser Studie die beobachteten Trends der Schneebedeckung auf der Nordhemisphäre direkt mit den von den CMIP5-Klimamodellen im Nachhinein simulierten Trends, und zwar für alle vier Jahreszeiten. Unsere Analyse vergleicht sowohl lineare Trends als auch die Zeitreihe selbst.

[Die folgenden sehr langen Ausführungen enthalten viele technische und physikalische Details, für die auf das Original verwiesen wird. Nur eine Graphik daraus soll hier stellvertretend folgen. Weiter geht es danach mit ,Discussion and conclusions‘. Anm. d. Übers.]

Wie Soon et al. (2015) anmerkten, betrachten die CMIP5-Modelle nur eine kleine Teilreihe der verfügbaren Schätzungen der Gesamt-solaren Einstrahlung, und jede dieser Schätzungen geht davon aus, dass die jeweilige Teilreihe implizit eine relativ konstante Energie-Freisetzung seit Mitte des 20. Jahrhunderts aufweist (vielleicht mit einer geringen Abnahme). Inzwischen ergeben sich aus der „internen Variabilität“ jedes Modells unterschiedliche Zufalls-Fluktuationen (da sie Zufall sind). Daher neigt die interne Variabilität der Modelle dazu, die verschiedenen Trends im Multi-Model-Mean auszugleichen.

Man betrachte die modellierten Trends der winterlichen Schneebedeckung (JDF) im Vergleich zu den Beobachtungen (Abbildung). Klimamodelle prophezeien eine langzeitliche Abnahme der winterlichen Schneebedeckung, die aber nicht beobachtet worden ist. Tatsächlich zeigen die Beobachtungen alles in allem eine Zunahme der winterlichen Schneebedeckung, obwohl diese nicht statistisch signifikant ist. Seit Beginn des 21. Jahrhundert lag die Schneebedeckung zumeist über dem Mittel der Jahre 1967 bis 2016.

Zusammenfassend prophezeien die Klimamodelle eine statistisch signifikante Schrumpfung der winterlichen Schneebedeckung, welche nicht beobachtet worden ist (Bild (c) in der Abbildung), nicht einmal nach über 50 Jahren der Beobachtungen. Allerdings ist diese Schrumpfung in einigen Modellen nicht statistisch signifikant:

Abbildung: Gemittelte Trends der winterlichen Schneebedeckung auf der Nordhemisphäre (im Vergleich zum Mittel des Zeitraumes 1967 bis 2016). (a) Beobachtungen, (b) das CMIP5-Multi-Model-Mean, (c) die CMIP5-Simulation äquivalent zu +1 S.D., (d) die median CMIP5-Simulation, (e) selbige äquivalent zu -1 S.D. Die Unsicherheits-Bandbreiten der linearen Trends korrespondieren mit dem doppelten Standard-Fehler in Verbindung mit dem linearen fit.

Diskussion und Schlussfolgerungen

Die CMIP5-Klimamodelle erwarteten eine Abnahme der Schneedecke in allen vier Jahreszeiten, weil sie davon ausgehen, dass …

1) … die Trends der Schneebedeckung auf der Nordhalbkugel weitgehend berechnet worden sind aus den modellierten globalen Trends der Lufttemperatur, und

2) … die globalen Temperaturtrends seit Mitte des 20. Jahrhunderts dominiert sind von einer vom Menschen verursachten globalen Erwärmung infolge gestiegener atmosphärischer Treibhausgas-Konzentrationen.

Diese letzte Tatsache der Annahme der Modelle einer vom Menschen verursachten globalen Erwärmung wird bestätigt durch die formellen „Erkenungs- und Zuordnungs“-Studien der Frühjahrs-Schneebedeckung. Die Unfähigkeit der Klimamodelle jedoch, die beobachteten Trends der Schneebedeckung korrekt abzubilden zeigt, dass beide Hypothesen problematisch sind. Es gibt viele andere mögliche Erklärungen:

a) Die Modelle mögen korrekt sein hinsichtlich ihrer Prophezeiungen einer vom Menschen verursachten globalen Erwärmung, doch fehlen grundlegende atmosphärische Zirkulationsmuster oder Auswirkungen derselben, welche die Trends der nordhemisphärischen Schneebedeckung beeinflussen können.

b) Die Modelle mögen die Größenordnung der vom Menschen verursachten globalen Erwärmung überschätzen und daher auch den „menschlichen“ Beitrag zu den Schneedecken-Trends überschätzen. Dies wäre konsistent mit vielen Studien aus jüngerer Zeit, welche zu dem Ergebnis kamen, dass die „Klima-Sensitivität“ von Treibhausgasen von den Modellen viel zu hoch angesetzt wird.

c) Die Modelle mögen die Rolle natürlicher Klimaänderungen unterschätzen. Zum Beispiel unterschätzen die CMIP5-Klimamodelle signifikant die natürlich auftretenden multidekadischen Trends der Ausdehnung des arktischen Meereises. Andere haben festgestellt, dass die Modelle nur sehr schlecht beobachtete Trends der Niederschlagsmenge erklären können, ebenso wie Temperaturtrends in der mittleren und oberen Atmosphäre.

d) Die Modelle mögen fälschlich natürliche Klimaänderungen menschlichen Ursachen zuordnen. Tatsächlich zeigten Soon et al. (2015), dass es die CMIP5-Modelle versäumen, jedwede Schätzungen hoher solarer Variabilität zu berücksichtigen für ihre „natürlichen Antriebe“. Falls sie das getan hätten, könnten viele, wenn nicht alle beobachteten Temperaturtrends mit Änderungen des solaren Outputs erklärt werden.

Es ist möglich, dass mehr als einer der obigen Faktoren relevant ist,weshalb wir uns mehr Forschung hinsichtlich aller vier Möglichkeiten wünschen. Für jetzt fordern wir, dass die Projektionen der Klimamodelle bzgl. Trends der Schneebedeckung in Vergangenheit und Zukunft mit größter Vorsicht und größtem Skeptizismus betrachtet werden sollten. Änderungen der nordhemisphärischen Schneebedeckung haben bedeutende Implikationen für die Gesellschaft und lokale Ökosysteme. Daher ist es wichtig, dass sich die Planungen bzgl. zukünftiger Änderungen der Schneebedeckung nicht auf unzuverlässige Projektionen stützen.

Eine Möglichkeit für regionale und globale Klima-Modellierer, die Zuverlässigkeit ihrer Projektionen der Schneebedeckung zu verbessern, besteht darin, „Bias-Korrekturen“ anzubringen, damit die ,Nachhersagen‘ mehr auf einer Linie mit den Beobachtungen liegen. Dieses Verfahren ist inzwischen zu einem Standardverfahren geworden bei Studien zu Auswirkungen des Klimawandels. Dabei stimmen wir Ehret et al. (2012) zu, dass jedwede derartiger Bias-Korrekturen allen Endverbrauchern klar und transparent erklärt werden.

Mittlerweile gibt es seit über 50 Jahren Messreihen mit Satellitendaten, womit man die klimatische Variabilität der Schneebedeckung in jeder der vier Jahreszeiten untersuchen kann. Darum ist die beobachtete historische Variabilität der Schneebedeckung in jeder Jahreszeit eine weitaus plausiblere Grundlage für Planungen zur Anpassung an das Klima als jedwede gegenwärtige Modellprojektion.

References

Available in the full PDF of the paper here: https://www.mdpi.com/2076-3263/9/3/135/pdf

© 2019 by the authors. Submitted for possible open access publication under the terms and conditions of the Creative Commons Attribution (CC BY) license (http://creativecommons.org/licenses/by/4.0/).

Link: https://wattsupwiththat.com/2019/03/22/northern-hemisphere-snow-cover-trends-1967-2018-a-comparison-between-climate-models-and-observations/

Übersetzt von Chris Frey EIKE




Wieso schaden Klimaschützer der Umwelt? … fragt Tamara Wernli

Tamara Wernli ist eine der profiliertsten Schweizer Journalistinnen und Youtuberinnen. Sie arbeitet unter anderem für die konservativ-liberale Zürcher Weltwoche.

 

Mit freundlicher Genehmigung von Tamara Wernli.

 

 

 




Ertappte grüne Klimaferkel – wird sich etwas ändern?

Ich erinnere mich an eine Geschichte von einer Edel-Automobilausstellung im Taunus-Schlößchen bei Frankfurt, wo sich das dort wohnende Bankermilieu mittlerweile brennend für angeblich umweltfreundliche Hybrid- und Elektroautos interessiert statt für kurvige Karossen. Letztere hat man natürlich auch; aber der Prius oder Tesla ist das Statussymbol für bestimmte Auftritte.

Nun gehört zum Lebensstil der Besserverdiener, die im Klimaschutz-Vorreiter-Land gut und gerne leben, sich die Welt anzuschauen. Denn der zahlungskräftige grüne Weltbürger sieht im Gegensatz zum Niedriglöhner seine Heimat nur noch als Basis und Finanzquelle an; zu Hause ist er – zumindest gefühlt – in allen Kulturen und auf allen Kontinenten.

Bekannte grüne Politiker, allen voran aktuell Cem Özdemir, Katharina Schulze, Robert Habeck und Nachwuchsstar Luisa „Greta“ Neubauer verhalten sich dummerweise milieutypisch und fallen regelmäßig durch besonders klimafeindliches Verhalten auf. Denn nichts ist bislang CO2-trächtiger als die Verbrennung von Kerosin in Flugzeugturbinen auf Langstrecken um den halben Planeten. Die Quantitätsmedien rund um ARD & ZDF schonen meist die grünen Granden; aber hin und wieder schimmert etwas Journalismus oder mutige Satire durch. So haben die ZDF-Komiker Mann & Sieber das mittlerweile legendäre Lied „Auch Sonnenblumen welken, wenn man sie mit zuviel Scheiße düngt“ offenbar straflos durchbekommen.

Und neulich wurde das in den alternativen Netz-Medien ausgiebig behandelte Thema der grünen Klimaferkeleien rund um #Langstrecken-Luisa in Kontraste aus Berlin aufgegriffen. Unser fleißiger Leser Michael Krüger hat den betreffenden Ausschnitt online gestellt (Dank von mir).

Und jetzt die Knackfrage: Wird es etwas nutzen? Müßten grüne Nachwuchsstars wie Luisa N nicht desavouiert sein durch ihre Flugzeug-Welttournee, mit gerade einmal 22 Lenzen? Vor allem in der eigenen Partei? Sollte man doch meinen.

Aber nein, vor allem in der eigenen Partei interessiert das niemanden, weil alle Mitglieder es ganz genau so machen. Schon die Flugmeilen-Affäre des Cem Özdemir vor langen Jahren zeigte, daß anti-grünes Verhalten der grünen Granden gleichgültig ist. Die politische und ökologische Korrektheit, das ist eine reine Verbalideologie. Es geht ausschließlich darum, wie man redet. Wie man sich verhält, ist nicht von Belang. Man hat sich offenbar stillschweigend darauf geeinigt, sich nicht gegenseitig zu kritisieren, sofern nur „falsch“ gehandelt, aber nicht „falsch“ geredet wird.

Quelle: Standbild YT, https://www.youtube.com/watch?v=VB0HrieP8xQ&t=112s

Die angeblichen moralischen Werte, das Mitleid, die Klientelgruppe, es gehört zum „guten Ton“; und es sind alles nur Hebel, um an die Posten und an die Fleischtröge des Steuerzahlers zu kommen. Wie gehen die GEZ-Medien, mittlerweile ja fast eine grüne Pressestelle, und die betroffenen Politiker in der Öffentlichkeit mit der Kritik um? Wenn Luisa von ihrer und Gretas Klima-Angst erzählt, aber in den vergangenen fünf Jahren auf den Flughäfen des Planeten zu Hause war, fühlt sich der Bürger durchaus zu Recht auf den Arm genommen.

Daher spielen Hofreiter, Luisa, Baerbock & Co. ihre Flugleidenschaft gerne herunter, indem sie den Schwarzen Peter anderen zuschieben, wahlweise der „Gesellschaft“ oder der Industrie. Zitat Baerbock: „…weil die Frage, wie man unsere Wirtschaft ökologisiert, die muß nicht individuell geklärt werden“ (siehe Video unten).

Unsere #Langstrecken-Luisa hat den grün-orwellschen Neusprech verinnerlicht und kann ihn bereits halbwegs fehlerfrei anwenden. Allerdings hat sie bei Dunja Hayali noch ordentlich gepatzt, als sie allen Ernstes meinte, weil sie „mal ein Flugzeug betreten“ habe, solle man sie nicht kritisieren. In Anbetracht der zum Interviewzeitpunkt bereits bekannten Welttournee eine beachtliche Aussage, die beim Bürger mutmaßlich als arrogante Abgehobenheit einer zukünftigen Spitzenpolitikerin gesehen wurde.

Zum Glück gibt es neben Mann & Sieber noch einige wenige andere Milieuvertreter, die es ernst meinen mit den eigenen Werten. So hat der grüne Reichstags-Abgeordnete Dieter Janecek gerade den amüsanten Vorschlag gemacht, den Bürgern nur noch eine bestimmte Anzahl von Flügen/ Flugmeilen zu gestatten; danach würden Klimaschutzgebühren fällig. Eigentlich eine gute Idee, wie ich finde. Denn erwischen würde diese Regelung nicht den Kleinen Mann, der meist nur einmal im Jahr nach Malle düst, sondern die Globalmanager und grünen Globetrotter. Und die haben genug Geld.

Was glauben Sie, passierte nun? Na was wohl, die grünen Granden versuchten, das Thema möglichst schnell aus den Medien zu bekommen; und dem naiven Janecek wurde offensichtlich ein Maulkorb angelegt.

Aber nicht mit EIKE und seinen Freunden. Wir löschen so etwas nicht aus unserem elektronischen Gedächtnis, sondern erinnern immer und immer wieder daran.