Der missver­standene Klima­wandel

Obwohl die exakte Terminologie und Ausdrucksweise variieren kann, erzählt man uns immer wieder die offiziellen ,Fakten‘ zum Klimawandel, als da wären:

a) Globale Erwärmung ist im Gange, und zwar mit einer beispiellosen und sich beschleunigenden Rate

b) Sie wird verursacht durch unsere Kohlendioxid-Emissionen aus der Verbrennung fossiler Treibstoffe

c) Das hat bereits zu einem alarmierenden und sich beschleunigenden Anstieg des Meeresspiegels geführt.

d) Das hat bereits zu einer alarmierenden und sich beschleunigenden Zunahme an Häufigkeit und Stärke von Extremwetter-Ereignissen geführt.

e) Es hat bereits alarmierend und beschleunigend das Aussterben von Spezies verursacht.

f) Wir befinden uns in einer Klimakrise, die schon bald katastrophale Ausmaße annehmen wird (potentiell einher gehend mit einem Massen-Aussterben), falls wir den Klimawandel nicht stoppen.

g) Wir können den Klimawandel stoppen mittels des dringenden Übergangs zu erneuerbaren Energiequellen wie Wind und Solar und damit unsere Emissionen eliminieren.

h) Die Wissenschaft hinter diesen Punkten ist settled und jenseits aller Zweifel.

Meine These lautet nicht, dass diese ,Fakten‘ einfach nur ,Fake News‘ sind (also absichtlich in die Welt gesetzte Falschheiten) oder ,Mythen‘ (andeutend, dass in ihnen keine Wahrheit irgendeiner Art steckt), sondern dass es sich um fundamentale Missverständnisse handelt auf der Grundlage der Art und Weise, mit der uns Wissenschaft und Belege informieren. Diese Missverständnisse scheinen sich das Mäntelchen eines ,kollektiven Glaubens‘ umgehängt zu haben, welcher durch gebetsmühlenartige Wiederholungen in den Medien irrtümlich als unbestreitbare Tatsachen aufgefasst wird – obwohl man jederzeit die Wissenschaft dahinter selbst überprüfen und Beweise widerlegen kann (oder sie zumindest ernsthaft hinterfragen). Nur wenige Menschen werden die Ansichten von Wissenschaftlern vernommen haben (darunter die von vielen der führendsten Wissenschaftler in der Welt), welche diese ,vom Menschen verursachte Klimawandel-Krise‘ in Frage stellen – einfach deswegen, weil diese Stimmen weitgehend ruhig gestellt worden sind (typischerweise, indem diese Personen als ,Klimawandel-Leugner‘ oder ,Wissenschafts-Leugner‘ gebrandmarkt werden). Im gegenwärtigen Klima der Feindschaft auch nur gegen die Einbeziehung alternativer Standpunkte gibt es offenbar nur eine einzige politisch korrekte Position, nämlich zu akzeptieren, dass das alarmistische Narrativ über alle Zweifel erhaben ist.

Es kommt kaum überraschend, dass es zu diesen Missverständnissen gekommen ist, weil für die meisten Menschen (seien das nun die allgemeine Öffentlichkeit, Politiker oder insbesondere auch Journalisten) ihre Informationen zum Thema Klimawandel vorherrschend aus den Medien beziehen. Wenn die Medien außerdem auch dem Mainstream zuzuordnen sind (wie etwa die BBC) und man ihnen ,vertraut‘, glauben die Menschen aus guten Gründen, dass ihnen die ,ganze Wahrheit‘ vermittelt wird durch neutral berichtende Journalisten, welche die Wissenschaft und die Beweise verstanden und kritisch unter die Lupe genommen haben. Traurigerweise gibt es jedoch kaum ein solches Verständnis und kritische Analysen – Journalisten neigen stark dazu, einfach zu übernehmen, was ihnen die ,wissenschaftlichen Autoritäten‘ vorgeben (in Gestalt von Presseerklärungen und Dokumenten mit einer executive summary, aus welchen alle Komplexitäten und ausgeprägte Unsicherheiten und Mehrdeutigkeiten entfernt worden sind). Dieses oftmals oberflächliche Verstehen wird dann dem Zielpublikum vermittelt in einer unwissenschaftlichen, emotionalen und hyperbolischen Sprache (wie etwa die Termini ,Klima-Notstand‘ oder ,Klimawandel-Krise‘), wobei Ausreißer-Prophezeiungen angeführt werden, die praktisch unmöglich eintreten können, um den Eindruck von Dringlichkeit und Gefahr zu erwecken; rhetorische Appelle an Emotionen gekoppelt mit alarmierenden Bildern (wie kalbenden Gletschern, Hurrikanen und Waldbrände oder auch vom Computer animierte ertrinkende Städte). All dies gräbt sich in die öffentliche Meinung viel stärker ein als rhetorische Appelle an die Logik, gekoppelt mit einer komplizierten Wissenschaft, mit Graphiken und Daten. Auf diese Weise werden höchst unwahrscheinliche Risiken in ferner Zukunft als existenzielle Krise heutzutage wahrgenommen. Falls man also die allgemeine Öffentlichkeit (und Journalisten und Politiker) davon überzeugen will, dass wir uns ,in einer vom Menschen verursachten Klimawandel-Krise‘ befinden, dann muss man sie normalerweise nur davon überzeugen, dass ,globale Erwärmung‘ im Gange ist (was niemand bestreitet) – einfach weil nur Wenige die fundamentalen Unterschiede verstehen werden zwischen einem vom Menschen verursachten Klimawandel einerseits und der natürlichen Klimavariation andererseits. Es reicht also schon eine einzige Temperaturgraphik (von denen man bei Google Tausende findet), um den offensichtlichen ,Beweis‘ des Narrativs zu führen. Dabei ist ein Beweis dafür, dass die globale Erwärmung stattfindet, kein Beweis dafür, dass es sich um eine vom Menschen verursachte Erwärmung handelt. Es ist kein Beweis dafür, dass Klimawandel stattfindet (geschweige denn ein vom Menschen verursachter Klimawandel), weil es sich bei der Erwärmung einfach um die natürliche Klimavariabilität handelt. Diese natürliche Klimavariabilität ist die Variabilität des mittleren Zustandes des Klimas in allen Zeitmaßstäben (jenseits der Zeitmaßstäbe normaler Wetterereignisse) aufgrund rein natürlicher Prozesse.

Diese Konfusion wurde versinnbildlicht in der Dokumentation ,Climate Change – The Facts‚ von Sir David Attenborough (von BBC TV gesendet am 18. April 2019). Diese Dokumentation war ein einziger Katalog wissenschaftlicher Missverständnisse und umfassender Behauptungen bzgl. eines vom Menschen verursachten Klimawandels, der zu eskalierenden Hitzewellen, Dürren, Stürmen, Überschwemmungen, Eisschmelze in der Antarktis, Anstieg des Meeresspiegels, Aussterben von Spezies und verbreitetem Korallensterben führen soll. Eine Zusammenstellung von Kritiken an dieser Sendung findet man hier und hier und hier. Enthalten darin ist auch die Behauptung (wie sie auch von so extremistischen Gruppen wie Extinction Rebellion aufgestellt werden), dass wir global bis zum Jahre 2050 Null-CO2-Emissionen erreichen müssen und nicht über ein halbes Grad Celsius globale Erwärmung hinausgehen dürfen, falls wir eine Klimakatastrophe vermeiden wollen. Diese Behauptung wird – um es so freundlich wie möglich auszudrücken – in keiner Weise von der Wissenschaft gestützt, wie jedem mit zumindest einem minimalen Verständnis der Klimawissenschaft oder jemandem, der den SR15-Report des IPCC gelesen hat, klar ist, obwohl dieser Report angeblich die Grundlage dieser Behauptung sein soll. Dem IPCC zufolge würde das Erreichen dieses Zieles außerdem beispiellose Änderungen unserer Lebensweise, unseres Energieverbrauchs und unseres Transportwesens erfordern – also nichts weniger als eine globale soziale und ökonomische Revolution.

Das grundlegende Problem für all jene, die bereit sind, alternative Gesichtspunkte ernsthaft in Erwägung zu ziehen besteht darin, dass um die Falschheiten in dem simplistischen Narrativ der Alarmisten zu verstehen es eines ziemlich tiefen Eintauchens in die Wissenschaft bedarf, in Statistiken, Politik und Ökonomie des Klimawandels – und das ist zeitraubend. Es ist harte Arbeit, welche ein ziemlich hohes Niveau wissenschaftlicher Bildung voraussetzt. Falls man sich jedoch dieser Mühe unterzieht, ergibt sich ein sehr unterschiedliches (und weitaus weniger alarmierendes) Bild:

1) Globale Erwärmung und Klimawandel sind beide eindeutig im Gange (wobei Letzterer reflektiert wird beispielsweise durch sich zurückziehende Gletscher und Meeresspiegelanstieg) – jedoch bislang in beiden Fällen mit einer Rate, die klar innerhalb der natürlichen Klima-Variabilität liegt (und die nicht beispiellos ist).

2) Es gibt grundlegende Unsicherheiten bzgl. der Frage, inwieweit menschliche Aktivitäten zur postindustriellen globalen Erwärmung und Klimawandel beigetragen haben, nicht zuletzt wegen des extrem schwierigen Unterfangens, den vom Menschen verursachten Klimawandel vom ,Hintergrund-Rauschen‘ der natürlichen Klima-Variabilität zu trennen.

3) Der Meeresspiegel steigt mit einer Rate von 18 bis 20 cm pro Jahrhundert, also mit einer Rate, die trotz unserer eskalierenden Kohlendioxid-Emissionen stabil geblieben ist, d. h. die Ursachen sind vorherrschend natürlichen Ursprungs. Wir können sämtliche derartigen Emissionen über Nacht einstellen, und der Meeresspiegel wird genauso weiter steigen – eine Unvermeidlichkeit, an die wir uns anpassen müssen.

4) Es gibt nicht einmal ansatzweise irgendwelche überzeugenden wissenschaftlichen Beweise, dass Extremwetter-Ereignisse an Häufigkeit oder Stärke in postindustrieller Zeit zugenommen haben (obwohl die Berichterstattung darüber sehr wohl zugenommen hat).

5) Es gibt nicht einmal ansatzweise irgendwelche überzeugenden wissenschaftlichen Beweise, dass Klimawandel (sei er nun vom Menschen verursacht oder nicht) zu einem verbreiteten Aussterben von Spezies geführt hat (die meisten Aussterbe-Ereignisse sind dem Verlust von Habitaten, Raubbau, Verschmutzung oder invasiven Spezies geschuldet).

6) Falls man die (vollständig natürliche) El Nino-Erwärmung von 2015/16 entfernt, gab es in diesem Jahrhundert keine statistisch signifikante globale Erwärmung.

7) Jüngst (vor allem in diesem Jahrhundert) hat sich die globale Erwärmung verlangsamt (während unsere Kohlendioxid-Emissionen weiter gestiegen sind). Dies illustriert die Tatsache, dass es keine direkte (oder lineare) Korrelation gibt zwischen der globalen Temperatur und Kohlendioxid-Emissionen.

8) Es ist unmöglich, die mittlere Temperatur der Erde zu kontrollieren (schon gar nicht in Zeitmaßstäben von Jahrzehnten bis zu Jahrhunderten), indem man einfach die Kohlendioxid-Emissionen kontrolliert.

9) Es ist unmöglich, den Klimawandel zu stoppen – ist dieser doch inhärent komplex, unvorhersagbar und unkontrollierbar.

10) Es ist unmöglich, eine Größenordnung des Klimawandels zu spezifizieren, jenseits der die Auswirkungen desselben insgesamt schädlich werden (das 2°C-Ziel des Paris-Abkommens ist politisch willkürlich).

11) Kohlendioxid ist ein nicht brennbares, farb-, geruch- und geschmackloses Gas, welches ein sehr effektiver Grundstoff für das Pflanzenwachstum ist. Dank der von unseren Emissionen verursachten Zunahme der Konzentration in der Atmosphäre ist die Erde auf eine Art und Weise ergrünt, die schon jetzt äquivalent zur doppelten Größe der USA ist. Der Kohlenstoff-Zyklus der Erde kann durch das Hinzufügen einer solch großen Kohlenstoff-Senke fundamental verändert werden. Außerdem ist das Gas der ,Treibstoff‘ der Photosynthese und für die Erzeugung von Sauerstoff; es ist absolut essentiell für die Existenz des komplexen Lebens auf der Erde (uns selbst eingeschlossen). Dr. Richard Lindzen, Professor der atmosphärischen Wissenschaften am MIT, hat es so ausgedrückt: „An den Gedanken, dass Kohlendioxid ein gefährliches, den Planeten zerstörendes Gift ist, wird man sich später als ,die größte Massen-Irreführung aller Zeiten‘ erinnern“.

12) Die Kohlendioxid-Konzentrationen in unserer Atmosphäre sind heute um etwa 46% höher als die Konzentrationen in vorindustrieller Zeit (280 ppm), aber sie liegen etwa viermal niedriger als dessen mittleres Niveau und mindestens zehnmal niedriger als zur Zeit der höchsten Konzentration in der Erdgeschichte (auf der Grundlage paläoklimatischer Schätzungen).

13) Die globale mittlere Temperatur der Erde liegt heute um etwa 1°C über dem vorindustriellen Niveau, aber um etwa 6°C unter dem mittleren Niveau und mindestens um 13°C unter dem höchsten Niveau in der Erdgeschichte (auf der Grundlage paläoklimatischer Schätzungen).

14) Computermodelle bzgl. Klimawandel erweisen sich als sehr unzuverlässige Hilfsmittel zur Vorhersage des Klimawandels in der Zukunft (besonders hinsichtlich deren grober Übertreibung der Erwärmung) – und doch sind es die extremsten ,Prophezeiungen‘ dieser Modelle, welche die globale Klima- und Energiepolitik bestimmen.

15) Die zukünftigen Kosten und Auswirkungen von Dekarbonisierung können sehr gut über zukünftige Kosten und Auswirkungen einer vom Menschen verursachten globalen Erwärmung hinausgehen, d. h. selbst wenn eine solche Erwärmung schädlich sein sollte, dürfte es kaum kosteneffektiv sein, dem mit Dekarbonisierung zu begegnen.

16) Auf der Grundlage von aus Beobachtungen abgeleiteter Schätzungen der Klima-Sensitivität dürfte die weitere, vom Menschen verursachte globale Erwärmung in diesem Jahrhundert kaum über 1,5°C hinausgehen, und die Auswirkungen derselben sind wohl insgesamt vorteilhafter für Mensch und Umwelt. …

17) Klima-Störungen (z. B. mit einem Zusammenbruch des Golfstromes) vor Ende dieses Jahrhunderts aufgrund einer vom Menschen verursachten globalen Erwärmung sind nicht absolut unmöglich, aber extrem unwahrscheinlich.

18) Ein ,Massen-Aussterbe-Ereignis‘ vor Ende dieses Jahrhunderts aufgrund der menschengemachten Erwärmung ist praktisch unmöglich. Hingegen ist eine globale ökonomische Rezession/Depression als Folge der Klimapolitik praktisch sicher – eine Politik, die vermeintlich darauf abzielt, die zukünftige Erwärmung auf ein halbes Grad Celsius zu begrenzen, um gerade ein solches Ereignis zu vermeiden.

19) Unberechenbare [intermittent] Wind- und Solarenergie ist keine Lösung bzgl. irgendeines zukünftigen Klimawandel-Problems.

20) Die Wissenschaft vom Klimawandel ist gegenwärtig unausgegoren, höchst fragwürdig und nicht einmal ansatzweise settled. Genau das ist der Grund, warum so viele so verschiedene Interpretationen dieser Wissenschaft durch die Welt geistern.

Auf der Grundlage all dieser Punkte ist der politisch korrekte Modetrend für Gremien/Landkreise/Länder, einen ,Klimawandel-Notstand‘ auszurufen, eindeutig einem ausgeprägten wissenschaftlichen Missverständnis geschuldet (tatsächlich ist es schwierig, nicht den Terminus ,wahnhaft‘ {delusional} in den Mund zu nehmen), wenn man irgendeine vernünftige Definition des Terminus‘ ,Notfall‘ [emergency] zugrunde legt. Es könnte wohl politisch sinnvoll sein (um das ,grüne Votum‘ zu erlangen), aber es ist wissenschaftlich und ökonomisch kompletter Unsinn. Beispiel: die einzige signifikante Änderung des Klimas in UK seit hunderten von Jahren war eine geringe Erwärmung – und dennoch hat das UK-Parlament jetzt einen ,Klimawandel-Notfall‘ ausgerufen. Es ist schwierig, einen Sinn in dieser Maßnahme zu erkennen, denn der Klimawandel bisher war insgesamt vorteilhaft für Mensch und Umwelt, hat er uns doch aus dem Elend der Kleinen Eiszeit herausgebracht, welche der geringen Erwärmung vorausgegangen war, mit ihren Dürren, Missernten, Hungersnöten und Epidemien – und er ist einher gegangen mit dem zunehmenden Wohlstand und der längeren Lebenserwartung aufgrund der Industriellen Revolution. All das deutet viel eher auf das genaue Gegenteil eines Notfalls.

Trotz allem oben Gesagten – falls man trotzdem der Linie der radikalen globalen Dekarbonisierung folgt, kann diese nicht ohne konzertierte Maßnahmen erfolgreich sein, besonders seitens großer Emittenten wie China (30% der weltweiten Kohlendioxid-Emissionen, Tendenz steigend – und der IEEFA zufolge einer Finanzspritze von etwa 36 Milliarden Dollar von Kohle-Projekten). Falls nur schwache Emittenten der Dekarbonisierung folgen, ist das noch schlimmer als sinnlos. Selbst wenn beispielsweise UK (1,1% der globalen Emissionen) ihre Ökonomie irgendwann vollständig dekarbonisiert (mit noch gar nicht verfügbaren Verfahren wie CCS), wie es vom UNFCCC gefordert wird, wäre die zukünftige Reduktion der globalen Erwärmung immer noch unmessbar klein. Damit ergeben sich grundsätzlich extreme ökonomische, soziale und umweltliche Schäden. Die einzige Grundlage, auf der so etwas erreicht oder verantwortet werden kann ist, wenn große Emittenten wie China dem Beispiel von UK folgen – und, gelinde gesagt, die Chance dafür ist vernachlässigbar.

Natürlich steht es um diese 20 Punkte erheblich komplizierter, qualifizierter und unsicherer als die 8 einfachen, absoluten und ,sicheren‘ Fakten zu Beginn dieses Beitrags. Hätte man die Wahl zwischen den komplexen Unsicherheiten der 20 Punkte und der einfachen Sicherheit der ,Fakten‘, würden wohl Viele letzteres vorziehen. Können wir also all diese Komplexität auf ein relativ einfaches ,alternatives Klimawandel-Narrativ‘ reduzieren – mit dem sehr realen Risiko, dass dieses Narrativ genauso banal ist wie der ursprüngliche Faktensatz? Falls man zu einer so großen Vereinfachung gezwungen ist, möchte ich Folgende Punkte vorschlagen:

a) Globale Erwärmung ist im Gange, wenngleich mit einer Rate, die durchschnittlich ist und sich nicht beschleunigt.

b) Sie wurde verursacht sowohl durch menschliche Aktivitäten als auch natürliche Kräfte (das heißt sie ist nicht einfach nur unseren Kohlendioxid-Emissionen geschuldet)

c) Dadurch steigt der Meeresspiegel, wenngleich in einer Rate, die durchschnittlich ist und sich nicht beschleunigt

d) Es ist nicht zu einer Zunahme von Häufigkeit und Intensität von Extremwetter-Ereignissen gekommen.

e) Sie hat nicht zu einer Beschleunigung des Aussterbens von Spezies geführt.

f) Wir stehen nicht vor einer ,Klimawandel-Krise‘ oder gar einem ,Klimawandel-Notfall‘ (tatsächlich ist genau das Gegenteil der Fall), aber Klima-Störungen in ferner Zukunft sind nicht unmöglich, wenngleich auch extrem unwahrscheinlich.

g) Wir können den Klimawandel nicht aufhalten, aber wir können die Klimawandel-Risiken reduzieren (wenngleich zu sozial und umweltlich unerschwinglichen Kosten), indem wir graduell zu weniger Kohlenstoff-intensiven Energiequellen wechseln (wie Erdgas).

h) Die Wissenschaft hinter diesen Punkten ist unausgereift und Gegenstand von Diskussionen. Es gibt einen fast totalen wissenschaftlichen Konsens, dass globale Erwärmung stattfindet und dass wir dazu beitragen [?, der Übersetzer] – aber ausgeprägte Meinungsunterschiede über das Ausmaß unseres Beitrags, ob dieser zu einem ,gefährlichen‘ Klimawandel führt und ob globale Dekarbonisierung wirklich die richtige politische Antwort ist.

Nun ist all dies höchst kontrovers, weil es die politisch korrekte Orthodoxie bzgl. Klimawandel unterläuft, jene alarmierenden ,Fakten‘, die in Frage zu stellen uns verboten ist. Viele würden zweifellos gegen dieses alternative, besonnene und weit weniger alarmistische Narrativ opponieren, vielleicht mit der Aussage, dass dies ,nicht dem entspricht, was das IPCC sagt‘. Das IPCC wird typischerweise beschrieben als ,das international anerkannte Gremium bzgl. Klimawandel‘. Es wird von den meisten Akademikern, Politikern, Umweltaktivisten und Journalisten mit Achtung, wenn nicht sogar Ehrfurcht betrachtet, sehen diese doch das IPCC als praktisch unfehlbar und allwissend an, wenn es um Klimawandel geht. Tatsächlich sind viele meiner 20 Punkte direkt aus den IPCC-Berichten abgeleitet. Insgeheim habe ich den Verdacht, dass das IPCC im Privaten den meisten dieser 20 Punkte zustimmt (was es aber aus Furcht vor einer Reduktion der Furcht nie öffentlich einräumen würde). Außerdem konzentriert sich das IPCC fast ausschließlich auf einen vom Menschen verursachten Klimawandel (um der Vorgabe des UNFCCC zu folgen) auf Kosten bedeutender Aspekte des natürlichen Klimawandels, und die Brandmarkung des Schuldigen, also Kohlendioxid, ist vorbestimmt. Die Ansichten des IPCC zu ignorieren wäre genauso närrisch wie zu glauben, dass es über alle Zweifel erhaben ist.

Um das Thema Klimawandel wirklich zu verstehen müssen wir akzeptieren, dass es weitaus komplizierter, facettenreicher und unsicherer ist als die vereinfachte Berichterstattung in den Medien. Wir müssen unseren Geist der breiten Vielfalt von Experten-Meinungen öffnen, über diese sehr ernsthaft nachdenken, den gesunden Menschenverstand walten lassen und vorsichtige Beurteilungen abgeben. Über allem muss aber stehen, dass wir uns vor irgendwelchen simplen Lösungen hüten müssen – wie etwa eine globale Dekarbonisierung. Unglücklicherweise haben nur sehr wenige Menschen dafür Zeit, Neigung und Ausdauer. Dr. Richard Lindzen drückte es so aus: „die offensichtlich überwältigende Botschaft der da oben lautet, dass wir vor einer vom Menschen verursachten Klimawandel-Krise stehen und dass dieser nur durch dringende und radikale globale Dekarbonisierung zu begegnen ist“. Dabei ist es nur zu verständlich (wenngleich auch bedauerlich), dass die breite Mehrheit der allgemeinen Öffentlichkeit ebenso wie Journalisten und Politiker sich einfach dafür entschieden haben, das zu glauben. Die simplen Sicherheiten des alarmistischen Narrativs in den Medien mag auf ausgeprägten wissenschaftlichen Missverständnissen beruhen (wessen sich die da oben auch wohl bewusst sind). Aber die Haltung der Oberen scheint es zu sein, dass weil eine ,Klimawandel-Krise‘ in ferner Zukunft nicht unmöglich ist, die dubiosen Mittel durch das implizite möglich gerechtfertigt sind. Aber selbst dieses alarmistische Narrativ hat es nicht vermocht, die Nationen der Welt zu gemeinsamem Handeln zu bewegen. Würden die Behörden ehrlich über das Thema Klimawandel reden mit all seiner Komplexität und Unsicherheit, würde dies den Regierungen sogar noch weitere Gründe geben, Dekarbonisierungen zu verzögern oder zu vermeiden. Das Verhalten aller wissenschaftlichen Autoritäten ist perfekt verständlich, wenngleich auch bedauerlich, weil dadurch das Risiko radikaler Klimawandel-Maßnahmen zu implementieren steigt, welche man in Zukunft noch sehr bedauern würde. Und natürlich ist auch das Verhalten der Medien völlig verständlich (wenngleich ebenfalls bedauerlich), weil sich schlechte Nachrichten nun einmal gut verkaufen. Hingegen ist es sehr schwierig, aus ,keine Klimawandel-Krise‘ eine Story zu machen.

Wenn die Leute sagen, dass sie an die Klimawandel-Krise glauben, weil sie an ,die Wissenschaft glauben‘, sagen sie in Wirklichkeit, dass sie es deswegen sagen, weil sie die Wissenschaft gar nicht verstehen, an die zu glauben sie sich entschieden haben. Und das, weil dieses Narrativ von Behörden und in den Medien vorangetrieben wird. Nur wenige Menschen entscheiden sich dafür, den ,wenig begangenen Weg‘ einzuschlagen, ihren Geist zu öffnen für die Argumente der anderen Seite der Klimawandel-Debatte, einschließlich Komplexität, Unsicherheit, Zweifel und sozialer Schande. Einerseits hat man es mit einem offensichtlich wissenschaftlich Geradeaus zu tun, das leicht verständlich, sehr sicher und sehr alarmierend ist („unsere Kohlendioxid-Emissionen verursachen eine Klimawandel-Krise“), und das auch eine einfache Lösung hat („Dekarbonisierung“). Andererseits gibt es ein wissenschaftlich herausforderndes, sehr schwierig zu verstehendes, komplexes und unsicheres Problem, welches alarmierend sein kann oder nicht und welches keine einfache Lösung hat. Anders gesagt, einerseits gibt es eine imminente existentielle planetare Krise, der nur durch eine radikale und dringliche Transformation der globalen Gesellschaft begegnet werden kann, während man andererseits ein mögliches Problem in ferner Zukunft hat ohne eine offensichtlich ,korrekte‘ politische Lösung heute. Es ist nicht schwierig zu erkennen, warum manche Leute, besonders junge, idealistische und leicht zu beeindruckende Leute, eher zu Ersterem neigen, die Banner ausrollen und ,den Planeten retten‘ wollen mittels einer Welt-Revolution unter dem Motto Save The Planet‚.

Innerhalb der klimawissenschaftlichen Gemeinschaft läuft die Trennlinie im Wesentlichen zwischen jenen (verkörpert durch das IPCC), welche vorherrschend an Klimamodelle glauben (d. h. virtuelle Welt-Projektionen dessen, was in der Zukunft passieren könnte) und jenen, die vorherrschend an empirische wissenschaftliche Beweise glauben (d. h. Beobachtungen in der realen Welt, die tatsächlich vor sich gegangen sind). Erstere Gruppe neigt dazu, sich auf die möglichen hohen Risiken eines zukünftigen Klimawandels konzentrieren und einer rapiden globalen Dekarbonisierung das Wort reden nur für den Fall. Die zweite Gruppe hingegen neigt dazu sich auf die möglichen geringen Risiken zu konzentrieren (sowie auf die hohen Kosten und die Auswirkungen von Dekarbonisierung). Man könnte sagen, dass die zweite Gruppe das Ganze wie ein Geschäftsmann betrachtet, welcher das Gleichgewicht von Möglichkeiten, Kosten, Vorteile und Risiken austariert, während die erste Gruppe einfach sagt, dass es ein gewaltiges potentielles Risiko gibt und daher etwas (radikale globale Dekarbonisierung) getan werden muss, fast ungeachtet aller Wahrscheinlichkeiten, Kosten und negativer Auswirkungen. Jemand hat es so ausgedrückt: „die ungelöste Schlüsselfrage lautet, ob globale Dekarbonisierung ,unsere allgemeine Zukunft im globalen Maßstab zu unserem Vorteil fundamental umgestalten wird oder rasch zu Schäden führt, welche die Menschheit in den ökonomischen, sozialen und umweltlichen Bankrott führen kann’“. Klimawissenschaftler, die das dominante Narrativ einer vom Menschen verursachten Klimawandel-Krise hinterfragen, sagen nicht, dass es ein eindeutiges wissenschaftliches Urteil ,Unschuldig‘ gibt, sondern sie sagen einfach dass unsere Schuld noch nicht über alle Zweifel erhaben bewiesen ist.

Das fundamentale Problem mit dem Klimawandel-Problem ist, dass es ein ,hinterhältiges‘ Problem ist: es ist unmöglich, unser zukünftiges Klima vorherzusagen oder zu bestimmen, ob es nun harmlos oder alarmierend ist, und zu sagen, wie man darauf reagieren sollte, weil einfach zu viele Variable, zu viele Unbekannte und zu viele Unsicherheiten im Spiel sind. Was wir jedoch als Reaktion wählen ist ein gigantisches Hasardspiel mit der Zukunft der Menschheit. Wie auch immer wir uns entscheiden – es könnte dazu führen, dass wir unsere Entscheidungen eines Tages zutiefst bedauern.

Link: https://wattsupwiththat.com/2019/05/06/climate-change-misconceived/

Übersetzt von Chris Frey EIKE




Schnee im Mai 2019 – ein Vorbote der Klima-Abkühlung?

Seit etwa der Jahrtausendwende nahm die Sonnenaktivität, grob gekennzeichnet durch die Anzahl der Sonnenflecken, so stark ab, wie schon seit 200 Jahren nicht mehr:

Abbildung 1: Die Anzahl der Sonnenflecken ist momentan so gering wie seit 200 Jahren nicht mehr. Sie bildet freilich die Sonnenaktivität, welche unser Klima maßgeblich bestimmt, nur sehr grob ab, ist aber die einzige langfristig beobachtete solare Größe.

Nun werden Kritiker fragen, wie denn das außergewöhnlich warme Jahr 2018 trotz der geringen Sonnenaktivität erklärt werden kann. Dafür gibt es drei plausible Möglichkeiten. Erstens wirkt die solare Aktivität zeitlich verzögert – mit einem Verzug von etwa 10 bis 30 Jahren. Zweitens erzeugen in Zeiten geringer Sonnenaktivität Korona-Entladungen, auch „Koronale Löcher“ genannt, Effekte, welche unter anderem zur Wolkenauflösung und einer damit einhergehenden höheren Sonnenscheindauer beitragen; 2018 war das häufig zu beobachten (Näheres hier). Drittens beeinflusst die Sonnenaktivität auch die Häufigkeitsverhältnisse der Großwetterlagen – bei geringer Sonnenaktivität treten tendenziell mehr Extremwetterlagen auf. Hier besteht noch erheblicher Forschungsbedarf, zumal die Sonnenfleckenanzahl nur ein sehr grobes, nicht immer zuverlässiges Maß der wirklichen solaren Aktivität ist. So scheinen bei geringer Sonnenaktivität tendenziell mehr Großwetterlagen mit nördlichem Strömungsanteil, welche uns auch die markanten Kälterückfälle im Frühjahr 2019 bescherten, aufzutreten – möglicherweise schwächen die Effekte der Koronalen Löcher diesen Zusammenhang aber ab:

Abbildung 2: In Zeiten mit weniger Sonnenflecken, wie bis etwa bis zur Mitte des 20. Jahrhunderts und momentan, treten in Mitteleuropa mehr Nordwetterlagen auf. Der Zusammenhang ist freilich nur schwach. 2018 gab es relativ wenige Nordwetterlagen – möglicherweise ein Effekt der koronalen Löcher.

Eine zweite, wesentliche Einflussgröße auf unser Klima ist die so genannte AMO (AMO = Atlantische Mehrzehnjährige Oszillation, ein Index für die gemittelten Meeresoberflächentemperaturen im zentralen Nordatlantik). Sie weist eine etwa 60ig- bis 80ig-jährige Rhythmik auf und hatte im späten 20. und frühen 21. Jahrhundert ihr Maximum („Warmphase“):

Abbildung 3: Die AMO weist um die Mitte des 20. Jahrhunderts und gegenwärtig höhere Werte („Warmphasen“) auf; in welchen auch die Jahresmitteltemperaturen und besonders die Sommer- und Herbsttemperaturen in Deutschland erhöht sind. Die beginnende AMO-Warmphase war um 1990 eine mögliche Ursache des „Klimasprungs“ – einer plötzlichen, markanten Erwärmung in Deutschland. Im Jahresmittel beeinflusst die AMO die Variabilität der Lufttemperaturen in Deutschland zu fast 20% – der Zusammenhang ist signifikant. Um beide Größen anschaulich in einer Grafik zu präsentieren, wurde in Indexwerte umgerechnet.

Niemand weiß genau, ob die AMO immer diese Rhythmik aufweist, und wann ihre nächste Kaltphase beginnt. Doch sollte diese eintreten, wird sie die Erwärmung in Mitteleuropa entweder stoppen oder gar in eine Abkühlung umkehren. 2018 und im bisherigen Verlauf von 2019 waren die AMO-Werte jedoch schon niedriger; eventuell verhinderten die häufig auftretenden Koronalen Löcher bislang eine stärkere Abkühlung. Die AMO beeinflusst aber auch die Häufigkeitsverhältnisse der Großwetterlagen maßgeblich mit. In AMO-Warmphasen treten nicht nur südliche und südwestliche Wetterlagen häufiger auf, sondern auch die zu Extremwetter neigenden Troglagen, bei denen sich, verursacht durch massive Kaltluftausbrüche, tiefer Luftdruck in Form eines Troges über West- oder Mitteleuropa weit südwärts ausdehnt. Sie sind in der gegenwärtigen AMO-Warmphase auffällig häufig:

Abbildung 4: Die Häufigkeit der beiden Troglagen nahm stark zu – besonders seit dem späten 20. Jahrhundert. Der Zusammenhang zwischen AMO-Werten und ihrer Häufigkeit ist deutlich und signifikant. Um beide Größen anschaulich in einer Grafik zu präsentieren, wurde in Indexwerte umgerechnet.

Beide Troglagen sind in ihrer Wirkung auf die Temperaturverhältnisse in Deutschland sehr gegensätzlich, denn während ein Trog über Westeuropa, der zu den südlichen Großwetterlagen zählt, sogar extreme Hitzewellen auslösen kann, speziell in Ostdeutschland, bringt ein Trog über Mitteleuropa kaltes Nordwetter, was auch den Mai-Schnee 2019 verursachte:

Abbildung 5: Zwischen zwei markanten Hochdruckgebieten (Ostatlantik, Nordosteuropa) liegt ein Tief über der Barents-See, südlich davon reicht ein mit extrem kalter Luft angefüllter „Höhen-Trog“, kenntlich an den blauen und grünen Farben, über Nord- und Mitteleuropa bis zum Mittelmeer. Wetterlage vom 4.Mai, Quelle wetterzentrale.de, leicht verändert und ergänzt.

Gemeinsam ist aber den beiden Troglagen die Neigung zu gebietsweisen Starkniederschlägen, Schauern und Gewittern.

Zusammenfassung: Die geringe Sonnenaktivität und das vermutliche Ende der AMO-Warmphase werden früher oder später die Erwärmung in Mitteleuropa beenden und möglicherweise gar eine Abkühlung einleiten. Die aktuelle Konstellation aus geringer Sonnenaktivität und noch bestehender AMO-Warmphase begünstigt außerdem Extremwetterlagen, darunter besonders die Troglagen; eine solche löste auch die markante Kälte mit Schneefällen im Mai 2019 aus. Diese Wetterlage könnte also, muss aber nicht zwangsläufig, ein Vorbote künftig wieder kälterer Witterung gewesen sein.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Eine Story der Manipulation von CO2-Daten

Der natürliche Anteil von CO2 in der Atmosphäre liegt bei 0,04%, das ist alles andere als das wichtigste Treibhausgas, geschweige denn das einzige, anders als es der größte Teil der Öffentlichkeit sieht.

Wasserdampf, dem Volumen nach mit einem Anteil von 95% an Treibhausgasen, ist bei weitem das häufigste und bedeutendste Treibhausgas.

Das andere relevante Treibhausgas ist Methan (CH4), aber es macht nur zu 0,000175% aller atmosphärischen Gase aus und 0,036% aller Treibhausgase.

Um die Bedeutung von CO2 aufzublähen, erzeugte man eine Maßzahl, genannt „Klimasensitivität“. Damit ist gemeint, dass CO2 als Treibhausgas „effektiver“ ist als Wasserdampf.

Hier folgt eine Tabelle von Wikipedia, welche Schätzungen der Effektivität der verschiedenen Treibhausgase zeigt. Man beachte die Bandbreite der Schätzungen, welche die Maßzahlen effektiv bedeutungslos macht – es sei denn, man hat eine politische Agenda. Wikipedia räumt ein: „Es ist nicht möglich festzustellen, dass ein bestimmtes Gas einen bestimmten Prozentanteil des Treibhausgas-Effektes auslöst“:

Das Ergebnis der Bestimmung der „Effektivität“ war die Erzeugung einer Karte des Global Warming Potential (GWP). Sie war ähnlich der Karte der Ozone Depleting Substances (ODS) [Ozon zerstörende Substanzen], welche nach der falschen Behauptung konstruiert worden war, dass CFCs das Ozon in der oberen Atmosphäre angreifen.

Schätzungen der Größe der der Atmosphäre hinzugefügten menschlichen CO2-Erzeugung werden vom IPCC erzeugt. Es behauptet, dass es 3% der Gesamtmenge des hinzugefügten CO2 ausmacht.

In den frühen IPCC-Berichten wurde kolportiert, dass die Verweildauer von CO2 in der Atmosphäre mindestens 100 Jahre beträgt. Obwohl die 100 Jahre nicht erwähnt werden, ist diese Angabe nach wie vor auf vielen Websites der Regierung implizit präsent. Zum Beispiel heißt es bei Environment Canada: „Da Kohlendioxid lange Zeit in der Atmosphäre verbleibt, wird sich dessen Niveau durch fortgesetzte menschliche Emissionen immer weiter erhöhen“. Die tatsächliche Verweildauer von CO2 beträgt aber nur 5 bis 7 Jahre. Danach wird es von natürlichen Senken absorbiert wie Pflanzen, Ozeane und Erdboden.

Der Ozean ist der Haupt-Kontrolleur des atmosphärischen CO2, aber dessen Fähigkeit variiert mit der Wassertemperatur. Ein kalter Ozean absorbiert mehr als ein warmer Ozean.

Menschen erzeugen CO2, aber sie entfernen es auch aus der Atmosphäre. Land- und Forstwirtschaft sind die Haupt-Absorber, welche geschätzt 50% der Gesamtproduktion aus der Atmosphäre entfernen.

Antarktische Eisbohrkerne zeigen, dass die Temperatur vor einer Zunahme des CO2-Gehaltes gestiegen war. Eine ähnliche Relation findet sich in jeder Aufzeichnung welcher Dauer auch immer und für alle Zeiträume. Trotzdem sind alle Computer-Modelle so programmiert, dass eine CO2-Zunahme auch eine Temperaturzunahme verursacht.

Kohlendioxid ist für das gesamte Leben auf der Erde unabdingbar. Forschungen belegen, dass der gegenwärtige Anteil von etwa 392 ppm etwa ein Drittel des Optimums für die meisten Pflanzen ausmacht. Empirische Beweise, ermittelt durch Einleitung von CO2 in kommerzielle Gewächshäuser, zeigen das optimale Niveau zwischen 1000 und 1200 ppm. Interessanterweise entspricht dies dem mittleren Niveau der letzten 300 Millionen Jahre.

Die zweite große Datenmanipulation involvierte CO2, die Zielscheibe des gesamten UNEP und des IPCC. Wie kann man „industrialisierte Nationen loswerden“, wie es Maurice Strong fordert. Die Quelle für deren Energie und Erfolg sind fossile Treibstoffe. Man vergleiche die Nation mit einem Auto. Das ist eine gute Analogie, weil viele das Auto dämonisieren als das Symbol der Industrialisierung, besonders in den USA. Man kann das Auto anhalten, indem man die Benzinzufuhr kappt. Das Gleiche kann man mit einer Nation machen, aber es würde augenblicklich eine negative Reaktion nach sich ziehen. Man denke einfach nur an die Reaktion, wenn die Treibstoffpreise explodieren. Man kann das Auto auch anhalten mittels Blockierung der Abgase, und das hat Potential für die Anwendung auf eine Nation. Man zeige, dass das Nebenprodukt des Autos – oder der Nation – das Klima zerstört, und man hat ein mächtiges Zugpferd, um eine Agenda voranzutreiben, das Auto oder die Industrie zu verbannen. Das ist effektiver, wenn man dem Nebenprodukt das Stigma eines Verschmutzers aufdrückt.

Die Isolation begann, als das IPCC den Klimawandel als ausschließlich auf menschliche Ursachen beruhend apostrophierte. Die Definition für Klimawandel stammt aus dem United Nations Environment Programme (Artikel 1) des United Nations Framework Convention on Climate Change (UNFCCC):

„…eine Änderung des Klimas, welche direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, wodurch die Zusammensetzung der globalen Atmosphäre verändert wird und welche zusätzlich zur natürlichen Klimavariabilität auftritt, die über längere Zeiträume beobachtet wird“.

In einer weiteren seiner betrügerischen Machenschaften verwarf das IPCC die ursprüngliche Definition von Klimawandel, wie sie von der UNFCCC festgelegt worden war und die in die ersten drei IPCC-Berichte Eingang gefunden hatte, bevor sie im Bericht 2007 ersetzt worden ist. Beschrieben wird dies in einer Fußnote in der Summary for Policymakers: „Klimawandel im Sinne des IPCC meint jedwede Änderung des Klimas mit der Zeit, sei diese nun der natürlichen Variabilität oder menschlichen Aktivitäten geschuldet. Diese Definition unterscheidet sich von derjenigen im UNFCCC, wo Klimawandel sich ausschließlich auf eine Änderung bezieht, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, wodurch die Zusammensetzung der globalen Atmosphäre verändert wird und welche zusätzlich zur natürlichen Klimavariabilität auftritt, die über längere Zeiträume beobachtet wird“. Das Problem dabei: Man hat den Vierten Zustandsbericht nicht verändert, weil die Berichte kumulativ sind und es daher keine Grundlage für die Einbeziehung der natürlichen Variabilität existiert.

Tabellen mit den vom IPCC herangezogenen Faktoren belegen, dass sich nichts geändert hat. Hier folgt die Tabelle aus dem IPCC-Bericht 2001:

Was darin auffällt:

1. Wasserdampf, das bedeutendste Treibhausgas, ist gar nicht erst aufgeführt.

2. Nur die Sonneneinstrahlung ist gelistet – dabei ist das nicht der einzige Faktor, mit welchem die Sonne das Klima beeinflusst. Falls man ausschließlich menschliche Gründe listet, wie beeinflussen wir dann die Sonneneinstrahlung?

3. Die Spalte rechts zeigt das Level of Scientific Understanding (LOSU).

4. Behauptungen eines „großen“ Verständnisses sind wissenschaftlich nicht gerechtfertigt.

5. Neun Faktoren sind gelistet – davon sind nur zwei hoch, aber vier niedrig und 2 Med-niedrig.

6. Die vom Menschen verursachte Gesamtänderung wird gemittelt mit 1,6 W/m² angegeben (Bandbreite 0,6 bis 2,4)

Im Report 2007 wurde keine neuen Variablen hinzugefügt – trotz der neuen angeblichen Definition. Wie es mit Allem, was das IPCC macht, so geht: das, was fehlt oder verändert wurde, erzählt die Story:

1. Die LOSU-Spalte ist verschwunden.

2. Die Spalte mit der Bandbreite der Schätzungen des Strahlungsantriebs (RF) ist verschwunden.

3. Wasserdampf fehlt immer noch

4. Zahlen für die Bandbreite des menschlichen Antriebs fehlen, aber dem Augenschein nach blieben sie unverändert.

5. Der menschliche Gesamt-Effekt scheint weiterhin bei 1,6 W/m² zu liegen.

6. Dies zeigt, dass die behauptete Zunahme von menschlichem CO2 nicht enthalten ist.

Es verbleibt das Problem: Da man nicht weiß, wie viel CO2 es gibt oder wie stark es sich auf natürliche Weise verändert, kann man nicht bestimmen, welcher Anteil menschlichen Aktivitäten geschuldet ist. Jede einzelne Angabe ist im besten Falle eine grobe Schätzung.

Mittels des Designs unterstreichen alle vom IPCC genannten Zahlen bzgl. CO2 den menschlichen Einfluss. Das sind bedeutungslose Zahlen des gesamten Volumens der jährlichen Flüsse und des menschlichen Eintrags, wie es im Diagramm des Kohlenstoff-Zyklus‘ des IPCC eingezeichnet ist. Im Jahre 2010 erstellte Dr. Dietrich Koelle eine Tabelle der geschätzten Emissionen und CO2-Aufnahmen aus natürlichen Quellen und menschlichen Emissionen:

Emissionen:

Menschen und Tiere                                          45 bis 52

Ausgasen aus Ozeanen (tropische Gebiete)      90 bis 100

Vulkanische und andere Geo-Quellen              0,5 bis 2

Boden-Bakterien, Verrottung und Verfall         50 bis 60*

Waldrodungen und -brände                            1 bis 3

Anthropogene Emissionen (2010)                      9,5

Gesamt:                                                      196 bis 226,5

*Andere veröffentlichte Werte: 26 Gt bzw. 86 bis 110 Gt

Aufnahme

Vegetation auf dem Festland                             55 bis 62

Ozeane                                                               87 bis 95*

Algen, Phytoplankton, Seetang                          48 bis 57

Verwitterung (Silizium-Mineralien)                      3 bis 6

Gesamt                                                          193 bis 220

Andere veröffentlichte Werte: 68 bis 110 bzw. 30 bis 50 Gt

Die Differenz beträgt +1,5 bis 3 Gt pro Jahr, was übereinstimmt mit der jährlichen Zunahme (abhängig von der ENSO-Aktivität)

Man beachte, dass Fehlerbandbreite für Schätzungen der Ausgasungen aus Ozeanen und Bodenbakterien die Gesamt-Emissionen der Menschen übersteigt.

Die menschliche CO2-Erzeugung steht im Mittelpunkt des IPCC, so dass es die Verbreitung von Informationen kontrolliert. Wie fast alles, was das IPCC macht, findet das hinter verschlossenen Türen statt, aber es weiß, dass einige Menschen um die Bedeutung wissen. Man erklärt das Verfahren so:

Welche Rolle spielt das IPCC bei den Treibhausgas-Untersuchungen und berichtet dem UNFCCC?

Das IPCC hat eine Reihe von Verfahrensberichten bzgl. nationaler Treibhausgas-Untersuchungen erzeugt mit dem Ziel, international akzeptable Untersuchungs-Verfahren zu beschreiben. Das IPCC akzeptiert die Verantwortung, wissenschaftliche und technische Ratschläge zu geben bzgl. spezifischer Fragen mit Bezug zu jenen Untersuchungsverfahren, welche in diesen Berichten enthalten sind. Das IPCC hat eine Task Force eingerichtet, welches das National Greenhouse Gas Inventory Programme (NGGIP) betreiben soll, um diese Beratung bzgl. der Verfahren zu erstellen. Mitglieder des UNFCCC haben beschlossen, den IPCC-Leitlinien bei Berichten an die Konvention zu folgen.

Wie erzeugt das IPCC diese Leitlinien? Zur Nutzung der IPCC-Verfahren entwerfen nominierte Experten aus der ganzen Welt die Berichte, welche dann exzessiv zweimal begutachtet werden, bevor sie vom IPCC angenommen werden. Dieses Verfahren stellt sicher, dass die breitest mögliche Bandbreite von Standpunkten in die Dokumente einfließt.

Mit anderen Worten: das IPCC kontrolliert die gesamte Prozedur, von der Verfahrensweise über die Art der technischen Beratung, die Einrichtung von Task Forces, Leitlinien der Berichterstellung, Nominierung von Experten zur Erstellung der Berichte bis zur endlichen Annahme dessen, was die Berichte enthalten. Man stützt sich auf Daten von individuellen UN-Mitgliedsstaaten, aber jedwede Untersuchung der UN-Daten enthüllt sehr schnell deren Unzulänglichkeiten. Beispiel: Man betrachte die Länder welche eine Alphabetisierungs-Rate von 99% oder höher für sich in Anspruch nehmen.

Die IPCC-Zahlen der jährlichen CO2-Erzeugung pro Nation sind genauso verzerrt und falsch. Schlimmer noch, sie haben keinen wissenschaftlichen Zweck, sondern dienen ausschließlich der politischen Agenda. Prof. Murray Salby zeigt in diesem Video, dass der menschliche Anteil keinerlei Auswirkungen hat. Er zeigt, dass Variationen der natürlichen (nicht menschlichen) CO2-Quellen fast alle jährlichen Änderungen erklären. Er zeigt, wie eine Variation um lediglich 5% dieser Quellen mehr ausmacht als die gesamte menschliche Erzeugung.

Teilweise erklärt sich der IPCC-Fehler dadurch, dass die Klimawissenschaft davon ausgeht, dass Änderung und Variabilität ungewöhnlich seien, wie das Diagramm illustriert. Sie zeigen nicht den Fehler in den Schätzungen der Volumina, welche in mindestens drei Bereichen, Atmosphäre, Ozeane und Vegetation/Erdboden, weit über Schätzungen der gesamten menschlichen Erzeugung hinausgehen. Das gilt selbst dann, wenn man die vom IPCC behauptete jährliche Zunahme heranzieht.

Die folgende Abbildung zeigt die Prozentanteile von Treibhausgase in der Atmosphäre:

Ein anderes Diagramm zeigt diese Anteile in anderer Form:

Man vergleiche dieses Diagramm mit dem Folgenden von der Website des ABC News Network. Sie zeigt die Verzerrungen durch den Betrug des IPCC. Wasserdampf, das bei Weitem bedeutendste Treibhausgas, taucht nicht einmal auf. Dies ist ein Beweis für den Erfolg, die gesamte Aufmerksamkeit auf das CO2 zu lenken.

Es gibt viele Missverständnisse über CO2, alle erzeugt, um die Hypothese zu stützen und das Bedrohungsniveau auf verschiedene Weise zu erhöhen. Zum Beispiel lautet eine frühe IPCC-Behauptung, dass die Verweildauer von CO2 in der Atmosphäre mindestens 100 Jahre lang ist. Das war ostentativ dazu gedacht, uns glauben zu machen, dass selbst bei sofortiger Beendigung der CO2-Erzeugung der angerichtete Schaden noch lange Zeit währen wird. Heute wissen wir, dass die Verweildauer etwa 5 bis 6 Jahre beträgt.

Die grundlegende Annahme der Hypothese sagt, dass ein CO2-Anstieg einen Temperaturanstieg verursacht. Nach der Veröffentlichung von Petit et al. (1999) schienen antarktische Eisbohrkerne diesen Befund zu belegen, wie der IPCC-Bericht 2001 meint:

Abbildung: antarktischer Eisbohrkern

Aber nur vier Jahre später erschien der Beweis, dass die grundlegende Annahme der Hypothese falsch war. Ein detaillierterer Blick darauf zeigte nämlich, dass die Temperatur vor einer Zunahme des CO2-Gehaltes gestiegen war, was ein kompletter Widerspruch zur Hypothese war. Irgendwie wurde das aber beiseite gefegt, vermutlich wegen der ablenkenden Behauptung, dass die Verzögerung zwischen 80 und 800 Jahren beträgt. Das spielt jedoch keine Rolle, weil es immer noch der zugrunde liegenden Hypothese widerspricht. Noch überzeugender ist die Tatsache, dass sich die einer CO2-Änderung vorausgehende Temperaturänderung in fast allen Aufzeichnungen für jedwede Periode oder Dauer zeigt. Sehr merkwürdig ist, dass dieser Widerspruch von allen Befürwortern und zu vielen Skeptikern ignoriert wird. Die folgende Abbildung zeigt einen kürzeren Zeitraum der Aufzeichnung bzgl. dieser Relation:

Abbildung: zeitliche Verzögerung über einen kurzen Zeitraum, 1958 bis 2009

Es ist logisch anzunehmen, dass falls eine CO2-Änderung wirklich einer Temperaturänderung in jeder Aufzeichnung hinterher läuft, CO2 kein Treibhausgas sein kann. Und trotzdem ist die Hypothese, dass eine CO2-Zunahme eine Temperaturzunahme bewirkt, in allen globalen Klima-Computermodellen enthalten einschließlich jener, die das IPCC heranzieht.

Das IPCC stand bald vor einer weiteren ernsten Herausforderung aufgrund der Notwendigkeit, die Hypothese zu beweisen anstatt sie zu widerlegen, wie es in der normalen Wissenschaft selbstverständlich ist. Man musste nämlich die Mittelalterliche Warmzeit MWP irgendwie loswerden, weil sie zeigte, dass es auf der Welt schon vor der industriellen Revolution wärmer war als heute. Das war notwendig, um zu belegen oder zu behaupten, dass das vorindustrielle CO2-Niveau niedriger war als heute. Diese Kampagne lief bereits, als die Informationen aus den Eisbohrkernen veröffentlicht worden sind.

Die meisten Menschen denken, dass Eisbohrkerne die einzige Quelle für vorindustrielles CO2 seien. Was die meisten Menschen aber nicht wissen ist, dass Tausende Messungen des atmosphärischen CO2 bereits im 19. Jahrhundert durchgeführt worden waren. Joseph Black studierte die Eigenschaften von CO2 bereits im Jahre 1750, und Joseph Priestly veröffentlichte Untersuchungen über Sauerstoff im Jahre 1775. Versuche, die verschiedenen Volumina atmosphärischer Gase zu messen einschließlich Messungen des CO2-Gehaltes folgten ab dem Jahr 1812. Wissenschaftler nahmen präzise Messungen mit kalibrierten Instrumenten vor, wie Ernst Georg Beck gründlich dokumentiert hat.

In einem Papier, welches anlässlich einer Anhörung vor dem US-Senatskomitee für Kommerz, Wissenschaft und Transportwesen eingereicht worden ist, schreibt Prof. Zbigniew Jaworowski:

Die Grundlage der meisten IPCC-Schlussfolgerungen bzgl. anthropogener Ursachen und Projektionen klimatischer Änderungen ist die Annahme eines niedrigen CO2-Niveaus der Atmosphäre in vorindustrieller Zeit. Diese Annahme ist falsch, wie glaziologische Studien belegen“.

Genauso bedeutend ist diese Feststellung Jaworowskis:

Die Vorstellung eines niedrigen vorindustriellen CO2-Niveaus wurde zu einem weithin akzeptierten heiligen Gral der Klima-Erwärmungs-Modelle, obwohl diese auf so einem ärmlichen Wissen beruhen. Die Modellierer ignorierten die Beweise durch direkte Messungen des CO2-Gehaltes der Luft, welche belegen, dass die mittlere Konzentration im 19. Jahrhundert bei 335 ppmv lag. Es wurden Daten selektiv herausgepickt, um zu zeigen, dass das atmosphärische CO2-Nveau im 19. Jahrhundert 292 ppmv betragen hatte. Eine Studie mittels der Anzahl von Stomata in fossilem Laub bei einem See in Dänemark zeigt, dass das CO2-Niveau vor 9400 Jahren 333 ppmv und vor 9600 Jahren 348 ppmv betragen hatte. Dies falsifiziert das Konzept einer stabilen und geringen CO2-Konzentration in der Luft bis zum Eintreten der industriellen Revolution.

Die Behauptung Jaworowskis, dass die Modellierer die Messungen aus dem 19. Jahrhundert ignoriert hätten, stimmt nicht. Sie wussten sehr wohl um diese Messungen, hat doch T. R. Wigley der klimawissenschaftlichen Gemeinschaft Informationen hinsichtlich der Messungen im 19. Jahrhundert zukommen lassen (Wigley, T.M.L. 1983 The pre-industrial carbon dioxide level.” Climatic Change 5, 315-320). Dann wurde das gemacht, was sehr oft gemacht wurde: man hat die Messungen mit höheren Werten eliminiert und aus den übrigen einen Wert von etwa 270 ppm abgeleitet. Ich denke, dass dies die Modellierer beeinflusst hat, weil Wigley mit ihnen an der CRU bei East Anglia zusammen gearbeitet hat. Er war die Schlüsselperson, welcher alles lenkte, wie aus den durchgesickerten E-Mails der CRU hervorgeht.

Wigley war nicht der Erste, der die Daten des 19. Jahrhunderts missbraucht hatte, aber er hat diese Daten in die Klima-Gemeinde gebracht. Dann wurden nur jene Messungen berücksichtigt, welche zur Hypothese passten.

Die ganze Story steht hier.

Link: https://wattsupwiththat.com/2019/05/01/a-story-of-co2-data-manipulation/

Übersetzt von Chris Frey EIKE




SPIEGLEIN, SPIEGLEIN, mit dem Rücken zur Wand

Unter den reißerischen Überschriften „Murks in Germany“ und „Grüner Blackout“ äußert sich das verdiente Autorenkollektiv Dohmen, Jung, Schultz und Traufetter zum Stand der deutschnationalen Energiewende. Zu offensichtlich führt wohl deren Weg in die Sackgasse, so dass das Projekt medialer Unterstützung des ehemals renommierten Hamburger Hauses bedarf.

Bisherige Veröffentlichungen lassen nichts Gutes ahnen. Bürger Traufetter war schon an einem Beitrag (Spiegel Nr. 41/2016) beteiligt, der ausgemachte Fakes enthielt. Oder sagen wir es deutsch: Lügen. So wurde damals behauptet:

Weil die deutschen Braun- und Steinkohlekraftwerke auch an solchen Tagen (gemeint sind Starkwindtage) praktisch ungebremst weiterlaufen, drückt die deutsche Überproduktion die Strompreise europaweit in den Keller.“

Jeder redliche Journalist hätte recherchieren können, wie die Fahrpläne der Kraftwerke entstehen, wie der Einspeisevorrang grünen Stroms umgesetzt wird, wie der europäische Stromhandel funktioniert, dass es eine „Überproduktion“ von Strom nicht geben kann und welche Standortrestriktionen die Komplettabschaltung mancher Kohlekraftwerke verhindern. Dazu käme das Thema Netzdienstleistungen, aber das hätte die Schreiber dann komplett überfordert.

Viel leichter, bequemer und in jedem Fall Beifall versprechend das flache und klischeebedienende Kohle-Bashing. Wenn in der DDR die Beurteilung oder Einschätzung eines Werktätigen aus fachlicher Sicht nicht gut ausfiel, konnte manchem noch mit dem Hinweis geholfen werden, er habe wenigstens einen festen Klassenstandpunkt.

SPIEGEL-Schreiber wissen, welchen Standpunkt man von ihnen erwartet.

Die Zutaten des Hauptbeitrags im aktuellen Spiegel (19/2019) sind ein paar reale Fakten, angereichert und vermischt mit Szenarien, Optionen und Visionen und einer Prise Klimaziele. Was können wir also von den von gymnasialen Physikkenntnissen offenbar befreiten Autoren lesen?

Zunächst gibt es aktuelle Informationen zum vergangenen Ostermontag, an dem die „Erneuerbaren“ etwa 56 Gigawatt einspeisten und so dafür sorgten, dass der Börsenstrompreis wieder ins Minus drehte (bis zu -8 Cent pro Kilowattstunde), was alle Stromkunden mit bezahlen dürfen. So addierten sich zur EEG-Vergütung an diesem Tag von 115 Millionen Euro noch knapp 17 Millionen Euro, die zusätzlich zum Strom den Nachbarn geschenkt wurden. Negative Strompreise als Perversion der Marktwirtschaft.

Dazu steht im Beitrag natürlich nichts, sondern es werden nur die 56 Gigawatt erwähnt und man hakt das Thema mit einer quasireligiösen Formulierung ab:

Es war ein Zauber, das perfekte Zusammenspiel aus Natur und moderner Technik.“

Mehr Realitätsverweigerung geht kaum. Dann leitet man unvermittelt um auf das Thema Verkehr:

Deutschlands Straßen gehören den Autos von gestern, angetrieben von schweren, benzin- und dieselgetriebenen Motoren.“

Wenn man die Augen schließt, sieht man förmlich die Rußwolken der Mercedes 300D, Baujahr `82, oder den von der Ampel lossprintenden Senator 3,0 ohne Kat.

Es folgt Energiewendekritik aus den Häusern McKinsey und des Bundesrechnungshofes. Merkels wohl größtes Scheitern bestünde darin, so die Spiegler, dass sie klimapolitisch wenig bewegt habe. Könnte das mit der Abschaffung der emissionsarmen Atomstromerzeugung zusammen hängen? Kann man Klimapolitik losgelöst von Energie-, Wirtschafts- und Sozialpolitik denken?

Fragen über Fragen, die der Beitrag nicht thematisiert. Stattdessen ein schräger Vergleich mit Schweden, das aus dem Atomausstieg ausgestiegen ist und heute schon seinen Strom so gut wie emissionsfrei erzeugt. Deshalb haben die Wikinger keine Probleme mit einer CO2-Steuer. Wir hätten sie durchaus.

Dann steigert sich der Beitrag zu fulminantem Unfug. Deutschland hätte versäumt, mit dem Atomausstieg auch den Abschied von der Kohle einzuleiten.

Es wurden Windräder und Solarpaneele errichtet, und die Kohlemeiler liefen fröhlich weiter.“

Und warum?

„Um bloß niemandem wehzutun, keinem Unternehmen, keinem Bürger.“

So einfach ist das. Kein Wort darüber, dass ein sicheres System erhalten bleiben muss, wenn das hippe neue System nur liefert, wenn es Lust hat. Stattdessen weiter hinten der abenteuerliche Satz, Deutschland habe sich „daran gewöhnt“, zwei Systeme, von denen „die Gesellschaft“ nicht so leicht loskomme, laufen zu lassen. Keine Idee der Autoren dazu, wie die grüne Infrastruktur grund- und regellastfähig gemacht werden kann, stattdessen solle man sie weiter ausbauen.

Dann geht es noch ein bisschen um das politische Triumvirat Kanzleramt / Umweltministerium / Wirtschaftsministerium mit Verweisen auf Trittin (der mit der Eiskugel) und den aus dem Amt geflüchteten ehemaligen grünen Staatssekretär Baake, natürlich ohne den Hauch einer kritischen Beurteilung. Weiter zum Thema Netze und einem ausführlichen Lamento über deutsche Genehmigungsverfahren für Windkraftanlagen. Der Schutz von Mopsfledermäusen und Rotmilanen wird kritisch hinterfragt, so als wenn Feldhamster oder Hufeisennasen nicht auch Gewerbegebiete verhindert und Brückenbauten gefährdet hätten. Kein Wort zu den verheerenden Auswirkungen der immer größer werdenden Windkraftanlagen auf Vögel, Fledermäuse und Insekten und auch auf Menschen. Die Themen Infraschall und Gesundheit der Anwohner werden sorgfältig verschwiegen.

Die immer länger dauernden Genehmigungsverfahren werden verantwortlich gemacht, dass es „keinen Wettbewerb“ mehr gäbe. Auch hier systemisches Unverständnis. Unter dem EEG hat es noch nie Wettbewerb gegeben (höchstens um die windhöffigsten Standorte), sondern bis 2017 immer feste Vergütungen. Es gibt sogar Geld für Strom der nicht produziert wird, weil er nicht abtransportiert werden kann. Das katastrophale Missmanagement bei der Koordinierung von Zubau volatiler Erzeugung und Netzausbau ist kein Thema für die Autoren, denn dies zeigt, wer das Sagen hat: Die Ökolobby. 1,4 Milliarden Euro Redispatchkosten im Jahr 2017 werden mit Schulterzucken quittiert. Passiert.

Der Versuch, mit der EEG-Novelle die Windkraft an den Markt heranzuführen, ist nun sichtbar am Scheitern. Keine Angebote aus der Windbranche in der vergangenen Ausschreibung der Bundesnetzagentur zum Stichtag 1. April 2019. Das Vergütungsband von 6,2 bis 8 Cent pro Kilowattstunde ist der Windbranche offenbar zu niedrig.

Absehbare Strafzahlungen sind ein weiteres Thema. Wenn Deutschland die Klimaziele nicht erfüllt, muss es an seine Nachbarn zahlen. So ist das, wenn Politiker EU-Zielen zustimmen in Unkenntnis darüber, wozu man eigentlich in der Lage ist – und wozu nicht. Aber schon mal ein Hinweis darauf, wie die Einnahmen aus der CO2-Steuer verwendet werden könnten.

Dann folgt eine Beschreibung der Sektorziele in Verkehr und Wärme wozu die alte Suppe P2V (Power to Vehicle – Stromspeicherung mittels E-Mobilen) aufgewärmt wird. Man berichtet von einem Fahrzeug des Versorgers Enervie, das auch rückspeisen kann. Da lehnt man sich gelangweilt zurück, denn bereits 2014 wies die

BTU Cottbus in einem Projekt nach, dass und wie man in einem E-Mobil ein- und ausspeisen kann. In einer Woche hätte ein E-Autobesitzer 20 Euro verdienen können mit dieser Stromspeicherung, erwähnt das Autorenkollektiv. Ob er mit dem Gerät nebenbei auch hätte fahren können, wird nicht erwähnt.

Nicht zu vergessen auch der Hinweis auf die „Wasserstoffrevolution“, für die die Zeit jetzt „reif sein sollte“. Das erinnert an Hermann Honnef, der schon in den dreißiger Jahren des letzten Jahrhunderts den überschüssigen Strom seiner im Berliner Stadtgebiet vorgesehenen „Reichskrafttürme“ (vierhundert Meter hoher Windkraftanlagen) „zur Erzeugung billigen Wasserstoffs“ nutzen wollte. Fast achtzig Jahre später die Erkenntnis der SPIEGEL-Autoren, dass sich die Umwandlung von Strom in synthetische Energieträger in gas- oder flüssiger Form nicht rechnet.

Mainstreamkompatibel folgt noch die Kritik am europäischen Emissionshandel (ETS), der angeblich nicht funktioniere und untauglich sei. Natürlich fehlt die Information, dass ETS und EEG gegenläufig arbeiten: Das EEG wirkt nur national und sorgt durch den Einspeisevorrang für die Verdrängung des fossilen Stroms – und der Zertifikate, die dann europaweit gehandelt werden. Damit wird der Preisdruck von den Zertifikaten genommen.

Subtil gibt es noch etwas unterschwellige Werbung für eine „Klimasteuer“ und die Behauptung, dass bis 2050 der Ausstieg aus den Fossilen möglich sei. Die „Studien, Strategien und Anlagen“ stünden bereit. Hier hätte gern etwas ausführlicher beschrieben werden können, welche Anlagen gemeint sind.

Der „zweite Teil“ der Energiewende werde teuer und anstrengend, ähnlich der Wiedervereinigung. Da bin ich anderer Meinung. Sie wird teurer, anstrengender, vor allem aber in dieser Form erfolglos sein.

Anmerkung der Redaktion.

Der SPIEGEL lobt die Ergebnisse des e-SOLCAR Projektes der BTU Cottbus. Auch hier wurde miserabel recherchiert und mit ideologischen Scheuklappen miese Ergebnisse schön geredet.

EIKE hat vor einem Jahr dieses „Leuchtturmprojekt“  der Brandenburger „Energiestrastegie 2030“ untersucht. Das Ergebnis sehen Sie weiter unten. Fazit – wer diesen Leuchttürmen folgt landet todsicher auf einem Riff.

lt Factsheet(https://www-docs.b-tu.de/fg-evh/public/esolcar/FactSheet_esolcar.pdf) der BTU Cottbus lief das Projekt eSOLCAR vom Juni 2011 bis Dezember 2014 und kostete insgesamt 9 233 000 EUR. Es wurde u.a gefördert durch den Europäischen Fonds für Regionale Entwicklung (EFRE).(Vermutlich auch von Vattenfall die 22 der 45 Fahrzeuge betrieben)  Im Rahmen von e-SolCar wurden etwa 10.000 Ladevorgänge durchgeführt. Das entspricht einer Ladeenergie von ca.130 MWh.

Insgesamt waren 45 Fahrzeuge beteiligt mit einer Gesamtfahrleistung von 400.000 km. Das sind pro Monat der Projektdauer von insgesamt 42 Monaten nur ca. 211 km/Monat und Fahrzeug. Völlig ungeeignet, weil viel zu wenig für die Erprobung dieser Technik! Weder für ein Flächenland wie Brandenburg noch eine Großstadt wie Berlin. Denn die durchschnittliche Fahrleistung über alle Altersgruppen und Wohngebiete betrug 2013 rd. 13.000 km p.a das sind 1083 km/Monat. Also rd. das 5 fache der Versuchs-Kfz.

Die ausgegebene Ladeenergie (130 MWh) betrug umgerechnet und im Mittel pro Fahrzeug und Monat nur ca. 69 KWh (das sind 825 kWh p.a.) In etwa soviel wie ein kleiner sehr effizienter Kühlschrank (145 l) pro Jahr[1]verbraucht.

Zum Vergleich: Ein 50 l Dieseltank enthält bei 11,9 kWh/kg rd. 500 kWh, ist in 2 Minuten betankt und erlaubt eine Strecke von 1000 km zu fahren. D.h das ca. 5 fache der Versuchsfahrzeuge mit einer einzigen „Ladung“ Diesel.

Insgesamt wurden mit 130 MWh 400.000 km elektrisch gefahren. Um 130 MWh „Strom“ zu erzeugen mussten 2016 lt Emissionsfaktor  des UBA[2]ca. 527 g/kWh x 130.000 emittiert werden. Hier sind das also 69.510 kg.

Für 400.000 km wären hingegen rd. 20.000 l Diesel erforderlich. Diese hätten bei rd. 3 kg/l CO2 Emissionen rd. 60.000 kg CO2 emittiert. Der reine Dieselbetrieb hätte also rd. 16 % weniger CO2 emittiert.

[1]https://www.stromverbrauchinfo.de/stromverbrauch-kuehlschraenke.php

[2]https://www.umweltbundesamt.de/publikationen/entwicklung-der-spezifischen-kohlendioxid-3




Big Oil goes Big Green

Für das Protokoll: Keiner von uns Skeptikern – Klima-Realisten – bezweifelt oder leugnet gar den Klimawandel. Wir alle wissen und erkennen, dass das Klima der Erde fast ununterbrochen Änderungen und Fluktuationen durchläuft – lokal, regional und global.

Was wir in Frage stellen ist, dass fossile Treibstoffe auf irgendeine geheimnisvolle Art und Weise die Sonne und andere mächtige natürliche Kräfte als Klimatreiber ersetzt haben sollen – Kräfte, die mal zu günstigem und sanftem, dann aber auch schädlichem oder sogar gewaltig destruktivem Klima geführt haben – und zwar während der gesamten Erd- und Menschheitsgeschichte.

Es gab Änderungen wie mindestens fünf Vereisungs-Perioden, welche große Teile Nordamerikas, Europas und Asiens unter Kilometer dicken Eisströmen begraben haben, Warmzeiten dazwischen, die jene massiven Gletscher vollständig abschmelzen ließen. Die Römische und die Mittelalterliche Warmzeit, eine Kleine Eiszeit, die Jahrhunderte währende Anasazi- und Maya-Dürren, die Staubschüssel-Jahre [eine schwere Dürre in den USA während der 1930-er Jahre, Anm. d. Übers.] sowie zahlreiche weitere große und kleinere Klima- und Wetter-Änderungen gehen auf das Konto der Einwirkung dieser natürlichen Kräfte.

Gebetsmühlenartig wird kolportiert, dass ExxonMobil vor dem Jahr 2007 insgesamt einige Millionen Dollar an verschiedene Skeptiker-Gruppen gezahlt hat. Aber das war vor vielen Jahren. Heute haben sie aus Angst vor den alarmistischen Interessengruppen gekuscht und den Klima-Realisten seitdem keinen Cent mehr gezahlt. Tatsächlich ist die Lage heute genau umgekehrt.

Große Ölunternehmen zahlen heutzutage mindestens eine Milliarde Dollar an Klima-Alarmisten, für Projekte und Lobbyismus, um das Narrativ eines vom Menschen verursachten Klima-Chaos‘ voranzutreiben. Warum tun sie das? Dafür fallen mir zwei Gründe ein.

Erstens, typische kommerzielle Gründe. Einige würden es Unternehmensgier nennen oder Eliminierung von Wettbewerb mittels des Gesetzes des Dschungels. Füttern des Klima-Alarmismus‘ hilft den Ölunternehmen, „schmutzige“ Kohle loszuwerden und durch Erdgas zu ersetzen, wird dieses doch als „klimafreundlicher“ erachtet. Schließlich ist Big Oil auch Big Gas.

Zweitens, PR und „greenwashing“. Sie gerieren sich selbst als „grüner“ sowie als sozial und umweltlich „verantwortlicher“ wegen ihrer Unterstützung von Umweltaktivisten und indem sie „saubere“ (oder zumindest weniger „schmutzige“) Alternativen anbieten zu „klimazerstörender Kohle“.

Zentral bei den Flüssen dieser grünen Dollarmilliarden steht eine Gruppe mit einer perfekt gewählten Bezeichnung: die Oil and Gas Climate Initiative (OGCI). Falls die falschen Anklagen korrekt wären, würden „Öl und Gas“ niemals logisch oder ethisch mit einer „Klima-Initiative“ verknüpft werden. Aber sie ist da, diese Vereinigung, und sie ist ziemlich groß. Unter den OGCI-Mitgliedern finden sich die folgenden bekannten Namen:

British Petroleum * Chevron * China National Petroleum Corporation (CNPC) * Eni * Equinor * Exxon Mobil Corporation * Occidental Petroleum * PEMEX (Petróleos Mexicanos) * PETROBRAS (Petroleo Brasileiro) * Repsol * Royal Dutch Shell * Saudi Aramco * Total

Zusammen behaupten all diese, 30% von Öl und Gas der Welt zu erzeugen. Auf ihrer OGCI-Website findet sich eine Auflistung geschäftsführender Direktoren von Big Oil-Unternehmen, nur um zu zeigen wie ach so ernst und verantwortlich sie „grün“ sind. In ihrem jüngsten Jahresbericht ist ein Brief dieser Direktoren abgedruckt. Darin findet sich das folgende kleine Juwel:

Da unsere Ambitionen mit der Größenordnung der Herausforderung zunehmen, trachten wir danach, eng mit Politikern, Gesetzgebern und allen Aktionären zusammen zu arbeiten, um die Hebel in Bewegung zu setzen helfen, welche ökonomisch und nachhaltig das Tempo des Übergangs zu low carbon zu beschleunigen“.

Man muss sich fragen, ob ihre Liste der „Aktionäre“ auch Familien, Unternehmen und Gemeinden umfasst, die verstehen, wie vollkommen abhängig sie und die gesamte moderne industrialisierte Gesellschaft von fossilen Treibstoffen sind, vor allem Öl und Gas. Man betrachte einfach diese Liste und das eingebettete Video.

Noch mehr auf den Punkt gebracht: man betrachte deren Ursprünge. OGCI wurde im Jahre 2014 gegründet, kurz nach dem infamen Chesapeake Energie-Skandal, als die Direktoren dabei ertappt wurden, wie sie dem Sierra Club Millionen Dollar haben zukommen lassen, damit dieser den Krieg von Präsident Obama gegen die Kohle unterstützt. Ironischerweise haben es sogar Club-Mitglieder abgelehnt, das Geld zu nehmen, da sie alle fossilen Treibstoffe als ihre Feinde betrachteten – und nachdem er Kohle ins Aus geschlagen hatte, nahm sich der Club als nächstes Ziel Erdgas vor, also die primäre Einkommensquelle von Chesapeake.

Was geschehen zu sein scheint: die immer hinterlistigen Big Oil-Unternehmen schufen ihre eigene „grüne“ Organisation.Mit den Milliarden an jährlichen Zuwendungen ist Big Oil jetzt einer der größten Finanziers von Big Green, Big Government-Finanzquellen nicht berücksichtigt.

Der Environmental Defense Fund (EDF) ist ebenfalls aktiv mit Big Oil verbandelt, und zwar mittels seines Zweiges EDF+Business. Im Besonderen hat EDF ein gewaltiges Methan-Reduktions-Programm – die Methan-Herausforderung – wobei wenig überraschend auch die OGCI involviert ist. Das Programm besteht an prominenter Stelle aus „Nachhaltigkeits-Berichten“ mehrere großer Ölunternehmen. Der EDF startet sogar seinen eigenen Satelliten mit der schlauen Bezeichnung MethaneSAT.

Der EDF bekommt eindeutig sehr viel Geld hierfür. Er behauptet, kein Geld „direkt“ von den Unternehmen zu erhalten. Stattdessen kommt das Geld von nicht spezifizierten „Philanthropen“. Natürlich steht auf einem anderen Blatt, woher diese Philanthropen das Geld nehmen; sie können leicht Geld von Big Oil waschen. Es ist bezeichnend, dass die OGCI keinen Finanzbericht erstellt – oder irgendwelche transparenten Online-Informationen bzgl. seiner Finanzen.

Space News fragte den EDF tatsächlich nach seiner Finanzierung, prallte aber gegen eine Mauer. Man schrieb:

Allerdings hat der EDF einige wenige Details darüber bekannt gemacht, wie viel MethaneSAT kosten wird und wie das Projekt finanziert wird. Im vorigen Jahr erhielt das Projekt eine Zuwendung von einer neuen Initiative mit der Bezeichnung The Audacious* Project, obwohl die Höhe der Zuwendung nicht bekannt gegeben worden war. Ein EDF-Sprecher hat nicht auf eine Anfrage nach dem finanziellen Status des Projektes geantwortet.

[* Das Adjektiv audacious hat viele Bedeutungen, wobei der Übersetzer nicht sicher ist, welche zutrifft. Daher ist es mit dem Link zu einem Lexikon hinterlegt. Anm. d. Übers.]

Den EDF an seiner Seite zu haben ist sicher ein großes Plus für Big Oil. Aber man spreche über Scheinheiligkeit, und es gilt für beide.

In jedem Falle steht fest, dass Big Oil mindestens eine Milliarde Dollar für den grünen Quatsch berappt, was sehr viel grün ist. (Bares Geld in Gestalt amerikanischer Dollarnoten sind eindeutig das neue Big Green). Es gibt keine Belege dafür, dass Klimaskeptiker irgendetwas davon abbekommen. Aber falls das bei Einigen doch der Fall sein sollte, ist es im Vergleich marginal. Inzwischen erhalten die OGCI und Big Oil Milliarden sowie der EDF viele Millionen.

Eine weitere große Ironie ist, dass die vermeintlichen Alternativen zu reichlichen, zuverlässigen, bezahlbaren und die Zivilisation ermöglichenden fossilen Treibstoffen vermeintlich „sauber, grün, erneuerbar, nachhaltig und verantwortlich“ sind, also Energie aus Wind, Solar und Biotreibstoff. (Hartgesottene Umweltaktivisten wollen auch keine Kern- oder Wasserkraft).

Jene vermeintlichen „Alternativen“ erfordern unvorstellbar riesige Landflächen – nicht nur für Windturbinen, Solarpaneele, Backup-Batterien und Biotreibstoff-Farmen, sondern auch für den Abbau und die Verarbeitung der Milliarden Tonnen Eisen, Kupfer, seltener Erden, Lithium, Kadmium, Kalkstein und anderen Materialien zur Herstellung der Turbinen, Paneele, Batterien, Überlandleitungen, Traktoren, Lastwagen und anderer „nachhaltiger“ Infrastruktur.

All dieser Bergbau, die Verarbeitung, Herstellung und der Transport erfordert fossile Treibstoffe. Und Biotreibstoffe emittieren genauso viel (Pflanzen düngendes) Kohlendioxid wie bei der Verbrennung von Kohle, Öl und Erdgas entsteht.

Noch verstörender ist, dass viele der Rohstoffe mit weit verbreiteter Sklaverei und Kinderarbeit gewonnen werden, unter Gesundheits-, Sicherheits- und Umweltbedingungen, welche Upton Sinclair und andere Reformer des frühen 20. Jahrhunderts hätten denken lassen, dass die unterdrückten Arbeiter, für die sie eintraten, im Grunde im Paradies gelebt hatten.

Hinsichtlich Skeptizismus lautet die einfache Tatsache, dass etwa die Hälfte aller Amerikaner den Klima-Alarmismus nicht akzeptiert, bis hoch zum Präsidenten. Und doch ist dieser weit verbreitete Skeptizismus ohne jede finanzielle Zuwendungen entstanden. Was Big Oil betrifft, so pumpt es Big Money in Big Green und in grüne Klima-Initiativen. Konservative und klimarealistische Gruppen verfügen über Denkfabriken, die es irgendwie schaffen, eine gewisse Finanzierung zu erhalten, aber die stammt nicht von Big Oil.

Dass Big Oil verantwortlich ist für Skeptizismus ist nichts als ein weiteres Märchen der alarmistischen Phantasiewelt.

David Wojick is an independent analyst specializing in science, logic and human rights in public policy, and author of numerous articles on these topics.

Übersetzt von Chris Frey EIKE

Hinweis: Dieser Beitrag ist mir per E-Mail zugesandt worden, so dass kein Link angegeben werden kann. Wer die Übersetzung überprüfen will:

Wojick – Big oil goes big green