Energie: Zerbricht die EU?

Diese Änderung wurde noch untermauert durch eine Verschiebung der Generationen: junge Wähler bewegen sich von den traditionellen Linksparteien hin zu aufkommenden grünen Gruppen, und ältere Wähler bewegen sich von den Zentrumsparteien links und rechts der Mitte hin zur populistischen Rechten. Vereinfacht ausgedrückt, die grüne Welle wurde getragen von wirtschaftlichen Überschüssen wie in Deutschland, und die populistische Welle von wirtschaftlichen Defiziten wie in Frankreich. In diesem Gesamtbild erscheinen Klima- und Energiepolitik relevant.

In Deutschland, wo man sich an Vollbeschäftigung und großen Haushaltsüberschüssen berauscht, werden hohe Energiepreise nicht als Bedrohung angesehen außer bei den Schichten mit geringem Einkommen. In Deutschland unterstützen die jungen, gebildeten und der Mittelklasse entstammenden Jugendlichen die Partei der Grünen, welche die Sozialdemokraten weit hinter sich ließen. Die Grünen sorgen sich nicht um Arbeitsplätze oder Einkommen, sondern um die Umwelt und das globale Klima. In Deutschland treten die Grünen dafür ein, die Sozialdemokraten als Koalitionspartner der konservativen CDU/CSU zu ersetzen.

Bislang sehen die wirtschaftlichen Aussichten Deutschlands gut aus, das Ergebnis wird vermutlich eine noch ambitioniertere Klima- und Umweltpolitik sein sowie ein mögliches beschleunigtes Ende der Kohleindustrie. Die etablierte Praxis, den Strompreisen Abgaben hinzuzufügen, um die erneuerbare Energie zu finanzieren, wobei großen Firmen Preisnachlässe gewährt werden, wird sich fortsetzen, obwohl es einen beachtlichen Transfer des Einkommens der Haushalte zur Industrie ausmacht. Auch die Strompreise repräsentieren eine regressive Umverteilung des Einkommens. Sollte jedoch die Wirtschaft beeinträchtigt werden, könnte die politische Akzeptanz dieses Vorgehens rasch verschwinden.

In Frankreich sind hohe Energiekosten ein großes Problem für weite Teile der Bevölkerung. Viele sehr junge Menschen wandten sich von den Linksextremen den Grünen zu, die Menschen in mittlerem Alter, darunter viele Arbeiter, stimmten mehrheitlich für die rechtsgerichtete Rassemblement National; die Älteren unterstützen die LREM von Macron. Die sehr jungen Leute scheinen sich Sorgen zu machen hinsichtlich Klima und Umwelt, diejenigen im Arbeitsalter um Ersparnisse und Pensionen. Alter, Einkommen und Bildung sind die Faktoren, die Macron gegenüber Le Pen bevorzugen, aber sie geriert sich als Sprecherin der jüngeren, nicht so hoch gebildeten Menschen mit mäßigem Lebensstandard.

Im Wahlkampf präsentierte sich Präsident Macron selbst als die einzige Alternative der extremen Rechten, aber dabei präsentierte er auch die extreme Rechte als die einzige Alternative zu seiner eigenen Politik. In Frankreich, wo man unter endemischer Arbeitslosigkeit und persistenten Defiziten leidet, sind viele Wähler besorgt bzgl. Arbeitsplätzen und Einkommen. Die traditionelle französische Linke liegt in Trümmern, wobei die Grüne Partei zugewinnt, aber keine kohärente ökonomische Agenda vorweisen kann.

Ende 2018 löste eine Erhöhung der Treibstoffsteuer in einem Umfeld sich erweiternder ökonomischer und sozialer Ungleichheit weit verbreitete Proteste in Frankreich aus, welche vielleicht ein Hinweis auf soziale Grenzen einer aggressiven Energiepolitik sind. Die offizielle Begründung der Erhöhung der Treibstoffsteuern war Klimaschutz, aber im Hintergrund stand wohl eher die Notwendigkeit, eine frühere Senkung der Vermögenssteuer auszugleichen. Die Regulierungsbehörde warnte, dass die beantragten Erhöhungen der Strompreise Haushalte mit geringem Einkommen hart treffen würden. Auch in Frankreich enthält die Energiepolitik eine Komponente einer regressiven Umverteilung des Einkommens.

Das EU-Energieprojekt, wie es in dem Dokument Clean Energy for All im Jahre 2018 vorgestellt worden war, verspricht, den ,EU-Verbrauchern – Haushalten und Geschäften – sichere, nachhaltige, wettbewerbsfähige und bezahlbare Energie‘. Die gewünschte wettbewerbsfähige und bezahlbare Energieversorgung ist jedoch nirgendwo erkennbar; und sie liegen um das Zwei- bis Dreifache über den Preisen, welche die Verbraucher in den USA aufbringen müssen.

Das explizite Ziel der EU-Energiepolitik ist die Reduktion von Kohlendioxid-Emissionen mittels Vorantreiben und Subventionierung von Erneuerbaren, einer Verbesserung der Energieeffizienz sowie Begrenzung der Energienachfrage. Implizit kann dies das wirtschaftliche Wachstum behindern. Tatsächlich verzeichnete Europa seit der Finanzkrise der Jahre 2008 und 2009 das geringste Wachstum aller Kontinente mit Ausnahme der Antarktis.

Höhere Strompreise haben der Europäischen Union nicht geholfen, mehr voranzukommen als die USA bzgl. Energieintensität, gemessen als Energieverbrauch relativ zum wirtschaftlichen Wachstum. Gleiches gilt für Kohlenstoff-Emissionen. Trotz wesentlich höherer Energiepreise hat es Deutschland schlechter gemacht als die USA, und zwar sowohl hinsichtlich Energieverbrauch als auch Kohlenstoff-Emissionen. Unter den EU-Ländern steht UK in dieser Hinsicht am besten da.

Von 2009 bis 2017 verzeichnete die EU-Ökonomie ein Wachstum von 13%, gemessen an konstanten Preisen, während der primäre Energieverbrauch um 1% gesunken ist. Während dieser Zeit wuchs die Wirtschaft in Deutschland um 19%, während der Energieverbrauch um 6% und die Kohlenstoff-Emissionen um 2% stiegen. Zum Vergleich, in den USA gab es ein reales wirtschaftliches Wachstum von 19% und eine Zunahme des Primär-Energieverbrauchs um 3% mit wesentlich niedrigeren Energiepreisen. Japan erging es noch besser mit einem realen ökonomischen Wachstum von 13% und einem Rückgang des primären Energieverbrauchs um 3% relativ zur Wirtschaftsentwicklung. Die stärkste Reduktion brachte man in UK zuwege, gefolgt von den USA und Frankreich. Im Falle eines Brexits dürften die übrigen 27 EU-Nationen Schwierigkeiten haben, die kollektiven Ziele zu erreichen.

Trotz ambitionierter Ziele, hoher Energiepreise und hohen Ausgaben für erneuerbare Energie ist Deutschland bzgl. Energie- und Kohlenstoff-Effizienz weit hinter den USA zurückgeblieben. Offenbar waren die hohen Energiepreise in Deutschland keine ausreichende Bedingung bzgl. Energieeffizienz. In den USA waren sie keine notwendige Bedingung. Preise müssen nicht unbedingt das effizienteste Mittel der Energiepolitik sein.

Der EU-Schwerpunkt liegt zunehmend auf Klima und Überwachung, wobei die Fortschritte der Mitgliedsländer verfolgt werden hinsichtlich vorgeschriebener integrierter Energie- und Klimapläne. Das über allem stehende Ziel ist die Reduktion von Treibhausgas-Emissionen um 85% bis 90% bis zum Jahr 2050, verglichen mit dem Niveau des Jahres 1990. Die EU verfolgt dabei das so genannte „20-20-20“-Ziel, welches man im Jahre 2007 bis zum Jahr 2020 gesetzt hatte: eine Reduktion von Treibhausgas-Emissionen um 20% im Vergleich zu 1990, ein Anteil von 20% an Erneuerbaren im Energiemix sowie eine Verbesserung der Energie-Effizienz um 20%. Die wirtschaftliche Stagnation hilft der EU beim Erreichen dieser Ziele, aber es ist bemerkenswert, dass die EU keinerlei Ziele hat bzgl. Beschäftigung oder Einkommen.

Der soziale Kahlschlag im Zuge dieser Maßnahmen erregt kaum Aufmerksamkeit. Von 2009 bis 2017 wuchs die Weltwirtschaft mit einer mittleren Rate von 3,4% mit einem kumulativen Wachstum von 35%. Die entsprechenden Zahlen für die EU betrugen 1,6% bzw. 14%. Einige Mitgliedsländer wie Griechenland, Frankreich und Italien verzeichneten bis 2017 hohe Arbeitslosigkeit – rund 10% der Arbeitskraft – während andere wie z. B. Deutschland und UK diese Zahl bei 4% lag, ähnlich wie in den USA. Hohe Energiekosten addieren sich zu den Schwierigkeiten, welche der Euro im südlichen Europa mit sich gebracht hat.

Die EU plant, integrierte, nationale Klima- und Energiepläne über 10 Jahre (NCEPs) (hier) vorzuschreiben, und zwar mit Beginn im Zeitraum 2021 bis 2030. Ziel ist es sicherzustellen, dass die Mitgliedsländer eine Politik verfolgen, die konsistent mit dem Paris-Abkommen, aber auch mit den Energie-Union-Zielen der EU ist. Die Überwachung impliziert die Einrichtung einer zentralen Kontrollstelle bzgl. der Energiepolitik sowie die Zuständigkeit der Mitgliedsländer bzgl. Energiepolitik und -besteuerung von den Landeshauptstädten an Brüssel zu übertragen. Dies würde eine Revision der gegenwärtig gültigen Verträge erfordern. Jedweder Transfer der Zuständigkeiten an Brüssel wird wahrscheinlich bedeutenden nationalen Interessen zuwiderlaufen.

Energiearmut ist eine große Herausforderung in der gesamten EU. Energiekosten betreffen private Verbraucher nicht gleichmäßig. Mit steigendem Einkommen neigt der Energieverbrauch dazu zuzunehmen, aber die Proportion eines Haushaltsbudgets bzgl. Ausgaben für Energie neigt dazu abzunehmen. Haushalte mit hohem Einkommen, komfortablen Budgets und hohen Sparraten dürften bzgl. Strom- und Beinzinverbrauch kaum von den Preisen beeinflusst werden. Deren wirtschaftliche Lage ermöglicht es ihnen, Preissteigerungen auszusitzen oder effizientere Geräte zu kaufen, um Energiekosten zu senken.

Im Gegensatz dazu werden Haushalte mit geringem Einkommen und angespannten Budgets sowie kaum vorhandenen Ersparnissen schwer getroffen durch Energiepreise. Für diese Schichten hat der Energieverbrauch die höchste Dehnbarkeit, machen doch die Energiepreise einen vergleichsweise hohen Anteil an den Haushaltsbudgets aus. Die Verteilung von Ausgaben für Energie ist gleichmäßiger als die der Einkommen. Mit steigendem Einkommen nehmen die Energiekosten einen immer geringeren Anteil am Haushaltsbudget aus. Als Folge davon haben politische Maßnahmen zur Verteuerung der Energie antisoziale Auswirkungen, mit welcher belanglosen umweltlichen Rechtfertigung auch immer.

Hohe Arbeitslosigkeit hat die Energienachfrage in der EU stagnieren lassen, aber die Unterdrückung ökonomischer Aktivitäten und die Entlassung von Arbeitskräften sind ein teurer Weg, den Energieverbrauch zu senken. Millionen arbeitsloser EU-Bürger repräsentieren ein Potential für eine Zunahme der Energienachfrage. Millionen junger Menschen in der EU, besonders in Südeuropa, können sich ihre eigenen Wohnungen nicht leisten. Mit ihren eigenen Wohnquartieren würden sie mehr Energie für Licht, Heizung und Kochen verbrauchen. Das Scheitern der EU bzgl. des Erreichens dieser Ziele wird vermutlich immer mehr Menschen den Populisten in die Arme treiben.

In unserem politischen Vokabular wird eine Politik, welche wirtschaftliche und soziale Ungleichheiten verstärkt, als rechts angesehen, und eine Politik der Reduktion dieser Ungleichheiten als links. Aus dieser Perspektive ist die Klima- und Energiepolitik der EU ihrer Natur nach rechtsgerichtet und die Opposition dagegen linksgerichtet. Vor diesem Hintergrund sollte die Popularität von Marie Le Pen unter den französischen Arbeitern keine Überraschung sein. Deren Wähler reagieren viel empfindlicher auf Energiepreise als die Wähler von Präsident Macron. Wie alle Wähler mit geringem Einkommen überall betrachten die Unterstützer von Le Pen Klima-begründete Kosten als einen Angriff auf ihre Kaufkraft und ihren Lebensstandard. In dieser Hinsicht kann man Klima getrost als neuen polarisierenden Faktor betrachten, der den alten Konflikt zwischen Kapital und Arbeit wiederbelebt.

——————————–

This is a trailer of an article, “EU Energy Union – A critical view”, to be published in the autumn of 2019 by The Journal of Energy and Development.

Link: https://www.thegwpf.com/oystein-noreng-eu-energy-dis-union/

Übersetzt von Chris Frey EIKE




Kalter Mai 2019 in Deutschland – das Gegenteil zum letzten Jahr

Langfristig keine Maierwärmung.

Für alle folgenden Grafiken sind die Daten des Deutschen Wetterdienstes in Offenbach (DWD) verwendet worden. Sie reichen bis 1881 zurück, wobei die Wetterstationen damals natürlich an ganz anderen Orten standen als heute, weshalb die Daten streng genommen gar nicht vergleichbar für wissenschaftliche Erkenntnisse über Temperaturentwicklungen sind. Die DWD-Daten liefern nur Indizien für Temperaturverläufe.

Abb. 1: Andauernde Erwärmungstrends im Mai wie die Trendlinie diese suggeriert, fehlen. Und die markanten Abkühlungsphasen Ende des 19. Jahrhunderts und von etwa 1955 bis 1980 lassen sich mit der steigenden CO2– Konzentration (Mauna Loa) nicht erklären

Die lineare Trendlinie der DWD-Daten zeigt seit 139 Jahren für die Standorte der heutigen Wetterstationen eine Erwärmung von 0,8 C im Vergleich zu den ganz anderen Standorten des Kaiserreiches. Eine Aussage, ob damit der Mai tatsächlich wärmer wurde, ist aus den Daten nicht ablesbar.

Interessant sind weit zurückreichende Einzelstationen, allerdings haben sie genau den gleichen Nachteil wie die DWD-Daten der Grafik 1, die Umgebung der Stationen hat sich in den über 200 Jahren durch menschliche Eingriffe wärmend verändert, ebenso wie der Standort. Die Station steht unter gleichem Namen an einem wärmeren Platz.

Beginnen wir mit der Station Hohenpeißenberg, heute etwas abseits der Klosteranlage im neuen DWD-Zentrum. Bis 1934 war der Messstandort an der Nordseite der Klosterkirche bei einem Anbau.

Im Gegenteil zu heute erreichte die Maisonne die Messstation an der Nordwand fast nie, heute steht das Wetterhäuschen auf einem freien Feld im DWD Zentrum, etwas tieferliegend und nachts geschützt durch die beheizten Häuser des DWD-Zentrums.

Die Messreihe HPB geht einigermaßen zuverlässig bis 1781 zurück. Nur zur Einordnung, Mozart wurde 1756 zwar in Salzburg geboren, aber er verbrachte Teile seiner Jugendzeit in dem Geburtsort seines Vaters in Augsburg, schließlich war das die Stadt der reichen Familie Fugger. Der Hohenpeißenberg liegt wie Augsburg im südlichen Oberbayern. „Komm lieber Mai und mache die Bäume wieder grün“, lässt sich somit an den Mai-Werten der Station HPB gut nachvollziehen. Und zu Mozarts Lebenszeit gab es warme Maimonate.

Abb. 2: Zwei Dinge fallen beim HPB auf: Der Mai wurde nicht wärmer, der unbedeutende Anstieg dürfte eine reine Wärmeinselerwärmung aufgrund der Standortverlegung sein. Und: Die wirklichen warmen Maimonate liegen auf dem HPB lange zurück und wurden an der Nordwand des Gebäudes gemessen. Der warme Mai 2018 ordnet sich lediglich deutlich über dem Durchschnitt und deutlich wärmer als 2019 ein. Der Grund dafür dürfte mit der Zahl der Sonnenstunden begründet sein, die 2018 deutlich über dem Soll lagen und 2019 deutlich darunter. Wie sich der sonnenreiche Mai 2018 am sonnenarmen früheren Standort verhalten hätte, lässt sich nur erahnen.

Abb. 3: Die Maitemperaturen Deutschlands zeigen seit 1915 keine signifikante Erwärmung mehr. Zwischen 1950 bis 1985 lag der Mai in einer Kältephase im Nackkriegsdeutschland. Momentan sind wir wieder (noch?) auf einem höheren Niveau. Mit CO2 hat der Verlauf nichts zu tun, denn dieses lebensnotwendige Gas hat im ganzen Zeitraum kontinuierlich zugenommen.

Keine Mai-Erwärmung auf dem Lande in den USA

Abb.4: Diese drittälteste Wetterstation der USA und die älteste in Virginia zeigt sogar eine leichte, allerdings nicht signifikante Abkühlung in den letzten 139 Jahren. Die Wetterstation liegt auf dem Lande bei einer Farm und hat somit fast keinen Wärmeinseleffekt. Allerdings ufert die Kreisstadt Harrisonburg immer weiter in die Fläche in Richtung der Farm aus

Mai- Erwärmungsursachen seit 1950: Der wachsende Wärmeinseleffekt.

Besonders nach dem Krieg hat sich Deutschland wesentlich verändert, in der Einwohnerzahl, durch die Bebauung, sowie Trockenlegung ganzer Landschaften. Überall greift der Mensch wärmend in die Natur ein und die hoch stehende Maisonne heizt die Bebauung tagsüber stark auf, während die einstige Feuchtwiese nicht über 20°C hinauskam und nachts stark abkühlte. Aus einst kleinen Wärmeinseln sind seit 1945 riesige zusammenhängende Wärmeregionen entstanden. Allein im Heimatort eines Artikelverfassers hat sich die Einwohnerzahl mehr als verdoppelt, die bebaute Fläche verzehnfacht und der Energieverbrauch mindestens verhundertfacht. Da alle Klimastationen des DWD in den Wärmeregionen stehen, einsame Forsthäuser am Waldrand mit Wetterstation gibt es nicht mehr- messen die heutigen Thermometer diese schleichende Wärmeinselerwärmung natürlich mit. Wissenschaftlich richtig ist somit nur die Aussage, dass die Thermometer an den heutigen Standorten höhere Temperaturen messen als in der Nachkriegszeit. Ausschließlich durch den sich ständig vergrößernden Wärmeinseleffekt bei den DWD-Messstationen wirkt der Mensch an der Erwärmung mit. Diese Wärmeinselerwärmung als Folge eines CO2-Treibhauseffektes zu sehen, ist ein schlichter wissenschaftlicher Irrtum. Und die angeblich 97% der Wissenschaftler, die angeblich diese Falschmeinung vertreten, gibt es nicht, weil es nie eine Abstimmung gegeben hat.

Als Nächstes wollen wir eine Messstationen zeigen, um deren Standort herum sich im Betrachtungszeitraum laut Aussage des Stationsleiters wenig baulich verändert hat. Nur die starke Zunahme von Kohlendioxid in der Luft gab es dort wie überall.

Abb. 5: Wärmeinselarme, ländliche Standorte zeigen bereits seit fast 40 Jahren auch in Deutschland eine leichte Maiabkühlung. Amtsberg liegt in Sachsen am Fuße des Erzgebirges. Obwohl die CO2-Konzentration zugenommen hat, sind die Temperaturen innerhalb des jetzigen Wärmehochplateaus in ländlichen Gegenden Deutschlands leicht gesunken.

Maiverlauf in der Stadt: Erwärmung innerhalb des derzeitigen Temperaturplateaus.

Abb.6: Städtische Stationen wie hier die Wetterstation an den Landebahnen des Berliner Flughafens Tempelhof messen die Wärmeentwicklung der deutschen Hauptstadt infolge der steten weiteren Bebauung mit. Man beachte den kalten Mai 2019 in der Stadt und auf dem Land. In der Stadt werden die kalten Nordwinde von 2019 einfach herausgeheizt.

Bei ländlichen Stationen ist der Mai 2019 etwa gleich kalt wie der Mai 2010. Bei Stationen in den Wärmeinseln nicht und auch nicht in der DWD-Deutschlandgrafik.

Warum verhält sich Freiburg anders?

Freiburg im Breisgau liegt in der Sonnenecke Deutschlands und hat stark anwachsende Einwohnerzahlen, was Hand in Hand mit einer weiter in die Fläche ausufernden Bebauung einhergeht. Natürlich wurde aufgrund des Einwohnerwachstums und der Industrialisierung der gesamte Oberrheingraben wärmer. Die Wetterstation zeigt die Erwärmung jedoch nicht:

Abb.7: Die Wetterstation Freiburg zeigt keine Erwärmung in den letzten 39 Jahren im Monat Mai.

Die Erklärung ist einfach: Die Messstelle wurde vor gut 10 Jahren aus der Innenstadt in nördlicher Richtung in das gelockerte Baugebiet Brühl gelegt. Deshalb haben die Mai-Nordwinde vor allem während der Eisheiligentage nun eher Zugang zum Thermometer der Wetterstation und schon verhält sich die Station im Mai wie eine ländliche Station. Stationen wie Freiburg sind auch ein Beweis des menschengemachten Wärmeinseleffektes. Nur nebenbei: Was würden die Temperaturreihen zeigen, wenn der DWD schlagartig all seine Wetterstationen wieder an die früheren kälteren Standorte verlegen würde? Das geht leider nicht. Die meisten einst ländlichen Standorte sind längst überbaut.

Der Maiverlauf im DWD-Deutschland in den letzten 30 Jahren

30 Jahre sind eine Klimaeinheit und seit etwa 35 Jahren befindet sich der Monat wieder auf einem angenehmen relativ milden Temperaturplateau. Die kalten Maijahre nach dem Kriege sind vorbei. Deshalb interessiert uns wie der Temperaturverlauf innerhalb der letzten 30 Jahre geht. Bleibt es so oder müssen wir in absehbarer Zukunft eine Maiabkühlung befürchten. War der Mai 2019 etwa ein Vorbote?

Wir nehmen zur Beantwortung dieser Frage die DWD-Messreihe seit 1988, wohl wissend, dass sich die meisten DWD-Stationen in Wärmeinseln befinden.

Abb.8: Keine Maierwärmung in Deutschland seit 1988. Die leicht fallende Trendlinie ist nicht signifikant. Die DWD-Messstationen stagnieren auf dem letzten Plateau. In welche Richtung der Mai sich entwickeln wird ist aus der DWD-Trendlinie der letzten 30 Jahre nicht ersichtlich.

Der angeblich zunehmende Treibhauseffekt hat beim Monat Mai und somit in keinem Monat keinerlei Wirkung. Stationen mit Erwärmungstrendlinien sind typische städtische Stationen. Stationen mit fallenden Trendlinien sind ländliche Stationen.

Erg: Anhand der Temperaturverläufe des Monates Mai kann man keinerlei CO2-Treibhauserwärmung nachweisen. Weder bei langen Zeitreihen noch innerhalb der letzten 30 Jahre.

Der April macht was er will, der Mai auch. Andere Faktoren beeinflussen das Klimageschehen der Erde. Die Erwärmung des Klimas aufgrund einer CO2-Zunahme ist ein Märchen.

Zusammenfassung: Der relativ kühle Mai 2019 lässt sich auf eine zu geringe Sonnenscheindauer sowie gehäuft auftretende nördliche Großwetterlagen zurückführen. Letztes Jahr war es genau umgekehrt. Mit CO2 hat das nichts zu tun.

Während der vergangenen Jahrzehnte sowie seit Aufzeichnungsbeginn erwärmte sich der Mai in Deutschland wegen zunehmender Besonnung, geänderter Großwetterlagenhäufigkeit und diverser Wärmeinseleffekte bei den DWD-Stationen nur unwesentlich.

Die noch wenigen ländlichen Stationen in Deutschlands zeigen in den letzten 30 Jahren eine leichte Maiabkühlung. Das gilt auch für städtische Stationen, die der DWD aus den Ortskernen an den Ortsrand verlegt hat.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher.




Tut uns leid, Alarmisten: Das Klima-Chaos ist nicht eingetreten!

So warnt Elizabeth Warren nach der Beobachtung von Starkregen-Ereignissen in Iowa, dass diese ebenso wie Tornados und Überschwemmungen immer häufiger und stärker werden. „Verschiedene Teile des Landes haben es mit verschiedenen Klima-Aspekten zu tun“, mahnt auch die Abgeordnete Alexandria Ocasio-Cortez von den Demokraten, als sie ebenfalls vor extremen Tornados warnte. „Aber ALLE diese Bedrohungen werden an Intensität zunehmen mit der immer stärker werdenden Klima-Krise und wenn wir es versäumen, angemessen zu reagieren“.

Senator Jeff Merkley (Demokraten) versandte jüngst eine E-Mail, in der er die Demokraten warnte, dass der Klimawandel „zunehmend Mega-Brände, extrem destruktive Hurrikane und schreckliche Überflutungen“ verursachen wird, in welchen „das Leben von Amerikanern auf dem Spiel steht“.

Selbst wenn wir einmal so tun, als ob ein Phantastillionen teurer, autoritärer Green New Deal irgendeinen Einfluss auf das Klima hätte, gibt es in der realen Welt keinerlei Belege, dass das Wetter heutzutage zunehmend bedrohlich für Menschen wird. Egal welche quantifizierbare Maßzahl man anlegt – tatsächlich sind wir viel sicherer, trotz des kataklysmischen Boheis um jedes wetterbezogene Ereignis.

Wie viele derjenigen, die den Alarmismus für bare Münze nehmen, erkennen, dass Todesfälle durch Extremwetter seit den 1920ger Jahren um etwa 99,9% abgenommen haben? Hitze und Kälte können immer noch töten, aber dank zunehmend zuverlässiger und bezahlbarer Heiz- und Kühlungsmöglichkeiten sowie anderem Luxus unserer Tage wird die große Mehrheit der Amerikaner niemals das Klima in irgendeiner ernsthaften Weise fürchten müssen.

Seit 1980 liegt die Todesrate aller Naturkatastrophen sowie durch Hitze und Kälte irgendwo unter 0,5% (hier).

Es stimmt zwar, dass 2019 eine Spitze bzgl. Tornados aufgetreten ist, aber nur, weil 2018 das erste Jahr war ohne einen einzigen starken Tornado in den USA. 10 Amerikaner waren 2018 durch Tornados ums Leben gekommen, das ist die niedrigste Zahl seit Beginn entsprechender Aufzeichnungen im Jahre 1875.

Auch gab es langfristig einen Rückgang der Kosten von Tornadoschäden. Das Jahr 2018 setzte in dieser Hinsicht einen neuen Tiefst-Punkt. Noch weniger Schäden gab es nur in den Jahren 2017, 2016 und 2015.

Nach ein paar verheerenden Hurrikanen vor rund einem Jahrzehnt wurden wir genauso gewarnt, dass selbige das Vorspiel gewesen seien zu endlosen weiteren Stürmen und ökologischem Desaster. Dem folgten neun Jahre ohne einen einzigen Hurrikan in den USA. Oder, mit anderen Worten, sechs Hurrikane weniger als allein im Jahre 1908.

Dem Büro der US Natural Hazard Statistics zufolge gab es im Jahr 2018 deutlich unter dem 30-jährigen Mittelwert liegende Todesfälle nicht nur durch Tornados und Hurrikane (weit unter dem Mittelwert), sondern auch durch Hitze, Überschwemmungen und Blitze. Es gab jedoch einen geringen Anstieg von Todesfällen durch Kälte.

Der Hinweis auf diese Fakten ruft normalerweise die gleiche Reaktion hervor: Warum hasst ihr Höhlenmenschen die Wissenschaft? Nun, weil die Prognose-Möglichkeiten der Wissenschaft hinsichtlich der meisten Dinge, aber besonders Klima, miserabel waren. Hauptsächlich aber, weil die Wissenschaft zumeist als ein Knüppel benutzt wird, um linksextreme politische Rezepte durchzupeitschen ohne die wirtschaftlichen Folgen, die sozialen Realitäten oder die Moral derselben zu beachten.

Es gibt zwei Aspekte in dieser Debatte, die wir fast mit Sicherheit vorhersagen können: erstens, das moderne Technologie es den Menschen weiterhin erlauben wird, sich an organische und anthropogene Änderungen der Umwelt anzupassen. Zweitens, dass die Menschen niemals den Wohlstand und die Sicherheit aufgeben werden, welche ihnen diese Technologie verschafft hat und weiter verschaffen wird.

Menschen, welche diese Realitäten leugnen, sind genauso ahnungslos wie jeder „Leugner“ der Wissenschaft. Das bringt mich zurück zu den Demokraten.

Es gab eine ganze Reihe von Prognosen, dass das Jahr 2020 endlich das Jahr sein wird, in welchem Politiker den Klimawandel zu einem wichtigen Thema machen. Man kann nur vermuten, dass diese Reporter ihre Arbeit vorige Woche aufgenommen haben.

Es stimmt, dass eine Reihe von Präsidentschaftsbewerbern der Demokraten „kein Geld für Fossile“-Versprechungen abgegeben haben – als ob sie jemals etwas von diesem Geld sehen würden – weil die Fossilen Kohlenstoff in die Atmosphäre freisetzen – nur weil sie auf der Suche nach Schlechtwetter-Bildern sind.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/06/01/sorry-alarmists-climate-chaos-is-not-here/

Übersetzt von Chris Frey EIKE




Der Friedhof der Prognosen

Deutschland ist nicht nur Beraterland, es lässt sich auch von Prognosen leiten. Scheinen heute die Demoskopen auch am wichtigsten zu sein, gibt es Prognostiker auf allen Gebieten. Früher nannte man sie Seher. Schon zu Zeiten der Pharaonen konnten sie gut leben, wenn ihre Prognosen wenigstens mit gewisser Häufung eintrafen. Flunkerei konnte den Kopf kosten. Trat die vorhergesagte Sonnenfinsternis aber ein, wurden die Seher gottgleich verehrt.

Als 1759 das prophezeite Erscheinen des Halleyschen Kometen exakt passierte, waren die Menschen in Europa schwer beeindruckt. Es schien möglich, fast alles vorherzusagen. Auf allen Feldern, die sich naturwissenschaftlich beschreiben lassen, gibt es viele gute und sehr gute Prognosen, messbar an den eintretenden Realitäten. Im Lauf der Geschichte wollten die Potentaten die positiven Resultate der wie auch immer mathematisch beschreibbaren Felder übertragen auf Wirtschaft und Politik. Das erwies sich als weitgehend erfolglos. Keine Prognosen, nur Einzelstimmen warnten beispielsweise vor der Finanzkrise 2008.

Zu jedem Anlass, für jedes Fachgebiet und jede gewünschte Richtung ist es heute möglich, sich eine passgenaue Studie oder Prognose bei Gefälligkeitswissenschaftlern zu bestellen. In der Energie- und Klimapolitik ist die Zahl der Prognosen besonders groß, die Zahl der fehlgeschlagenen auch. Professor Opaschowski dazu: „Würden die Analysten nach der Treffsicherheit ihrer Prognosen bezahlt, wären sie allesamt Sozialfälle.“1

Bildlich könnte man sich viele Voraussagen auf einem großen Friedhof der Illusionen vorstellen. Machen wir uns auf einen Rundgang:

Gleich am Eingang stehen wir vor einem großen Mausoleum, im Grunde einem Massengrab, an dem oben in großen Lettern „Club of Rome“ steht. Fast alle Prognosen des Hauptwerks „Die Grenzen des Wachstums“ stellten sich als falsch heraus. Bereits im Jahr 2000 sollten die meisten Bodenschätze erschöpft, die Umwelt unrettbar verschmutzt und die übergroße Bevölkerung dem Hunger ausgesetzt sein. Alles falsch, obwohl erstmals Computer die Werte hochrechneten. Dennoch pilgern viele Zukunftsforscher zu diesem Mausoleum und legen Kränze unveränderlichen Glaubens ab.

Übrigens steht diese große Grabstätte auf einer noch älteren, der Theorie des Malthus von 1798. Nach dieser würde das Bevölkerungswachstum durch fehlende Nahrungsmittel begrenzt sein. Damals musste die Landwirtschaft nicht nur für Ernährung sorgen, sondern auch die Biomasse für die Zugtiere und für das Feuer bereitstellen. Malthus konnte nicht wissen, dass die Nutzung der Kohle die Industrialisierung einleitete und die Nutzflächen von der Energiebereitstellung für Transport und Brennmaterial befreite. Er konnte die technischen, gentechnischen, kerntechnischen, chemischen, medizinischen und sozialen Entwicklungen nicht vorhersehen. Damals wohnten etwa eine Milliarde Menschen auf der Erde, heute sind es unglaubliche reichlich sieben Milliarden. Dazu kommt: Lebten vor 200 Jahren noch 85 Prozent aller Menschen in existenzgefährdender Armut, sind es heute noch 9 Prozent2. Betrug die Lebenserwartung damals etwas über 30 Jahre, sind es heute 723.

Ruhe sanft

Mehrere Gräber belegen Prognosen des Deutschen Instituts für Wirtschaftsforschung (DIW). In einem liegt der DIW-Wochenbericht 11/2012, in dem man zwecks Erreichens des gewünschten Untersuchungsergebnisses die Stilllegung zweier Lausitzer Kraftwerksblöcke im Jahr 2015 annahm. Sie dampfen heute noch.

Eine frisch geschaufelte Grube wird einen Spruch von Frau Professor Kemfert aus dem Jahr 2011 beherbergen. Sie bezifferte die Höhe der zu erwartenden EEG-Umlage für 2020 auf 3,64 Cent pro Kilowattstunde4. Beisetzung also im nächsten Jahr. Die mangelnde Treffgenauigkeit erschüttert das Institut allerdings nicht. „Für die wirtschaftspolitische Beratung ist im Zweifel die Story wichtiger als die Genauigkeit“5, verlautbart man. Oder es gibt den Bogen ins Religiöse: „Die Energiewende ist die Reformation unserer Zeit.“6 Da fällt Widerspruch schwer, erscheint einem doch der unantastbare Luther vor dem geistigen Auge.

Natürlich finden sich auch einige verstorbene Klimaprognosen in der Erde. Schon legendär die Ankündigung von Professor Latif aus dem Jahr 2000, dass es kalte Winter mit viel Schnee in Mitteleuropa nicht mehr geben werde. Alpenländler haben heute noch Blasen an den Händen vom Schneeschieben im vergangenen Winter. Offizielle Wissenschaft ist nun mal der jeweils gültige Irrtum. Im Grab daneben ein Spruch von Professor Edenhofer vom Potsdam Institut für Klimafolgenforschung (PIK) von 2012, die Strompreise würden nicht mehr wesentlich steigen7.

Fragwürdig in jedem Fall sind die Prognosen, die zum Pariser Klimaabkommen führten. Aus ihnen wurden „CO2-Budgets“ destilliert, die die Staaten noch ausstoßen dürften, um das alles überstrahlende 1,5-Grad-Ziel zu erfüllen. Abgesehen davon, dass viele Länder keine genaue Erfassung der Emissionsmengen vornehmen können und CO2-Register erst aufgebaut werden müssen, gibt es Kontrollen nur durch die Staaten selbst und keinen Sanktionsmechanismus, auch wenn dies durch unsere Medien hinsichtlich der völkerrechtlichen Bindung so unterstellt wird. Daraus erwächst die Behauptung, Deutschland müsse schon bis 2030 aus der Kohle aussteigen. Vertragsinhalt ist aber nur ein gemeinsamer „Klimaschutzbeitrag“ der EU-Staaten von minus 40 Prozent bis dahin, umzusetzen durch das CO2-Handelssystem (ETS). Alle weiteren Ziele sind national draufgesattelt.

Nachdem der Vertrag von Paris unterschrieben war, wurde auf wundersame Weise beerdigt und neu geboren. Plötzlich findet sich ein „fast doppelt so großes“ CO2-Budget. „Unsere früheren Modelle sind an entscheidender Stelle zu empfindlich“8, so der Physiker Jochen Marotzke im Spiegel-Interview. Sind sie jetzt wenigstens genauer? Ich halte es für die Begründung einer taktischen Fristverlängerung, um die Alarmstimmung hoch und die Lösungsillusion am Leben halten zu können. Das Signal „es ist zu spät“ würde die Vorbereitung auf den Klimawandel fördern und den Erneuerbaren Subventionen entziehen.

Nicht besser sind von Politikern abgegebene Prognosen. Ganz am Rande des Friedhofs liegen ein paar schlichte Reihengräber der Eröffnungstermine des Flughafens BER. Diese Todesfälle hätte man verhindern können durch Angabe eines „Eröffnungskorridors“ oder „Eröffnungshorizonts“ anstelle leichtsinnig konkreter Terminangaben.

Platz ist noch für die „globale Dekarbonisierung bis 2100“, den Elmau-G7-Beschluß, dessen ferne Zielsetzung die Verifikation verhindert und damit den Urhebern jegliche Verantwortung nimmt.

9.

Heute liegt sie genau bei 6,405 Cent pro Kilowattstunde (netto).

Die Klimaschrifttumskammer

Den meisten beerdigten Prognosen wird das Schlimmste zuteil, das Verblichenen widerfahren kann. Sie werden vergessen. Nun wäre es an der vierten Gewalt, die ihr zugewiesene Wächterfunktion zu erfüllen, Prognosen im Auge zu behalten und an Irrtümer zu erinnern. Jedoch geben die so genannten Qualitätsmedien heute die Erfüllungsgehilfen der Staatsdoktrin und sie haben alle Tasten und Stifte voll zu tun, Regierungspolitik positiv zu begleiten. Anstelle kritischer Betrachtung heutiger Prognosen im Lichte der fehlgeschlagenen alten, stellen unsere Qualitätsmedien die Vorhersagen von heute als festgültige Zukunft dar. Kohleausstieg spätesten 2038 – kommt. Keine Verbrennerfahrzeuge mehr ab 2030 (oder wenig später) – kommt. Sektorkopplung, auch wenn niemand weiß, wo der Strom herkommen soll – wird werden.

Jede auch sachliche Kritik wird nach Maßgabe der Empörungskommunikation behandelt. Zweifel an der Klimatheorie werden hart bekämpft. Maybrit Illner führte am 2. Mai in ihrer Sendung den Begriff des „Klimaschädlings“ neu ein. Zufall kann die Verwendung eines solchen Wortes nicht sein, ist doch der Umgang mit Sprache ihr täglich Brot, das sie sonst akzeptabel zu backen weiß. Das letzte Mal, dass Menschen als Schädlinge bezeichnet wurden, war in finsteren Zeiten des deutschen Faschismus. Am 5. September 1939 wurde die „Verordnung gegen Volksschädlinge“ erlassen, um der NS-Justiz mehr Instrumente zur Bekämpfung politisch Andersdenkender zu geben. Heute werden die Rufe nach einer „Klimajustiz“ lauter. Gegen wen wohl, wenn nicht gegen „Klimaschädlinge“? Auch der „Klimaleugner“ weist sprachliche Nähe zum Holocaust-Leugner auf.

Wie kommt es, dass Nazi-Sprech oder daran angelehntes Vokabular Eingang via Klimapropaganda in unsere Umgangssprache findet? Was ist die Ursache dieser unsäglichen Geschichtsvergessenheit? Ist es die Faulheit, Diskussionen vermeiden zu wollen, die Schwäche der eigenen Argumente oder politisches Kalkül zur Sicherung der eigenen Deutungshoheit und der Machtverhältnisse?

Erleben wir erste Anzeichen eines „Klimafaschismus“?

Nur der Weg zurück zu Malthus könnte fossile Brennstoffe überflüssig machen. Ökoenergieanlagen geringer Leistungsdichte müssten flächendeckend aufgebaut werden, begleitet von einer drastischen Senkung des Pro-Kopf-Energieverbrauchs. Mit der nötigen Justiz im Rücken, einem Wahrheitsministerium und einem verpflichtenden Neusprech sollte es gelingen.

Im Jahr 2020 wird es zahlreiche weitere Bestattungen auf dem Friedhof der Prognosen geben, stellt dieses Jahr doch einen Eckpunkt in Vorhersagen dar und es ist oft mit konkreten Zahlen bedacht worden. Ein erneuter Rundgang über den Friedhof der Prognosen wird ihnen die letzte Ehre zu erweisen und sie vor dem Vergessen bewahren.

1) Prof. Dr. Horst W. Opaschowski „Zukunftsforschung und Prognosen“

FOCUS-Jahrbuch 2012 S.2

2) Hans Rosling „Factfulness“, Ullstein, 7.Auflage, S. 69

3) ebenda, S. 72

4) Wochenbericht DIW 6/2011

5) „Nur Pi mal Daumen“, „Welt“ v. 19.12.2009, S. 12

6) DIW-Forschungsdirektor Prof. Dr. Christian v. Hirschhausen

Lausitzer Rundschau“ v. 27.10.2012

7) „Subventioniert den Strompreis!“ Handelsblatt v. 7.8.2012

8) Spiegel v. 6.10.2018, S. 111

9) Bundestag 114. Sitzung Plenarprotokoll 17/114, 9.6.2011 S. 12962




Rückkopplung ist nicht das Gelbe vom Ei

Beginnen möchte ich in dieser Antwort an Mr. Stokes mit der Darlegung des Unterschieds zwischen der Schlussfolgerung der offiziellen Klimatologie, dass Rückkopplungen die direkte oder Referenz-Erwärmung durch Treibhausgase verdreifachen und unserer Schlussfolgerung, dass man mit einem bemerkenswert geringen Fehler die Rückkopplungen ignorieren kann bei der Berechnung der Gleichgewichts-Sensitivitäten – und zwar mit gerundeten Zahlen und Termen, die so weit wie möglich vereinfacht sind.

In den CMIP5-Modellen, der jüngsten Generation von Modellen, deren Ensemble-Ergebnisse veröffentlicht worden sind, beträgt die mittlere Referenz-Sensitivität auf eine CO2-Verdoppelung 1,05 K (Andrews 2012). Die mittlere Referenz-Sensitivität ist hier die Erwärmung, zu der es bei einer Verdoppelung von CO2 in der Atmosphäre kommen würde ohne Einwirkung von Rückkopplungen.

Außerdem glaubt man derzeit (zu recht oder fälschlich), dass jener Wert ziemlich genau ist: die Unsicherheit beträgt in jedem Falle nur 10%. Daher sollten wir kanonisch die Tatsache akzeptieren, dass die Referenz-Sensitivität bei einer CO2-Verdoppelung vor Berücksichtigung von Rückkopplungen 1,05 K beträgt.

Allerdings ergeben die gleichen Modelle eine mittlere Charney-Sensitivität von 3,35 K pro CO2-Verdoppelung. Mit Charney-Sensitivität ist hier die Erwärmung gemeint, nachdem alle die Sensitivität verändernden Rückkopplungen eingewirkt haben und das Klimasystem wieder ins Gleichgewicht gekommen ist.

Von diesen beiden kanonischen Werten wissen wir, dass die offizielle Klimatologie der Meinung ist, dass die Rückkopplungs-Reaktion auf eine CO2 -Verdoppelung 3,35 beträgt – 1,05 oder enorme 2,3 K als Reaktion auf eine Referenz-Sensitivität von lediglich 1,05 K. Man erinnere sich, dass Rückkopplungen die gesamte Differenz repräsentieren zwischen Referenz-Sensitivität (vor Rückkopplungen) und der Gleichgewichts-Sensitivität (nach Rückkopplungen).

Falls die offizielle Klimatologie recht hat, dann läge der System-Gain Factor, also das Verhältnis der Gleichgewichts- zur Referenz-Sensitivität, bei 3,35 / 1,05 oder 3,2. Die offizielle Klimatologie meint tatsächlich, dass Rückkopplungen jedwede direkt erzwungene Erwärmung um das 3,2-fache multiplizieren.

Wie kommt die offizielle Klimatologie auf diesen massiven Faktor von 3,2? So: Die Emissions-Temperatur der Erde wird normalerweise als etwa 255 K betragend angenommen, und die Referenz-Sensitivität der im Jahre 1850 natürlich auftretenden, nicht kondensierenden Treibhausgase mit etwa 10 K (Lacis+ 2010). Damit hätte die Referenz-Temperatur – also die Temperatur, die beim Fehlen von Rückkopplungen vorherrschend wäre – 265 K betragen.

Allerdings betrug die gemessene Temperatur im Jahr 1850 287,5 K (HadCRUT4), und das war eine Gleichgewichts-Temperatur (es würde keinen Trend während der folgenden 80 Jahre geben). Die Differenz zwischen der Emssions-Temperatur von 255 K und der gemessenen Temperatur von 287,5 K im Jahre 1850 beträgt 32,5 K. Wenn man die Gleichgewichts-Sensitivität von 32,5 durch die Referenz-Sensitivität von 10 K dividiert, erhält man 3,25 – mehr oder weniger genau der System-Gain Factor, den die offizielle Klimatologie als mittlere Schätzung nimmt.

Folglich ist für IPCC und Konsorten die Rückkopplung das Non-plus-ultra. Sie glauben, dass die Rückkopplung zwischen zwei Drittel und (in den idiotischeren Extremisten-Studien) bis zu neun Zehntel der gesamt-globalen Erwärmung ursächlich ist.

In der offiziellen Klimatologie gilt Rückkopplung nicht nur als Ursache für 90% der Gesamt-Erwärmung, sondern auch als bis zu 90% der Unsicherheit bzgl. der Frage, wie viel Erwärmung es geben wird. Wie settled ist „settled science“, wenn die Modellierer nach 40 Jahren und Billionensummen Geldes immer noch nicht in der Lage sind, dieses gewaltige Intervall einzugrenzen? Die untere Grenze der IPCC-Schätzung beträgt 1,5 K Charney-Sensitivität; die obere Grenze der CMIP5-Modelle ist 4,7 K. Die üblichen Verdächtigen haben keine Ahnung, wie viel Erwärmung es geben wird.

Meine Mitautoren und ich selbst wagen es, anderer Ansicht zu sein. Rückkopplung ist nicht das Gelbe vom Ei. Die offizielle Klimatologie hat – soweit wir das beurteilen können – eine zentrale Wahrheit vollkommen ausgelassen. Die Wahrheit nämlich, dass welche Rückkopplungen auch immer im Klimasystem zu jedem gegebenen Zeitpunkt vorherrschen, diese nicht notwendigerweise nur auf Änderungen der vorherrschenden Temperatur reagieren müssen: Sie müssen auf die gesamte Referenz-Temperatur zu jenem Zeitpunkt reagieren, wobei spezifisch auch die Emissions-Temperatur enthalten ist, welche selbst dann vorhanden ist, wenn jedwede nicht kondensierenden Treibhausgase oder irgendwelche Rückkopplungen fehlen.

Warum das so sein muss zeigt dieses einfache Block-Diagramm:

In dem Block-Diagramm kommt die Emissionstemperatur oben links ins Spiel, danach (den Pfeilen folgend) werden die Referenz-Sensitivitäten, die mit der Zeit auftreten, zuerst natürlich und dann anthropogen, sukzessive hinzu addiert. Dann läuft die Referenz-Temperatur, also die Summe all dieser Parameter, durch den Input/Output-Knoten und folglich unendlich rund um die Rückkopplungs-Schleife, wobei der separat mit Energie versorgte Rückkopplungs-Block dem Signal bei jedem Durchlauf ein kleines Bisschen hinzufügt (die Energie für den Rückkopplungs-Block wäre das Zurückhalten von Strahlung in der Atmosphäre, welche ohne Rückkopplungen harmlos in den Weltraum abgestrahlt werden würde). Das Ausgangssignal ist die Gleichgewichts-Temperatur nach Einwirkung der Rückkopplung.

Sollte man dies akzeptieren, steht man jetzt vor der Aufgabe, eine solide Erklärung zu finden für das Narrativ der offiziellen Klimatologie, dass die Rückkopplungs-Schleife, welche als Eingangssignal die gesamte Referenz-Temperatur erhält, auf irgendeine magische Weise entscheiden kann, ob sie lediglich auf die Durchdringung jener Referenz-Temperatur reagieren will, verursacht durch das Vorhandensein natürlicher und dann auch anthropogener, nicht kondensierender Treibhausgase, und dass sie in keiner Weise auf die Emissions-Temperatur reagiert, die zwei Größenordnungen größer ist als die Sensitivitäten.

Es besteht kein Zweifel, dass man einen elektronischen Schaltkreis konzipieren kann, welcher jenes Kunststück nachvollzieht. Aber das Klima ist kein Schaltkreis. Die im Jahre 1850 vorhandenen Rückkopplungen müssen also bis dahin nicht nur auf die Treibhaus-Erwärmung eingewirkt haben, sondern auch auf die Emissions-Temperatur, bevor irgendwelche nicht kondensierenden Treibhausgase ihre Wirkung entfalten konnten.

Hier folgt also die korrekte Berechnung. Die Referenz-Temperatur in Jahre 1850 betrug vor Rückkopplungen 265 K. In jenem Jahr betrug die Gleichgewichts-Temperatur nach Rückkopplungen 287,5 K. Folglich betrug der System-Gain Factor des Jahres 1850 287,5 / 265 oder 1,085 – also etwa ein Drittel des Wertes der Klimatologie von 3,2.

Falls wir nun die Referenz-Sensitivität von 1,05 K bei CO2-Verdoppelung mit dem korrigierten System-Gain Factor von 1,085 multiplizieren, ergibt sich eine Charney-Sensitivität von lediglich 1,15 K und nicht von 3,35 K.

Nun könnte man natürlich sagen, dass die Kurve der Gleichgewichts-Temperatur als Reaktion auf die Referenz-Temperatur nicht linear ist. Vielleicht ist das so, aber es kann nicht sehr nicht linear sein. Warum nicht? Weil die Referenz-Temperatur des Jahres 1850 über 92% der Gleichgewichts-Temperatur ausmachte.

Nun ist der Beitrag von Mr. Stoke so weit es geht korrekt. Sei zentraler Punkt lautet, dass wenn man mit einem Gleichgewicht beginnt wie es etwa im Jahre 1850 herrschte, man nicht wissen muss, wie dieses Gleichgewicht zustande gekommen war: man kann den System-Gain Factor einfach als das Verhältnis der Gleichgewichts-Sensitivität zur Referenz-Sensitivität in irgendeinem Zeitraum nach jenem Gleichgewicht darstellen anstatt als das Verhältnis der Gleichgewichts- zur Referenz-Temperatur zum Zeitpunkt des Gleichgewichtes.

Machen wir es also so wie die Klimatologie. Ziehen wir die eigenen Daten der Klimatologie bis zum Jahre 2011 heran, das Jahr, bis zu dem de Zahlen aktualisiert worden waren für den AR5 des IPCC 2013.

Der gesamt-anthropogene Antrieb von 1850 bis 2010 betrug etwa 2,5 W/m². Allerdings sorgt die Wärmekapazität der Ozeane für eine Verzögerung der Gleichgewichts-Reaktion. Diese Verzögerung wird von einem Strahlungs-Ungleichgewicht reflektiert, dessen Wert man mit etwa 0,6 W/m² annimmt bis zum Jahre 2010 (Smith+ 2015).

Nimmt man einmal an, dass Smith korrekt ist, dann ist der periodische System-Gain Factor der Klimatologie ableitbar aus den Daten von 1850 bis 2011, und zwar einfach als das Verhältnis von 2,5 zu (2,5 – 0,6) oder 1,315 (Lewis & Curry 2018). Dann würde die Charney-Sensitivität 1,315 x 1,05 oder lediglich 1,4 K betragen und nicht die 3,35 K, die uns die offizielle Klimatologie derzeit glauben machen will.

Man beachte, wie nahe unsere Schätzung der Charney-Sensitivität von 1,15 derselben in der realen Welt von 1,4 K liegt. Wir kamen zu unserer Schätzung auf der Grundlage der eigenen Schätzungen der offiziellen Klimatologie des tatsächlichen anthropogenen Antriebs und des Strahlungs-Ungleichgewichtes. Die mittlere Schätzung der Klimatologie von 3,35 K ist jedenfalls weit von der Realität entfernt.

Warum liegt unsere Schätzung der mittleren Charney-Sensitivität so viel näher dem realen Wert als die veröffentlichten Schätzungen der offiziellen Klimatologie?

Der Grund hierfür ist, dass wir anders als die offizielle Klimatologie alle verfügbaren Informationen berücksichtigen und hierbei besonders die Informationen über die jeweiligen Größenordnungen im Jahre 1850, die Referenz-Temperatur (265 K) und die Rückkopplungs-Reaktion (22,5 K). Die Summe dieser beiden Parameter war die beobachtete Gleichgewichts-Temperatur im Jahre 1850.

Der offiziellen Klimatologie, die einfach nicht erkennen will, dass Rückkopplungen logischerweise auf die gesamte Referenz-Temperatur reagieren, die zu einem gegebenen Zeitpunkt herrscht, bleibt nichts weiter übrig als jene vitale Information in die Tonne zu treten. Mr. Stokes macht das hier ganz speziell:

„Es ist falsch, Variablen aus der Original-Zustandsgleichung (d. h. im Jahre 1850) einzubeziehen. Ein Grund dafür ist, dass man diesen Variablen bereits im Gleichgewichtszustand vor der Störung Rechnung getragen hat. Das muss nicht noch einmal ins Gleichgewicht gebracht werden. Der andere Grund ist, dass sie nicht proportional zur Störung sind, so dass die Ergebnisse keinen Sinn ergeben. Bei der Begrenzung auf geringer Störungen hat man immer noch den großen Term der Referenz-Temperatur, der nicht verschwindet. Kein Gleichgewicht kann erreicht werden“.

Mr. Stokes hat so ziemlich recht, wenn er sagt, dass im Jahre 1850 ein Temperatur-Gleichgewicht herrschte und dass daher zu jener Zeit die Temperatur von 287,5 K bereits die verschiedenen Variablen enthalten hatte, als da wären die 255 K Emissions-Temperatur, die 10 K Referenz-Sensitivität auf die natürlich auftretenden, nicht kondensierenden Treibhausgase im Jahre 1850 und die 22,5 K Rückkopplungs-Reaktion auf die 265 K Referenz-Temperatur.

Er hat auch recht, wenn er sagt, dass diese Variablen „nicht noch einmal ins Gleichgewicht gebracht werden müssen“. Aber, und das ist entscheidend, sie müssen berücksichtigt werden bei der Ableitung des korrekten System-Gain Factors von 287,5 / 265 und der daraus korrekten Chanreny-Sensitivität.

Die Klimatologie übersieht diese Werte, weil sie sich nicht bewusst ist, dass zu jedem gegebenen Zeitpunkt (wie 1850) Rückkopplungen auf die gesamte Referenz-Temperatur reagieren, die zu jener Zeit herrschte. Wie Luther schon sagte, sie können nicht anders.

Und Mr. Stokes hat auch recht mit seiner Aussage, dass die Variablen – unter welchen er wohl auch die Rückkopplungs-Reaktion erfasst hat – „nicht proportional zur Störung“ sind. Hier trifft er genau unseren Punkt. Die Rückkopplungs-Reaktion im Jahre 1850 war natürlich notwendigerweise und unvermeidlich proportional zu der gesamten 265 K Referenz-Temperatur, also der Summe der 255 K Emissions-Temperatur und der 10 K Referenz-Sensitivität auf die in jenem Jahr vorhandenen natürlichen Antriebe.

Aber die Klimatologie tut im Endeffekt so, als sei die gesamte Rückkopplungs-Reaktion im Jahre 1850 proportional allein zu der natürlichen Störung von 10 K der Referenz-Temperatur. Und da liegt der Fehler der Klimatologie. Das heißt, es ist der Grund, warum die Schätzung der Charney-Sensitivität und aller Gleichgewichts-Sensitivitäten – um das Dreifache zu hoch ist. Man hat einfach den Treibhausgasen die große Rückkopplungs-Reaktion zugeordnet, zu der es allein aus dem einfachen Grund kommt, weil die Sonne scheint.

Ja, man kann den System-Gain Factor ableiten als das Verhältnis der Sensitivitäten, genau wie wir sie ableiten können als das Verhältnis absoluter Temperaturen. Aber das erste Verfahren, also das der offiziellen Klimatologie, ist Gegenstand hoher Unsicherheit, während unser Verfahren ein Intervall der Charney-Sensitivität ergibt, welches sowohl genau als auch eng begrenzt ist. Wir haben für unser Verfahren jene vitalen Daten aus dem Jahr 1850 herangezogen, welche die Klimatologie so lange ignoriert hatte bei ihren Sensitivitäts-Berechnungen.

Um die Gleichgewichts-Temperatur abzuleiten, muss man die Referenz-Temperatur und entweder die Rückkopplungs-Reaktion oder den System-Gain Factor kennen. Aber wir wissen nicht und können unter keinen Umständen bestimmen, wie stark die Rückkopplungs-Reaktion ist, indem wir die individuellen Rückkopplungen summieren, wie es die Klimatologie derzeit versucht, weil es Rückkopplungen sind, welche der fast ausschließliche Grund für die Unsicherheit bei den Globale-Erwärmung-Prophezeiungen der offiziellen Klimatologie sind.

Keine Rückkopplung kann durch direkte Messungen quantifiziert werden. Auch kann uns keine Art der Beobachtung, sei diese nun gut aufgelöst, sorgfältig und ehrlich, zuverlässig und quantitativ unterscheiden zwischen verschiedenen individuellen Rückkopplungen oder sogar zwischen Rückkopplungen und den Antrieben, welche diese ausgelöst haben.

Die Klimatologie kann die Charney-Sensitivität nicht zuverlässig berechnen, weil sie nicht den Wert der Rückkopplungen kennen kann, obwohl man weiß, dass die Referenz-Sensitivität bei CO2-Verdoppelung 1,05 K beträgt, und weil sie den System-Gain Factor nicht kennt. Sie kennt nicht diese vitale Quantität, weil man die verfügbaren Informationen an einem Punkt verworfen hat – vor jedweder anthropogenen Intervention – für welche die Daten ziemlich präzise sind und woraus er direkt abgeleitet werden kann: dem Jahr 1850.

Die Daten von 1850 sind deswegen so gut belegt, weil die gesamte Gleichgewichts- und Referenz-Temperaturen in jenem Jahr um zwei Größenordnungen über die geringe Gleichgewichts- und Referenz-Sensitivität hinausgehen, welche die Grundlage für die bislang gescheiterten Bemühungen der Klimatologie sind, den System-Gain Factor genauer zu erfassen und damit die wahrscheinliche Größenordnung der zukünftigen globalen Erwärmung.

Wir kennen ziemlich genau den System-Gain Factor des Jahres 1850. Wir wissen auch, dass er sich nicht so sehr vom Wert des Jahres 2100 unterscheiden dürfte von 287,5 /265 oder 1,085 im Jahre 1850.

Woher wissen wir das? Wir wissen es, weil die anthropogene Referenz-Sensitivität des industriellen Zeitalters von lediglich 0,75 K im Zeitraum 1850 bis 2011 so übermäßig gering war im Vergleich zur 265 K Referenz-Temperatur, die bereits im Jahre 1850 präsent war. Das Klima hat sich einfach nicht ausreichend geändert, um eine massive Verschiebung des in jenem Jahr herrschenden Rückkopplungs-Regimes auszulösen.

Selbst wenn es zu einer solchen Verschiebung gekommen wäre, würden die zusätzlichen Rückkopplungen nicht allein auf unsere Störung der Emissions-Temperatur reagiert haben, sondern auf die gesamte Referenz-Temperatur. Den Großen Stillstand seit nunmehr fast 19 Jahren der globalen Temperatur bis zum Jahre 2015 hätte es dann nicht geben können.

Daher können wir ziemlich sicher davon ausgehen, dass die Charney-Sensitivität – d. h. die Gleichgewichts-Sensitivität bei CO2-Verdoppelung verglichen mit dem Jahr 2011 – sich nicht sehr stark von 1,15 K unterscheiden dürfte. Tatsächlich hat unser Statistik-Professor berechnet, nachdem er sich durch alle Zahlen in sorgfältigster Weise gegraben hatte, dass das korrigierte 95%-Vertrauensintervall der Charney-Sensitivität zwischen 1,09 und 1,23 K liegt, ein Intervall von lediglich einem Siebentel Kelvin. Man vergleiche das mit dem 3,2 K-Intervall der offiziellen Charney-Sensitivität mit einer Bandbreite von 1,5 bis 4,7 K.

Man beachte, dass wir die Charney-Sensitivität nur deswegen korrekt berechnen können, weil den System-Gain Factor bereits kannten. Wir kannten ihn, weil wir ihn aus den Daten ableiten konnten, welche die offizielle Klimatologie verwirft, weil sie Rückkopplungs-Reaktionen auf die gesamte Referenz-Temperatur nicht kennt und sich nur auf die willkürlich heraus gepickten Referenz-Sensitivitäten konzentriert.

Mr. Stokes sagt, dass die 255 K Referenz-Temperatur im Jahre 1850 „nicht verschwindet“. Genauer: Sie war damals präsent, ebenso wie die zusätzlichen 10 K Erwärmung, erzwungen durch die Gegenwart natürlicher, nicht kondensierender Treibhausgase in jenem Jahr. Wegen deren Vorhandensein sollte man sie berücksichtigen. Aber sie sind nicht berücksichtigt worden.

Da wir aus der Theorie sowie aus dem Block-Diagramm, dem Test-Schaltkreis von einem unserer Autoren und einem für uns in einem Regierungs-Laboratorium konstruierten mehr ausgeklügelten Test-Schaltkreis wissen, dass die im Jahre 1850 vorhandenen Rückkopplungen notgedrungen sich auf die gesamte, in jenem Jahr präsente Referenz-Temperatur ausgewirkt hatten, können wir sofort und mit ziemlicher Sicherheit aus jenem Jahr den System-Gain Factor und folglich die Charney-Sensitivität ableiten.

Wir brauchen dafür keine riesigen und kostspieligen Zirkulationsmodelle, falls alles, was man haben will, das Ausmaß der von uns verursachten Erwärmung ist.

Bemerkenswerterweise braucht man nicht einmal Rückkopplungen in die Berechnung eingehen lassen: Das Unterschreiten der Charney-Sensitivität, welches sich aus Ignoranz der Rückkopplung insgesamt ergibt, ist kaum größer als ein Zehntelgrad Kelvin.

Unserer Studie zufolge ist das also wirklich Game Over.

Link: https://wattsupwiththat.com/2019/06/08/feedback-is-not-the-big-enchilada/

Übersetzt von Chris Frey EIKE

*Anmerkung des Übersetzers: nach wie vor teile ich den Optimismus bzgl. „Game Over“ von Lord Monckton nicht. „Game Over“ ist erst, wenn das durch die Medien geht, egal was sonst passiert, und ich kann mir nicht vorstellen, dass das in absehbarer Zeit der Fall ist – schon deswegen nicht, weil viel zu viele Leute mit diesem Betrug viel zu viel Kasse machen.