Deutsche Bank: Green Deal der EU kann nur mit einem „gewissen Maß Öko-Diktatur erfolgreich sein“

Eine von der Deutschen Bank veröffentlichte Analyse kritisiert scharf die „unehrliche Debatte“, mit der die EU den Menschen in Europa ihren „Green Deal“ verkauft. Die massiven Risiken des Projekts für den Wohlstand, das Wirtschaftssystem und die Demokratie selbst dürften nicht verschwiegen, sondern müssten offen angesprochen werden.

Eric Heymann, leitender Ökonom bei Deutsche Bank Research, warnt, dass mit dem Green Deal und dem Ziel der Klimaneutralität bis 2050 eine europäische Megakrise droht, die zu einem „spürbaren Verlust von Wohlstand und Arbeitsplätzen“ führen wird. Und er warnt: Ohne „ein gewisses Maß an Ökodiktatur“ wird es nicht funktionieren.

Der Analyst bezeichnet es als unseriös, dass der Green Deal flächendeckend als „neue Wachstumsstrategie“ angepriesen wird, die es der EU ermöglichen würde, eine „gerechte und wohlhabende Gesellschaft“ zu werden. Das mag zwar auf dem Papier gut aussehen, schreibt Heymann, doch um bis 2050 klimaneutral zu werden, müssten Europas Wirtschaft sowie das gesamte politische und rechtliche System grundlegend verändert werden.

Vorerst seien die revolutionären Folgen der EU-Klimaagenda für den Alltag „noch relativ abstrakt“ und für die meisten Haushalte „noch akzeptabel.“ Bald aber werde der Weg zur Klimaneutralität drastische Eingriffe in die Wahl der Verkehrsmittel, die Wohnungsgröße, die Heizungsart, den Besitz von elektronischen Konsumgütern sowie Einschränkungen beim Konsum von Fleisch und Südfrüchten erfordern.

Und er warnt, dass diese Einschränkungen und Eingriffe unweigerlich „massiven politischen Widerstand“ auslösen werden.

Einige Parteien werden Argumente gegen eine strikte Klimaschutzpolitik finden, wenn diese zu einer deutlichen Erhöhung der Energiepreise oder zu Einschränkungen der persönlichen Freiheit oder der Eigentumsrechte führt. Und machen wir uns nichts vor: Diese Parteien werden Wählerunterstützung finden. Auf EU-Ebene wird es große Verteilungskonflikte geben, die zu einer (weiteren) Spaltung des Blocks beitragen können. Sind wir bereit, mit dieser Polarisierung umzugehen?

Im Folgenden finden Sie Auszüge aus der Analyse von Eric Heymann (Deutsche Bank Research).

Klima-Neutralität: Sind wir bereit zu einer ehrlichen Diskussion?

(…)

Ein gewisses Maß von Öko-Diktatur wird erforderlich sein!

Die Auswirkungen der aktuellen Klimapolitik auf das Alltagsleben der Menschen sind für viele Haushalte noch recht abstrakt und akzeptabel. Klimapolitik kommt in Form von höheren Steuern und Abgaben auf Energie, die das Heizen und die Mobilität verteuern. Einige Länder haben Mindeststandards für die Energieeffizienz von Gebäuden oder ähnliche Regeln in anderen Bereichen festgelegt. Die Klimapolitik bestimmt aber nicht unser Leben. Wir treffen wichtige Konsumentscheidungen, zum Beispiel ob wir überhaupt reisen, wie viel wir reisen und welche Verkehrsmittel wir nutzen, ob wir in einem großen Haus oder einer kleinen Wohnung leben und wie wir heizen, wie viele elektronische Geräte wir haben und wie intensiv wir sie nutzen oder wie viel Fleisch und exotische Früchte wir essen. Diese Entscheidungen werden in der Regel auf der Basis unseres Einkommens getroffen, nicht auf der Basis von Klimaüberlegungen.

Wenn wir wirklich Klimaneutralität erreichen wollen, müssen wir unser Verhalten in all diesen Lebensbereichen ändern. Das liegt ganz einfach daran, dass es noch keine adäquaten kosteneffizienten Technologien gibt, die es uns ermöglichen, unseren Lebensstandard klimaneutral zu halten. Das bedeutet, dass die Kohlenstoffpreise erheblich steigen müssen, um die Menschen dazu zu bewegen, ihr Verhalten zu ändern. Eine andere (oder vielleicht ergänzende) Möglichkeit ist eine deutliche Verschärfung des Ordnungsrechts. Ich weiß, dass „Ökodiktatur“ ein böses Wort ist. Aber wir müssen uns vielleicht die Frage stellen, ob und inwieweit wir bereit sind, eine Art Ökodiktatur (in Form von Ordnungsrecht) zu akzeptieren, um uns in Richtung Klimaneutralität zu bewegen. Hier ein Beispiel: Was sollen wir tun, wenn Immobilienbesitzer ihre Häuser nicht zu Nullemissionsgebäuden machen wollen; wenn sie nicht die finanziellen Mittel dazu haben; wenn dies aus technischen Gründen nicht möglich ist oder wenn sich die damit verbundenen Investitionen nicht rechnen?

Verlust der Wettbewerbsfähigkeit oder Einschränkungen des freien Handels

Wenn sich die EU deutlich schneller in Richtung Klimaneutralität bewegt als der Rest der Welt, werden auch die Kohlenstoffpreise in der EU schneller steigen. Dies wird die Wettbewerbsfähigkeit energieintensiver Unternehmen in der EU verringern. Sind wir bereit, diesen Preis zu zahlen? Wahrscheinlich nicht – denken Sie daran, niemand soll zurückgelassen werden. Werden wir also diese Unternehmen subventionieren, damit sie teure, aber klimafreundliche Technologie einsetzen können? Diese Option wird auf lange Sicht aufgrund von Budgetbeschränkungen nur schwer umsetzbar sein. Eine ehrliche Diskussion wird sich mit der Wahrheit auseinandersetzen müssen, dass jeder Euro, der für den Klimaschutz ausgegeben wird, nicht mehr für Ausgaben für Bildung, Forschung, öffentliche Gesundheit, digitale Infrastruktur, innere und äußere Sicherheit, Steuersenkungen oder höhere Renten zur Verfügung steht. Um das Wettbewerbsproblem zu lösen, plant die EU-Kommission die Einführung eines CO2-Grenzausgleichs. Glauben wir wirklich, dass dies die betroffenen Länder nicht zu Gegenmaßnahmen veranlassen wird? Sind wir wirklich bereit, die Vorteile des Freihandels zu Gunsten des Klimaschutzes aufzugeben?

Massiver politischer Widerstand wird sich erheben

Niemand soll auf dem Weg zur Klimaneutralität zurückgelassen werden. Diese Aussage des Green Deals läuft wohl auf den Versuch der Quadratur des Kreises hinaus. Eine große Kehrtwende in der Klimapolitik wird mit Sicherheit Verlierer unter den Haushalten und Unternehmen produzieren. Darüber hinaus dürften Wohlstand und Beschäftigung erheblich leiden. Wäre dies nicht der Fall, wäre Klimaschutz ein leichtes Unterfangen. Diese Entwicklungen werden natürlich auch Auswirkungen auf die politische Landschaft haben, sowohl auf nationaler als auch auf EU-Ebene.

Einige Parteien werden Argumente gegen eine strikte Klimaschutzpolitik finden, wenn diese zu einem deutlichen Anstieg der Energiepreise oder zu Einschränkungen der persönlichen Freiheit oder der Eigentumsrechte führt. Und machen wir uns nichts vor: Diese Parteien werden Wählerunterstützung finden. Auf EU-Ebene wird es große Verteilungskonflikte geben, die zu einer (weiteren) Spaltung des Blocks beitragen können. Sind wir bereit, mit dieser Polarisierung umzugehen? Oder werden wir unsere klimapolitischen Ambitionen anpassen, wenn wir feststellen, dass eine (zu) ehrgeizige Klimapolitik von einer Mehrheit der Menschen nicht akzeptiert wird?

Die vollständige Analyse steht hier.

Link: https://www.thegwpf.com/deutsche-bank-eu-green-deal-can-only-succeed-with-a-certain-degree-of-eco-dictatorship/

Übersetzt von Chris Frey EIKE

—————————

Kommentar des Übersetzers hierzu: Der Autor dieser Studie ist Ökonom und weiß daher nicht viel mehr über die Klima-Problematik als andere Laien. Seine Gedanken zur Wirtschaft sind allerdings sehr fundiert. Wenn man sich jetzt noch vor Augen führt, dass dieses ganze Klima-„Problem“ gar nicht existent ist, dann wird der vom Autor beschriebene Wahnsinn noch potenziert. Die Frage ist, ob man Derartiges an relevanter politischer Stelle liest oder nicht, und wenn ja, ob man daraus Konsequenzen zieht. Der Übersetzer fürchtet: Nein! – C. F.




Tausendfacher Vogeltod durch Herbstkälte – Medien machen globale Erwärmung dafür verantwortlich

Im Frühherbst meldeten Menschen in Nebraska, Colorado, Texas, New Mexico und Arizona fast 10.000 Vögel – eine ungewöhnlich hohe Zahl – an die Datenbank der entsprechenden Behörde für Wildtier-Sterblichkeit. Wissenschaftler fanden heraus, dass es sich bei den meisten um Zugvögel handelte, die verhungert waren. Normalerweise ziehen die Vögel später im Jahr nach Süden, aber das frühe kalte Wetter im oberen Mittleren Westen [der USA, südlich und westlich der Großen Seen, Anm. d. Übers.] sowie in Kanada und Alaska veranlasste die Vögel, vor ihrer normalen Wanderung zu ziehen und bevor sie genügend Gewicht und Kraft für die Wanderung aufgebaut hatten.

„Es ist wirklich schwer, direkte Kausalität zuzuschreiben, aber angesichts der engen Korrelation des Wetterereignisses mit dem Tod dieser Vögel denken wir, dass entweder das Wetterereignis diese Vögel gezwungen hat loszufliegen, bevor sie bereit waren. Vielleicht hat dies auch ihren Zugang zu Nahrungsquellen während ihrer Migration beeinflusst,“ sagte Jonathan Sleeman, Direktor des USGS National Wildlife Health Center in Madison, Wisconsin, dem britischen Guardian.

Klimaaktivisten und ihre Verbündeten in den Medien hatten jedoch nichts Eiligeres zu tun als die globale Erwärmung für den kalten Frühherbst verantwortlich zu machen, der zu dem Vogelsterben führte.

„Das ungewöhnlich kalte Wetter in den nördlichen [US-]Staaten zu Beginn des Jahres verschlimmerte das Sterben ebenfalls und verursachte frühere Vogelwanderungen als üblich“, berichtete der NBC-Fernsehsender KPNX in Phoenix.

„Zwei Experten der Arizona State University sehen den Bericht als eine weitere Tragödie in den vielfältigen Problemen des Klimawandels, mit denen der Staat konfrontiert ist“, fügte KPNX hinzu.

Laut dem britischen Guardian wurde das Vogelsterben „durch untypisch kaltes Wetter verschlimmert, das wahrscheinlich mit der Klimakrise zusammenhängt, so die Wissenschaftler.“

Google News bewirbt den Guardian-Artikel unter seinen Top-Suchergebnissen heute unter „Klimawandel“.

Klimaaktivisten haben in der Vergangenheit versucht, sehr kalte Winter auf die globale Erwärmung zu schieben, aber kalte Herbste hatten sie bisher nicht auf dem Schirm ihrer globalen Erwärmung. In der Tat haben Klimaaktivisten zuvor genau das Gegenteil behauptet. Zum Beispiel veröffentlichte Yale Climate Communications im November 2019 einen Artikel mit dem Titel „How is climate change affecting autumn? Da die Temperaturen steigen, verzögert sich die Herbstsaison.“ Als weiteres Beispiel veröffentlichte Climate Communications einen Artikel mit dem Titel: „Autumn Falling Back.“ [Etwa: Herbst kommt immer später]. Das Thema dieser und vieler anderer Artikel ist, dass die globale Erwärmung das Einsetzen des kalten Herbstwetters verzögert, nicht beschleunigt.

Nein, Google News, die globale Erwärmung verursacht nicht den frühen Beginn des kalten Herbstes, auch wenn die niedrigen Temperaturen ein politisch nützliches Vogelsterben verursachen.

Autor: James Taylor is the President of the Heartland Institute. Taylor is also director of Heartland’s Arthur B. Robinson Center for Climate and Environmental Policy. Taylor is the former managing editor (2001-2014) of Environment & Climate News, a national monthly publication devoted to sound science and free-market environmentalism

Link: http://climaterealism.com/2021/01/cold-autumn-kills-thousands-of-birds-media-blame-global-warming/

Übersetzt von Chris Frey EIKE

 




China umarmt Kohle viel mehr als Wind

China nutzt Windkraft ein wenig, aber sie sind klug genug, sich davon nicht beirren zu lassen (im Gegensatz zu uns). Die erneuerbaren Energien treiben unsere Stromkosten in die Höhe, während China klugerweise im billigen Saft schwelgt.

Zur Veranschaulichung: Vor nicht allzu langer Zeit verbrannten die USA etwa eine Milliarde Tonnen Kohle pro Jahr, um Strom zu erzeugen. Wir erzeugten etwa 2.000 Terawattstunden (TWh) Strom aus Kohle, etwa die Hälfte unserer gesamten 4.000 TWh. Der törichte Krieg gegen die Kohle hat diese Menge auf etwa 600 Millionen Tonnen reduziert, wobei weitere Reduktionen geplant sind.

Durch einen seltsamen Zufall hörte genau zu der Zeit, als der Kohleverbrauch vor etwa 12 Jahren von Wachstum auf Schrumpfung umschaltete, auch Amerikas Stromverbrauch auf zuzunehmen. Seitdem ist er bei etwa 4.000 TWh geblieben. Vielleicht wurden neue energieintensive industrielle Entwicklungen alle von Amerika nach China verlagert, in Erwartung der folgenden US-Strompreiserhöhungen.

China hingegen erzeugt jetzt satte 7.500 TWh Strom, also knapp das Doppelte von Amerika. Richtig gelesen: sie produzieren fast doppelt so viel Strom wie wir.

Noch schlimmer ist, dass weniger als 25 % unseres Stroms für industrielle Zwecke verwendet wird, während in China angeblich 70 % des Stroms industriellen Zwecken dient. Das sind etwa 1.000 TWh in Amerika gegenüber 5.000 in China, also fünfmal so viel industrielle Nutzung von Strom. Kein Wunder, dass China die meisten der Produkte herstellt, die wir verwenden (und für die wir bezahlen).

Darüber hinaus wird der Großteil des Stromes in China mittels Kohle erzeugt. Von ihren 7.500 TWh werden etwa 5.000 TWh, also ganze zwei Drittel, mit billiger Kohle betrieben. Zufälligerweise entspricht das ihrem gesamten industriellen Verbrauch. Oder vielleicht ist es kein Zufall, sondern der Grund, warum sie in der Weltwirtschaft so wettbewerbsfähig bleiben.

Auf jeden Fall erzeugt China mehr Strom mit Kohle als Amerika aus allen Quellen zusammen. Das ist eine riesige Menge. Chinas boomende Wirtschaft läuft im Wesentlichen mit Kohle.

Wenn es um Windenergie geht, ist die Geschichte ganz anders. China verfügt über einen gewissen Anteil, nämlich etwa 400 TWH aus Windkraft, das sind etwa 5 % der Gesamterzeugung. Das ist zwar nur eine symbolische Menge, aber sie nimmt zu, wie alle anderen Formen der Stromerzeugung auch.

Am interessantesten ist aber der angegebene „Kapazitätsfaktor“ für Windenergie. Der Kapazitätsfaktor (CF) ist das Verhältnis zwischen der in einem Jahr produzierten Strommenge und der Menge, die produziert werden könnte, wenn die Generatoren die ganze Zeit mit voller Leistung laufen würden. Letzteres wird als Nennleistung bezeichnet, so dass der CF gleich der produzierten Leistung geteilt durch die Nennleistung ist, ausgedrückt in Prozent.

Da Wind intermittierend ist, ist sein CF ziemlich niedrig, typischerweise 30 bis 35% in den USA. Aber China berichtet eine Wind-CF von weniger als 20%! Der Grund dafür ist ein wichtiger Baustein des wirtschaftlichen Erfolgs Chinas. Im Gegensatz zu uns drosseln sie nicht die Kohleverstromung, nur um Platz für Windkraft zu schaffen, wenn der Wind gerade weht.

China nutzt also die Windenergie, wenn sie sie brauchen, aber sonst nicht. Wir hingegen drosseln unsere mit Kohle und Gas befeuerten Kraftwerke, wenn Windstrom da ist, was wirklich dumm ist.

China erzeugt fast doppelt so viel Strom wie Amerika, und zwei Drittel dieses Stroms kommen aus Kohle. Wind ist mit 5 % ein Alibi-Generator und darf der Kohlekraft nicht in die Quere kommen.

Jeder, der glaubt, dass China die Kohle durch Wind ersetzen wird, ist einfach nur ein grüner Träumer. Kohle ist zentral für Chinas Macht.

[Hervorhebung vom Übersetzer]

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting

Übersetzt von Chris Frey EIKE




Die arktische Eisausdehnung zum Jahresende 2020

Das obige Diagramm zeigt den verfügbaren Datensatz des Meereisindex (Sea Ice Index SII) seit 1989, zusammen mit dem vergleichbaren Datensatz von MASIE 2006 bis heute. Es zeigt, dass 2020 um 150k km2 (1 %) niedriger ist als 2019 und 300k km2 über dem Tiefstwert von 2017 liegt. Tatsächlich ist 2020 fast der Durchschnitt für das letzte Jahrzehnt.

Wie bereits in einem früheren Beitrag erwähnt, wurden im Oktober Befürchtungen geäußert, dass die Arktis langsamer als im Durchschnitt wieder zufriert. Diese Befürchtungen wurden erstens durch den Anstieg der Eisausdehnung im November und zweitens durch das schnelle Gefrieren der Arktis im Dezember ausgeräumt. Im November wurden 3,5 Wadhams Meereis im Laufe des Monats hinzugefügt.  (Die Metrik 1 Wadham = 1 Million km² stammt von den Vorhersagen des Professors über eine eisfreie Arktis, was weniger als 1 Million km² Ausdehnung bedeutet). Im Dezember kamen weitere 2,7 Wadhams hinzu. Die letzten beiden Monate haben das Defizit im Oktober mehr als ausgeglichen.

Hintergrund aus früherem Beitrag aktualisiert zum Jahresende

Als ich vor einigen Jahren einen Beitrag über die globale Erwärmung bei WUWT las, fiel mir der Kommentar einer Person auf: „Ich bin Versicherungsmathematiker mit begrenztem Wissen über Klimametriken, aber es scheint mir, wenn man Temperaturänderungen verstehen will, sollte man die Änderungen analysieren, nicht die Temperaturen“. Das ließ bei mir die Alarmglocken läuten, und ich wandte diese Einsicht in einer Reihe von Temperatur-Trend-Analysen von Temperaturaufzeichnungen von Oberflächenstationen an. Diese Beiträge sind unter dieser Überschrift verfügbar: Climate Compilation Part I Temperatures.

In diesem Beitrag wird versucht, die Schwankungen des arktischen Meereises mit einem ähnlichen Ansatz zu verstehen: Der Schwerpunkt liegt auf den Raten der Ausdehnungsänderungen und nicht wie üblich auf der Untersuchung der Eisausdehnung selbst. Glücklicherweise bietet der Sea Ice Index (SII) der NOAA einen geeigneten Datensatz für dieses Projekt. Wie viele wissen, stützt sich der SII auf passive Mikrowellensensoren von Satelliten, um Karten der arktischen Eisausdehnung zu erstellen, die bis ins Jahr 1979 zurückreichen. Die aktuelle Version 3 hat sich stärker an MASIE, der modernen Form der Marine-Eiskartenerstellung zur Unterstützung der arktischen Navigation, angelehnt. Wie man die SII-Daten lesen muss, steht hier.

Es sind statistische Analysen verfügbar, und diejenige, die von Interesse ist (Tabelle unten), heißt Sea Ice Index Rates of Change (hier). Wie der Titel schon andeutet, besteht diese Tabelle nicht aus monatlichen Ausdehnungen, sondern aus Änderungen der Ausdehnungen gegenüber dem Vormonat. Konkret wird ein Monatswert berechnet, indem der Durchschnitt der letzten fünf Tage des Vormonats vom Durchschnitt der letzten fünf Tage dieses Monats subtrahiert wird. Der Wert stellt also die Menge an Eis dar, die während des aktuellen Monats zu- oder abgenommen hat.

Diese monatlichen Änderungsraten wurden zu einer Basislinie für den Zeitraum 1980 bis 2010 zusammengestellt, die die Schwankungen der arktischen Eisausdehnung im Laufe eines Kalenderjahres zeigt. Unten ist ein Diagramm dieser durchschnittlichen monatlichen Veränderungen während des Basiszeitraums zu sehen. Diejenigen, die mit Studien zum arktischen Eis vertraut sind, werden von der Wellenform des Vorzeichens nicht überrascht sein. Ende Dezember ist ein relativ neutraler Punkt im Zyklus auf halbem Weg zwischen dem Minimum im September und dem Maximum im März.

Die Grafik verdeutlicht die sechs Frühjahrs-/Sommermonate mit Schmelzen und die sechs Herbst-/Wintermonate mit Gefrieren. Man beachte, dass Juni-August den Großteil der Verluste produzieren, während Oktober-Dezember den Großteil des Zuwachses zeigen. Auch die Maximum- bzw. Minimum-Monate März und September zeigen von Anfang bis Ende nur sehr geringe Änderungen in der Ausdehnung.

Die Tabelle der monatlichen Daten zeigt die Variabilität der Eisausdehnung während der letzten 4 Jahrzehnte:

Die Werte im Januar zeigen die Veränderungen gegenüber dem Ende des vorangegangenen Dezembers, und durch Summierung von zwölf aufeinanderfolgenden Monaten können wir eine jährliche Veränderungsrate für die Jahre 1979 bis 2019 berechnen:

Wie viele wissen, hat die Eisausdehnung in der Arktis in diesen 40 Jahren abgenommen, im Durchschnitt um 40.000 km² pro Jahr. Aber Jahr für Jahr wechseln die Veränderungen ständig zwischen Schrumpfen und Wachsen.

Außerdem scheint es Zufall zu sein, welche Monate für ein bestimmtes Jahr ausschlaggebend sind. Zum Beispiel wurde viel Aufhebens darüber gemacht, dass die Eisausdehnung im Oktober 2020 langsamer als erwartet zunahm. Wie es in diesem Datensatz der Fall ist, weist der Oktober die höchste Rate der Eiszunahme auf. Die folgende Tabelle zeigt die verschiedenen monatlichen Raten in der Aufzeichnung als Anomalien gegenüber der Basislinie 1980-2010. In dieser Darstellung ist eine rote Zelle eine negative Anomalie (weniger als die Basislinie für diesen Monat) und blau ist positiv (höher als die Basislinie).

Man beachte, dass die +/- Kursanomalien sind über das gesamte Netz verteilt sind, Sequenzen verschiedener Monate in verschiedenen Jahren, wobei sich Gewinne und Verluste gegenseitig ausgleichen. Ja, der Oktober 2020 verzeichnete einen unterdurchschnittlichen Zuwachs, aber einen höheren als 2016. Der Verlust im Juli 2020 war der größte in diesem Jahr wegen des heißen sibirischen Sommers. Außerdem beachte man, dass die Anomalie des Eiszuwachses im November 2020 die Anomalie des Defizits im Oktober um mehr als das Doppelte überstieg. Der Dezember fügte mehr Überschuss hinzu, so dass die Anomalie für das Jahr Null war. Die untere Zeile zeigt die durchschnittlichen Anomalien für jeden Monat über den Zeitraum 1979-2020. Die Raten der Gewinne und Verluste gleichen sich größtenteils aus, und der Durchschnitt aller Monate in der unteren rechten Zelle ist praktisch Null.

Eine letzte Betrachtung: Die Grafik unten zeigt die Jahresend-Eisausdehnung der Arktis für die letzten 30 Jahre.

Hinweis: Die tägliche SII-Eisausdehnungsdatei liefert keine vollständigen Werte vor 1988.

Die Eisausdehnung am Jahresende in der Arktis (die letzten 5 Tage im Dezember) zeigt drei verschiedene Regimes: 1989-1998, 1998-2010, 2010-2019. Die durchschnittliche Ausdehnung am Jahresende 1989-2010 betrug 13,4 Mio. km². In der letzten Dekade lag sie bei 13,0 Mio. k², und zehn Jahre später, 2019, bei 12,8 Mio. km². Bei all den Schwankungen betrug der Nettoverlust also 200k km² oder 1,5%. Das Gerede von einer Todesspirale des arktischen Eises ist Phantasterei.

Diese Daten zeigen ein höchst variables Naturphänomen. Es ist klar, dass unvorhersehbare Faktoren im Spiel sind, vor allem die Wasserstruktur und -zirkulation, atmosphärische Zirkulationen und auch Umwälzungen und Stürme. Und längerfristig gesehen sind die heutigen Ausmaße nicht ungewöhnlich.

Link: https://rclutz.wordpress.com/2021/01/04/arctic-ice-year-end-2020/?mc_cid=3231bff1ad&mc_eid=08ba9a1dfb

Übersetzt von Chris Frey EIKE

 




Wie genau sind unsere Messungen bzgl. Wetter und Klima?

Heute dagegen brauchen wir beispielsweise auf einem Flug von New York nach Los Angeles detailliertere und zuverlässigere Wetterinformationen, wie z. B. ob es bei der Zwischenlandung in St. Louis schneit. Oder der Landwirt in Nebraska, der die Vorhersage für die Frühjahrsweizenproduktion in der Ukraine sehen muss. Er braucht die bestmöglichen Informationen, um besser abschätzen zu können, wie viele Hektar Winterweizen er für die heutigen globalen Märkte anbauen sollte.

Wir brauchen vor allem bessere und zuverlässigere Informationen, um zu entscheiden, welche Maßnahmen wir zur Vorbereitung auf Klimaveränderungen in Betracht ziehen sollten.

Während Wissenschaftler, Ingenieure und Software-Programmierer die Bedeutung und die Notwendigkeit dieser Datengenauigkeit kennen, ist sich die breite Öffentlichkeit nicht bewusst, wie herausfordernd diese Aufgaben sein können.

Wenn wir langfristige Klimadaten betrachten, müssen wir unter Umständen mehrere Proxies (indirekte Messgrößen, von denen wir hoffen, dass sie direkt mit dem Wetter variieren) verwenden, die eine zusätzliche Ebene von Komplexität, Kosten und Fehlerquellen hinzufügen. Einer der am häufigsten verwendeten Proxies sind die alten Temperatur- und CO2-Werte aus Eiskernproben. In den letzten paar hundert Jahren waren auch Baumringdaten eine primäre Quelle für die Jahrestemperaturen. Aber seit dem letzten halben Jahrhundert werden direkte atmosphärische Messwerte verwendet, die sehr genau und zuverlässig sind.

Aus Abbildung 1 geht hervor, dass der CO2-Gehalt ab Mitte der 1950er Jahre dramatisch anstieg. Wir haben aufgehört, Proxies zur Messung des atmosphärischen CO2-Gehalts zu verwenden, und haben begonnen, direkte Messwerte von der Mauna Loa Wetterstation auf Hawaii zu verwenden. Wir müssen uns also fragen, ob dieser dramatische Anstieg des CO2-Gehalts real war, oder ob er durch die Änderung des Messverfahrens teilweise verzerrt wurde. Oder wir haben in den frühen 1960er Jahren aufgehört, Baumringdaten zu verwenden. In der Zeit, als wir sowohl Baumring- als auch Thermometer-Aufzeichnungen hatten, wurden gewisse Diskrepanzen festgestellt. Wir können solche Änderungen in den Messungen nicht vornehmen, ohne Raum für Zweifel zu lassen.

Abbildung 1 zeigt zum Beispiel den CO2-Gehalt der Jahrtausende alten antarktischen Eisschilde. Vor Mitte der 1950er Jahre wurden die CO2-Schätzungen auf der Grundlage des CO2-Gasgehalts der Eisbohrkerne berechnet. Die auf diese Weise gemessenen CO2-Gehalte schienen über einen Zeitraum von mehreren zehntausend Jahren nie viel über 280 ppm zu steigen.

Man beachte nun, dass wir, beginnend vor etwa 6.000 Jahren, einen kleinen, aber stetigen Anstieg sehen, wenn wir von links nach rechts schauen. Und der Anstieg scheint bis Mitte der 1990er Jahre einigermaßen konstant zu sein. Hier ist die klassische Annahme, dass sowohl das CO2 als auch die Temperaturen gestiegen sind.

Kürzlich haben sich Wissenschaftler die abwärts gehende Neigung angesehen, wenn wir in den 1950er Jahren stehen und von rechts nach links schauen. Dabei stellt sich die Frage, ob das CO2 durch das enorme Gewicht der Gletscher herausgedrückt wird, während sie altern, und vielleicht auch in Kombination mit CO2, das chemisch gebunden wird, und in welchen Anteilen. Ab Mitte der 1950er Jahre sehen wir einen sehr deutlichen und schnellen Anstieg der CO2-Werte, und wir sehen die inzwischen bekannten CO2-Hockeyschläger. Ist das CO2 so schnell angestiegen, oder war es Teil der Anomalie, die durch die Änderung der Messmethoden verursacht wurde? Wir denken Letzteres.

Woher soll der Durchschnittsbürger das wissen? Wurde diese dramatische Veränderung jemals genau und verständlich erklärt? Wir wollen das erst einmal allgemeiner als „Datenintegrität“ bezeichnen.

Hier ist ein weiteres einfaches Beispiel. Wenn wir die Temperatur in der Gegend von Boston vor 200 Jahren messen wollten, hätten wir vielleicht zwanzig Thermometer an zwanzig verschiedene Orte gebracht. Wir hätten einige allgemeine Entscheidungen getroffen, einige entlang der Küste und den Rest an verschiedenen Stellen in der Stadt und auf dem Land zu platzieren – vor allem auf Bauernhöfen. Wir hätten vielleicht nur ein oder zwei in den Bergen oder Wäldern aufgestellt, weil diese Stationen bemannt sein und die Daten mehrmals am Tag aufgezeichnet werden mussten. Dann, vielleicht ein- oder zweimal pro Tag oder Woche oder Monat, könnten sie konsolidiert worden sein, um eine durchschnittliche „Boston-Temperatur“ für Oktober 1820 zu erhalten. Wie würde es aussehen, wenn die Boston-Temperatur im Oktober 1920 bzw. 2020 verglichen werden, um zu sehen, ob sie gestiegen ist oder nicht? Nun, das stellt eine ziemliche Herausforderung dar:

In den letzten hundert Jahren könnten einige Bäume um das Thermometer herum gewachsen sein, während die Thermometer im Jahr 1920 vielleicht den ganzen Tag in der vollen Sonne standen. Was nun?

● Einige Instrumente wurden aus irgendeinem Grund verschoben, z. B. wegen einer großen Autobahnbaustelle; wie hat sich das auf die Temperaturmesswerte ausgewirkt?

● Einige Instrumente könnten nach und nach für Monate oder sogar Jahre nicht mehr kalibriert worden sein, bevor sie repariert oder ersetzt wurden. Was machen wir mit den verdächtigen Daten während des fraglichen Zeitraums? Ignorieren?

● Wenn die Instrumente ersetzt wurden, wie wurden sie ersetzt? Einige Variablen sind die gleiche Höhe über dem Boden, der gleiche Schutzkasten, Quecksilber ersetzt durch Alkoholthermometer oder Thermoelemente, usw.

● Eine Wetterstation befand sich in der Nähe einer unbefestigten Straße, bis sie 1926 mit Zement und 1963 mit Asphalt bedeckt wurde? Später wurde sie wieder zu einem Feldweg umgestaltet, als das Gebiet 2004 zu einem Naturpark wurde?

● Wie würden wir diese Temperaturen[iii] mit den Temperaturen bis zum Jahr 2020 vergleichen, kontrastieren und integrieren? Sehr unterschiedlich und sehr herausfordernd:

1) Instrumente, die einst auf einer Weide standen, befinden sich jetzt in der Nähe von Flughafenlandebahnen und Düsenabgasen!

2) Ein anderes war in der Nähe einer schattigen, sandigen Straße, die jetzt ein asphaltierter Parkplatz ist.

3) Thermoelemente haben viele Thermometer ersetzt; wie wurden die Messwerte „zusammengestoppelt“?

4) Andere Wetterstationen wurden einfach wegen der hohen Kosten für ihre Wartung aufgegeben oder durch ein ferngesteuertes Thermoelement oder Telemetrie ersetzt.

5) Wie kann man[i] die Auswirkungen der Umweltverschmutzung der 1960er bis 1990er Jahre mit dem unberührten Himmel der 1800er Jahre in Einklang bringen, wenn Wolken eine so wichtige Rolle spielen?

6) Und die Wolkendecke von 1820 war wahrscheinlich ganz anders als heute, als Folge der zunehmenden Menge an „Aerosolen“, die eine wichtige Rolle bei der Wolkenbildung, dem „Treibhaus“- und dem „Albedo“-Effekt spielen.

In den letzten Jahrzehnten, und vor allem seit der Satelliten-Ära, wurden Hunderte von erdgebundenen Wetterstationen aus verschiedenen Gründen aufgegeben, unter anderem aus Kostengründen und wegen der Zuverlässigkeit der Daten. In den letzten Jahrzehnten haben die NASA und die NOAA versucht, aktuelle und historische Wetteraufzeichnungen an Land und auf dem Meer zu „normalisieren“. Abbildung 2 zeigt zwei Sätze von genau denselben Daten! Die blaue Linie repräsentiert die tatsächlichen landbasierten Temperaturen von 1.218 Stationen in den USA, als die Messwerte aufgenommen wurden. Man vergleiche das mit der roten Linie, die genau die gleichen Temperaturaufzeichnungen darstellt, aber nachdem sie von der NOAA „normalisiert“ wurden*.

*In einem Beitrag bei Real Climate Science wird schon Ende 2016 festgestellt: „Das Problem mit der NOAA-Graphik besteht darin, dass es Fake-Daten sind. Die NOAA erzeugt den Erwärmungstrend künstlich mittels Veränderung der Daten. Die RohDaten der NOAA zeigen im vergangenen Jahrhundert keinerlei Erwärmung“.

„Normalisierung“ hat eine praktische Grundlage. Es ist ein bisschen so, als würde man die Menge des Obstes berechnen, wenn man Äpfel zu Orangen addiert. Allerdings ist der Prozess anfällig für fehlerhafte Annahmen und Ausführung. Der prominente Umweltwissenschaftler Donald Easterbrook behauptet, dass die bisherigen historischen Aufzeichnungen absichtlich manipuliert wurden, wie in Abb. 2 dargestellt. Es wurde der Vorwurf erhoben, dass diese Temperaturen verzerrt wurden, um in das aktuelle Narrativ des CO2-induzierten globalen Klimawandels zu passen. Die historischen Daten der blauen Linie wurden in den letzten Jahrzehnten mindestens viermal verändert, und nun in ihrer endgültigen Form zeigt die rote Linie einen dramatischeren, steileren Temperaturanstieg seit den 1980er Jahren, indem die Temperaturen in den vorangegangenen Jahrzehnten gesenkt wurden! Wenn wir heute aufgefordert werden, Multi-Billionen-Dollar-Entscheidungen zu treffen, die auf unserer Temperaturhistorie des letzten Jahrhunderts basieren, sind sie schwerwiegend und folgenreich geworden.

For more information we recommend our book A Hitchhikers Journey Through Climate Change, coming soon to the CFACT store at CFACT.org.

[i] http://www.clker.com/clipart-thermometer-in-beaker.html

Autoren: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Terigi Ciccone is an Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

Link: https://www.cfact.org/2021/01/05/how-accurate-are-our-weather-and-climate-measurements/

Übersetzt von Chris Frey EIKE