Weitere Bestätigung für die Unmöglichkeit eines vollständigen Wind-/Solar-/Speichersystems für Strom

Francis Menton, MANHATTAN CONTRARIAN

Viele Beiträge in diesem Blog haben sich in letzter Zeit mit dem Thema der Undurchführbarkeit eines vollständigen Wind-/Solar-/Speichersystems befasst. Heute werde ich mich mit einer weiteren Studie zu diesem Thema befassen, die von den deutschen Autoren Oliver Ruhnau und Staffan Qvist stammt und den Titel trägt [übersetzt]: „Speicheranforderungen in einem Stromsystem, das zu 100 % aus erneuerbaren Energien besteht: Extremereignisse und inter-annuelle Variabilität“*. Die Studie von Ruhnau/Qvist hat kein anderes Datum als „2021“, obwohl sie gegen Ende dieses Jahres erschienen zu sein scheint.

[*Es ist nicht bekannt, ob diese Studie von deutschen Autoren lediglich eine Übersetzung ins Englische ist oder original auf Englisch verfasst worden ist. Daher sind sämtliche Zitate daraus Rückübersetzungen. A. d. Übers.]

Obwohl Ruhnau und Qvist es nicht ausdrücklich sagen, ist meine Schlussfolgerung aus ihrem Papier, dass es ein weiterer Beweis für die völlige Undurchführbarkeit – ja die völlige Absurdität – des Versuchs ist, kurzfristig die gesamte Stromerzeugung aus fossilen Brennstoffen in einer modernen Wirtschaft nur durch Wind, Sonne und Speicherung zu ersetzen.

Der Hintergrund dieses Themas ist eine große Anzahl von grünen Aktivisten bis hin zum derzeitigen Präsidenten der Vereinigten Staaten regelmäßig Erklärungen abgibt, die ihren Glauben verdeutlichen, dass fossile Brennstoffe aus der modernen Wirtschaft eliminiert werden können, indem einfach eine ausreichende Kapazität an Wind- und Solarstromerzeugung aufgebaut wird. In solchen Erklärungen wird die Notwendigkeit der Energiespeicherung oder die Durchführbarkeit oder die Kosten derselben nur selten berücksichtigt oder erwähnt. Und doch führt jede ernsthafte Betrachtung der Schwankungen von Wind- und Solarenergie unweigerlich zu der Schlussfolgerung, dass ohne abschaltbare Reservekapazitäten (aus fossilen oder nuklearen Brennstoffen) riesige Mengen an Energiespeichern erforderlich sind, um die Zeiten der Schwankungen abzudecken. Das Verständnis der erforderlichen Speichermenge, ihrer physikalischen Eigenschaften und ihrer Kosten ist für die Beantwortung der Frage, ob ein vollständiges Wind-/Solar-/Speichersystem realisierbar ist, von entscheidender Bedeutung.

Und doch marschieren unsere Regierungen derzeit mit religiösem Eifer mit Plänen für eine „Netto-Null“-Elektrizitätserzeugung voran, die fast ausschließlich auf Wind und Sonne basiert, ohne ernsthafte Überlegungen zur erforderlichen Speichermenge oder zu den Kosten oder der Machbarkeit des Projekts anzustellen. Es wurde auch noch nie ein praktikabler Prototyp eines Systems demonstriert, mit dem selbst in einer Kleinstadt oder auf einer Insel allein mit Wind, Sonne und Speichern Netto-Null-Emissionen erreicht werden könnten.

In früheren Beiträgen auf Manhattan Contrarian zu diesem Thema wurden detaillierte Arbeiten von Roger Andrews und Ken Gregory besprochen. In diesem Beitrag vom November 2018 habe ich die Arbeit von Andrews überprüft, die sich mit den tatsächlichen Wind- und Solarerzeugungsdaten aus Kalifornien und Deutschland befasst. Andrews kam zu dem Schluss, dass aufgrund der saisonalen Muster der Wind- und Solarstromerzeugung sowohl in Kalifornien als auch in Deutschland eine Energiespeicherung für etwa 30 volle Tage erforderlich wäre, um ein System mit vollständiger Wind-/Solarstromerzeugung zu stützen. Auf der Grundlage der derzeitigen Kosten für Lithium-Ionen-Batterien berechnete Andrews, dass der Aufbau einer ausreichenden Wind- und Solarstromerzeugung plus ausreichender Batterien zu einer Vervielfachung der Stromkosten um einen Faktor zwischen 14 und 22 führen würde. In diesem Beitrag [in deutscher Übersetzung beim EIKE hier] vom Januar 2022 habe ich eine Arbeit von Gregory besprochen, die sich mit der tatsächlichen Wind-/Solarenergieerzeugung für die gesamten Vereinigten Staaten befasst. Gregory untersuchte, wie viel Stromspeicher als einziges Back-up ausreichen würden, wenn die USA alle derzeit nicht elektrifizierten Sektoren (z. B. Verkehr, Hausbrand, Industrie, Landwirtschaft) vollständig elektrifiziert hätten, wodurch sich die Stromnachfrage gegenüber dem derzeitigen Stand im Wesentlichen verdreifacht hätte. Er kam zu dem Schluss, dass allein die Batterien etwa 400 Billionen Dollar kosten würden – etwa das 20-fache des gesamten BIP der Vereinigten Staaten.

Wenn Andrews oder Gregory auch nur annähernd Recht haben, ist die Umstellung einer modernen Wirtschaft auf Windkraft, Solarenergie und Speicherung nicht im Entferntesten machbar.

In diese Mischung mischen sich nun Ruhnau und Qvist ein. Der Schwerpunkt der R&Q-Studie liegt wiederum auf der Menge an Speicheranlagen, die zur Unterstützung eines Systems mit vollständiger Wind-/Solarstromerzeugung erforderlich sind, sobald fossile Brennstoffe als Backup-Option wegfallen. Die R&Q-Studie befasst sich nur mit dem Fall Deutschland und nur mit der Deckung des derzeitigen Strombedarfs und nicht mit dem Bedarf, der sich durch die Elektrifizierung des Verkehrs, der Heizung usw. verdreifachen könnte.

Unterm Strich stimmt das Ergebnis der R&Q-Studie ungefähr mit den Ergebnissen von Andrews und Gregory überein. Während Andrews und Gregory errechnet hatten, dass etwa 30 Tage Speicher benötigt werden, um ein vollständiges Wind-/Solarsystem zu stützen, kommen R&Q auf 24 Tage. Um jedoch auf das Ergebnis von 24 Tagen zu kommen, müssen R&Q das Wind-/Solarsystem massiv überbauen, bis zu dem Punkt, an dem die „Nennkapazität“ etwa das Dreifache des deutschen Spitzenstrombedarfs und das Fünffache des durchschnittlichen Bedarfs beträgt. Das Ergebnis ist ein System, in dem riesige Mengen überschüssigen Stroms an sonnigen/windigen Tagen weggeworfen oder „gedrosselt“ werden müssen. R&Q sagen jedoch, dass ihr Modell auf Kostenminimierung basiert, da der Aufbau riesiger Überkapazitäten und der Abwurf von Strom pro Terawattstunde tatsächlich billiger ist als der Einbau zusätzlicher Speicher.

Ausgangspunkt der R&Q-Studie ist eine Kritik an früheren Autoren, die einen relativ geringen Speicherbedarf errechnet hatten, indem sie nur den schlimmsten Fall einer mehrtägigen Wind-/Solar-„Dürre“ mit windstillen und bewölkten Tagen betrachteten. Einige der von R&Q zitierten Studien haben einen Speicherbedarf im Bereich von 4 bis 8 Tagen ermittelt, der angeblich ausreicht, um ein Wind-/Solarsystem vollständig zu stützen. (Selbst bei einem solchen Speicherbedarf wären die Kosten wahrscheinlich nicht tragbar.). R&Q verwenden jedoch verfügbare stündliche Daten zur Wind- und Solarenergieerzeugung über ganze Jahre hinweg für Deutschland, um zu zeigen, dass viel längere Perioden relativer Windstille und Dunkelheit auftreten können, wodurch der zur Vermeidung von Stromausfällen erforderliche Speicherbedarf viel höher ist.

Während unsere Zeitreihenanalyse frühere Erkenntnisse bestätigt, dass Perioden mit anhaltender Angebotsknappheit nicht länger als zwei Wochen dauern, stellen wir fest, dass das maximale Energiedefizit über einen viel längeren Zeitraum von neun Wochen auftritt. Dies ist darauf zurückzuführen, dass mehrere Mangelperioden eng aufeinander folgen können. Berücksichtigt man Speicherverluste und Ladebeschränkungen, erstreckt sich der Zeitraum, der den Speicherbedarf bestimmt, sogar auf 12 Wochen. Für diesen längeren Zeitraum ist die kostenoptimale Speicherkapazität etwa dreimal so groß wie das Energiedefizit in den knappsten zwei Wochen.

Auf den Seiten 5-6 ihres Papiers legen R&Q die Anforderungen an die Erzeugung (installierte Kapazität) und die Speicherung für ihre Sichtweise eines optimierten Systems dar.

Zunächst wird es ein stark überdimensioniertes System von Wind- und Solaranlagen geben:

Auf der Angebotsseite sind fast 300 GW an variablen erneuerbaren Erzeugern installiert: 92 GW Solar-PV, 94 GW Onshore-Windkraft und 98 GW Offshore-Windkraft … . Bei der Photovoltaik und der Onshore-Windenergie ist dies fast doppelt so viel wie die installierte Kapazität im Jahr 2020; bei der Offshore-Windenergie bedeutet dies mehr als eine Verzehnfachung.

Zum Vergleich: Die derzeitige Spitzennachfrage in Deutschland liegt in der Größenordnung von 100 GW, die durchschnittliche Nachfrage in der Größenordnung von 60 GW.

Dann gibt es etwa 56 TWh Speicher, was, wie besprochen, etwa 24 Tagen des vollen Stromverbrauchs für ganz Deutschland bei nahezu Spitzenlast entspricht. Um eine Vorstellung davon zu bekommen, wie viel das ist, muss man bedenken, dass eine Tesla-Batterie im Bereich von etwa 100 KWh liegt und für etwa $13.500 verkauft wird, also $135/KWh. Wenn man also versuchen würde, die 56 TWh Speicher mit Batterien des Tesla-Typs abzudecken, würde das etwa 56.000.000.000 x 135 $ kosten, also etwa 7,56 Billionen $ – das ist etwa das Doppelte des BIP von Deutschland.

R&Q sind jedoch der Meinung, dass sie eine bessere Idee als Batterien haben, nämlich Wasserstoff als Träger für die Speicherung. In ihrem Modell stammt fast der gesamte Speicher (54,8 TWh von 56 TWh) aus Wasserstoff. Dies erfordert zunächst die Hinzufügung eines weiteren massiven neuen Kostenelements zum System, nämlich eines ganzen Netzes von etwa 62 GW wasserstoffbefeuerten GuD-Kraftwerken, die allein fast ausreichen, um das deutsche Netz bei durchschnittlicher Nachfrage zu versorgen.

Nimmt man die Kosten für die dreifache Überbauung von Windturbinen und Solarzellen, 56 TWh Speicher und ein Netz neuer Wasserstoffkraftwerke, das fast so umfangreich ist wie das gesamte derzeitige deutsche Stromerzeugungssystem, so erhält man eine Reihe von Kosten, die in einer rationalen Welt unmöglich machbar sein können.

Und dennoch, wenn R&Q zu ihren Schlussfolgerungen in Bezug auf die Machbarkeit kommen, winken sie mit den Händen und sagen, es gäbe kein Problem. Obwohl sie zugeben, dass es nirgendwo auf der Welt ein Wasserstoffspeicher-, -verteilungs- und -verbrennungssystem im industriellen Maßstab gibt, das als Grundlage für die Kostenberechnung dienen könnte, kommen sie irgendwie auf eine Zahl von 30 Euro pro MWH Last für die Speicherkosten – das ist mehr als tausendmal weniger als die Kosten für Tesla-Batterien. Gibt es dafür eine Grundlage? Am nächsten kommen sie dem hier:

Da die unterirdische Wasserstoffspeicherung in Deutschland derzeit auf Pilotanlagen beschränkt ist, können die derzeit 250 TWh der deutschen Erdgasspeicher, bei denen es sich größtenteils um unterirdische Speicher in Salzkavernen handelt, als Referenz dienen.

Leider bin ich nicht der Meinung, dass die unterirdische Erdgasspeicherung überhaupt eine gültige Referenz darstellt. Erdgas kann effektiv in undurchlässigen Behältern wie Salzkavernen gelagert werden, da es sich nicht entzündet, wenn es eine Konzentration von 15 % in der Luft überschreitet. Bei Wasserstoff ist das leider nicht der Fall. Außerdem korrodiert Wasserstoff schnell und entweicht aus Pipelines und Behältern, was zu extremen Gefahren führen kann. Ich behaupte nicht, dass ich alle technischen Herausforderungen kenne, die mit der Entwicklung eines sicheren wasserstoffbasierten Elektrizitätssystems verbunden sind, aber sie sind eindeutig enorm. Wenn der Umgang mit Wasserstoff in großen Mengen sicher und einfach wäre, würden es schon viele tun. Es gibt einen Grund dafür, dass es keine großen Wasserstoffspeicher oder Wasserstoffpipelines gibt.

Die einfache Antwort auf all dies ist, dass wir von unseren Politikern den Nachweis der Machbarkeit eines jeden Ersatz-Energiesystems verlangen müssen, bevor wir uns auf diese Multi-Billionen-Fantasie-Bauprojekte einlassen. Zeigen Sie uns ein vollständiges Wind-/Solar-/Batterie- oder Wind-/Solar-/Wasserstoffsystem, das mit vertretbaren Kosten für 5000 oder 10.000 Menschen im Laufe einiger Jahre funktioniert, bevor Sie ganze Länder mit zehn oder hundert Millionen Menschen als Versuchskaninchen missbrauchen.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2022/03/22/more-confirmation-of-the-infeasibility-of-a-fully-wind-solar-storage-electricity-system/

Übersetzt von Christian Freuer für das EIKE

 




Die Pläne Bidens bzgl. Elektrofahrzeugen stützt die schwersten Menschenrechts-Verletzungen

Tom Harris

[Das gilt natürlich auch für die EV-Pläne der Politik hierzulande! A. d. Übers.]

Präsident Joe Biden unterstützt mit seinen Plänen für Elektrofahrzeuge unwissentlich die schlimmsten humanitären Missstände in der Welt. Der Grund dafür ist die Art und Weise, wie die Materialien für die Herstellung der Batterien, die die heutigen Elektrofahrzeuge antreiben, gewonnen werden.

Um eine angemessene Leistung pro Pfund Batteriegewicht zu erzielen, verwenden die Hersteller von Elektrofahrzeugen in der Regel verschiedene Formen von Lithium-Ionen-Batterien (Li-Ion), die so heißen, weil die positive Elektrode der Batterie, die so genannte Kathode, größtenteils aus dem hochreaktiven Metall Lithium (Li) besteht. Um die Kathode stabil zu halten, wenn die Batterie nicht in Gebrauch ist, wird das Lithium in eine Metalloxidmatrix eingebunden, wobei die verschiedenen Hersteller unterschiedliche Kombinationen von Metallen verwenden.

Die meisten EV-Hersteller kombinieren Lithium mit Nickel, Kobalt und Mangan, um eine Li-Ni-Mn-Co-Oxidmatrix für die Kathode zu bilden. Tesla ersetzt das Mangan durch Aluminium (Al), wodurch eine Li-Ni-Co-Al-Oxidmatrix für die Kathode seiner Batterien entsteht. Tesla behauptet, dass seine Formel kostengünstiger ist, da weniger Kobalt benötigt wird.

In allen Fällen besteht die negative Elektrode, die sogenannte Anode, in einer EV-Batterie hauptsächlich aus Graphit.

Um den von Biden propagierten massiven Ausbau von Elektroautos zu unterstützen, werden riesige Mengen an Materialien für die Herstellung von Elektroauto-Batterien benötigt, zum Beispiel Lithium, Kobalt, Graphit, Nickel, Mangan und Aluminium. Betrachten wir die Quellen von nur drei dieser Stoffe – Lithium, Kobalt und Graphit – um zu sehen, wo die Menschenrechtsprobleme entstehen.

Eine normale Li-Ionen-EV-Batterie mit einem Gewicht von 1.000 Pfund enthält etwa 25 Pfund Lithium. Da Lithium-Sole in der Regel weniger als 0,1 % Lithium enthält, werden etwa 25.000 Pfund Sole benötigt, um die 25 Pfund reines Lithium zu erhalten. Dieses wird hauptsächlich in Tibet und im Hochland von Argentinien, Bolivien und Chile gewonnen (nach Angaben des U.S. Geological Survey befinden sich 58 % der weltweiten Lithiumreserven in Chile), das als „Lithiumdreieck“ bekannt ist. Die Lithiumproduktion in Tibet führt zu toten, giftigen Fischen und Kadavern von Kühen und Yaks, die den Liqi-Fluss hinuntertreiben. Die Ganzizhou Rongda Li-Mine in Tibet hat diesen Fluss gründlich vergiftet.

In ähnlicher Weise sind die Ureinwohner im Lithium-Dreieck mit verseuchten Flüssen konfrontiert, die für den menschlichen Verzehr, die Bewässerung des Viehs und die Bewässerungssysteme benötigt werden, und mit Bergen, die wegen des weggeworfenen Salzes aus dem Lithium-Sole-Verfahren verwüstet sind. In einem Bericht mit dem Titel „COMMODITIES AT A GLANCE Special issue on strategic battery raw materials“ [etwa: ROHSTOFFE IM ÜBERBLICK Sonderausgabe über strategische Batterierohstoffe], der 2020 von der Konferenz der Vereinten Nationen für Handel und Entwicklung herausgegeben wurde, wird dies erläutert:

„Indigene Gemeinschaften, die seit Jahrhunderten in der Andenregion von Chile, Bolivien und Argentinien leben, müssen sich mit Bergleuten um den Zugang zu Gemeindeland und Wasser streiten. Die Bergbauindustrie ist in einer der trockensten Wüstenregionen der Welt auf große Mengen Grundwasser angewiesen, um die Sole aus den Bohrlöchern abzupumpen. Einigen Schätzungen zufolge werden etwa 1,9 Millionen Liter Wasser benötigt, um eine Tonne Lithium zu gewinnen. Im chilenischen Salar de Atacama verbrauchen der Lithiumabbau und andere Bergbauaktivitäten 65 Prozent des Wassers in der Region. Das hat große Auswirkungen auf die örtlichen Landwirte, die Quinoa anbauen und Lamas züchten, in einem Gebiet, in dem einige Gemeinden bereits Wasser von anderswo herbekommen müssen.“

Eine 1000 Pfund schwere Li-Ionen-EV-Batterie enthält in der Regel auch etwa 30 Pfund Kobalt. Der durchschnittliche Kobalterzgehalt liegt bei etwa 0,1 %, so dass wir fast 30.000 Pfund Erz verarbeiten müssen, um 30 Pfund Kobalt zu erhalten. Die Demokratische Republik Kongo verfügt über 50 % der weltweiten Kobaltreserven und steuert fast zwei Drittel der weltweiten Kobaltproduktion bei. Dies führt zu immensen humanitären Missständen. Im Kongo arbeiten mindestens 40.000 Kinder – manche sind erst 4 Jahre alt – zusammen mit ihren Eltern für weniger als 2 Dollar pro Tag. Sie sind zahlreichen psychologischen Verletzungen und Misshandlungen sowie erheblichen körperlichen Risiken ausgesetzt. Der Ingenieur und Energieberater Ronald Stein und Todd Royal, ein unabhängiger Berater für die öffentliche Ordnung, der sich auf die geopolitischen Auswirkungen von Energie konzentriert, gehen in ihrem Buch „Clean Energy Exploitations – Helping citizens understanding the environmental and humanity abuses that support ‚clean‘ energy“ (Saubere Energieausbeutung – Hilfe für die Bürger, die Umwelt- und Menschenrechtsverletzungen zu verstehen, die die ’saubere‘ Energie unterstützen) auf weitere Einzelheiten ein:

„Einstürze, ständige Belastung durch giftiges, radioaktives Wasser, Staub und gefährliche Luft, die mit Kobalt, Blei und Uran sowie anderen Schwermetallen belastet ist, die Tag für Tag in die Lungen geatmet werden, damit sich die westlichen Bürger mit ihrem Tesla oder ihrer Windturbine wohlfühlen können. Kobalterz wird nach China geliefert, denn eine der größeren Minen im Kongo gehört der chinesischen Congo Dongfang International Mining Company.“

Eine 1.000-Pfund-EV-Batterie enthält auch 110 Pfund Graphit. Bei einer Konzentration von 10 % müssen für jede Batterie 1.100 Pfund Erz verarbeitet werden. China produziert derzeit etwa 70 % des weltweiten Angebots an Naturgraphit. Dorfbewohner, die in der Nähe von Graphitunternehmen in Provinzen im Nordosten Chinas leben, klagen über „glitzernde Nachtluft“, Ernteschäden, rußverschmierte Häuser und Besitztümer sowie verschmutztes Trinkwasser.

In seiner Rede zur Lage der Nation sprach Biden von der Förderung von „Umweltgerechtigkeit“ und „mehr Fairness“. Der Präsident sagte: „Ich werde ehrlich zu Ihnen sein, wie ich es immer versprochen habe“.

Biden muss nun auch in Bezug auf Elektrofahrzeuge ehrlich sein. Sie verstoßen in grober Weise gegen grundlegende Prinzipien der Umweltgerechtigkeit und sind alles andere als fair gegenüber den Armen der Welt, die leiden und sterben müssen, damit reiche westliche Eliten mit ihren Elektroautos Tugendzeichen setzen können.

This article originally appeared at Real Clear Energy

Autor: Tom Harris is executive director of the International Climate Science Coalition

Link: https://www.cfact.org/2022/03/21/bidens-ev-plans-support-the-worst-humanitarian-abuses/

Übersetzt von Christian Freuer für das EIKE

 




Biden versprach Europa mehr US-Flüssiggas … vergaß aber, sich zuerst mit der Industrie abzusprechen

David Middleton

Aus der Rubrik „es gibt keinerlei Flüssiggas, das man irgendjemandem versprechen kann“:

Sonnabend: „Energie-Absurdität des Tages“

Angesichts der Tatsache, dass die Industrie ihre Kapazitäten in den nächsten Jahren bereits ausbaute, versprach Biden einfach, die Ergebnisse der Arbeit anderer abzuliefern, ähnlich wie bei seinen Semesterarbeiten am College.

Die US-Exportkapazität für Flüssigerdgas wird Ende 2022 die größte der Welt sein. Quelle

Da die meisten LNG-Lieferungen Teil langfristiger Verträge sind, sind die Anlagen derzeit voll ausgelastet, und da der größte Exporteur bis in die 2040er Jahre „ausverkauft“ ist, gibt es nur sehr wenig überschüssiges LNG, das nach Europa geliefert werden kann…

Cheniere Energy Inc., der größte Exporteur von verflüssigtem Erdgas in den USA, hat die geplante Produktion aus der 7 Milliarden Dollar teuren Erweiterung seiner Anlage in Corpus Christi bis in die 2040er Jahre ausverkauft, sagte der CEO des Unternehmens, Jack Fusco.

Bloomberg
Die drei Schreiberlinge der Demokraten in der FERC haben eine neue Hürde für den künftigen Ausbau errichtet, die über das hinausgeht, was bereits in Arbeit ist…

FERC veröffentlicht „historische“ Überarbeitung der Pipeline-Genehmigungen

Miranda Willson

Die Federal Energy Regulatory Commission (FERC) hat gestern weitreichende neue Richtlinien für Erdgasprojekte herausgegeben, darunter auch erstmals einen Schwellenwert für den Klimawandel, und damit jahrzehntelange Präzedenzfälle für die Genehmigung großer Energieinfrastrukturen auf den Kopf gestellt.

Die FERC aktualisierte eine 23 Jahre alte Richtlinie für die Bewertung geplanter Erdgaspipelines und fügte neue Erwägungen für Landbesitzer, umweltgerechte Gemeinden und andere Faktoren hinzu. In einer separaten, aber damit zusammenhängenden Entscheidung legte die Kommission auch einen Rahmen für die Bewertung der Treibhausgasemissionen von Projekten fest.

Die drei demokratischen Mitglieder der Kommission stimmten beiden Richtlinien zu, während die beiden Republikaner im Gremium sie ablehnten.

„Wir werden diese Politik jedoch in der Zwischenzeit anwenden, damit die Kommission die Anträge für Pipelines und LNG ohne Verzögerung bearbeiten kann“, sagte Glick.

Im Gegensatz zu den Behauptungen der demokratischen Kommissare, dass dies der Gasindustrie mehr Sicherheit geben wird, wirft die vorläufige Politik „mehr Fragen“ für Gasentwickler auf, sagte Amy Andryszak, Präsidentin und CEO der Interstate Natural Gas Association of America. Zum Beispiel wird in der Erklärung nicht erklärt, inwieweit die Erschließungsunternehmen zur Schadensbegrenzung verpflichtet sind, sagte sie.

E&E News

Während sie „diese Politik in der Zwischenzeit anwenden werden, um der Kommission die Möglichkeit zu geben, Anträge für Pipelines und LNG ohne Verzögerung zu bearbeiten“, wird eine künftige Ausweitung der LNG-Kapazitäten eher schwierig sein, es sei denn, die Wähler entlassen die Demokraten in den Jahren 2022 und 2024 massenhaft. Das Wort Interim hat tatsächlich eine Definition.

Hinweis: In den Artikeln wird der Ausdruck „Milliarden Kubikmeter“ (Bcm) verwendet. Dieser Begriff wird in der US-amerikanischen Öl- und Gasindustrie (der einzigen Branche, die von Bedeutung ist) in der Regel nicht verwendet. Wir verwenden Milliarden Kubikfuß (Bcf).

● 1 Bcm = 35,3 Bcf

● Die Gesamtausfuhrkapazität der USA wird im Jahr 2022 voraussichtlich 14 Bcf/d erreichen.

● Die Europa zugesagten 50 Mrd. m³/Jahr bis 2030 = 1.765 Mrd. Bcf/Jahr.

● 1765 Bcf/Jahr = 4,8 Bcf/d.

● Im Jahr 2021 exportierten US-LNG-Unternehmen durchschnittlich 2,5 Bcf/d nach Europa.

● Die Chancen stehen gut, dass sie im Jahr 2030 mehr als 5 Bcf/d nach Europa liefern werden.

Biden hat versprochen, etwas zu liefern, worauf er keinen Einfluss hat und was wahrscheinlich sowieso passieren würde. Ich würde ihn einen wertlosen Sack Schiefer nennen, aber das wäre unfair gegenüber Fäkalien.

Link: https://wattsupwiththat.com/2022/03/26/biden-promised-europe-more-lng-from-us-forgot-to-check-with-industry-first/

Übersetzt von Christian Freuer für das EIKE

 




Vergleich: UAH mit RSS

Andy May

Kommentare zu meinen jüngsten Beiträgen über HadCRUT5Oberflächentemperaturen und UAHTemperaturen in der unteren Troposphäre [in deutscher Übersetzung beim EIKE hier] verkommen oft zu einem Vergleich der Genauigkeit von RSS und UAH-Satellitentemperaturen. Einige scheinen zu glauben, dass RSS genauer ist als UAH, obwohl Radiosondendaten das Gegenteil beweisen. Dies ist also ein Beitrag, um das Thema kurz zu behandeln.

Meine Hauptquellen sind ein Blogbeitrag von Roy Spencer und ein von Experten begutachtetes Papier [1] von John Christy, Roy Spencer, William Braswell und Robert Junod aus dem Jahr 2018 hier. Das Papier aus dem Jahr 2018, hier CSBJ18 genannt, enthält eine umfassende Analyse von vier Satelliten-Temperaturdaten aus der mittleren Troposphäre. Drei davon sind globale Datensätze: UAH (Version 6), RSS (Version 4) und NOAA (Version 4). Der vierte ist die neuere UW-Serie (University of Washington, Version 1), die nur die kritische tropische Region von 30°S bis 30°N abdeckt.

Vergleiche der Satellitendatensätze sind schwierig, da sie zwar die gleichen Daten enthalten, aber sehr unterschiedliche Verfahren zur Erstellung ihrer jeweiligen Temperaturaufzeichnungen verwenden. Insbesondere das UAH-Verfahren unterscheidet sich deutlich von den anderen drei. Während der traditionelle NOAA-Datensatz „STAR“ heißt, gibt es jetzt einen neuen Datensatz namens RMTMT für die mittlere Troposphäre, auf den wir am Ende des Beitrags eingehen werden.

CSBJ18 vergleicht alle Satellitendatensätze mit 564 Stationen des Integrated Global Radiosonde Archive (IRGA). Die verwendeten Stationen haben Daten von 1979 bis 2016. Die monatlichen Satellitendaten wurden mit den monatlichen Durchschnittswerten der Radiosonden (Wetterballons) auf einem globalen Gitter verglichen. CSBJ18 erläutert die Einzelheiten der von ihnen durchgeführten Vergleiche. Ihr Verfahren und ihre Methoden waren sehr gründlich. Da fast alle Radiosondenaufzeichnungen über Land erfolgen, wurden auch Vergleiche mit Wetter-Reanalysedatensätzen angestellt, da die Erwärmungsraten über Land und Ozean unterschiedlich sind.

Bei jedem Vergleich, sowohl global als auch für die Tropen, korrelierte die UAH-Satelliten-Temperaturaufzeichnung am besten mit den Radiosonden. Darüber hinaus ist der globale UAH-Temperaturtrend niedriger als die Trends der anderen Datensätze von 1979 bis 2015 weltweit und für die Tropen. Die Radiosondendaten sind nicht perfekt, sie enthalten auch fehlerhafte Daten, aber sie sind unabhängig von den Satellitenaufzeichnungen und bieten eine neutrale, unvoreingenommene Überprüfung der verschiedenen Methoden zur Verarbeitung der Satellitendaten. Für die verschiedenen Temperatur-Datensätze gibt es keine solche Überprüfung, da sie alle dieselben Daten verwenden und meist auch dieselben Methoden zu ihrer Verarbeitung nutzen.

Einer der Gründe dafür, dass UAH einen geringeren Erwärmungstrend aufweist als die anderen Datensätze, ist, dass UAH eindeutig verfälschte Daten in den älteren NOAA-11- bis NOAA-14-Satelliteninstrumenten korrigiert hat, was bei den anderen Datensätzen nicht der Fall ist. Diese Satelliten nutzten ein früheres MSU-Instrument und hatten Orbitalprobleme, die korrigiert werden mussten. NOAA-14 überschnitt sich mit NOAA-15 für drei Jahre, und NOAA-15 verfügte über eine wesentlich fortschrittlichere MSU (die AMSU) und hatte während des Zeitraumes der Überschneidung eine bessere Umlaufbahn. Ein Vergleich der Daten von NOAA-15 mit NOAA-14 zeigte das Problem mit dem NOAA-14-Instrument; die Einzelheiten, wie UAH dieses und andere Probleme korrigiert, werden in einem Papier von Spencer, Christy und Braswell aus dem Jahr 2017 erläutert [2]. Nachdem alle Korrekturen auf die NOAA-14- und NOAA-15-Daten angewendet wurden, zeigte NOAA-14 immer noch eine um +0,2 °C/Dekade stärkere Erwärmung als NOAA-15. Nachdem nur die grundlegende tageszeitliche Korrektur angewandt wurde, unterschieden sich die beiden Satelliten sogar um 0,34°C/Dekade [1].

Die vollständige Geschichte aller erforderlichen Korrekturen und Anpassungen zur Erstellung einer Aufzeichnung der troposphärischen Temperatur über Satellit ist zu kompliziert, um sie hier zu erläutern, ist aber in den zitierten Quellen gut dokumentiert. Wir werden hier nur die Ergebnisse des Vergleichs der Satellitendaten mit den Radiosondendaten von Christy et al. aufzeigen. In Abbildung 1 werden die Daten der globalen Radiosondenstationen mit den Satellitendaten an denselben Orten verglichen. Bei diesem Vergleich korrelieren die UAH-Daten am besten mit den nicht bereinigten Radiosondendaten. Die Y-Achse gibt die Korrelation zwischen den Satellitendaten und den Radiosondendaten an, wobei ein höherer Wert besser ist. Die durchgezogenen Balken stellen die unbereinigten Daten dar, die gestrichelten Balken verwenden die gleichen Satellitendaten, aber die bereinigten Radiosondendaten enthalten nur die Radiosonden, die mit dem jeweiligen Satellitendatensatz mit einem Korrelationskoeffizienten von 0,7 oder besser übereinstimmen. An den Satellitendatensätzen wurden keine Änderungen vorgenommen.

Abbildung 1: Die Korrelation zwischen den drei globalen Satellitendaten und den Radiosonden-Temperaturen. Die durchgezogenen Balken umfassen alle Radiosonden, nicht bereinigt. Die gestrichelten Balken verwenden nur Radiosonden, die gut mit dem jeweiligen Satellitendatensatz korrelieren. Eine höhere Korrelation ist besser, der UAH-Datensatz korreliert besser mit den Radiosonden als die anderen. Quelle: (Christy, Spencer, Braswell, & Junod, 2018).

Wie Christy et al. erklären, korreliert der UAH-Datensatz zwar besser als die beiden anderen Satellitendatensätze, der Unterschied in der Korrelation nähert sich jedoch der statistischen Signifikanz, erreicht aber nicht dieses Niveau. Abbildung 2 vergleicht die Temperaturtrends der IGRA-Radiosonden mit denen der globalen Satellitendaten. Der Trend der nicht bereinigten Radiosondendaten von 1979 bis 2015 ist in Grau dargestellt. Die Satellitendaten für die Radiosondenstandorte sind in grün dargestellt. Die bereinigten Radiosondendaten sind in rot dargestellt, und der Trend des gesamten globalen Gitters ist in rosa dargestellt:

Abbildung 2. Ein Vergleich der Erwärmungstrends von 1979 bis 2015 für die Radiosondendaten und die drei globalen Satelliten. Quelle: CSBJ18.

Der UAH-Datensatz stimmt besser mit dem Erwärmungstrend der Radiosonde überein als die RSS- und NOAA-Datensätze. Die bessere Übereinstimmung gilt sowohl für die bereinigten als auch für die nicht bereinigten Daten. An den Radiosondenstandorten liegt der UAH-Trend innerhalb von 0,01°C/Dekade des nicht bereinigten Radiosondentrends. Die RSS- und NOAA-Datensätze zeigen eine viel stärkere Erwärmung.

Die Ansicht von NOAA

Es ist interessant und aufschlussreich, dass CSBJ18 in keinem der Zeitschriftenartikel oder Blogbeiträge, die ich finden konnte, widerlegt wurde. Tatsächlich scheinen sie es zu vermeiden, die früheren Satelliten zu diskutieren, d. h. NOAA-14 und frühere Satelliten, die die in CSBJ18 und weiter oben diskutierten Probleme haben. Cheng-Zhi Zou, der an der Pflege des NOAA-Satellitendatensatzes mitwirkt, hat eine Abhandlung [3] geschrieben, in der er die Temperaturaufzeichnungen von RSS, NOAA und UAH vergleicht, aber er beginnt den Vergleich im Jahr 2002, also lange nachdem NOAA-15 mit der fortschrittlicheren AMSU-Mikrowelleneinheit gestartet wurde. Dadurch wird ein Vergleich der Satellitenaufzeichnungen von NOAA-14 und früheren Satelliten, die die primitiveren MSU-Daten enthalten, vermieden. Seine Abbildung 4 (unsere Abbildung 3) vergleicht die Aufzeichnungen von 2002 bis 2020:

Abbildung 3. Ein Vergleich von UAH v6, STAR (NOAA) v4.1, RSS v4 und NOAA RFTMT. In den linken Diagrammen sind alle vier Anomalieaufzeichnungen im gleichen Maßstab dargestellt, die rechten Diagramme zeigen die Unterschiede zu RFTMT. Beachten Sie, wie ähnlich RSS und UAH in beiden Darstellungen sind. Die NOAA STAR- und NOAA RFTMT-Datensätze sind Ausreißer.

Die linke Grafik in Abbildung 3 vergleicht die erzeugten Temperaturanomalien und zeigt, dass sich die verschiedenen Temperaturreihen von 2002 bis 2020 recht gut überlagern, mit gelegentlichen NOAA STAR-Ausreißern in rot. Die rechte Grafik zeigt den Unterschied zwischen den drei aufgeführten Satellitenaufzeichnungen und dem neuen NOAA-RFTMT-Datensatz, der von Zou et al. vorgestellt wurde. Der neue RFTMT-Datensatz der NOAA ist sowohl über Land als auch über dem Ozean wärmer als RSS oder UAH, und zwar um fast den gleichen Betrag. Es ist bemerkenswert, wie nahe RSS und UAH beieinander liegen. Zou et al. wollen RFTMT als neuen Standard-Satellitendatensatz etablieren und behaupten, er sei genauer als die anderen, aber ich bin da nicht an Bord.

Zou et al. weisen darauf hin, dass NOAA-15 gegen Ende seiner Lebensdauer Probleme hatte und STAR es bis 2015 verwendet. Dies ist wahrscheinlich die Ursache für einige der NOAA-STAR-Probleme. UAH nutzt NOAA-15 seit 2007 nicht mehr, und RSS nutzt ihn seit 2010 nicht mehr. Zou et al. empfehlen, ihre neue RFTMT-Satellitenaufzeichnung als Standard zu verwenden, doch scheint es sich dabei nur um einen weiteren Versuch der NOAA zu handeln, den Erwärmungstrend durch ungerechtfertigte Anpassungen und umfangreiche Auslese von Satellitendaten zu verstärken. Zou et al. schätzen, dass ein Satellit mit dem fortschrittlichsten AMSU-Instrument auf einer perfekt stabilen Umlaufbahn und unter idealen Bedingungen eine Trendunsicherheit von weniger als 0,04°C/Dekade über den Zeitraum von 2002-2020 aufweist, was mit früheren Schätzungen übereinstimmt. Orbitale Merkmale tragen zur Unsicherheit bei, und die von ihm angegebenen Gesamttrends der globalen Erwärmung sind UAH: 0,17°C/Dekade, STAR: 0,17°C/Dekade, RSS: 0,18°C/Dekade, und RFTMT: 0,20°C/Dekade. Die mit allen Erwärmungstrends verbundenen Gesamtunsicherheiten liegen bei etwa ±0,1°C/Dekade. Die Unsicherheiten nach Satellit sind in Abbildung 3 aufgeführt. Möglicherweise müssen Sie auf Abbildung 3 klicken, um die Werte in voller Größe zu sehen.

Berechnung der Klima-Sensitivität mit UAH

Christy und McNider [4] verifizieren nicht nur, dass die Radiosonden-Temperaturdaten besser mit den UAH-Daten vergleichbar sind als die RSS- oder NOAA-Daten, sondern verwenden die Daten auch zur Berechnung der unteren troposphärischen Klima-Sensitivität auf den Treibhauseffekt. Dies lässt sich am besten als TCR-Schätzung (transient climate response) charakterisieren, und Christy und McNider nennen es TTCR für tropospheric transient climate response.

Sie akzeptierten die Annahmen des IPCC, dass die einzigen signifikanten Einflüsse auf das Klima seit 1979 Vulkanausbrüche, menschliche Treibhausgasemissionen, andere menschliche Aktivitäten und ENSO-Aktivität sind. Sie entfernten die vulkanischen und ENSO-Effekte aus ihrer UAH-Aufzeichnung der unteren Troposphäre, und der zugrunde liegende Trend betrug ohne diese Effekte etwa +0,1°C/Dekade.

Sie verwendeten die Werte des IPCC AR5 für den Treibhausgasantrieb seit 1979 (1,45 W/m²) und den Gesamtantrieb (1,24 W/m²). Unter Berücksichtigung der korrigierten Erwärmung von 0,1°C/Dekade ergibt sich für ihren Zeitraum eine Gesamterwärmung von 0,368°C. Der Zeitraum beträgt 38 Jahre und die von ihnen berechnete Erwärmung 0,096°C, die wir auf 0,1°C aufgerundet haben. Wendet man die Werte zur Berechnung der TTCR an, so kommen Christy et al. auf 1,1°C/2xCO2 ±0,26, wobei „2xCO2“ die Verdoppelung des CO2 bedeutet. Dies dürfte eine genauere Schätzung der TCR sein, als man sie aus den Aufzeichnungen an der Oberfläche erhalten kann, da mehr von der Atmosphäre in die Berechnung einfließt.

Schlussfolgerungen

Temperaturmessungen per Satellit sind für Klimastudien aus mehreren Gründen nützlicher als Oberflächenmessungen:

1. Die verwendeten Daten werden alle auf die gleiche Weise und mit ähnlichen Instrumenten erhoben.

2. Es wird mehr atmosphärische Masse erfasst.

3. Die gemessene Temperatur liegt meist oberhalb der chaotischen Grenzschicht der Atmosphäre und ist stabiler.

4. Radiosondendaten stehen als unabhängige Überprüfung der Berechnungen zur Verfügung.

Zu Nr. 4 oben: Die UAH-Temperaturberechnungen korrelieren am besten mit den Radiosondendaten, was darauf hindeutet, dass es sich um die beste Satelliten-Temperaturaufzeichnung handelt. Die Entscheidung von RSS, die eindeutig fehlerhaften NOAA-14-Daten in ihre Berechnungen einzubeziehen, ist höchst fragwürdig, wenn die eindeutig besseren NOAA-15-Daten für den fraglichen Zeitraum verfügbar sind. NOAA-15 entwickelt später Probleme und wird sowohl von RSS als auch von UAH vorzeitig aus dem Programm genommen, aber NOAA-STAR verwendet es noch viele Jahre lang.

Da die UAH-Temperaturaufzeichnung wahrscheinlich die bessere Aufzeichnung ist, ist es sinnvoll, die TCR anhand dieser Daten zu schätzen. Christy und McNider taten dies und ermittelten eine TCR von 1,1°C/2xCO2. Dieser Wert liegt zwar weit unter dem AR6-, AR5- und AR4-Wert von 1,8°C/2xCO2 (AR6: 1,2 bis 2,4) [5], steht aber im Einklang mit den Schätzungen von Lewis und Curry, Lindzen und Choi, Alexander Otto und Kollegen und anderen [6].

Eine Verringerung der TCR um 39 % ist signifikant, zumal die Schätzung von Christy et al. sowohl unter die wahrscheinliche Spanne des AR6 (1,4 bis 2,2) als auch unter ihre sehr wahrscheinliche Spanne (1,2 bis 2,4) fällt [7]. Es scheint mir sehr wahrscheinlich, dass der AR6 absichtlich gültige Analysen und Daten ignoriert, um seine politische Agenda zu verkaufen.

[Hervorhebung vom Übersetzer]

The references can be downloaded here.

  1. (Christy, Spencer, Braswell, & Junod, 2018)
  2. (Spencer, Christy, & Braswell, 2017)
  3. (Zou, Xu, Hao, & Fu, 2021)
  4. (Christy & McNider, 2017)
  5. (IPCC, 2021, pp. 7-8)
  6. (Lewis & Curry, 2018), (Lindzen & Choi, 2011), and (Otto, et al., 2013).
  7. (IPCC, 2021, pp. 7-8).

Link: https://andymaypetrophysicist.com/2022/03/25/uah-v-rss/

Übersetzt von Christian Freuer für das EIKE

 




Anthropogenes CO2 nebst den erwarteten Folgen einer Eliminierung desselben

Clyde Spencer

Introduction

Dies ist der vierte Teil einer Serie, die sich mit dem anthropogenen CO2 befasst, insbesondere mit der Frage, warum während des stärksten Rückgangs der anthropogenen Emissionen, den es je gegeben hat, nämlich während der SARS-Cov-2-Pandemie im Jahr 2020, kein messbarer Rückgang des atmosphärischen CO2 zu verzeichnen war.

Ich vergleiche die am Mauna Loa Observatory (MLO) gemessenen monatlichen CO2-Emissionen mit den von der Internationalen Energieagentur (IEA) veröffentlichten Zahlen zu den weltweiten monatlichen anthropogenen Emissionen für 2020.  Offenbar hat die IEA keine monatlichen anthropogenen Emissionen erfasst, sondern nur jährliche Summen.  Wahrscheinlich wegen der Verwirrung und Unsicherheit darüber, warum 2020 ein Gleichstand mit der globalen Durchschnittstemperatur des El-Niño-Ereignisses von 2016 und kein offensichtlicher Rückgang des jährlichen CO2-Wachstums zu verzeichnen war, beschloss die IEA jedoch, monatliche Daten zu betrachten.

Ich zeige, dass die anthropogenen Emissionen im Vergleich zu den Netto-CO2-Konzentrationen, die durch natürliche Quellen und Senken verursacht werden, vernachlässigbar sind.

Analyse

Die Analyse und die Schlussfolgerungen hängen von den folgenden Diagrammen ab, in denen alle veröffentlichten „Kohlenstoff“-Masseneinheiten in äquivalente Teile pro Million (PPM) der atmosphärischen CO2-Konzentration umgewandelt werden, anstatt ungewohnte Gigatonnen oder Petagramme zu verwenden. Abbildung 1 unten zeigt die Form der Kurve, die aus den monatlichen Daten der IEA abgeleitet wurde, wobei eine Schätzung für 2021 als „Platzhalter“ für den Januar hinzugefügt wurde. Man beachte den globalen Mindestwert (-14,5 %) im April 2020. Die IEA gibt keine Schätzung für die Unsicherheit der monatlichen Daten an. Nach der empirischen Regel in der Statistik wird die Standardabweichung der anthropogenen Zeitreihe jedoch weniger als ein Viertel des Bereichs betragen, also 0,065/4 oder <0,02 PPM. Die Standardabweichung der anthropogenen Zeitreihe ohne Trend würde etwa 0,041/4 oder <0,01 PPM betragen. Das bedeutet, dass der Trend für eine zusätzliche Standardabweichung von etwa 0,01 PPM im Laufe des Jahres verantwortlich ist.

Abbildung 1: Monatlicher anthropogener CO2-Eintrag mit Trendlinie

Die Steigung der OLS-Regressionslinie für den monatlichen anthropogenen Fluss ist statistisch signifikant (p-Wert = 0,00272) bei einem Schwellenwert von mehr als 95 %, auch wenn sie nur einen Flussanstieg von 0,04 PPM anthropogenen CO2 pro Monat über ein Jahr vorhersagt. Die lineare OLS-Anpassung sagt etwa 57 % der monatlichen Varianz voraus, sogar mit dem signifikanten, anomalen Rückgang im April.

Die Summe der monatlichen Flüsse für die 12 Monate des Jahres 2020 beträgt 4,4 PPM, was mit anderen Schätzungen für die jüngsten jährlichen anthropogenen CO2-Emissionen übereinstimmt. Das heißt, die jüngsten durchschnittlichen jährlichen anthropogenen Emissionen betragen ≈4,1 PPM (8,8 Pg * 1 PPM/2,13 Pg) von insgesamt 101 PPM oder 4,1 % aller Quellen.

Das erste, was dem Leser wahrscheinlich auffällt ist, dass die monatliche anthropogene Linie kaum von einer geraden Linie zu unterscheiden ist, wenn die anthropogenen und die globalen Nettodaten kombiniert (Abb. 2, unten) und so skaliert werden, dass die gesamte globale Nettospanne angezeigt wird. Die anthropogenen Daten weisen einen nahezu konstanten Fluss von etwa 0,37 PPM CO2 pro Monat auf, mit einem Bereich von 0,07 PPM CO2.

Abb. 2: Monatlicher anthropogener und globaler Netto-CO2-Fluss zusammen.

Die monatlichen globalen Nettoflüsse haben ein komplexes sinusförmiges Erscheinungsbild mit einem Bereich von 3,71 PPM und einem leicht negativen Trend (-0,38). Der Trend ist jedoch statistisch nicht signifikant (p-Wert = 0,763, R2 = 0,0086) bei einem Schwellenwert von 95 %. Die eingefügten Fehlerbalken stellen die durchschnittliche (±0,5) Standardabweichung der MLO-Messungen für dieses Zeitintervall dar.

Der offensichtliche negative Trend sollte nicht überraschen, da, wie von Monckton (2022) hervorgehoben wurde [in deutscher Übersetzung beim EIKE hier], seit über 7 Jahren keine statistisch signifikante Veränderung der globalen Durchschnittstemperatur zu verzeichnen ist. Ich habe bereits früher eine positive Korrelation zwischen den globalen Temperaturen und der Steigung und dem Bereich des saisonalen Anstiegs des atmosphärischen CO2 nachgewiesen. Die Korrelation ist zwar nicht unbedingt ein Beweis für Ursache und Wirkung, aber die Assoziation von erhöhtem CO2 während der warmen El-Niño-Ereignisse deutet darauf hin, dass die Wärme das CO2 antreibt, denn es ist unwahrscheinlich, dass die Wärme die El-Niño-Ereignisse verursacht! Wichtig ist, dass die saisonale Netto-CO2-Schwankung mehr als 57-mal größer ist als die Schwankung des anthropogenen CO2. Das heißt, die jährliche Schwankungsbreite der anthropogenen Emissionen im Jahr 2020 beträgt 1,8 % der globalen saisonalen Netto-Schwankungsbreite. Sie ist nicht die treibende Kraft hinter den jährlichen Veränderungen, sie ist das Hintergrundrauschen.

Der anthropogene CO2-Beitrag hat einen Bereich, der fast eine Größenordnung kleiner ist als die Unsicherheit von einem Sigma (1σ) des saisonalen MLO-Nettomittels der monatlichen Messänderungen. Man beachte insbesondere die relative Position der anthropogenen Linie im Februar, März, Mai und Oktober in Abbildung 2 im Vergleich zu den Fehlerbalken. Selbst der nominale, durchschnittliche monatliche anthropogene Fluss (0,37 PPM) ist kleiner als die globale monatliche Nettounsicherheit. Bei dem anthropogenen Beitrag handelt es sich um eine konstante Hintergrundkomponente, deren geschätzter monatlicher Fluss innerhalb der Fehlerhüllkurve der MLO-Änderungsmessungen liegt.

Zieht man die monatlichen anthropogenen Emissionen vom monatlichen globalen Nettofluss ab, so würde die globale Nettokurve in Abbildung 2 in erster Näherung um etwa 0,37 PPM nach unten verschoben, was die Form nicht merklich verändert. Die NASA behauptet, dass „etwa 45 Prozent“ der anthropogenen CO2-Emissionen in der Atmosphäre geblieben sind. Dies steht im Einklang mit anderen Behauptungen, dass etwa die Hälfte der anthropogenen Emissionen in der Atmosphäre verbleibt. Um zu sehen, was passieren würde, wenn die anthropogenen Emissionen plötzlich aufhören würden, müssten wir also 0,17 PPM (45% von 0,37) vom monatlichen globalen Nettofluss abziehen. Das ist viel weniger als die 1σ-Unsicherheit des monatlichen, globalen Netto-CO2-Flusses.

Wenn Zeitreihendaten Trends aufweisen, ist es üblich, falsche Korrelationen zwischen Phänomenen zu beobachten, selbst wenn sie nicht in einem kausalen Zusammenhang stehen. In der Regel empfiehlt es sich, den Trend der Daten aufzuheben und zu prüfen, ob noch eine Korrelation besteht. Ich mache das unten mit diesen CO2-Daten.

Es gibt einen vernachlässigbaren Trend (Steigung = 0,04) in den anthropogenen Daten, und die Steigung für das globale Netto-CO2 ist klein genug (-0,38), dass das zusammengesetzte Diagramm der Residuen im Wesentlichen genauso aussieht wie in Abbildung 2; daher zeige ich es nicht. Die trendbereinigte monatliche globale Netto-CO2-Veränderung für das Jahr 2020 ist jedoch in Form und Größenordnung einer NASA-Grafik (siehe Abbildung 3 unten) für frühere Jahre trendbereinigter Daten der monatlichen Netto-CO2-Veränderung sehr ähnlich. Die Kurvenformen sind seit mindestens 1959 erstaunlich konstant.

Abbildung 3: trendbereinigter monatlicher atmosphärischer CO2-Eintrag in PPM (Quelle)

Es ist jedoch aufschlussreich, einen Blick auf das Streudiagramm der trendbereinigten Restdaten zu werfen. Abbildung 4 unten zeigt, dass es im Wesentlichen keine Korrelation zwischen den monatlichen anthropogenen Emissionen und dem monatlichen globalen Nettofluss gibt; obwohl die scheinbare Korrelation negativ ist, ist die Regressionslinie an der 95 %-Schwelle statistisch nicht signifikant (p-Wert = 0,854). Der R2-Wert zeigt, dass nur 0,32 % der Varianz des monatlichen globalen CO2-Nettoflusses durch die Veränderung der monatlichen anthropogenen Emissionen vorhergesagt oder erklärt wird. Tatsächlich verlaufen die Kurven oft in unterschiedliche Richtungen, wie im April. (Vergleiche Abb. 1 und Abb. 2 für den April [2020.25]) Wenn es einen Zusammenhang gibt, könnte er durch eine zeitliche Verzögerung verdeckt werden.

Betrachtet man jedoch das Gesamtbild, d.h. die jährlichen Veränderungen der anthropogenen Emissionen und die jährlichen globalen Nettoveränderungen des atmosphärischen CO2, so spricht wenig dafür, dass eine Zeitverzögerung von mehr als einem Monat die Kontrolle der anthropogenen Emissionen über die gesamte Nettoveränderung der Quellen und Flüsse verdeckt. Der jährliche Höchststand des atmosphärischen CO2 in der nördlichen Hemisphäre tritt jedes Jahr im Mai auf!

Ähnlich wie bei der Analyse der monatlichen Residualdaten zeigt Abbildung 5 (unten) die aufgezeichneten trendbereinigten Residuen für den jährlichen anthropogenen und den gesamten Nettofluss. Es scheint zwar eine leicht positive Korrelation zu bestehen, aber sie ist statistisch nicht signifikant (p-Wert = 0,943, R2 = 0,0091). Das bedeutet, dass der Trend der OLS-Regressionslinie so nahe bei Null liegt, dass er statistisch nicht von einem Nulltrend zu unterscheiden ist, und dass der quadrierte Korrelationskoeffizient nur etwa 0,91 % der Varianz der jährlichen Nettoänderungen vorhersagt oder erklärt.

Abb. 4: Korrelation der monatlichen globalen CO2-Residual-Veränderung mit der monatlichen anthropogenen CO2-Residual-Veränderung.

Abb. 5: Korrelation der jährlichen globalen Residual-CO2-Veränderung mit der jährlichen anthropogenen CO2-Residual-Menge.

Zusammenfassung

Die anthropogenen CO2-Emissionen machen 4 % oder weniger der gesamten Quellenflüsse aus.  Die Senken, die für den Entzug von CO2 aus der Atmosphäre verantwortlich sind, können nicht zwischen natürlichem und anthropogenem CO2 unterscheiden. Daher bestimmt die Häufigkeit der CO2-Quellen den Anteil, der entfernt wird. Die Atmung und der biologische Abbau von Bäumen dominieren das Wachstum in der Hochphase im Winter; die Photosynthese dominiert den Rückgang im Sommer. Das bedeutet, dass sich das anthropogene CO2 nicht in der Höhe des nominalen Anstiegs von 2 PPM pro Jahr anreichert. Der jährliche, globale atmosphärische Anstieg ist der Anstieg aller Quellenflüsse abzüglich des Rückgangs aller Senken. Der jährliche anthropogene CO2-Anstieg (0,07 PPM) im Jahr 2020 betrug nur etwa 3,3 % des nominalen jährlichen Anstiegs von 2 PPM. Der monatliche anthropogene Fluss betrug etwa 1,8 % des monatlichen globalen Nettoflusses. Die Tatsache, dass der jährliche atmosphärische Anstieg von 2 PPM etwa der Hälfte der geschätzten jährlichen anthropogenen Emissionen entspricht, ist Zufall. Vielleicht zeigen diejenigen, die mehr als das sehen, die allgemeine menschliche Eigenschaft der Apophänie [?]. Das erinnert mich an den großen Aufwand, den einige betrieben haben, um eine besondere Bedeutung in den Messungen und Verhältnissen zu finden, die mit der Großen Pyramide verbunden sind.

Das anthropogene CO2 ist im Vergleich zu den saisonalen Schwankungen der natürlichen Quellen und Senken praktisch konstant. Die monatliche Änderung des anthropogenen Flusses ist viel kleiner als die Unsicherheit der monatlichen Nettoänderungen des globalen Flusses. Die Behauptung, das anthropogene CO2 sei für die jährlichen Veränderungen verantwortlich, ist daher nicht haltbar. Die saisonalen Flüsse aus natürlichen Quellen überlagern die anthropogenen Quellen. Die Eliminierung des anthropogenen CO2 hätte einen vernachlässigbaren Einfluss auf den jährlichen Anstieg, weshalb die pandemischen Abriegelungen einen unmerklichen Effekt auf die globalen atmosphärischen Konzentrationen hatten. Ich erwarte nicht, dass selbst drakonische Reduzierungen des anthropogenen CO2 die Art von Ergebnissen haben werden, die proklamiert werden, um die Abschaffung der Nutzung fossiler Brennstoffe zu rechtfertigen. Der jährliche Anstieg der CO2-Konzentration ist das Ergebnis einer Zunahme der natürlichen Quellen, die nicht durch eine entsprechende Zunahme der Senken kompensiert wird.

Data Sources

Dr. Pieter Tans, NOAA/GML (https://gml.noaa.gov/ccgg/trends/) and Dr. Ralph Keeling, Scripps Institution of Oceanography (https://scrippsco2.ucsd.edu/).

IEA (2021), Global Energy Review: CO2 Emissions in 2020, IEA, Paris https://www.iea.org/articles/global-energy-review-co2-emissions-in-2020

https://wattsupwiththat.com/2021/06/07/carbon-cycle/

https://wattsupwiththat.com/2021/06/11/contribution-of-anthropogenic-co2-emissions-to-changes-in-atmospheric-concentrations/

https://wattsupwiththat.com/2021/12/16/co2-party-having-fun-with-probabilities/

Link: https://wattsupwiththat.com/2022/03/22/anthropogenic-co2-and-the-expected-results-from-eliminating-it/

Übersetzt von Christian Freuer für das EIKE