Der menschliche Preis von Kobalt – eine Rezension

Mark P. Mills, Cornwall Alliance

Wenn Sie wissen wollen, was durch die überstürzte Einführung von Elektroautos im Rahmen der so genannten Energiewende ausgelöst wird, lesen Sie „Cobalt Red“! Sie werden fast so erschüttert sein wie der Autor, Siddharth Kara, der in der Demokratischen Republik Kongo gesetzlosen Milizen und staatlich unterstützten Soldaten trotzte, als er die Quellen der weltweiten Lieferkette für Lithiumbatterien besuchte.

Kara, Professor für Menschenhandel und moderne Sklaverei an der Universität Nottingham und Senior Fellow an der School of Public Health in Harvard, bezeichnet sich selbst als Aktivist. Auf seinen Reisen durch die Dschungel und Minen des Kongo wurde er Zeuge der schockierenden Arbeits- und Umweltpraktiken, die die Welt mit, wie der Autor schreibt, „leeren Erklärungen zur Null-Toleranz-Politik und anderer hohler PR“ bei der Jagd nach Kobalt überspielt.
Warum Kobalt? Weil die heutigen Smartphones, Laptops, Laubbläser, Spielzeuge und vieles mehr ihre revolutionäre Tragbarkeit dem Aufkommen der mit Kobalt angereicherten Lithiumbatterien verdanken. …

Das Herzstück von Karas Mission ist es, den handwerklichen Bergbau zu dokumentieren, d. h. das Schürfen und Fördern von Menschen mit manueller, roher Kraft anstelle von Lastwagen und Löffelbaggern. Sie haben die Hälfte des Buches hinter sich, bevor Mr. Kara die Bombe platzen lässt: Der handwerkliche Anteil an der Produktion des Kongo, der oft als vernachlässigbar abgetan wird, könnte über 30 % betragen. … An jedem Ort, den er besuchte, ob mit offizieller Eskorte oder durch heimliches Eindringen, war das, was er sah, „eine Höllenlandschaft aus Kratern und Tunneln, patrouilliert von Wahnsinnigen mit Gewehren“. Es war ein „mondähnliches Ödland“, eine „verwüstete Landschaft“, die „einem Schlachtfeld nach einem Bombardement aus der Luft glich.“ [Lesen Sie den Rest im Wall Street Journal – leider hinter einer Zahlschranke].

Link: https://cornwallalliance.org/2023/03/cobalt-red-review-the-human-price-of-cobalt/

Übersetzt von Christian Freuer für das EIKE

 




Die Gefahr kurzer Datensätze

Willis Eschenbach

Vor ein paar Monaten stieß ich auf eine weitere Behauptung, dass der Sonnenfleckenzyklus das Wetter hier unten an der Erdoberfläche beeinflusst, insbesondere die Meerestemperaturen in der El-Nino-Region des tropischen Pazifiks. Die Arbeit heißt Evidence of solar 11-year cycle from Sea Surface Temperature (SST), von Mazza und Canuto, im Folgenden MC2021 genannt. Ich habe darüber in meinem Beitrag „CEEMD Versus Joe Fourier“ geschrieben. In diesem Beitrag möchte ich meine Analyse ein wenig erweitern und einen der Gründe klären, warum die Behauptungen von MC2021 nicht stimmen.

Diejenigen, die meine Arbeiten lesen, wissen vielleicht, dass ich anfangs wirklich daran glaubte, dass Sonnenflecken das Wetter auf der Oberfläche beeinflussen. Als Kind hatte ich von William Herschels Behauptung aus dem Jahr 1801 gelesen, dass Sonnenflecken die Weizenpreise in England beeinflussen. Ich dachte also, dass es sehr einfach sein würde, Beweise dafür zu finden, dass die durch Sonnenflecken verursachten Schwankungen der Sonnenenergie tatsächlich das Wetter auf der Erdoberfläche beeinflussen.

Aber als ich mir die Daten zum ersten Mal ansah, fand ich … nichts. Also habe ich weiter gesucht. Seitdem habe ich mir Dutzende von angeblichen Korrelationen angesehen und … nichts gefunden. Nun, das ist nicht ganz richtig. Ich fand eine wissenschaftliche Abhandlung mit dem Titel „On The Insignificance Of Herschel’s Sunspot Correlation“ (Über die Bedeutungslosigkeit von Herschels Sonnenflecken-Korrelation), in der der Autor nach stichhaltigen Beweisen für Herschels Behauptung suchte. Er fand …

nichts.

Daher war ich an der MC2021-Studie interessiert. Darin heißt es:

Nachdem wir Hunderte von Temperaturaufzeichnungen der Erdoberfläche heruntergeladen und analysiert hatten, fanden wir in einigen wenigen Fällen eindeutige Beweise für die Signatur des 11-Jahres-Zyklus der Sonne, während diese in der überwiegenden Mehrheit der anderen Fälle nicht nachweisbar war, da sie unter anderen (saisonalen oder El-Nino-bedingten) Schwingungen oder Rauschen begraben war. Wir haben festgestellt, dass zwei Bedingungen am günstigsten sind, um die richtige Sonnensignatur in den Temperaturaufzeichnungen zu finden: als Daumenregel:

Die tropischen Meerestemperaturen im Bereich von 5°N – 5°S. Das ist nicht verwunderlich, da die Sonnenstrahlen dort ihre Energie mit weniger Reflexion oder Streuung und mit einem optimalen Einfallswinkel auf die Wasseroberfläche übertragen.

Vergessen Sie Anomalien oder Indizes jeglicher Art; für unsere Ziele sind dies nur Datenverstopfungen. Schauen Sie, wann immer möglich, auf die realen Meerestemperaturen (SST).

Nach sorgfältiger Analyse der vielen Temperaturaufzeichnungen der gesamten Erdtemperatur sowie ausgewählter Regionen haben wir zwei Regionen ermittelt, die am stärksten vom 11-jährigen Sonnenzyklus betroffen sind. Bei beiden handelt es sich um die äquatorialen Ozeanregionen, die den Klimaforschern als El-Nino-3 und El-Nino-3-4 bekannt sind.

Hier ist ihr Diagramm, das die behauptete Beziehung zeigt:

Abbildung 1. Abbildung 4 von MC2021, die die Beziehung zwischen Sonnenflecken und den Zyklen in den El-Nino-Regionen zeigt.

Also habe ich nachgesehen, ob ich ihre Ergebnisse reproduzieren kann. Anstatt nur die Indizes Nino4 und Nino34 zu verwenden, habe ich auch den Multivariaten ENSO-Index (MEI) und den Southern Oscillation Index (SOI) herangezogen. Von all diesen Indizes ist bekannt, dass sie in gewisser Weise mit der El Nino/La Nina-Oszillation im tropischen Pazifik korrelieren. (Ich habe den NINO3-Index nicht verwendet, weil er nicht mit den anderen korreliert.) Hier ist das Ergebnis, beginnend im Jahr 1979, dem Beginn des MEI-Datensatzes:

Abbildung 2. Ein Vergleich der zugrundeliegenden ~ 11-Jahres-Zyklen in den Sonnenflecken und dem tropischen Pazifik. Die Zyklen wurden mithilfe der vollständigen empirischen Ensemble-Mode-Zerlegung ermittelt.

Eine Sache ist sicher. Nino4, Nino34, MEI und SOI sind allesamt eindeutig unterschiedliche Messgrößen für das gleiche zugrunde liegende Phänomen. In jedem Datensatz können Sie die jüngsten, sehr langen La Nina-Bedingungen auf der rechten Seite der Grafik sehen, und die Datensätze stimmen durchweg gut miteinander überein.

Und sie stimmen alle recht gut mit den Sonnenflecken überein, mit einer Verzögerung von einigen Jahren zwischen den Sonnenflecken und den Indizes der tropischen Ozeane.

Was gibt es also nicht zu mögen?

Nun, was man nicht mögen kann, ist, dass die Datensätze sehr kurz sind. Meine Faustregel besagt, dass man mit nur drei Zyklen eines Phänomens nicht viel aussagen kann, und ich habe mich schon mehr als einmal von fünf Zyklen täuschen lassen. Und hier haben wir nur vier Zyklen.

Glücklicherweise reicht der MEI zwar nur bis 1979 zurück, die anderen drei Indizes reichen jedoch viel weiter zurück. Hier sind die vollständigen Datensätze, beginnend mit dem Jahr 1870:

Abbildung 3. Vergleich der zugrunde liegenden ~ 11-jährigen Zyklen im tropischen Pazifik nach 1870. Die Zyklen wurden mithilfe der Complete Empirical Ensemble Mode Decomposition (CEEMD) bestimmt.

Da es eine recht gute Übereinstimmung zwischen den Zeitpunkten der Zyklen der drei Datensätze gibt, möchte ich ihren Durchschnitt verwenden, um die langfristigen Bedingungen im tropischen Pazifik darzustellen, und diesen mit den Sonnenfleckendaten vergleichen:

Abbildung 4. Ein Vergleich der Sonnenflecken nach 1870 und der zugrunde liegenden durchschnittlichen ~ 11-jährigen Zyklen im tropischen Pazifik. Die Zyklen wurden mithilfe der Complete Empirical Ensemble Mode Decomposition (CEEMD) bestimmt.

Ich bin sicher, Sie können die Schwierigkeit erkennen. Vor etwa 1945 ist der Ozean weit von der Phase der Sonnenflecken entfernt. Und je weiter man zurückgeht, desto größer wird die Diskrepanz zwischen den beiden Datensätzen. Hinzu kommt, dass die Hüllkurven der Signale sehr unterschiedlich sind. Man würde erwarten, dass, wenn das Sonnensignal stark ist, auch das Temperatursignal stark sein sollte … aber das ist überhaupt nicht der Fall.

Dies lässt sich auch anhand der Fourier-Analyse erkennen. Der jüngere Teil des ENSO-Datensatzes nach 1960 weist einen eindeutigen 12-Jahres-Zyklus auf (nicht 11, sondern 12 Jahre, blaue Linie, rechtes Feld) … aber wenn man sich den gesamten Datensatz bis 1870 ansieht (rote Linie, rechtes Feld), verschwindet dieser Zyklus im Rauschen und ändert sich in einen 13-Jahres-Zyklus. Beachten Sie, dass dies bei den Sonnenfleckendaten nicht der Fall ist (linkes Feld). Dort liegt der 11-Jahres-Zyklus immer deutlich über dem Rauschen und bleibt konstant bei 11 Jahren.

Abbildung 5. Fourier-Periodogramme der Sonnenflecken in voller Länge (rot) und nach 1960 (linkes Feld) sowie der Nino4-Index (rechtes Feld).

Leider haben wir, die wir uns mit Klimawissenschaften beschäftigen, es mit einem äußerst komplexen System zu tun. Das Klima setzt sich aus sechs großen Teilsystemen zusammen: Atmosphäre, Biosphäre, Hydrosphäre, Kryosphäre, Lithosphäre und Elektrosphäre. Jedes dieser Teilsysteme weist interne Resonanzen und Zyklen auf, die auf verschiedenen Zeitskalen von Millisekunden bis zu Millionen von Jahren auftreten. Und nicht nur das: Alle Teilsysteme tauschen auf denselben Zeitskalen in regelmäßigen, unregelmäßigen und zufälligen Abständen Energie aus. Schließlich wird das System von einer ständig wechselnden Energiequelle gespeist.

Selbst das IPCC räumt ein, dass dieses System völlig chaotisch ist, ein Chaos, das seit Millionen von Jahren besteht. Infolgedessen sehen wir oft das, was ich „Pseudozyklen“ nenne. Das sind zyklische Schwankungen in bestimmten Datensätzen. Es handelt sich jedoch nicht um echte Zyklen – sie treten ohne Vorwarnung auf, dauern einige Zeit an und verschwinden dann wieder, um durch andere Pseudozyklen ersetzt zu werden.

Dieses Problem wird durch die Tatsache verschärft, dass so viele unserer wetterbezogenen Datensätze so kurz sind, oft kürzer als ein Menschenleben. Der MSU-Datensatz für die Temperatur der unteren Troposphäre umfasst nur 44 Jahre an Daten, kürzer als die meisten Menschenleben. Dasselbe gilt für den Multivariaten Enso-Index und auch für die Daten nach 1970, die in dem hier diskutierten Papier MC2021 verwendet werden.

Und diese Überschneidung von kurzen Datensätzen und Pseudozyklen führt zu vielen Behauptungen über zyklisches Verhalten in Temperatur-Datensätzen, insbesondere in Bezug auf Sonnenflecken, wo es in Wirklichkeit keine echten, unveränderlichen Zyklen gibt.

Es gibt ein letztes Problem. Dies hat mit der Tatsache zu tun, dass natürliche Wetterdaten oft „autokorreliert“ sind. Das bedeutet, dass die Temperatur von heute oft mit der von gestern zusammenhängt, und die Temperatur von diesem Monat oft mit der des letzten Monats.

Das Problem ist, dass autokorrelierte Daten oft Zyklen enthalten … Zyklen, die etwas bedeuten können oder auch nicht. Hier ist zum Beispiel ein zufälliger autokorrelierter Datensatz eines Typs, der „Fractional Gaussian Noise“ oder „FGN“ genannt wird. Wie der Name schon sagt, handelt es sich nur um Rauschen, nicht um sinnvolle Signale. Beachten Sie, wie sehr er beispielsweise einem natürlichen Temperaturdatensatz ähnelt:

Abbildung 6. Ein Beispiel für zufälliges fraktionales Gauß’sches Rauschen (fractional gaussian noise, FGN).

Und hier ist die CEEMD-Zerlegung desselben FGN-Datensatzes. Denken Sie daran, dass es sich hier nur um Rauschen handelt und keine tatsächlichen Signale vorhanden sind:

Abbildung 7. CEEMD-Analyse eines Beispiels von zufälligem fraktionalem Gauß’schen Rauschen (FGN).

Also … was sehen wir hier? Nun, das linke Feld zeigt die einzelnen Signale, die sich aus der Zerlegung des FGN-Rauschens ergeben. Wie Sie sehen können, gibt es Signale bei einer Vielzahl von Frequenzen, mit einem Rest, der zeigt, was übrig bleibt, nachdem alle regulären Signale entfernt wurden.

Das rechte Feld zeigt dagegen „Periodogramme“ für jedes der Signale im linken Feld mit den entsprechenden Farben. Die Periodogramme zeigen, welches die stärksten Zyklen in den zerlegten Signalen sind. Man erkennt: der stärkste Zyklus liegt bei 10 Jahren und ist in Grün dargestellt. Sie können dieses Signal auf dem linken Feld sehen. Das muss von den Sonnenflecken kommen! … oh, Moment, das ist nur zufälliges Gauß’sches Rauschen …

Die Zehnjahreszyklen sind jedoch weit von einem regelmäßigen Signal entfernt. Sowohl die Amplitude als auch die Zykluslänge ändern sich ständig, wie man an der grünen Linie im linken Feld erkennen kann. Dies ist auch an den kleineren Spitzen in der grünen Linie auf der rechten Seite zu erkennen.

Das ist es, was ich einen „Pseudozyklus“ genannt habe. „Pseudo“ deshalb, weil es sich nicht um einen unveränderlichen, dauerhaften Zyklus handelt. Stattdessen ist es nur einer der vielen Zyklen, die wir in allen autokorrelierten Daten finden, bedeutungslose Zyklen, die erscheinen, sich ändern und wieder verschwinden.

Zu beachten ist auch, dass das FGN-Rauschen einen anhaltenden Trend enthält, die schwarze Linie unten rechts im linken Feld. Dies ist das Ergebnis der gleichen Sache, der Autokorrelation. Wie in dem AGU-Artikel „Nature’s Style: Naturally Trendy“ beschrieben können Trends in natürlichen Datensätzen genauso wenig bedeuten wie der Trend, den diese FGN-Daten zeigen.

Aus diesem Grund müssen in der Klimawissenschaft die statistischen Behauptungen immer und jedes Mal um die Autokorrelation bereinigt werden … zum Beispiel sagt die Statistik des oben gezeigten FGN-Signals ohne die Bereinigung um die Autokorrelation, dass der Trend sehr aussagekräftig ist, mit einem p-Wert von <2e-16.

Aber wenn wir die Autokorrelation bereinigen und die Bonferroni-Berechnung verwenden, um die Tatsache zu berücksichtigen, dass ich 5 FGN-Datensätze untersucht habe, um diesen einen zu finden, stellt sich heraus, dass er überhaupt nicht statistisch signifikant ist, mit einem Autokorrelations- und Bonferroni-bereinigten p-Wert von 0,075 … also doch nur zufälliges Rauschen.

Klimawissenschaft. Versteckte Schlaglöcher überall.

————————————

Es folgt noch eine Liste von Beiträgen verschiedener Autoren dazu aus früheren Jahren.

Link: https://wattsupwiththat.com/2023/03/18/the-danger-of-short-datasets/

Übersetzt von Christian Freuer für das EIKE

 




Das LWIR-Puzzle*: Experimente mit dem MODTRAN-Modell

Kevin Kilty

Abbildung 1. Unterschiede in der ausgehenden langwelligen Strahlung (OLR) an der Spitze einer tropischen Atmosphäre zwischen 260 ppm und 420 ppm CO₂-Konzentration. Die einzigen offensichtlichen Unterschiede liegen in der Nähe des atmosphärischen Wasserdampffensters.

Auf dieser Website wird viel Tinte über CO₂ und seine Auswirkungen auf die langwellige Infrarotstrahlung (LWIR) verschüttet, sowohl in den Artikeln selbst als auch in den nachfolgenden Threads. Da diese Seite von vielen Skeptikern des Zusammenhangs zwischen CO₂ und globaler Erwärmung besucht wird, versuchen die meisten dieser Argumente, CO₂ als Ursache für eine Klimaerwärmung zu entlasten.

Ein gemeinsames Thema ist, dass die relativ geringe Auswirkung einer CO₂-Verdoppelung auf das LWIR an der Oberseite der Atmosphäre (TOA) zu gering zu sein scheint, um die viel größere Wirkung zu erzielen, die für eine Erwärmung von 3 K an der Oberfläche erforderlich ist. In mehreren Artikeln vom letzten Sommer wurden die Behauptungen des IPCC gegenüber dem Stefan-Boltzmann-Gesetz in Frage gestellt;[1][2] und viele Kommentare spiegeln diese Meinung ebenfalls wider. Es scheint ein allgemeines Missverständnis zu geben, das von der Gemeinschaft der Klimaforscher selbst initiiert wurde und bis heute aufrechterhalten wird. Untersuchen wir das Problem des Infrarottransports in der Atmosphäre anhand einiger einfacher Modellierungen. Einige dieser Ergebnisse könnten für so Manchen überraschend sein.

[Hervorhebung im Original]

Die Essenz eines Missverständnisses

Wenn die CO₂-Konzentration von ihrem derzeitigen Wert von 400 ppm auf 800 ppm verdoppelt wird, führt dies zu einer Verringerung der ausgehenden LWIR-Strahlung um etwa 3,7 W/m² am TOA.[3] Fast jeder spricht bei diesem Rückgang von einem „Forcing“. Diese unglückliche Formulierung erweckt den Eindruck, dass sich die 3,7 W/m² an der TOA mit der Sonnenstrahlung, die auf die Oberfläche trifft, verbinden und die Oberflächentemperatur direkt nach oben treiben. Er suggeriert, wenn man so will, so etwas wie einen Wärmestromvektor, der auf die Oberfläche zeigt.

Dies ist jedoch nicht der Fall. Das Defizit von 3,7 W/m² strahlt überhaupt nicht vom TOA auf die Oberfläche. Es handelt sich um ein Defizit der ausgehenden Strahlung, das durch die höhere CO₂-Konzentration auf allen Ebenen der Atmosphäre verursacht wird, die mehr Strahlung absorbiert und effektiver in alle Richtungen abstrahlt. Der Wert von 3,7 W/m² an der TOA hängt von der angenommenen Temperatur und Zusammensetzung der Atmosphäre ab.

In der Nähe der Erdoberfläche verhält es sich ähnlich. Das LWIR wird in dieser Atmosphäre aufgrund unserer neuen CO₂-Konzentration anders absorbiert und emittiert. Da die Atmosphäre für LWIR relativ undurchlässig ist (allerdings nicht völlig undurchlässig; verschiedene Modelle gehen von 12 % bis 35 % Transparenz in der Spalte von der Oberfläche bis zum TOA aus), hat das, was am TOA geschieht, nur begrenzte Auswirkungen auf das, was an der Oberfläche geschieht. Was an der Oberfläche zählt, ist hauptsächlich die Absorption und Emission von LWIR im wärmsten und feuchtesten Teil der Atmosphäre in Bodennähe. Der Klimaantrieb ist die Störung, die CO₂ auf den lokalen LWIR-Transport ausübt; es ist nicht der Rückgang des LWIR um 3,7 W/m², den wir aufgrund dieser Störung zufällig am TOA beobachten können.

Strahlungstransport

Die Übertragung von Strahlungsenergie ist ein komplexes Problem. Häufig wird allein die Stefan-Boltzmann-Gleichung als Grundlage für Strahlungsberechnungen verwendet. Dies funktioniert nur, wenn die Strahlung zwischen Oberflächen ausgetauscht wird, zwischen denen sich kein IR-aktives Medium befindet. Mit anderen Worten: Die alleinige Verwendung des Stefan-Boltzmann-Gesetzes schränkt die Probleme, die man legitimerweise angehen kann, stark ein.

Wenn eine physikalische Situation Grenzen mit fester Temperatur oder festem Strahlungsfluss und ein Medium umfasst, das durch Emission, Absorption oder Streuung an der Übertragung teilnehmen kann, wird das Problem enorm schwieriger und erfordert einen echten Lösungsansatz für den Strahlungstransport. Das einzige Tool, das mir zur Verfügung steht, ist MODTRAN, das den Transport zwischen zwei Punkten im Raum berechnen kann, solange Temperatur und Zusammensetzung angegeben sind. Es kann keine unbekannte Temperatur berechnen, weil es kein vollständiger Lösungsansatz für die Transportgleichung ist.

Das Problem des Strahlungstransports sieht folgendermaßen aus: Strahlung, die an einem beliebigen Punkt im Raum einfällt, hat den Raum auf Strahlen von anderen Punkten durchquert, an denen es zu Absorption, Emission und Streuung gekommen ist. Inzwischen entsteht an jedem Punkt aufgrund seiner Temperatur eine gewisse Menge an emittierter Strahlung, die sich in alle Richtungen ausbreitet. MODTRAN berechnet die akkumulierten Änderungen der Strahlungsintensität entlang einer bestimmten Bewegungsrichtung aus all diesen Faktoren.

Dieses Problem ist fast identisch mit dem der Berechnung des Neutronenflusses in einem Kernreaktor, der Wärme abgibt, Elemente umwandelt und dabei weitere Neutronen aussendet. Ohne eine Transportgleichung würde man nie verstehen, was in einem Reaktor vor sich geht, und dasselbe gilt für den Transport von Strahlungswärme in einer aktiven Atmosphäre.

Grenzen des MODTRAN-Modells

Die an der Universität von Chicago verfügbare Version von MODTRAN besteht aus einem in den 1980er Jahren geschriebenen FORTRAN-Programm, auf das man über einen in einer anderen Sprache geschriebenen „Wrapper“ in begrenztem Umfang zugreifen kann. Der Wrapper bietet eine grafische Benutzeroberfläche (GUI) mit Eingabefeldern, in denen man die Randtemperaturen ändern, aus einer begrenzten Anzahl von Atmosphärenmodellen auswählen und den Gehalt an Treibhausgasen oder die Wolkenbedeckung einstellen kann. Das ist praktisch, verhindert aber, dass man die volle Leistung des alten FORTRAN-Codes nutzen kann.

Zum einen kann man nicht in jedem beliebigen Blickwinkel wählen. Nur vertikale Ansichten sind erlaubt. Um die Strahlungsintensität (I) entlang eines vertikalen Pfades in die tatsächliche Bestrahlungsstärke (Fluss) auf einer Oberfläche (G) umzuwandeln, geht man in der Regel von isotroper Strahlung aus, was die Umwandlung so einfach macht wie G= pI. [4] Dies ist nicht besonders wichtig, außer dass es Teil einer Liste von Problemen ist [5], die verhindern, dass die Genauigkeit von MODTRAN besser als 5-10 W/m² ist. Unterschiede zwischen Modellen, die sich nur durch ein oder zwei Parameter unterscheiden, sind jedoch wahrscheinlich genauer als dies.

Zweitens tritt bei einer infrarot-aktiven Atmosphäre eine Temperaturdiskontinuität an den Grenzflächen auf [6], wodurch ein Konzept wie die Oberflächentemperatur mehrdeutig wird. Es erschwert die Einbeziehung der konvektiven Wärmeübertragung in ein Problem.

Drittens habe ich, nachdem ich viele Modelle ausgeführt habe, einen Fehler im alten FORTRAN-Code festgestellt. Der Fehler manifestiert sich in getrennten Durchläufen mit unterschiedlichen Parametern, die zu genau denselben Lösungen führen – und ich meine genau. Das ist ein Fehler. Vor vierzig Jahren wurde ich dafür bezahlt, alte FORTRAN-Codes aus dem gleichen Jahrgang wie MODTRAN umzuschreiben, um sie zwischen Maschinen mit unterschiedlichen Wortlängen, unterschiedlichen Sprachen und unterschiedlichen Compilern zu portieren. Genau wie MODTRAN stammten diese Codes von Bundesverträgen oder Bundesbehörden. Die meisten enthielten eine gewisse Anzahl von Fehlern. Im Falle von MODTRAN scheint der Code an Stellen, an denen er doppelte Genauigkeit verwenden sollte, mit einfacher Genauigkeit zu rechnen.

Benutzer aufgepasst.

Die Auswirkungen von Änderungen der CO₂-Konzentration

MODTRAN bietet mehrere Modelle der Atmosphäre an. Nehmen wir das tropische Modell als Beispiel, und zwar aus dem einfachen Grund, dass ein großer Teil des Sonneneintrags auf die Erde in den Tropen stattfindet. Betrachten wir außerdem die Unterschiede zwischen 260 ppm (vorindustrielle) und 420 ppm (nahezu aktuelle) CO₂-Konzentration. Als Obergrenze der Atmosphäre (Top of Atmosphere, TOA) nehmen wir eine Höhe von 18 km über der Oberfläche von 1013 mbar an. Unser Referenzmodell liegt bei 260 ppm. Es gibt keine Wolken und wir vernachlässigen jegliche Auswirkungen der Konvektion. Ich konzentriere mich ausschließlich auf den Strahlungstransport.

Wie Abbildung 2 zeigt, berechnet MODTRAN die Unterschiede im Strahlungstransport, die durch den von uns gewählten CO₂-Anstieg verursacht werden, als einen Rückgang am TOA von 3 W/m². Die neue Atmosphäre absorbiert mehr LWIR. Diese Abnahme der LWIR-Strahlung würde von Satelliten gemessen werden, aber sie hat sich über 400 Jahre hinweg vollzogen und beträgt nur ein Zehntel Watt pro Quadratmeter und Jahrzehnt. Er ist mit anderen Worten nicht messbar, da er im Rahmen des Auflösungsvermögens eines jeden Instruments und des von der Erde verursachten Rauschens liegt [7].

Abbildung 2. Ergebnisse des Referenzmodells und Vergleich mit dem Modell mit höherer CO₂-Konzentration (420 ppm). Beachten Sie, dass die OLR infolge der neuen Absorption in der Atmosphäre zurückgegangen ist.

Das OLR-Diagramm (Abbildung 3) in diesem aktuellen WUWT-Aufsatz [in deutscher Übersetzung hier] zeigt, dass Klimastörungen weitaus größere Auswirkungen haben. Die beiden jüngsten El Ninos und der Pinatubo zum Beispiel zeigen in diesem Diagramm weitaus größere Auswirkungen, als es unser langsamer CO₂-Anstieg jemals könnte. Folglich beweist die Grafik nichts über den gegenwärtigen Einfluss von CO₂.

Abbildung 3. Grafik der von Satelliten gemessenen abgehenden langwelligen Strahlung. Vorübergehende Störungen des Klimas wie El Ninos und Vulkanausbrüche machen etwa 1-2 W/m² aus, während der Einfluss von CO₂ in der vorindustriellen Zeit bis heute über die gesamte Grafik hinweg nur etwa 10-20 % ausmachen würde. Diese Grafik stammt aus Dewitte und Clerbaux, 2018, Remote Sensing, 10(10), S.1539 und wurde im oben verlinkten aktuellen WUWT-Aufsatz referenziert.

In der Zwischenzeit erhöht dieser CO₂-Anstieg in der Nähe der tropischen Oberfläche den nach unten gerichteten Fluss um 1 W/m². Wenn wir davon ausgehen, dass sich die tropische Atmosphäre und die Oberfläche in unserem Referenzmodell im Energiegleichgewicht befanden, dann werden die bei 420 ppm berechneten Änderungen des LWIR-Flusses die Temperatur der Atmosphäre und der Oberfläche erhöhen, bis das ausgehende LWIR am TOA wieder den Referenzwert von 301,6 W/m² erreicht. Um herauszufinden, wie hoch der Temperaturanstieg sein muss, um das Gleichgewicht wiederherzustellen, können wir MODTRAN durch eine Reihe von Iterationen verwenden.

Mit Hilfe des Stefan-Boltzmann-Gesetzes können wir berechnen, dass ein Anstieg der langwelligen Strahlung um 1 W/m² an der Oberfläche die Grenztemperatur an der Oberfläche nur um 0,18 K erhöhen würde. Dies ist viel zu wenig, um die Energie am TOA auszugleichen, aber selbst diese kleine Anpassung der Oberflächentemperatur erhöht nicht nur die OLR, sondern auch die abwärts gerichtete LWIR an der Oberfläche erheblich. Wiederholte MODTRAN-Berechnungen mit verfeinerten Schätzungen der Oberflächentemperatur zeigen, dass das Energiegleichgewicht am TOA mit einem Temperaturanstieg von 0,7 K wiederhergestellt ist. Abbildung 4 zeigt dies. Ein Anstieg um 0,7 K an der Oberfläche, die fast schwarz ist (e=0,97), kann jedoch nicht ohne einen Anstieg der emittierten Leistung (berechnet mit dem Stefan-Boltzmann-Gesetz) von 4,2 W/m² aufrechterhalten werden. Das ist ein viel größerer Wert als der, mit dem wir begonnen haben.

Abbildung 4. Eine Erhöhung der Grenztemperatur um 0,7 K stellt das Energiegleichgewicht am TOA wieder her.

Wie geschieht das? Ein geringer Anstieg der Bestrahlungsstärke an der Bodenoberfläche erhöht deren Temperatur. Dies wiederum erhöht die von der Oberfläche abgestrahlte Leistung. Die erhöhte Strahlungsleistung wird in der Atmosphäre absorbiert, vor allem in der Nähe der Oberfläche, da dies der feuchte Teil der Atmosphäre ist. Ein Teil dieser absorbierten Strahlung wird an den Boden zurückgestrahlt. Dadurch steigt die Oberflächentemperatur wieder leicht an. Der Prozess wiederholt sich ad infinitum. Es handelt sich um eine unendliche Reihe von Wiederabstrahlungen, die schließlich konvergieren, wenn das Energiegleichgewicht wiederhergestellt ist. Unendliche Reihen wie diese sind bei Problemen des Strahlungsaustauschs zwischen Oberflächen mit oder ohne dazwischenliegendem aktiven Medium üblich – der Resonanzraum eines Lasers ist ein extremes Beispiel für Ersteres.

Schlussfolgerung

Unser Experiment zeigt, dass der Strahlungstransport zu den begrenzenden Oberflächen eines IR-aktiven Mediums hauptsächlich aus dem Rückstrahlungsaustausch zwischen den Oberflächen und dem benachbarten Medium besteht. Der Austausch, der in einem Teil des Mediums stattfindet, kann einen geringen Einfluss auf andere Teile haben. Je mehr Teile des Mediums voneinander isoliert sind, desto langsamer ist die Rückkehr zum Gleichgewicht durch Rückstrahlung und Temperaturanpassungen.

In unserem Testfall manifestiert sich ein Anstieg der CO₂-Konzentration von den vorindustriellen Schätzwerten bis zum heutigen Zeitpunkt zunächst in einer Abnahme von 3 W/m² an der TOA und einer Zunahme von 1 W/m² an der Oberfläche. Die Störung durch den CO₂-Anstieg in der gesamten Atmosphäre durchläuft eine Kette von Ereignissen, die darin endet, dass das Energiegleichgewicht am TOA wiederhergestellt wird und ein Temperaturanstieg an der Oberfläche einen Anstieg von 4,2 W/m² zu erfordern scheint [8]. Das ist es aber nicht. Solche scheinbaren Ungereimtheiten treten häufig auf, wenn ein aktives Medium am Transport beteiligt ist [9].

Anmerkungen

1. Eine ernsthafte Frage. In diesem Fall wurden die 3,7 W/m² am TOA mit der Energiedichte verglichen, die erforderlich ist, um einen Anstieg der Oberflächentemperatur von nur 1 K aufrechtzuerhalten, berechnet mit der Stefan-Boltzmann-Gleichung, die 7 W/m² beträgt. Der scheinbare Widerspruch ist leicht zu erkennen.

2. Hayden wird im letzten SEPP-Newsletter zitiert.

3. Dieser Wert von 3,7 W/m² für den „Klimaantrieb“ wird an vielen Stellen zitiert, kann aber durch die Verwendung von MODTRAN mit jedem seiner atmosphärischen Sommermodelle durch Verdoppelung des CO₂ nachgewiesen werden.

4. Hauptsächlich wegen der nicht isotropen Strahlung. Ein Beispiel: Aus einer Höhe von 16 km über der Erdoberfläche werden bei einem Blick auf die untere Hemisphäre 0,28 Steradiane mit einem Hintergrund aus kaltem Raum gefüllt sein, während die restlichen 6,00 Steradiane von der warmen Erdoberfläche eingenommen werden. Dies ist aus dem Bullauge eines Flugzeugs deutlich sichtbar. Aufgrund dieser Veränderung des Hintergrunds wird der durch die Annahme von G= pI berechnete Flusswert zu stark verzerrt sein.

5. Diese lange Liste enthält hauptsächlich Probleme mit der Isotropieannahme in verschiedenen Zusammenhängen. Interessanterweise verwendet der Wrapper nicht p, sondern die Konstante 3,14. Bei keiner dieser Berechnungen gibt es eine Zeitabhängigkeit. MODTRAN-Berechnungen erfolgen augenblicklich, aber die tatsächlichen Veränderungen sind verzögert und brauchen Zeit.

6. Siehe zum Beispiel: Houghton, J.T., 1986, Physics of Atmospheres, 2nd Ed., Cambridge. P. 13. Oder, M. Necati Ozisik, 1973, Radiative Transfer, Wiley-Interscience. S. 320.

7. Man könnte fast sagen, dass die Oberflächentemperatur der Erde einen Großteil ihres eigenen Treibhauseffekts verursacht.

8. Die Rückkehr zum Gleichgewicht kann lange dauern, da sie Veränderungen an der Erdoberfläche wie das Schmelzen von Eis oder die Veränderung der Vegetation mit sich bringen kann.

9. Zu den weiteren offensichtlichen Ungereimtheiten gehört, dass eine steigende CO₂-Konzentration die Erde anscheinend eher abkühlt als erwärmt, insbesondere wenn die IR-aktiven Gase in der Atmosphäre in einer dünnen Schicht in Bodennähe konzentriert sind und die übrige Atmosphäre darüber besonders transparent ist, wie z. B. in der Antarktis oder der winterlichen Arktis oder an der Bodenoberfläche von Hochregionen.

Link: https://wattsupwiththat.com/2023/03/17/the-lwir-puzzle-experiments-with-modtran/

Übersetzt von Christian Freuer für das EIKE

 




Das IPCC veröffentlicht seine jährliche Warnung vor dem Klima-Weltuntergang

Eric Worrall

UN-Klimawarnungen sind wie der Dorfkommunist, der jede Woche den baldigen Untergang des Kapitalismus vorhersagt – und ungefähr so wahrscheinlich ist es auch.

Letzte Warnung der Wissenschaftler zur Klimakrise: Jetzt handeln oder es ist zu spät

Laut IPCC-Bericht können nur rasche und drastische Maßnahmen unwiderrufliche Schäden von der Welt abwenden.

Wissenschaftler haben eine „letzte Warnung“ zur Klimakrise ausgesprochen, da die steigenden Treibhausgasemissionen die Welt an den Rand unwiderruflicher Schäden bringen, die nur durch schnelles und drastisches Handeln abgewendet werden können.

Das Intergovernmental Panel on Climate Change (IPCC), das sich aus den weltweit führenden Klimawissenschaftlern zusammensetzt, hat am Montag den letzten Teil seines gewaltigen sechsten Bewertungsberichts vorgelegt.

Die umfassende Bestandsaufnahme des menschlichen Wissens über die Klimakrise, an der Hunderte von Wissenschaftlern acht Jahre lang gearbeitet haben und die Tausende von Seiten umfasst, lässt sich auf eine einzige Botschaft zusammenfassen: Handeln Sie jetzt, oder es wird zu spät sein.

Der Generalsekretär der Vereinten Nationen, António Guterres, sagte dazu: „Dieser Bericht ist ein klarer Aufruf, die Klimabemühungen jedes Landes und jedes Sektors in jedem Zeitrahmen massiv zu beschleunigen. Unsere Welt braucht Klimamaßnahmen an allen Fronten: alles, überall, auf einmal.“

Mehr.

Im Jahre 2021 war es „Alarmstufe Rot für die Menschheit“ [hier] und im Jahre 2020 war Yale University an der Reihe, die „finale Warnung“ zu verbreiten [hier]

Aus beiden Reports zitiert Worrall längere Passagen, die hier nicht mit übersetzt werden. A. d. Übers.]

Man findet alle diese „finalen Warnungen“ bis zurück zum Jahr 1989:

Die folgende zitierte Passage versieht Autor Eric Worrall mit zahlreichen Hervorhebungen, die hier mit übernommen werden. A. d. Übers.]

U.N. sagt Katastrophe voraus, wenn die globale Erwärmung nicht eingedämmt wird

PETER JAMES SPIELMANN 30. Juni 1989

VEREINTE NATIONEN (AP) – Ein hochrangiger UN-Umweltbeamter sagt, dass ganze Nationen durch den steigenden Meeresspiegel ausgelöscht werden könnten, wenn der globale Erwärmungstrend nicht bis zum Jahr 2000 umgekehrt wird.

Küstenüberschwemmungen und Ernteausfälle würden zu einem Exodus von „Öko-Flüchtlingen“ führen und politisches Chaos verursachen, sagte Noel Brown, Direktor des New Yorker Büros des UN-Umweltprogramms (UNEP).

Er sagte, dass die Regierungen ein 10-Jahres-Fenster haben, um den Treibhauseffekt zu bewältigen, bevor er sich der menschlichen Kontrolle entzieht.

Wenn die Erwärmung die Polkappen zum Schmelzen bringt, wird der Meeresspiegel um bis zu 1 m steigen, genug, um die Malediven und andere flache Inselstaaten zu überfluten, sagte Brown am Mittwoch in einem Interview mit The Associated Press.

Küstenregionen werden überflutet werden; ein Sechstel von Bangladesch könnte überschwemmt werden, wodurch ein Viertel der 90 Millionen Einwohner vertrieben würde. Ein Fünftel des ägyptischen Ackerlandes im Nildelta würde überflutet und damit die Nahrungsmittelversorgung des Landes unterbrochen, so eine gemeinsame Studie des UNEP und der US-Umweltschutzbehörde U.S. Environmental Protection Agency.

Ökologische Flüchtlinge werden zu einem großen Problem, und was noch schlimmer ist: Die Menschen können zwar in trockenere Gebiete umziehen, aber die Böden und die natürlichen Ressourcen sind möglicherweise nicht lebensfähig. Afrika muss sich keine Sorgen um Land machen, aber würden Sie in der Sahara leben wollen?″, sagte er.

Mehr

Bevor jemand versucht zu behaupten, dass die Behauptung von 1989 keine echte UN-Warnung war: Selbst die Faktenprüfer von Snopes geben zu, dass dies eine echte UN-Warnung war;

Sagte ein UN-Beamter, die Nationen würden verschwinden, wenn die globale Erwärmung nicht bis zum Jahr 2000 umgekehrt wird?

Ein Artikel der Associated Press aus dem Jahr 1989 ist bei Leugnern des Klimawandels sehr beliebt.

Alex Kasprak

Behauptung:

1989 sagte ein hochrangiger UN-Umweltbeamter: „Ganze Nationen könnten durch den Anstieg des Meeresspiegels von der Erdoberfläche verschwinden, wenn der globale Erwärmungstrend nicht bis zum Jahr 2000 umgekehrt wird.“

Bewertung: Korrekte Zuschreibung

Mehr.

Das Jahr 2000 ist vergangen, und keine großen Nationen wurden durch die globale Erwärmung vom Erdboden verschluckt. Genauso wenig wird angesichts der jüngsten UN-Warnungen etwas Schlimmes passieren.

Meine einzige Sorge bei dieser lächerlichen Scharade gilt den naiven jüngeren Menschen, die diese Warnungen ernst nehmen und sich beunruhigt darüber fühlen, dass die Älteren nicht handeln und keinen Sinn für die Dringlichkeit zeigen, das bevorstehende Ende der Welt zu verhindern.

Aber zumindest für einige Menschen hält diese Verzweiflung nicht ewig an. Je älter man wird, desto weiser wird man, zumindest wenn es darum geht, die Glaubwürdigkeit anderer zu beurteilen. Wie oft kann ein vernünftiger Mensch zusehen, wie die UNO und andere angebliche Autoritätsfiguren sich völlig irren, und trotzdem ihre neuesten wilden Vorhersagen über eine bevorstehende Katastrophe bedingungslos akzeptieren?

Wenn man dreißig Jahre lang gescheiterte Klimakrisenvorhersagen, Weltuntergangsängste und drohende Katastrophen erlebt hat, die nicht eingetreten sind, lernen die meisten Menschen, solche Verlautbarungen nicht allzu ernst zu nehmen, ob sie es nun zugeben oder nicht. Mein Beweis für diese Behauptung ist das Scheitern verschiedener grüner Parteien bei der Durchsetzung in den Parlamenten und Kongressen der Welt.

Link: https://wattsupwiththat.com/2023/03/20/ipcc-issues-their-annual-final-climate-warning/

Übersetzt von Christian Freuer für das EIKE

Eine alarmistische Quelle auf Deutsch, von der Zeit….

 




Ein einfacher Grund, warum „Net Zero“ unmöglich ist

David Wojick

Ich habe eine neue Studie mit dem Titel „Constraining Renewables is a National Need“ [etwa: „Die Begrenzung der erneuerbaren Energien ist eine nationale Notwendigkeit“] veröffentlicht, die einen einfachen Grund dafür liefert, warum Net Zero unmöglich ist. Es ist einfach unmöglich, genügend Energiespeicher bereitzustellen, um die erneuerbaren Energien zuverlässig zu machen.

Der überstürzte Ersatz der thermischen Stromerzeugung durch erneuerbare Energien muss daher gebremst werden. Kongress, FERC und NERC müssen handeln, um eine Katastrophe zu verhindern.

Hier ist meine Zusammenfassung:

Erneuerbare Energien können nicht durch Speicherung zuverlässig gemacht werden, daher muss ihre Verbreitung begrenzt und gesteuert werden. Die North American Reliability Corporation (NERC) muss Zuverlässigkeitsstandards entwickeln um sicherzustellen, dass das rücksichtslose Vordringen der erneuerbaren Energien nicht zu einer Destabilisierung des Netzes führt.

Eine netzweite Speicherung in der erforderlichen Größenordnung, um fossile Brennstoffe durch Wind- und Sonnenenergie zu ersetzen, ist unbezahlbar. Selbst wenn man von fantastischen Preissenkungen ausgeht zeigen Analysen, dass die Kosten für die erforderliche Batteriespeicherung immer noch fast so hoch sind wie das jährliche amerikanische BIP von 23 Billionen Dollar. Die wahrscheinlichen Kosten würden ein Vielfaches des BIP betragen. Dies ist eindeutig wirtschaftlich unmöglich. Trotz dieser Unmöglichkeit treiben die derzeitige Regierungspolitik und die Praktiken der Versorgungsunternehmen die massive Netzdurchdringung mit erneuerbaren Energien voran. Dieser rücksichtslose Vorstoß muss zum Schutz der Zuverlässigkeit gebremst und gesteuert werden. Die Zuverlässigkeit des amerikanischen Stromnetzes muss aufrechterhalten werden.

Für die Zuverlässigkeit des nationalen Stromnetzes ist das NERC unter der Leitung der Federal Energy Regulatory Commission (FERC) zuständig. NERC entwickelt und pflegt Zuverlässigkeitsstandards, die von der FERC genehmigt werden. Um das rücksichtslose Wachstum der erneuerbaren Energien einzudämmen, muss NERC nun Standards entwickeln, die deren Durchdringung des Netzes regeln.

Dank einer bahnbrechenden Studie des Ingenieurs Ken Gregory wissen wir jetzt, dass die Batteriespeicherung für das gesamte amerikanische Stromnetz unerschwinglich ist. Er untersuchte mehrere Jahre und analysierte Stunde für Stunde die mit fossilen Brennstoffen erzeugte Elektrizität. Anschließend berechnete er, was es an Speicherkapazität benötigt hätte, um die gleiche Energie mit Wind- und Sonnenenergie zu erzeugen. Dazu rechnete er die tatsächliche Wind- und Solarstromproduktion dieser Jahre hoch.

Auf der Grundlage seiner Arbeit, die sich nur auf 48 Bundesstaaten erstreckte, beläuft sich unsere Schätzung des Speicherbedarfs auf erstaunliche 250 Millionen MWh. Amerika verfügt heute über weniger als 20.000 MWh an netzgekoppelten Batteriespeichern, was so gut wie nichts ist. Netzgebundene Batterien kosten heute etwa 700.000 Dollar pro MWh. Bei 250 Millionen MWh ergeben sich astronomische Gesamtkosten von 175 Billionen Dollar, nur um den heutigen Strombedarf aus fossilen Brennstoffen durch Wind und Sonne zu ersetzen. Selbst bei den von einigen Leuten ins Spiel gebrachten phantastisch niedrigen Kostenschätzungen liegen die Kosten in der Größenordnung des gesamten BIP Amerikas. Schlimmer noch: Wenn wir die von der Biden-Regierung geforderten Elektroautos bekommen, könnten sich diese astronomischen Zahlen leicht verdoppeln.

Bei den heutigen Zuverlässigkeitsbewertungen wird nichts von dieser Unmöglichkeit berücksichtigt. Weder von den Bundesstaaten noch von den Versorgungsunternehmen, NERC oder FERC. Stattdessen werden im ganzen Land Kraftwerke mit fossilen Brennstoffen durch Wind- und Solarkraftwerke ersetzt – ohne die erforderliche Speicherung. Der Grund dafür liegt auf der Hand: Die erforderliche Speicherung ist unerschwinglich.

Infolgedessen wird das amerikanische Stromnetz immer unzuverlässiger. Das Netz ist krank und wird immer kränker. Die offensichtliche Lösung besteht darin, dass die NERC Zuverlässigkeitsstandards erlässt, um das Wachstum der erneuerbaren Energien einzuschränken. Bislang hat NERC diesen fortschreitenden Verlust an Zuverlässigkeit einfach ignoriert. NERC muss umgelenkt werden, entweder durch die FERC oder den Kongress. Tatsächlich arbeitet die FERC derzeit an einer Anweisung an NERC zum Thema erneuerbare Energien und Zuverlässigkeit. Diese Anordnung geht jedoch überhaupt nicht auf die Speicherproblematik ein. Sie befasst sich nur mit Dingen wie kurzzeitigen Stromausfällen.

Der Kongress und die FERC müssen handeln, um die Zuverlässigkeit des amerikanischen Stromnetzes wiederherzustellen.

Ende der Zusammenfassung.

[Ist das alles nicht hierzulande genauso gültig? A. d. Übers.]

Angesichts dieser Unmöglichkeit stellt sich die interessante Frage, wie und wann sie sich manifestieren wird, wenn nichts getan wird, um die erneuerbaren Energien einzuschränken. Es gibt eine Reihe von unerfreulichen Möglichkeiten. Große Stromausfälle sind eine davon, aber horrende Preisspitzen sind eine andere, wie es in Europa der Fall ist. Angesichts der grundlegenden wirtschaftlichen Rolle der Energie ist sogar eine tiefe Depression möglich.

Es ist wahrscheinlich, dass die Elektrizitäts-Versorgungsunternehmen dieses Umstellungswrack bereits modellieren, aber sie verdienen momentan zu gut, um es zuzugeben. Der Kongress sollte sie dazu befragen. Siehe meine frühere Studie: „Dominion’s VCEA Compliance Plan is Disastrously Unreliable“.

Die Ingenieure der Energieversorger müssen wissen, dass eine Netto-Nullstellung einfach unmöglich ist.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2023/03/17/a-simple-reason-why-net-zero-is-impossible/

Übersetzt von Christian Freuer für das EIKE