Hinein in die Blackbox

Willis Eschenbach

Durch eine für mich typische Reihe von Missverständnissen und Zufällen bin ich dazu gekommen, mir die durchschnittlichen Modellergebnisse des Climate Model Intercomparison Project 5 (CMIP5) anzusehen. Ich habe die Durchschnittswerte der einzelnen Modelle für jedes der vier Szenarien verwendet, insgesamt also 38 Ergebnisse. Der gemeinsame Zeitraum für diese Ergebnisse ist 1860 bis 2100 oder eine ähnliche Zahl. Ich habe die Ergebnisse von 1860 bis 2020 verwendet, damit ich sehen konnte, wie die Modelle abschneiden, ohne eine imaginäre Zukunft zu betrachten. Die CMIP5-Analyse wurde vor ein paar Jahren durchgeführt, so dass für alle Jahre bis 2012 aktuelle Daten vorlagen. Die 163 Jahre von 1860 bis 2012 waren also eine „Nachhersage“ unter Verwendung tatsächlicher Treibhausdaten, und die acht Jahre von 2013 bis 2020 waren Prognosen.

Abbildung 1. Durchschnittswerte der CMIP5-Szenarien nach Modell sowie der Gesamtdurchschnitt.

An Abbildung 1 waren für mich mehrere Dinge interessant. Erstens die große Spanne. Ausgehend von einer gemeinsamen Basislinie reichten die Modellergebnisse bis 2020 von einer Erwärmung von 1°C bis zu einer Erwärmung von 1,8°C…

In Anbetracht dieser schrecklichen Temperaturstreuung zwischen den Modellen in einem Hindcast bis 2012 plus acht Jahre Vorhersage, warum sollte jemand den Modellen für das Jahr 2100 vertrauen?

Die andere Sache, die mich interessierte, war die gelbe Linie, die mich an meinen Beitrag mit dem Titel [übersetzt] „Das Leben ist wie eine schwarze Schachtel Pralinen“ erinnerte. In diesem Beitrag habe ich die Idee einer „Black Box“-Analyse erörtert. Das Grundkonzept besteht darin, dass man eine Blackbox mit Eingängen und Ausgängen hat und die Aufgabe darin besteht, ein einfaches oder komplexes Verfahren zu finden, um den Eingang in den Ausgang zu verwandeln. Im vorliegenden Fall ist die „Black Box“ ein Klimamodell, die Eingaben sind die jährlichen „Strahlungsantriebe“ durch Aerosole, CO2, Vulkane und dergleichen, und die Ausgaben sind die jährlichen globalen Durchschnittstemperaturwerte.

Im gleichen Beitrag wird auch gezeigt, dass die Ergebnisse des Modells extrem genau nachgebildet werden können, indem die Eingaben einfach verzögert und neu skaliert werden. Hier ein Beispiel aus dem Beitrag, wie gut das funktioniert:

Abbildung 2. Original Bildunterschrift: „Funktionale Äquivalenzgleichung des CCSM3-Modells, verglichen mit der tatsächlichen CCSM3-Ausgabe. Die beiden sind fast identisch.“

Ich besorgte mir also eine Reihe von CMIP5-Forcings und verwendete sie, um den Durchschnitt der CMIP5-Modelle zu emulieren (Links zu den Modellen und Forcings in den technischen Anmerkungen am Ende). Abbildung 3 zeigt das Ergebnis:

Abbildung 3. Durchschnitt der CMIP5-Dateien wie in Abbildung 1, zusammen mit der Black-Box-Emulation.

Auch hier ist die Übereinstimmung sehr gut. Nachdem ich das gesehen habe, wollte ich mir einige Einzelergebnisse ansehen. Hier ist der erste Satz:

Abbildung 4. Durchschnittswerte für sechs Szenarien aus verschiedenen Modellen.

Ein interessanter Aspekt dabei ist die Variation des Vulkanfaktors. Die Modelle scheinen mit dem Antrieb durch kurzfristige Ereignisse wie Vulkane anders umzugehen als mit dem allmählichen Anstieg des Gesamtantriebs. Und die einzelnen Modelle unterscheiden sich voneinander, wobei der Faktor in dieser Gruppe von 0,5 (halber vulkanischer Faktor) bis 1,8 (80 % zusätzlicher vulkanischer Faktor) reicht. Die Korrelationen sind alle recht hoch und reichen von 0,96 bis 0,99. Hier ist eine zweite Gruppe:

Abbildung 5. Sechs weitere Szenario-Durchschnittswerte aus verschiedenen Modellen.

Panel (a) oben links ist insofern interessant, als dass die Vulkane offensichtlich nicht in den Antrieb für dieses Modell einbezogen wurden. Infolgedessen ist der Faktor für den vulkanischen Antrieb gleich Null … und die Korrelation beträgt immer noch 0,98.

Dies zeigt, dass trotz der unglaublichen Komplexität und der Tausenden und Abertausenden von Codezeilen und der 20.000 2D-Gitterzellen mal 60 Schichten gleich 1,2 Millionen 3D-Gitterzellen … die Ergebnisse in einer einzigen Codezeile nachgebildet werden können, und zwar:

[Die Hoch- und Tiefstellungen in den folgenden Abschnitten lassen sich in den eingeschränkten Möglichkeiten des Editors nicht abbilden. Daher sind diese Absätze hier in einer Graphik-Darstellung zusammen gefasst. A. d. Übers.]

Seltsam, nicht wahr? Millionen von Gitterzellen, Hunderttausende von Codezeilen, ein Supercomputer, der sie verarbeitet … und es stellt sich heraus, dass die Ausgabe nichts anderes ist als eine verzögerte (tau) und neu skalierte (lambda) Version der Eingabe.

Nachdem ich das gesehen hatte, dachte ich, ich wende das gleiche Verfahren auf die aktuellen Temperaturdaten an. Ich habe den Berkeley Earth Datensatz für die globale durchschnittliche Temperatur verwendet, obwohl die Ergebnisse bei Verwendung anderer Temperaturdatensätze sehr ähnlich sind. Abbildung 6 zeigt das Ergebnis:

Abbildung 6. Die Temperaturaufzeichnung von Berkeley Earth und die Emulation unter Verwendung der gleichen Antriebsfaktoren wie in den vorherigen Abbildungen. Zum Vergleich habe ich Abbildung 3 auf der rechten Seite eingefügt.

Es zeigt sich, dass der Modelldurchschnitt viel empfindlicher auf den vulkanischen Antrieb reagiert und eine kürzere Zeitkonstante tau hat. Und da es sich bei der Erde um ein einzelnes Beispiel und nicht um einen Durchschnitt handelt, enthält sie natürlich viel mehr Schwankungen und hat daher eine etwas geringere Korrelation mit der Emulation (0,94 gegenüber 0,99).

Zeigt dies also, dass die Einflüsse tatsächlich die Temperatur bestimmen? Nun … nein, aus einem einfachen Grund. Die Treibhausgase wurden im Laufe der Jahre so ausgewählt und verfeinert, dass sie gut zur Temperatur passen … die Tatsache, dass sie passen, hat also keinerlei Aussagekraft.

Eine letzte Sache, die wir tun können. FALLS die Temperatur tatsächlich ein Ergebnis der Treibhausgase ist, können wir die oben genannten Faktoren verwenden, um die langfristigen Auswirkungen einer plötzlichen Verdopplung des CO2 zu schätzen. Der IPCC sagt, dass dies den Treibhauseffekt um 3,7 Watt pro Quadratmeter (W/m²) erhöhen wird. Wir verwenden einfach eine Stufenfunktion für den Treibhauseffekt mit einem Sprung von 3,7 W/m² zu einem bestimmten Zeitpunkt. Hier ist das Ergebnis, mit einem Sprung von 3,7 W/m² im Modelljahr 1900:

Abbildung 7. Langfristige Temperaturveränderung bei einer Verdoppelung des CO2-Ausstoßes unter Verwendung von 3,7 W/m² als Anstieg des Antriebs und berechnet mit den Lambda- und Tau-Werten für die Berkeley Earth und den CMIP5-Modelldurchschnitt wie in Abbildung 6 gezeigt.

Man beachte, dass die reale Erde (blaue Linie) mit der größeren Zeitkonstante Tau länger braucht, um das Gleichgewicht zu erreichen, etwa 40 Jahre, als wenn man den Durchschnittswert des CMIP5-Modells verwendet. Und da die reale Erde einen größeren Skalenfaktor Lambda hat, ist das Endergebnis etwas größer.

Ist dies also die geheimnisvolle Gleichgewichts-Klimasensitivität (ECS), über die wir so viel gelesen haben? Kommt darauf an. FALLS die Werte für den Treibhauseffekt genau sind und FALLS der Treibhauseffekt die Temperatur beeinflusst … dann sind sie vielleicht richtig.

Oder auch nicht. Das Klima ist ungeheuer komplex. Was ich bescheiden „Willis‘ erstes Klimagesetz“ nenne, besagt:

Alles im Klima ist mit allem anderen verbunden … was wiederum mit allem anderen verbunden ist … außer wenn dem nicht so ist.

Im Original folgen jetzt noch diverse technische Angaben, die in dieser Übersetzung nicht genannt werden.

Link: https://wattsupwiththat.com/2022/02/03/into-the-black-box/

Übersetzt von Christian Freuer für das EIKE

 




Wissenschaftler sind sich bzgl. Globaler Erwärmung uneins

Der folgende Beitrag ist ein Auszug aus der o. g. Studie, die vollständig als PDF hier herunter geladen werden kann. Übersetzt werden hier die

Conclusions

Die wichtigste Tatsache in der Klimawissenschaft, die oft übersehen wird ist, dass sich die Wissenschaftler nicht einig sind über die Auswirkungen der Verbrennung fossiler Brennstoffe auf das globale Klima. Es gibt keine Umfrage oder Studie, die einen „Konsens“ in den wichtigsten wissenschaftlichen Fragen zeigt, auch wenn die Befürworter häufig das Gegenteil behaupten.

Die Wissenschaftler sind sich über die Ursachen und Folgen des Klimas aus mehreren Gründen uneinig. Das Klima ist ein interdisziplinäres Thema, das Erkenntnisse aus vielen Bereichen erfordert. Nur sehr wenige Wissenschaftler beherrschen mehr als ein oder zwei dieser Disziplinen. Grundlegende Unsicherheiten ergeben sich aus unzureichenden Beobachtungsdaten und Meinungsverschiedenheiten darüber, wie Daten zu interpretieren sind und wie die Parameter von Modellen festzulegen sind. Das Intergovernmental Panel on Climate Change (IPCC), das gegründet wurde, um Forschungsergebnisse zu finden und zu verbreiten, die einen menschlichen Einfluss auf das globale Klima belegen, ist keine glaubwürdige Quelle. Er verfolgt eine bestimmte Agenda, ist eher ein politisches als ein wissenschaftliches Gremium, und manche behaupten, er sei korrupt. Schließlich können Klimawissenschaftler, wie alle Menschen, voreingenommen sein. Zu den Ursachen für Voreingenommenheit gehören Karrierismus, das Streben nach Zuschüssen, politische Ansichten und Bestätigungs-Voreingenommenheit.

Der einzige „Konsens“ unter den Klimawissenschaftlern besteht wohl darin, dass sich menschliche Aktivitäten auf das lokale Klima auswirken können und dass die Summe dieser lokalen Effekte hypothetisch zu einem beobachtbaren globalen Signal ansteigen könnte. Die Schlüsselfragen, die es zu beantworten gilt, sind jedoch, ob das globale Signal des Menschen groß genug ist, um gemessen zu werden, und wenn ja, stellt es eine gefährliche Veränderung außerhalb der natürlichen Variabilität dar oder ist es wahrscheinlich, dass es eine solche wird? Zu diesen Fragen findet auf den Seiten der von Experten begutachteten Wissenschaftszeitschriften eine lebhafte wissenschaftliche Debatte statt.

Im Widerspruch zur wissenschaftlichen Methode geht der IPCC davon aus, dass seine implizite Hypothese – dass die gefährliche globale Erwärmung aus den vom Menschen verursachten Treibhausgasemissionen resultiert bzw. resultieren wird – richtig ist und dass seine einzige Aufgabe darin besteht, Beweise zu sammeln und plausible Argumente für diese Hypothese zu liefern. Sie ignoriert einfach die Alternativ- und Nullhypothese, die durch die empirische Forschung hinreichend gestützt wird, dass die derzeit beobachteten Veränderungen der globalen Klimaindizes und der physikalischen Umwelt das Ergebnis natürlicher Schwankungen sind.

Die Ergebnisse der globalen Klimamodelle (GCMs), auf die sich der IPCC stützt, sind nur so zuverlässig wie die Daten und Theorien, mit denen sie „gefüttert“ werden. Die meisten Klimawissenschaftler sind sich einig, dass diese Daten sehr mangelhaft sind und dass die vom IPCC geschätzte Empfindlichkeit des Klimas gegenüber CO2 zu hoch ist. Wir schätzen, dass eine Verdopplung des CO2 gegenüber dem vorindustriellen Niveau (von 280 auf 560 ppm) wahrscheinlich einen Temperaturanstieg von 3,7 Wm-2 in der unteren Atmosphäre bewirken würde, was einer prima facie Erwärmung von etwa 1°C entspricht. Die in letzter Zeit ruhige Sonne und die Extrapolation der Muster des Sonnenzyklus in die Zukunft deuten darauf hin, dass es in den nächsten Jahrzehnten zu einer Abkühlung des Planeten kommen könnte.

In ähnlicher Weise sind alle fünf Postulate bzw. Annahmen des IPCC durch reale Beobachtungen leicht zu widerlegen, und alle fünf Behauptungen des IPCC, die sich auf Indizien stützen, sind widerlegbar. Im Gegensatz zur Panikmache des IPCC stellen wir zum Beispiel fest, dass weder die Geschwindigkeit noch das Ausmaß der gemeldeten Erwärmung der Erdoberfläche im späten zwanzigsten Jahrhundert (1979-2000) außerhalb der normalen natürlichen Variabilität lag, noch war sie in irgendeiner Weise ungewöhnlich im Vergleich zu früheren Episoden der Klimageschichte der Erde. Auf jeden Fall können solche Beweise nicht herangezogen werden, um eine Hypothese zu „beweisen“, sondern nur, um sie zu widerlegen. Der IPCC hat es versäumt, die Nullhypothese zu widerlegen, die besagt, dass die derzeit beobachteten Veränderungen der globalen Klimaindizes und der physikalischen Umwelt das Ergebnis natürlicher Schwankungen sind.

Anstatt sich bei der wissenschaftlichen Beratung ausschließlich auf das IPCC zu verlassen, sollten die politischen Entscheidungsträger den Rat unabhängiger, nichtstaatlicher Organisationen und Wissenschaftler einholen, die frei von finanziellen und politischen Interessenkonflikten sind. Die Schlussfolgerung des NIPCC, die sich aus seiner umfassenden Prüfung der wissenschaftlichen Erkenntnisse ergibt, ist, dass jegliche Auswirkungen des Menschen auf das globale Klima im Rahmen der Hintergrundvariabilität des natürlichen Klimasystems liegen und nicht gefährlich sind.

Angesichts dieser Tatsachen besteht die klügste Klimapolitik darin, sich auf extreme Klimaereignisse und -veränderungen vorzubereiten und sich an sie anzupassen, unabhängig von ihrer Ursache. Eine anpassungsfähige Planung für künftige gefährliche Klimaereignisse und -veränderungen sollte darauf zugeschnitten sein, auf die bekannten Raten, Ausmaße und Risiken der natürlichen Veränderungen zu reagieren. Sobald diese Pläne vorhanden sind, werden sie eine angemessene Antwort auf alle vom Menschen verursachten Veränderungen bieten, die sich ergeben können oder auch nicht.

Die politischen Entscheidungsträger sollten sich dem Druck von Lobbygruppen widersetzen, Wissenschaftler zum Schweigen zu bringen, die die Autorität des IPCC in Frage stellen und behaupten, für die „Klimawissenschaft“ zu sprechen. Der angesehene britische Biologe Conrad Waddington schrieb 1941:

Es ist … wichtig, dass Wissenschaftler bereit sein müssen, dass sich ihre Lieblingstheorien als falsch erweisen können. Die Wissenschaft als Ganzes kann sicherlich nicht zulassen, dass ihr Urteil über Tatsachen durch Vorstellungen darüber verzerrt wird, was wahr sein sollte oder was man hoffen kann, dass es wahr ist (Waddington, 1941).

Diese vorausschauende Aussage verdient eine sorgfältige Prüfung durch diejenigen, die trotz eindeutiger empirischer Beweise für das Gegenteil weiterhin an der modischen Überzeugung festhalten, dass die menschlichen CO2-Emissionen eine gefährliche globale Erwärmung verursachen werden.

Link: https://www.heartland.org/_template-assets/documents/Books/CaaGbook30vWeb2021.pdf/

Übersetzt von Christian Freuer für das EIKE

 




Man sollte Stromquellen nicht aufgrund ihrer Nennwert-Kapazität vergleichen

Ronald Stein und Tom Stacy

[Anmerkung: Alle Hervorhebungen in diesem Beitrag im Original!]

Der Vergleich der Leistungsdaten verschiedener Stromerzeuger ist vergleichbar mit der Verwendung des IQ als einzigem oder geeignetstem Maß für den Wert eines Mitarbeiters für das Unternehmen, für das er oder sie arbeitet… Wenn alle Menschen den gleichen Gesundheitszustand, die gleichen Fähigkeiten und die gleiche Arbeitsmoral hätten, würde das vielleicht ausreichen. Aber dem ist nicht so. Und bei verschiedene Arten von Kraftwerken auch nicht.

Für diejenigen unter uns, die sich mit den Kosten und Vorteilen der verschiedenen Arten von Kraftwerken innerhalb eines Netzsystems befassen, scheint es, dass es durch die Medien, die Werbung und die Öffentlichkeitsarbeit – und sogar durch Regierungsbehörden – eine gezielte Anstrengung gegeben hat, um die Öffentlichkeit über den Nutzen von Wind- und Solarkraftwerken in die Irre zu führen.

Eines der eklatantesten Beispiele ist die ständige Verwendung der „Nennleistung“ (Erzeugungskapazität) von Wind und Sonne als Maßstab für Wert und Vergleich. Die Nennleistung selbst spiegelt nicht den Beitrag von Energie oder Zuverlässigkeit zu einem Netzsystem wider.

Im 20. Jahrhundert war die „Nennleistung“ ein vernünftiger Indikator für den Beitrag zur Deckung der Spitzennachfrage, wann immer diese auftreten konnte. Anders ausgedrückt: Alle gängigen Kraftwerkstypen konnten – bis zu ihrer „Nennleistung“ – immer dann eingeschaltet und betrieben werden, wenn sie gebraucht wurden (abgesehen von planmäßigen Zeiten für größere Wartungsarbeiten oder bei der geringen Wahrscheinlichkeit eines unerwarteten Ausfalls), weil sie in der Lage waren, ihre Brennstoffe zu verwalten.

Bei diesen bewährten Technologien, deren Brennstoffverfügbarkeit von menschlichem Einfallsreichtum und Lernen/Anpassen bestimmt wird, ist es üblich, die Nennleistung nur um etwa 10 bis 15 % zu verringern, um einen „Kapazitätswert“ oder „Systemadäquanzbeitrag“ (in zuverlässigen, bedarfsgerechten Watt) zu erhalten. Dieser Wert wird für jedes Kraftwerk im gesamten System addiert, und die Summe soll die maximale Systemnachfrage (die so genannte Spitzenlast) decken, wobei etwa zehn bis fünfzehn Prozent mehr als „Reservemarge“ verbleiben, um mögliche Stromausfälle durch unerwartete Generatorausfälle oder unerwartet hohe Nachfrage zu vermeiden.

Die Höhe der Reservemarge ist ein Kompromiss zwischen dem Risiko von Stromausfällen (und anderen Problemen der Systemzuverlässigkeit) und den Kosten. Die „richtige Dimensionierung“ des Systems ist also wichtig, um die Strompreise niedrig zu halten, denn der Bau und die Wartung von Kraftwerken kosten weit mehr als der gesamte Brennstoff, den sie während ihrer Lebensdauer verbrauchen werden. Dementsprechend sind zu viele Kraftwerke in der Tat zu viele, weil ihr Bau teuer ist und sie daher auf angemessene Einnahmen aus ihrer Produktivität angewiesen sind, um sich selbst zu finanzieren und eine Investitionsrendite über mehrere Jahrzehnte zu erzielen.

Ein Systemadäquanzbeitrag von 90 Prozent pro Watt Nennleistung ist fair und bei allen konventionellen Kraftwerkstypen von Kohle über Gas bis hin zu Kernkraft üblich. Wind- und Solarenergie unterscheiden sich jedoch von Technologien mit „fester“ Kapazität. Ihre „Brennstoffe“, die Sonneneinstrahlung und der Wind, können nicht gesteuert werden, d. h. sie können nicht konstant geliefert und in Strom umgewandelt werden. Dies ist besonders kritisch zu den Zeiten, in denen die Nachfrage am größten ist. Daher können sie den teuersten Bestandteil der Stromkosten, nämlich die einsatzfähigen Kraftwerke, nicht wesentlich ersetzen. Stattdessen nehmen sie dem zuverlässigen Kraftwerkspark, den sie nur vorgeben zu ersetzen, Marktanteile, Bruttomargen und Einnahmen weg.

Ebenso problematisch wie die grundsätzliche Unfähigkeit der erneuerbaren Energien, zu Zeiten mit der höchsten Nachfrage Strom zu erzeugen, ist die Tatsache, dass diese „intermittierend betriebenen Stromerzeuger“ oft dann am meisten Strom erzeugen, wenn die Gesellschaft weniger Strom benötigt, was zu einem unterbewerteten Marktpreis für alle Stromerzeuger führt – der manchmal niedriger ist als die Kosten, die sie für die Erzeugung aufbringen müssen (bekannt als Grenzkosten), und weit unter den Gesamtkosten für die Aufrechterhaltung der Angemessenheit des Systems liegt, wenn man die Darlehenszahlungen, die Gehaltsabrechnungen und andere monatliche Ausgaben berücksichtigt, die von allen Kraftwerken getragen werden müssen.

Bei Wind- und Solarkraftwerken ist die „Nennleistung“ weder ein Maß für die erwartete Stromerzeugung im Laufe der Zeit noch für ihren Beitrag zur Zuverlässigkeit des Systems. Dennoch sehen wir immer wieder, wie staatliche Stellen, Netzbetreiber und vor allem die Medien die ERZEUGUNGSKAPAZITÄT (Nennleistung) im Vergleich zu konventionellen Stromerzeugungstechnologien anführen:

Die Verwendung der Nennkapazität zum Vergleich von Technologien führt die Menschen in die Irre, wenn sie glauben, dass wetterabhängige Elektrizität Technologien „ersetzen“ kann, die ihre Brennstoffe verwalten können, obwohl sie dies nicht können. Diese Art der Berichterstattung und Öffentlichkeitsarbeit ist, ob absichtlich oder nicht, einseitig auf die intermittierende Stromerzeugung ausgerichtet. Es ist traurig, wenn dies von den Medien und der Öffentlichkeitsarbeit gemacht wird, und noch schlimmer, wenn es von einer Regierungsbehörde gemacht wird.

Was jedoch den Kostenvergleich betrifft, so stellt das US-Energieministerium EIA dies in seinen jährlichen Berichten über die Stromgestehungskosten klar und deutlich fest und fordert:

„Der Arbeitszyklus für intermittierende erneuerbare Ressourcen, Wind und Sonne, wird nicht vom Betreiber gesteuert, sondern hängt vom Wetter oder dem Sonnenzyklus ab (d.h. Sonnenaufgang/Sonnenuntergang)…(und daher) sind ihre nivellierten Kosten nicht direkt mit denen anderer Technologien vergleichbar…“

PJM*, der größte Stromgroßhandelsmarktbetreiber der Welt, scheint in dieser Erklärung, in der er die Prioritäten seiner jüngsten Studie zur Umstellung auf erneuerbare Energien beschreibt, zuzustimmen: „Die korrekte Berechnung des Kapazitätsbeitrags der Erzeuger ist von entscheidender Bedeutung: Ein System mit mehr variablen Ressourcen wird neue Ansätze erfordern, um den Zuverlässigkeitswert jeder einzelnen Ressource und des Systems insgesamt angemessen zu bewerten.“

[PJM: Die Bedeutung des Kürzels wird auch auf der Homepage des Unternehmens nicht genannt. A. d. Übers.]

Dies spricht direkt für die Bedeutung eines genauen Vergleichs der Systemadäquanzbeiträge zwischen verschiedenen Erzeugungstechnologien als Hauptmaßstab für den Wert – anstelle der Nennleistung.

Die beiden richtigen Vergleichsmaßstäbe für intermittierende und disponible Kraftwerke, die die Verwendung der Nennleistung ersetzen sollten, sind:

1) Beitrag zur Systemadäquanz (in MW) und

2) annualisierte elektrische Energieerzeugung (in MW/h)

Leider sind, wie PJM angibt, auch die Verfahren zur Schätzung des Systemadäquanzbeitrags umstritten. Die am weitesten verbreitete Messgröße ist der „alte Ansatz“ oder ELCC (effective load carrying capability). Dieser Maßstab wäre hilfreich, wenn alle Stromerzeugungstechnologien symbiotisch und nicht parasitär wären. Mit anderen Worten: ELCC lässt außer Acht, dass Wind- und Solarenergie die finanzielle Rentabilität der bestehenden einsatzfähigen Flotte, die für den Fortbestand der erneuerbaren Energien erforderlich ist, leicht unterminieren, und dass ELCC als Grundlage für die Berechnung des Systemadäquanzbeitrags der „parasitären“ erneuerbaren Energien dient! Im Grunde genommen eignet sich die Kennzahl nicht für einen Energiemix, bei dem konkurrierende Technologien keine direkten Substitute füreinander sind. Die Argumentation von ELCC ist auf subtile Weise zirkulär, da die erneuerbaren Energien politisch begünstigt werden und die finanzielle Solvenz zuverlässiger Kraftwerksinvestitionen untergraben.

Eine bessere Methode zur Schätzung des Beitrags zur Systemadäquanz ist die Betrachtung der jüngsten historischen Erzeugungsmuster der erneuerbaren Energien im Zusammenhang mit den Lastprofilen und Amplituden, die sie bedienen könnten, unabhängig vom bestehenden Erzeugungsmix. Wir bevorzugen eine Methode namens „Mean of Lowest Quartile generation across peak load hours (MLQ)“, die vom Market Monitor in seinem SOM-Bericht 2012 über MISO vorgeschlagen wurde.

Realistischerweise zeigt die folgende Abbildung sowohl die Nennkapazität (skizziert, nicht farblich hervorgehoben) als auch den Beitrag zur Systemadäquanz (farblich hervorgehoben) des US-Strommixes zum Ende des Jahres 2018:

Indem sie die falschen Vergleichsbasis zwischen den Kraftwerkstypen verwenden, ignorieren Regierungen, Marktteilnehmer und imagebesessene Unternehmen umsichtige wirtschaftliche und physikalische Überlegungen und stellen die Vorstellung einer saubereren, sich selbst versorgenden Welt, die vom Wetter abhängig ist, über wirkliche Prioritäten wie ein erschwingliches, reichhaltiges und zuverlässiges Stromnetzsystem, in Übereinstimmung mit dem Auftrag der FERC, das menschliche Wohlergehen zu unterstützen.

Erneuerbare Energien schlagen nur deshalb „Wurzeln“, weil Regierungen, Marktteilnehmer, Regulierungsbehörden und fehlgeleitete Umwelt-, Sozial- und Governance-Faktoren (ESG) – die nur insofern fehlgeleitet sind, als sie nicht berücksichtigen, wie das Stromnetz tatsächlich funktioniert (siehe oben) – ein unrealistisches Tempo und eine unzureichende Dynamik der „Energiewende“ anstreben. Sie drängen die moderne Zivilisation dazu, eine Wirtschaft zu erreichen, wie wir sie um 1800 und davor hatten – dem letzte Mal, als die Welt „dekarbonisiert“ wurde.

Autoren: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics.

Tom Stacy Electricity System Analyst / Consultant, Ohio.

Link: https://www.cfact.org/2022/01/29/we-should-not-compare-electricity-sources-using-nameplate-ratings/

Übersetzt von Christian Freuer für das EIKE

 




Die „sozialen Kosten“ des Klima-Betrugs

Tony Heller

In der Presse gibt es zuhauf Artikel des Inhalts, dass Klimawandel rassistisch ist:

Aber in Wirklichkeit ist der Klimaalarmismus selbst rassistisch. Nach Angaben der Universität Oxford haben in Nordamerika und Europa 100 % der Bevölkerung Zugang zu sauberen Brennstoffen zum Kochen. In der Zentralafrikanischen Republik sind es jedoch weniger als 1 %. Saubere Brennstoffe sind für die meisten Menschen Methan und mit fossilen Brennstoffen betriebene Elektrizität, aber westliche Klimaalarmisten arbeiten daran, den Afrikanern die gleichen sauberen Brennstoffe zu verweigern, die sie selbst nutzen.

Der Mangel an fossilen Brennstoffen in der Dritten Welt verursacht vier Millionen vorzeitige Todesfälle pro Jahr:

Die Protagonisten des Klima-Alarms in Amerika und Europa verwehren den Afrikanern den Zugang zu gesünderer Energie, die sie brauchen, um sich vor Lungenkrebs und anderen Krankheiten zu schützen, die durch das Kochen mit Brennstoffen aus Biomasse verursacht werden:

Außerdem gibt es keine Beweise für die Behauptungen der Klimaalarmisten. Während die Nutzung fossiler Brennstoffe im letzten Jahrhundert stetig zugenommen hat, ist die Zahl der Todesfälle durch Naturkatastrophen, einschließlich Unwetter, um mehr als 95 % zurückgegangen:

Im Jahre 1921 war es weltweit zu einer Dürre und Hungersnot gekommen, in welcher Millionen Menschen dem Verhungern nahe waren:

Dies war verbunden mit einem der stärksten Sonnenstürme jemals:

Bei einem verglichen mit heute niedrigeren CO2-Gehalts in der Luft im 19. Jahrhundert starben Zehner-Millionen Menschen an Hunger und Dürre:

Die vorliegenden Beweise stützen nicht die Behauptung, dass die Nutzung fossiler Brennstoffe die Erde für die Menschen gefährlicher gemacht hat – die historischen Belege zeigen genau das Gegenteil. Die Unterernährung ist in den letzten Jahrzehnten stark zurückgegangen und die Lebenserwartung ist gestiegen:

Die Behauptungen der Klimaalarmisten werden als politische Waffe eingesetzt, aber es gibt keinen Beweis dafür, dass es einen Unterschied macht, welche Partei an der Macht ist. Die CO2-Konzentration in der Atmosphäre steigt mit Demokraten an der Macht genauso schnell an wie mit Republikanern:

Außerdem gibt es keine Beweise dafür, dass Dutzende von Klimagipfeln und -vereinbarungen der letzten drei Jahrzehnte irgendetwas bewirkt haben:

Die New York Times und die Washington Post behaupten, dass wir nur noch wenige Jahre haben, um fossile Brennstoffe durch Wind- und Sonnenenergie zu ersetzen:

Die Daten zeigen jedoch, dass Wind- und Sonnenenergie so gut wie keine Erfolge bei der Ersetzung fossiler Brennstoffe erzielen und derzeit weniger als 3 % des weltweiten Energieverbrauchs ausmachen. Bei der derzeitigen Steigerungsrate würden Wind und Sonne fast tausend Jahre brauchen, um dieses Ziel zu erreichen:

Wetterkatastrophen haben in der Vergangenheit viel mehr Leid verursacht als heute. Die Behauptungen der Klimaalarmisten beruhen nicht auf Beweisen, und sie benutzen pseudo-wissenschaftliche Fehlinformationen, um eine schlechte Politik zu fördern, die den Menschen in den Ländern der Dritten Welt direkt schadet. Klimaalarmismus ist von Natur aus rassistisch – Alarmisten wollen der Dritten Welt eben den gleichen Komfort verweigern, den sie selbst genießen.

Autor: Tony Heller, geologist, electrical engineer: Another great contributor to understanding carbon dioxide from fossil fuels.

Link: https://www.cfact.org/2022/02/01/the-social-cost-of-climate-fraud/

Übersetzt von Christian Freuer für das EIKE

 




Präsident Joe Biden hat Recht, wenn er den Klimawandel als die größte globale Bedrohung einschätzt … aber aus dem falschen Grund.

Larry Bell

Und das nur, weil unsere gefährlichsten Gegner die von der Klimabesessenheit getriebene Energiepolitik seiner Regierung als Waffe einsetzen, um ihre territorialen Interessen durchzusetzen.

Moskau nutzt Bidens Aufhebung der Sanktionen gegen seine Erdgaspipeline Nord Stream 2, um dem Widerstand der NATO gegen seine drohende Offensive in der Ukraine zuvorzukommen; Peking nutzt die Versprechen zur Einhaltung von Treibhausgasemissionen als Gefälligkeit für die Kommunistische Partei inmitten der Provokationen in Taiwan, und die Mullahs in Teheran verhandeln über eine Erleichterung der Ölexport-Sanktionen, während das Weiße Haus verzweifelt nach einem neuen „Atomabkommen“ sucht.

Alle drei Kontrahenten arbeiten zusammen, um die Aufgabe der Unabhängigkeit der USA von fossilen Energieträgern und des Einflusses auf den Weltmarkt auszunutzen, die an Bidens erstem Tag im Amt mit der Annullierung der amerikanischen Keystone XL-Pipeline und der Bohrgenehmigungen in öffentlichen Gebieten und Gewässern begann.

Niemand sollte an der Ernsthaftigkeit der Ziele von Präsident Wladimir Putin zweifeln, Kiew unter Moskaus Kontrolle zu bringen, das Schwarze Meer zu beherrschen und sich als Hauptmacht in Europa gegen den wachsenden westlichen Einfluss auf andere antirussische Länder wie Polen und die baltischen Republiken zu etablieren.

Dennoch wird Bidens unerklärlich unlogische Entscheidung, die Ablehnung von Nord Stream 2 durch den ehemaligen Präsidenten Donald Trump rückgängig zu machen, die energieverarmten NATO-Länder in eine wachsende Abhängigkeit von russischen Lieferungen treiben, die sie anfälliger für Erpressungen bzgl. der Verteidigung der Ukraine machen wird.

Nord Stream 2 stellt die Ukraine nun vor zusätzliche Probleme, da die derzeitige russische Pipeline des Landes umgangen wird, die dem Land jährliche Transitgebühren in Höhe von etwa 2 Milliarden US-Dollar einbringt, was etwa 3 Prozent seines BIP entspricht.

Die EU hat allen Grund zur Sorge, dass Russland die lebenswichtige Energieversorgung derselben als Druckmittel zur Stärkung von Moskaus Einfluss nutzen wird … eine Lektion, die die Ukraine auf die harte Tour gelernt hat, als Gazprom während eines Streits im Jahr 2009 ihre Gasversorgung für 13 Tage unterbrochen hat, was schmerzhafte Auswirkungen auf Polen und andere europäische Länder hatte.

Der offensichtliche Deal mit der scheidenden deutschen Bundeskanzlerin Angela Merkel wird nun noch unhaltbarer, da sie durch eine Koalition unter Führung der SPD ersetzt wird, die Russland gegenüber noch nachgiebiger ist.

Einflussreiche SPD-Funktionäre haben erklärt, das Schicksal der Pipeline dürfe nicht mit dem der Ukraine verknüpft werden, und der neue Bundeskanzler Olaf Scholz hat nur vage eingeräumt, dass nach einer Invasion „alles besprochen werden muss“.

In Verbindung mit der Zurückhaltung der Europäischen Union bei der Erörterung konkreter Sanktionen im Falle einer russischen Invasion sollte die Ukraine auch keinen Trost aus Bidens Antwort auf einer kürzlich abgehaltenen Pressekonferenz ziehen.

Biden eröffnete die Aussicht, dass Präsident Putin sich für einen „kleineren Einfall“ oder einen Cyberangriff auf die Ukraine entscheiden könnte – im Gegensatz zu einem ausgewachsenen Krieg – und bemerkte, dass solche Aktionen die Reaktion der USA und ihrer Verbündeten erschweren könnten, „und wir am Ende darüber streiten müssen, was zu tun und zu lassen ist“.

Joe Biden fügte lahm hinzu: „Ich vermute, dass er eingreifen wird, er muss etwas tun“, sagte Biden über Putin.

In der Zwischenzeit werden Russland und China von ihren Verpflichtungen entbunden, die im Rahmen des Pariser Klimaabkommens eingegangenen CO2-Emissionen auf Null zu reduzieren, da beide Länder planen, die Kohleproduktion zu steigern.

Dies geschieht, während Biden, der die USA nach Trumps Ausstieg aus dem Abkommen wieder in das Abkommen aufgenommen hat, die OPEC anfleht, mehr Öl zu fördern. In der Zwischenzeit plant Russland, die Kohleproduktion in den nächsten zehn Jahren zu erhöhen, und die jüngste weltweite Energieknappheit, einschließlich der Kohle, die rund 56 % der Industrie-intensiven chinesischen Wirtschaft versorgt, hat Peking dazu veranlasst, seine Klimaverpflichtungen zu überdenken.

China ist, wie Russland, ein noch größerer Netto-Null-CO2-Gewinner, da die Politik der Demokraten frenetisch mehr von Batteriespeichern abhängige Wind- und Solarenergiesysteme und elektrische Plug-in-Fahrzeuge in die bereits gestressten US-Energienetze drängt.

Wir dürfen auch nicht vergessen, dass China 80 % der weltweiten Seltenen Erden, einschließlich Lithium, kontrolliert, die für die Versorgung mit den sogenannten grünen Technologien zur Dekarbonisierung von Industrie und Energie benötigt werden.

Die globalen militärischen und wirtschaftlichen Bedrohungen im Energiebereich verstärken sich in dem Maße, in dem Russland und China den Iran in ihre strategischen Planungen einbeziehen (und ausnutzen).

Sowohl Moskau als auch Peking haben Teheran im Kampf gegen die von den USA verhängten Sanktionen gegen die Entwicklung seines Atomprogramms entscheidend unterstützt.

Ende November verließen Vertreter Teherans unbeeindruckt und undankbar den Wiener Verhandlungstisch, als die USA die Idee eines Verhandlungsangebots ins Spiel brachten, das es dem Iran erlauben würde, Strom an den Irak zu verkaufen – im Gegenzug für eine Rückkehr zum gescheiterten Gemeinsamen Umfassenden Aktionsplan (Joint Comprehensive Plan of Action, JCPOA), den Trump gekündigt hatte.

Angesichts der Tatsache, dass der Iran Berichten zufolge seine Urananreicherung bereits auf 60 % vorangetrieben hat – nahe an der 90 %-Schwelle, die für waffenfähiges Material erforderlich ist – gibt es keine Möglichkeit, zum Status quo des JCPOA von 2015 zurückzukehren, da der Iran sein Uran seitdem bereits viel zu stark angereichert hat.

Peking hat unter Missachtung der US-Sanktionen offen iranisches Öl gekauft, und die Regierung Biden scheint sich nicht darum zu kümmern.

Darüber hinaus ist Russland seit langem ein Lieferant von Nuklear- und Raketentechnologie für Teheran und führt gemeinsam mit dem Korps der Islamischen Revolutionsgarden Irans militärische Operationen in Syrien durch. Zu diesen regionalen Aktivitäten, die de facto von Russland und China unterstützt und geschützt werden, gehörten Berichten zufolge im Oktober ein Drohnenangriff auf einen US-Stützpunkt in Syrien und im November der Versuch einer vom Iran unterstützten Miliz, den irakischen Premierminister zu töten.

Als Gegenleistung für die russische und chinesische Unterstützung gilt die Islamische Republik als gutgläubiger Energie-Supermacht-Handelspartner mit riesigen Ölmengen, die fast sofort auf den Markt gebracht werden könnten, um gemeinsame territoriale Ambitionen zu finanzieren.

Gleichzeitig haben der russische Präsident Wladimir Putin und sein chinesischer Amtskollege Xi Jinping kürzlich eine Zusammenarbeit vereinbart, um die USA und unsere regionalen Verbündeten in ihren speziellen Interessensphären davor zu warnen, sich in ihre expansionistischen Pläne einzumischen.

Russlands militärische Provokationen in der Ukraine lenken die Aufmerksamkeit der USA von Chinas Aktivitäten in Taiwan ab und machen es wahrscheinlicher, dass einer der beiden oder beide ermutigt werden, die offensichtliche Führungsschwäche auszunutzen, die Amerikas Debakel beim Abzug aus Afghanistan gezeigt hat.

Diese immer engere Allianz zwischen drei unserer gefährlichsten globalen Gegner ist nicht das, was sich die meisten von uns erhofft haben, als Joe Biden versprach, ein „Einiger“ zu sein. Und während niemand mit Sicherheit vorhersagen kann, ob, wie oder wann die Welt diese gefährliche Zeit überstehen wird, ist eine Prognose sicher.

Es ist davon auszugehen, dass Moskau, Peking und Teheran weiterhin aggressiv ihre gemeinsamen Stärken und Strategien einsetzen werden, bis 2024 im Oval Office wieder Vernunft in Sachen Energie-abhängige nationale Verteidigung einkehrt.

This post originally appeared at Newsmax.com and has been republished here with permission.

Link: https://cornwallalliance.org/2022/01/president-joe-biden-is-correct-in-assessing-climate-change-as-the-greatest-global-threat-but-for-the-wrong-reason/

Übersetzt von Christian Freuer für das EIKE