Es ist an der Zeit über „Nutzungsgrade“ zu reden

Dr. Lars Schernikau, energy economist and commodity trader, Switzerland/Singapore

[Alle Hervorhebungen im Original. A. d. Übers.]

In der Stromerzeugung sind Nutzungsgrad, Auslastung und Lastfaktor nicht dasselbe.

In der Presse,der Politik und sogar unter „Energie-Experten“ herrscht oft Verwirrung über die Verwendung des Begriffs „Nutzungsgrad„ (in Eng. Capacity Factor). Dies ist entschuldbar, da die in diesem Artikel getroffene Unterscheidung erst mit dem Vordringen der variablen „erneuerbaren“ Energien wie Wind und Sonne in unsere Energiesysteme relevant wurde.

● Der durchschnittliche natürliche Nutzungsgrad der Solarenergie liegt weltweit bei etwa 11-13 %. An den besten Standorten in Kalifornien, Australien, Südafrika und der Sahara kann er über 25 % liegen, ist aber selten. (siehe www.globalsolaratlas.info, Einstellung der direkten normalen Sonneneinstrahlung)

● Die natürlichen Nutzungsgrad der Windkraft erreichen im weltweiten Durchschnitt etwa 21-24%. Die besten Offshore-Standorte in Nordeuropa können über 40 % erreichen. In den meisten Teilen Asiens und Afrikas gibt es kaum nutzbaren Wind, und der natürliche Nutzungsgrad liegt unter 15 %, mit Ausnahme von kleinen Gebieten an Teilen der Küsten Südafrikas und Vietnams. (siehe www.globalwindatlas.info, Einstellung der mittleren Leistungsdichte)

Die natürlichen Nutzungsgrade in Europa sind bei der Windkraft tendenziell höher als bei der Solarenergie. Windkraftanlagen in Nordeuropa können im Durchschnitt über 30 % erreichen (höher bei teureren Offshore-Anlagen, niedriger bei Onshore-Anlagen), aber weniger als 15 % in Indien und weniger als 8 % in Indonesien. Die durchschnittlichen, und die Betonung liegt auf durchschnittlich, jährlichen PV-Nutzungsgrade erreichen etwa ~10-11% in Deutschland, ~17% in Spanien, ~25% in Kalifornien und können 14-19% in Indien erreichen, aber sie erreichen weniger als 15% in den besiedelten Gebieten Indonesiens (für Details siehe auch Carbajales-Dale et al. 2014.

Die Abbildung weiter unten zeigt einen zweiwöchigen Zeitraum im Mai 2022 (als ich dieses Kapitel unseres Buches über Nutzungsgrade schrieb), in dem der durchschnittliche Windnutzungsgrad für ALLE deutschen Windkraftanlagen (On- und Offshore) nur ~5% erreichte.

Um Verwirrung zu vermeiden, versuche ich in meinen Texten, wo immer möglich, den Begriff „natürlicher Nutzungsgrad“ zu verwenden.

● Der „natürliche Nutzungsgrad ist der Prozentsatz der maximal möglichen Leistung des „Kraftwerks“ (Kohle, Gas, Kernkraft, Sonne, Wind, Wasser usw.), die unter den natürlichen Bedingungen des Standorts erreicht wird, wobei keine betrieblichen oder technischen Störungen oder Ausfälle angenommen werden.

● Ich definiere „Auslastung“ als den prozentualen Anteil der im Jahresdurchschnitt genutzten Kraftwerksleistung, der nur durch technische, betriebliche oder wirtschaftliche Ausfälle oder Kürzungen verringert wird… völlig unabhängig vom Nutzungsgrad.

● Der „Netto-Lastfaktor“ ist dann – nach meiner Definition – das Produkt aus natürlichem Nutzungsgrad x Auslastung

Wenn wir also vom Nutzungsgrad sprechen, beziehen wir uns nur auf den natürlichen Nutzungsgrad, nicht auf die technologisch oder betrieblich bedingte „Auslastung“ (oft als Betriebszeit, Anlagenauslastungsfaktor oder PLF für „plant load factor“ bezeichnet). Mit anderen Worten: Wenn die Technik versagt oder ein Kraftwerk absichtlich abgeschaltet wird, verringert sich zwar die Auslastung, nicht aber der natürliche Nutzungsgrad.

Wie bereits erwähnt ist der natürliche Nutzungsgrad auf den Standort und nicht auf die PV-Anlage zurückzuführen. Daher muss selbst ein perfektes PV-Material immer noch mit natürlichen Nutzungsgraden von durchschnittlich 10-25 % pro Jahr zurechtkommen, wobei andere Verluste aus der Aufbereitung, der Übertragung, dem Ausgleich oder der Speicherung stark intermittierender Stromquellen nicht berücksichtigt sind (Schernikau und Smith 2021).

In der Presse wurde mehrfach erwähnt, dass Kohle oder Gas im Durchschnitt Nutzungsgraden von 60 % oder weniger haben. Dies ist bestenfalls irreführend, wahrscheinlicher ist, dass dies aus politischen Gründen bewusst falsch ist. Bei dieser Zahl handelt es sich jedoch nicht um den aus der Natur abgeleiteten Nutzungsgrad, sondern um die Auslastung, die mit einer höheren Durchdringung von Wind- und Solarenergie sinkt und zum Anstieg der Stromsystemkosten beiträgt.

Die Auslastung sollte und kann nicht mit den natürlichen Nutzungsgraden verglichen werden, da sie sehr unterschiedlich sind. Konventionelle Kraftwerke haben einen natürlichen Nutzungsgrad von nahezu 100 %, aber ihre betriebliche und technische Auslastung liegt oft deutlich unter 90 %, auch, aber nicht nur, wegen des Vorrangs von Wind und Sonne im System. Aufgrund des hohen CF ist der Nettolastfaktor nur geringfügig niedriger als die Auslastung eines konventionellen Kraftwerks.

Da die Auslastung von Wind- und Solarkraftwerken oft nahe 100 % liegt, ist ihr Nettolastfaktor oft nur geringfügig niedriger als ihr natürlicher Nutzungsgrad.

Abbildung: Deutsche Winderzeugung 25. April bis 10. Mai 2022 während einer 2-wöchigen Windflaute. Quelle: Agora 2022, Abbildung 10 im Buch „Unbequeme Warheiten… über Strom und die Energie der Zukunft“, www.unpopular-truth.com und auf Amazon https://amzn.eu/d/48cXQQE (changed link auf DE amazon)

Leider kann der natürliche Nutzungsgrad von Wind- und Solarkraftwerken (auch von Wasserkraftwerken aufgrund der natürlichen Flussläufe) nicht vorhergesagt oder für einen bestimmten Zeitraum garantiert werden. Der natürliche Nutzungsgrad kann zwar auf Jahresbasis geschätzt werden, schwankt aber selbst im Jahresverlauf stark (siehe Europa 2021) und ist sehr unbeständig, wobei er manchmal für Wind- und Solarenergie tage- und wochenlang nahe 0 % liegt, selbst in Spitzenlagen.

Somit sind die natürlichen Nutzungsgraden weltweit ein direktes Ergebnis des Standorts der Wind- oder Solaranlage; sie hängen in keiner Weise von der eingesetzten Technologie ab und können auch nicht von ihr beeinflusst werden. Der letzte Punkt ist wichtig… keine technologischen Fortschritte können die natürliche Verfügbarkeit von Wind, Sonne oder Flussläufen verändern und somit den natürlichen Nutzungsgraden für eine bestimmte Anlage beeinflussen. Technologie KANN und WIRD verbessern, wie viel nutzbare Elektrizität man aus dem natürlichen Eingangsprodukt (Wind, Sonne, Fluss, Gas, Kohle, Uran usw.) herausholen kann… dies wird Umwandlungseffizienz oder Wirkungsgrad genannt, und ihre Grenzen werden weiter unten diskutiert.

Da gut geeignete Standorte bereits „verbraucht“ sind, kann man davon ausgehen, dass die durchschnittlichen natürlichen Nutzungsgraden im Laufe der Zeit sinken werden… im Gegensatz zu dem, was Net-Zero-Pläne annehmen (siehe Internationale Energieagentur (IEA), McKinsey & Company oder Internationale Agentur für Erneuerbare Energien (IRENA)).

1. Bei einem Photovoltaik-Park hängt der natürliche Nutzungsgrad vollständig von der Intensität und Dauer der Sonneneinstrahlung ab, die von der Jahreszeit und der Bewölkung, von Tag und Nacht und von der Fähigkeit, die Transparenz der Oberfläche des PV-Paneels aufrechtzuerhalten, beeinflusst wird, z. B. von Staub in der Sahara oder Schnee im Winter.

2. Die natürlichen Nutzungsgraden von Windparks hängen von der Verteilung der Windgeschwindigkeit am Standort und der Sättigungsgeschwindigkeit der Windturbine ab. Der Nutzungsgrad einer Windturbine wird durch die Anzahl der Stunden pro Jahr bestimmt, in denen der Windpark bei oder oberhalb der Sättigungs-Windgeschwindigkeit arbeitet (Smith und Schernikau 2022 für weitere Quellen). Wenn die Sättigungs-Windgeschwindigkeit niedrig angesetzt wird, z. B. 4-5 m/s, produziert der Windpark selbst bei hohen Nutzungsgraden wenig Energie. Üblicherweise liegen die Windsättigungs-Geschwindigkeiten bei 12-15 m/s.

Jetzt wird klar, warum die installierte Kapazität für Wind- und Solarenergie viel größer sein muss als für disponierbare Energie wie Kernkraft, Kohle, Gas oder Wasser. Dieser beträchtliche relative Anstieg der Energieerzeugungskapazität, um die gleiche verfügbare, aber unvorhersehbare Energieleistung zu erzeugen, ist mit einem wesentlich höheren Rohstoffeinsatz und Energieeinsatzfaktor für variable „erneuerbare“ Energie gekoppelt, der durch jegliche Brennstoffeinsparungen ausgeglichen werden muss.

Deutschland ist ein gutes Beispiel: Die gesamte installierte Stromerzeugungskapazität hat sich in den letzten 20 Jahren mehr als verdoppelt, im Wesentlichen aufgrund des Ausbaus von Wind- und Sonnenenergie (siehe Abbildung unten).

● Die installierte Wind- und Solarkapazität liegt jetzt bei über 125 GW und damit mehr als 150 % über dem Spitzenstrombedarf in Deutschland von etwa 80 GW.

● Die in Deutschland installierte konventionelle Stromerzeugungskapazität, bestehend aus Kohle, Gas und Kernkraft, deckt den Spitzenstrombedarf nun nur noch kaum ab.

● Trotz dieses Kapazitätszuwachses in Deutschland werden Wind- und Solarenergie im Jahr 2021 weniger als 30% der gesamten Stromerzeugung und etwa 5% des gesamten Energieverbrauchs ausmachen.

Abbildung: Installierte Kraftwerksleistung, Stromerzeugung und Primärenergie in Deutschland. Quelle: Schernikau Research and Analysis basierend auf Fraunhofer 2022, AGE 2021, Agora 2022. Abbildung 7 im Buch „Unbequeme Warheiten… über Strom und die Energie der Zukunft“, www.unpopular-truth.com und auf Amazon https://amzn.eu/d/48cXQQE (changed link auf DE amazon

Der geringe natürliche Nutzungsgrad von Wind- und Solaranlagen ist zweifelsohne einer der Hauptgründe für ihre niedrige Netto-Energieeffizienz (https://dx.doi.org/10.2139/ssrn.4000800) und damit hohen Kosten.

Umwandlungseffizienz oder Wirkungsgrad

Die folgende Abbildung fasst die Umwandlungs-Wirkungsgrade für Wind- und Solarenergie und die Gesetze, denen sie folgen, zusammen. Der Umwandlungs-Wirkungsgrad misst das Verhältnis zwischen der nutzbaren Leistung einer Energieumwandlungsmaschine und der zugeführten Energie, also nach Berücksichtigung des natürlichen Nutzungsgrades.

Abbildung: Physikalische Gesetze begrenzen technologische Verbesserungen bei Wind- und Solarenergie. Quelle: Schernikau und Smith Research and Analysis, Abbildung 11 im Buch „Unbequeme Warheiten… über Strom und die Energie der Zukunft“, www.unpopular-truth.com und auf Amazon https://amzn.eu/d/48cXQQE (changed link auf DE amazon

Dieser Artikel kann auch abgerufen werden unter https://www.linkedin.com/pulse/time-talk-capacity-factors-lars-schernikau.

Link: https://wattsupwiththat.com/2022/12/27/it-is-time-to-talk-about-capacity-factors/

Übersetzt von Christian Freuer für das EIKE

 




2022: Das Jahr der Bauchlandung von ESG

Rupert Darwall
Mit dem Jahr 2022 geht eine Ära der Illusionen zu Ende: ein Jahr, in dem die Ära nach dem Kalten Krieg zu Ende ging und die Geopolitik zurückkehrte; die erste Energiekrise der erzwungenen Energiewende; und das Jahr, in dem das Investieren in Umwelt, Soziales und Unternehmensführung (ESG) mit einem Paukenschlag auf den Boden der Tatsachen geholt wurde – im bisherigen Jahresverlauf verlor der ESG Screened S&P 500 ETF von BlackRock 22,2 % seines Wertes, während der S&P 500 Energy Sector Index um 54,0 % stieg. Die drei sind miteinander verbunden. Durch die Einschränkung von Investitionen in die Öl- und Gasproduktion westlicher Produzenten erhöhen die ESG die Marktmacht nicht-westlicher Produzenten und ermöglichen so Putins Bewaffnung der Energieversorgung.
Net Zero – der heilige Gral der ESG – hat sich als Russlands mächtigster Verbündeter erwiesen.

[Hervorhebung vom Übersetzer]

Es war nicht nur ein schlechtes Jahr für ESG auf dem Aktienmarkt. Anfang des Monats gab Vanguard bekannt, dass es aus der Glasgow Financial Alliance for Net Zero (NZAM) aussteigt, die vor etwas mehr als einem Jahr vom ehemaligen Gouverneur der Bank of England Mark Carney gegründet wurde. „Wir haben beschlossen, uns aus der NZAM zurückzuziehen, um unseren Anlegern die gewünschte Klarheit über die Rolle von Indexfonds zu verschaffen und darüber, wie wir über wesentliche Risiken, einschließlich Klima.bezogener Risiken, denken“, erklärte der weltweit zweitgrößte Vermögensverwalter.

Vor zwei Monaten veröffentlichte Alex Edmans, Mitverfasser der neuesten Ausgabe des Standardlehrbuches über die Grundsätze der Unternehmensfinanzierung und Professor für Finanzen an der London Business School, eine Studie mit dem Titel „The End of ESG“ – ohne Fragezeichen. Edmans kritisiert, was zur wichtigsten Rechtfertigung für ESG geworden ist: die Behauptung, dass Unternehmen höhere Renditen für Investoren erzielen können, indem sie den Klimawandel bekämpfen. Da Regierungen von den Bürgern eines Landes demokratisch gewählt werden, sind sie am besten in der Lage, sich mit externen Effekten zu befassen, während Investoren unverhältnismäßig stark die Eliten vertreten. „Wenn ESG wegen seiner externen Effekte verfolgt wird, sollten sich Unternehmen und Investoren darüber im Klaren sein, dass dies auf Kosten der Wertschöpfung gehen kann“, sagt Edmans.

Im Oktober wurde auch Terrence Keeleys Sustainable veröffentlicht, in dem der ehemalige BlackRock-Manager eine Art Requiem für ESG verfasst hat. Die Logik von Keeleys Argumentation, die ich für RealClear Books rezensiert habe, lautet nicht „Gutes tun, indem man Gutes tut“, sondern vielmehr, dass Investoren in konventionelle ESG-Investmentprodukte am Ende wahrscheinlich nicht sehr gut abschneiden und den Investoren ein gutes Gefühl geben, statt Gutes zu tun.

Nicht alles ist in eine Richtung gelaufen. Im Mai entließ HSBC Stuart Kirk, den globalen Forschungsleiter der HSBC-Vermögensverwaltungssparte, weil er einige harte Wahrheiten über ESG ausgesprochen hatte. Anfang dieses Monats verkündete HSBC, keine neuen Öl- und Gasfelder mehr zu finanzieren, womit sich die drittgrößte Bank des Westens in Russlands Energiekrieg gegen den Westen auf die Seite Putins stellt.

[Hervorhebung vom Übersetzer]

Was heute ein negativer Faktor zum Nachteil des Westens in einer Welt ist, die zunehmend von geopolitischen Spannungen zwischen Ost und West geprägt ist, hat seinen Ursprung in einer Periode, in der die Vereinten Nationen eine horizontale globale Teilung zwischen einem reichen Norden und einem ausgebeuteten Süden förderten. Wie Elizabeth Pollman, Professorin an der University of Pennsylvania, in ihrer Studie „The Origins and Consequences of the ESG Moniker“ vom Juni 2022 feststellt, förderten die Vereinten Nationen in den 1970er und frühen 1980er Jahren die Neue Internationale Wirtschaftsordnung, die eine Regulierung der transnationalen Unternehmen mit der angeblichen Begründung forderte, dass diese die Kluft zwischen Industrie- und Entwicklungsländern vergrößerten.

Nachdem Kofi Annan 1997 Generalsekretär wurde, wechselte die UNO von einer Strategie der Konfrontation zu einer Strategie der Kooperation. In einer Rede auf dem Weltwirtschaftsforum in Davos im Januar 1999 rief Annan einen Global Compact zwischen Unternehmen und der UNO ins Leben. Im Jahr 2004 veröffentlichte die Finanzsektor-Initiative des Global Compact einen Bericht mit dem Titel „Who Cares Wins“ (Wer sich kümmert, gewinnt) – eine Abwandlung des SAS-Mottos „Who Dares Wins“ (Wer sich traut, gewinnt) – in dem für eine „bessere Berücksichtigung von Umwelt-, Sozial- und Governance-Faktoren“ [= ESG] bei der Bewertung von Investitionen plädiert wurde, mit der Behauptung, dass dies sowohl die Ergebnisse für Investoren verbessern als auch den Vereinten Nationen helfen würde, ihre Ziele für nachhaltige Entwicklung zu erreichen.

ESG bedeutet unterschiedliche Dinge, je nachdem, mit wem man spricht. Geht es um die Offenlegung von Risiken? Oder um Faktoren, die den langfristigen Shareholder Value steigern? Oder geht es darum, dass die Gesellschaft die Unternehmen zur Verantwortung zieht? Eines ist klar: Das unhaltbare doppelte Mandat der ESG, die Aktionärsrenditen zu steigern und gleichzeitig die Welt zu verbessern – „Gutes zu tun, indem man Gutes tut“ – war schon bei der Gründung der ESG vorhanden. Es war eine Meisterleistung der ESG-Entwickler, das „G“ für Governance einzubauen. Kein Anleger kann etwas gegen eine bessere Unternehmensführung haben, und dies trug dazu bei, dass ESG zum Mainstream wurde, während frühere Ansätze wie das sozial verantwortliche Investieren (SRI) in der Nische blieben.

Die Finanzkrise von 2008 hat die Verbreitung von ESG noch beschleunigt. Nachdem die Wall Street die Finanzkrise verursacht hatte, wollte sie sich nun rehabilitieren, indem sie die Welt vor einer planetarischen Katastrophe rettete. Ohne den Klimawandel hätte ESG weitaus weniger Bedeutung. Obwohl ESG als Instrument zur Analyse des Klimarisikos vermarktet wird, ist es das nicht. In Wirklichkeit geht es darum, dass Investoren und Kreditgeber die Dekarbonisierung westlicher Unternehmen vorantreiben und ihre Öl- und Gasunternehmen in den Ruhestand schicken.

Nach der ESG-Lehre gibt es zwei Arten von finanziellen Klimarisiken – das physische Risiko und das Übergangsrisiko – und es lässt sich leicht zeigen, dass beide falsch sind. Nehmen Sie die Bank of England. Für ihre Klima-Stresstests verwendet die Bank of England ein Szenario, das aus dem extremen und physikalisch unplausiblen Klimaszenario RCP8.5 des Intergovernmental Panel on Climate Change (IPCC) abgeleitet wurde. Roger Pielke, Jr., Professor für Umweltstudien an der University of Colorado-Boulder, und Justin Ritchie haben dokumentiert, wie die Verwendung des RCP8.5-Szenarios „ein stures Bekenntnis zum Irrtum“ darstellt, mit seiner absurden Projektion eines sechsfachen Anstiegs des Pro-Kopf-Kohleverbrauchs bis zum Jahr 2100, basierend auf falschen Berichten in den späten 1980er Jahren über praktisch unbegrenzte Kohlevorkommen in Sibirien und China. Die Bank of England verbindet Unwahrscheinlichkeit mit Unmöglichkeit, indem sie den RCP8.5-Pfad von 4 Grad bis zur Jahrhundertwende in einen Anstieg von 3,3 Grad Celsius bis 2050 umwandelt. Dass die Zentralbanken zu solchen Spielchen greifen, ist ein deutlicher Beweis dafür, dass das physische Klimarisiko für die Finanzstabilität kein Thema ist.

Als er Gouverneur der Bank of England war, hielt Mark Carney eine Rede, in der er eine Tragödie des Horizonts behauptete, da die katastrophalen Auswirkungen des Klimawandels jenseits der traditionellen Horizonte der meisten Akteure spürbar sein werden. Es wird davon ausgegangen, dass Klimakatastrophen durch Kipppunkte ausgelöst werden, wobei das Abschmelzen des grönländischen und des westantarktischen Eisschildes einer der frühesten ist. In seinem sechsten Sachstandsbericht erklärte der IPCC, dass es bei anhaltender Erwärmung nur begrenzte Anzeichen dafür gibt, dass die Eisschilde Grönlands und der Westantarktis „über mehrere Jahrtausende“ verschwinden werden. Das ist ein langer Zeithorizont. Trotz aller Bemühungen der Zentralbankiers sind geologische Zeitskalen von Jahrtausenden und menschliche Zeitskalen von Jahrzehnten völlig aus dem Gleichgewicht geraten.

Auch das Risiko des Klimawandels und die Mär von den gestrandeten Vermögenswerten widersprechen der wirtschaftlichen und finanziellen Logik. Wenn man den Kapitalfluss in einen Sektor einschränkt, der Dinge produziert, die die Menschen wollen und für die sie bereit sind zu zahlen, wird der Preis für die Produktion eines Sektors, für den das Kapital blockiert ist, steigen, ebenso wie der Wert des investierten Kapitals. Dies ist im Wesentlichen das, was im letzten Jahr auf den Energie- und Kapitalmärkten passiert ist und erklärt, warum ESG als Anlagestrategie nicht funktioniert. Wenn es keine drakonische Regierungspolitik zur Unterdrückung der Nachfrage nach Erdöl und Erdgas gibt, hat die ESG-Politik, die die Kapitalzufuhr zu westlichen Erdöl- und Erdgasproduzenten einschränkt, zwei Auswirkungen: Sie treibt den Preis für Kohlenwasserstoffe in die Höhe und verdrängt das Angebot von westlichen Produzenten zu neutralen oder feindlichen Produzenten, was für die Wirtschaft und die Sicherheitsinteressen des Westens sehr nachteilig ist.

Obwohl die Auflösung der ESG als Anlagestrategie im Jahr 2022 unübersehbar wurde, wird ihre Existenz als politische Doktrin so lange andauern, bis sie politisch in Frage gestellt und besiegt wird. Dies geschieht bereits in roten Bundesstaaten [= von den Republikanern regiert; A. d. Übers.] wie Florida, Texas, West Virginia und Utah. Es bedarf auch einer konzertierten Führung auf nationaler Ebene, um Zentralbankiers und Finanzaufsichtsbehörden dazu zu bringen, ihre verdeckte Klimapolitik aufzugeben und Banken wie HSBC dazu zu bringen, ihre Unterstützung für Russland in den Energiekriegen zu ändern, indem sie ihre öl- und gasfeindliche Finanzierungspolitik aufgeben. Bei der Bekämpfung der ESG geht es nicht darum, „wer sich kümmert, gewinnt“, sondern „wer kämpft, gewinnt“.

Rupert Darwall is a senior fellow of the RealClear Foundation and author of Climate-Risk Disclosure: A Flimsy Pretext for a Green Power Grab.

Link: https://www.realclearenergy.org/articles/2022/12/27/2022_the_year_esg_fell_to_earth_872040.html?mc_cid=81e41dadde&mc_eid=09aabdbce2

Übersetzt von Christian Freuer für das EIKE




Blackouts zu Weihnachten: Das Geschenk eines kranken Netzes

David Wojick

Viele Menschen erleiden Weihnachten einen Stromausfall. Oder am ersten Weihnachtsfeiertag. Oder noch schlimmer in der Nacht vor Weihnachten, als es bei mir null Grad kalt war [Fahrenheit → –18°C!] war. Aber ich hatte Glück, denn meine 8-stündige Sperre war am Freitag, so dass ich Weihnachten nur Telefon und Internet verlor. Aber die viertägige Sperre hatte ich bereits eine Woche zuvor von Donnerstag bis Sonntag erhalten. Oh je!

Oh, aber ich habe auch ein echtes Weihnachtsgeschenk bekommen. Eine E-Mail von meinem Stromversorger (wenn man ihn noch so nennen kann) mit dieser Weihnachtsaufforderung: „Bitte sparen Sie während der extremen Kälte Energie“.

Wie viel, habe ich mich gefragt? Kein Weihnachtsessen? Keine Weihnachtsbeleuchtung? Offensichtlich ja, denn das ist (ein Teil) von dem, was sie sagten:

„Hier sind einige einfache Möglichkeiten, wie Sie den Energieverbrauch reduzieren können:

– Schalten Sie nicht benötigte Geräte, Anlagen und elektrische Lichter aus – einschließlich der Weihnachtsbeleuchtung – die Sie nicht benötigen oder nicht benutzen.

– Verzögern Sie die Verwendung größerer elektrischer Haushaltsgeräte wie Herde, Geschirrspüler und Wäschetrockner.

Keine Lichter, kein Herd, kein Weihnachten.

Eine semantische Anmerkung: Die relevante Definition von „sparen“ lautet: „Die verschwenderische oder schädliche Übernutzung (einer Ressource) verhindern“. Der Verzicht auf Licht und Essen, um einen Stromausfall zu verhindern, ist keine Konservierung. Es ist schmerzhafte Enthaltsamkeit, besonders an Weihnachten.

Wie ich bereits gesagt habe, ist das amerikanische Stromnetz krank und wird immer kränker. Siehe meinen Beitrag hier [in deutscher Übersetzung hier]

Aber dieses Mal werde ich jemand anderen darüber schimpfen lassen, einen Blogger namens Mike Smith, den ich gerade entdeckt habe. Er ist ein preisgekrönter Meteorologe, der auch festgestellt hat, dass der Ersatz von zuverlässigem Strom durch unzuverlässigen Strom den Strom unzuverlässig macht.

Hier ist ein Teil von Smiths Beitrag vom Samstag, der schlicht mit „Unfortunate Vindication“ [etwa: Unerfreuliche Rechtfertigung] betitelt ist:

„Diejenigen von uns, die dafür plädiert haben, dass die Politiker auf unsere sachlichen Darstellungen hören, dass die „erneuerbaren Energien“ das Netz unzuverlässig machen, wurden heute – leider! – in hohem Maße bestätigt. Es macht mir keine Freude, dies festzustellen.

Wenn das Stromnetz so anfällig ist, dass das Einschalten der Stadionbeleuchtung (der verspätete Anpfiff des Titans-Spiels in Nashville heute Nachmittag) das Risiko eines Systemabsturzes birgt, ist das der einzige Beweis, den man braucht: Amerikas Stromnetz bröckelt auf Dritte-Welt-Niveau ab. Es gibt keine schnelle Lösung, denn jeden Tag werden mehr Windparks errichtet. Der nächste Schnee, genau wie der letzte, wird bestehende und künftige Solarpaneele bedecken und sie in der Kälte des Winters unbrauchbar machen.

Ich habe heute Nachmittag mit einer Reporterin korrespondiert. Sie wies darauf hin, dass die Leute, mit denen sie sprach, von den elektrischen Problemen aufgrund der Kältewelle überrascht waren. Ich verwies sie auf meine Vorhersage für die Kältewelle vom 13. Dezember. Das sind zehn Tage Vorlaufzeit!“

Er hat Recht mit der Vorhersage. Ich habe beobachtet, wie meine NWS-Vorhersage für Heiligabend über eine Woche lang um den Nullpunkt [Fahrenheit! Siehe oben!] herum schwebte. Auch sie warnten vor Stromausfällen.

Interessant ist auch, dass meine Humbug-E-Mail für die gesamte PJM Interconnection, Amerikas größten unabhängigen Systembetreiber, bestimmt war. Ich hatte mit einer gewissen Distanz beobachtet und geschrieben, wie Kalifornien, Texas, Neuengland und der Mittlere Westen wiederholt vor drohenden Stromausfällen gewarnt wurden. Aber wie man hier in den Bergen von West Virginia sagt, kommt es wie es kommen muss.

Die magere gute Nachricht hier ist, dass PJM das Fantasieland Washington DC und die umliegenden Wohnquartiere für unsere obersten Bundesdummköpfe einschließt, die dies geschehen lassen. Wie läuft der „Übergang“ zu rohem Truthahn im Dunkeln für Sie ab?

Wie viele scharfsinnige politische Analysten übersieht Mike Smith jedoch einen wichtigen versteckten Begriff in der Gleichung des Netzausfalls. Ich nenne ihn das Schweigen der Energietechniker. Die Energieversorger wissen sehr wohl, dass das Netz zur Hölle fährt. Aber sie machen ein Vermögen damit, ihre Anlagen mit milliardenschweren Projekten für erneuerbare Energien aufzustocken. Siehe hier.

Aber Smiths Lösung schießt über das Ziel hinaus (und wird deshalb viel Kritik einstecken müssen):
„Kongress und staatliche Gesetzgeber: Hören Sie zu? Es ist überfällig, ein Embargo für die Abschaltung von Anlagen zur Stromerzeugung aus fossilen Brennstoffen zu verhängen (was Anfang dieser Woche geschehen ist). Wir brauchen ein Crash-Programm, um mehr fossile Brennstoffe ans Netz zu bringen, bis die Kernenergie gebaut werden kann.“

Auf dass Amerikas Weihnachten hell wird.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2022/12/30/blackouts-for-christmas-a-sick-grid-gift/

Übersetzt von Christian Freuer für das EIKE




Großes Solares Minimum: Die Zukunft sieht kalt aus

Cap Allon

In den letzten Jahren war die Sonne in ihrem schwächsten Zustand seit mehr als einem Jahrhundert. Dies geht aus der Sonnenfleckenzahl (siehe unten) hervor, einem hervorragenden Barometer für die Sonnenaktivität.

Abbildung 1: Sonnenfleckenzahl vom Sonnenzyklus 12 bis zum Beginn des Sonnenzyklus 25.

Die Leistung der Sonne schwankt in einem etwa 11-jährigen Zyklus. Wie oben dargestellt, endete der jüngste Sonnenzyklus (24) in etwa auf dem Niveau des „Hundertjährigen Minimums“ (≈1880-1914), der vorangegangenen mehrzyklischen Periode mit geringer Sonnenleistung, auch bekannt als „Großes Sonnenminimum“ (GSM).

Große Sonnenminima können auch in ihrer Tiefe und Länge variieren, und diese Faktoren sind für alle Erdbewohner ausschlaggebend für das Ausmaß der damit einhergehenden „globalen Abkühlung“.

Das Centennial Minimum war ein relativ bescheidenes GSM.

Im Gegensatz dazu war das Maunder-Minimum (1645-1715) eines der stärksten aufgezeichneten. Das von der NASA dokumentierte MM versetzte Europa und Nordamerika in eine „Tiefkühlphase“:

„Von 1650 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre, als die Sonne in eine Ruhephase eintrat, die heute als Maunder-Minimum bezeichnet wird. Während dieser Zeit erschienen nur sehr wenige Sonnenflecken auf der Sonnenoberfläche, und die Gesamthelligkeit der Sonne nahm leicht ab. Europa und Nordamerika befanden sich bereits mitten in einer überdurchschnittlich kalten Periode, der so genannten Kleinen Eiszeit, und froren ein: Alpengletscher dehnten sich über das Ackerland in den Tälern aus, das Meereis kroch von der Arktis nach Süden und die berühmten Grachten in den Niederlanden froren regelmäßig zu – ein Ereignis, das heute selten ist.“

Die oben genannten Fakten sind in wissenschaftlichen Debatten nicht mehr erlaubt, und wer sie anspricht, wird sofort als Verschwörungstheoretiker abgetan. Die Geschichte wird diese Zensur jedoch sehr schlecht bewerten und sie als ein Beispiel für die Macht der Propaganda ansehen.

Entdeckungen, so scheint es, sind auf dem Gebiet der Klimawissenschaft nicht mehr erwünscht, wir wissen offenbar alles, was es zu wissen gibt. Aber in Wirklichkeit ist diese Unterdrückung eine Notwendigkeit, wenn der AGW-Zug weiter rollen soll. Es steht fest, dass die Rückkehr einer zyklisch abnehmenden Sonne die Behauptungen der Alarmisten über einen nie endenden Temperaturanstieg sofort in den sprichwörtlichen Wind schlagen würde.

Um die Sache noch komplizierter zu machen: Während die Gesamttemperatur der Erde während längerer Phasen geringer Sonnenaktivität tendenziell sinkt, sind nicht alle Regionen von der Abkühlung betroffen. Wie in der Maunder-Minimum-Rekonstruktionskarte“ der NASA (siehe unten) dargestellt, erwärmen sich Gebiete wie die Arktis, Alaska und der Nordatlantik während der Perioden einer ansonsten globalen“ Abkühlung sogar.

Dies scheint mit dem übereinzustimmen, was wir heute beobachten, und könnte, anders als die unbegründete „Polare Verstärkungstheorie“, erklären, warum sich die Arktis erwärmt, während die Antarktis abkühlt.

Abbildung 2: Temperaturveränderung zwischen 1780 (einem Jahr mit normaler Sonnenaktivität) und 1680 (einem Jahr während des Maunder-Minimums) – NASA.

Die Sonne durchläuft auch große solare MAXIMALE – Perioden mit ungewöhnlich hoher Sonnenaktivität.

Das jüngste Maximum, das „Moderne Maximum“, erstreckte sich über die Jahre 1914 – das Ende des Hundertjährigen Minimums – bis 2007.

Die globalen Temperaturen stiegen während dieses Zeitraums an (auch bekannt als „katastrophale globale Erwärmung“) und haben erst kürzlich, nach einer mehrjährigen Verzögerung – die mit der Trägheit der Ozeane zusammenhängt – begonnen, wieder zu sinken (-0,54 °C seit 2016 (Stand: November 2022), laut UAH, Tendenz fallend).

Um auf frühere große Sonnenminima zurückzukommen: Das Dalton-Minimum war ein weiteres wichtiges Minimum.

Es dauerte von 1790 bis 1820 – und ist in der unten stehenden Sonnenfleckenkarte deutlich zu erkennen:

Abbildung 3: Sonnenfleckenzahl – vom Sonnenzyklus 12 bis zum Beginn des Sonnenzyklus 25.

Wie das kältere Maunder-Minimum vor ihr führte das Dalton-Minimum zu einer Periode unterdurchschnittlicher globaler Temperaturen.

Aus historischen Unterlagen geht hervor, dass beispielsweise die Oberlach-Station in Deutschland innerhalb von nur 20 Jahren einen Temperaturrückgang von 2 °C erlebte, der die Nahrungsmittelproduktion des Landes zerstörte. Daher sind die modernen Vorstellungen, dass ein GSM die Temperaturen nur um 0,01-0,02 °C senken würde, ein weiterer „Erklärungsfehler“. Das Eingeständnis des Mainstreams, dass GSMs zu einer Abkühlung führen, könnte jedoch als positiv angesehen werden, da wir jetzt nicht mehr darüber streiten, ob das Phänomen existiert oder nicht, sondern nur noch über seine Auswirkungen diskutieren.

Die Wirkungskette

Eine geringe Sonnenaktivität wirkt sich auf verschiedene Weise auf das Wetter/Klima der Erde aus.

Das am unmittelbarsten Spürbare ist die Verringerung der Energie, die in die Strahlströme eintritt, wodurch sich die übliche starke und geradlinige ZONALE Strömung in eine schwache und wellenförmige MERIDIONALE Strömung verwandelt – und je nachdem, auf welcher Seite des Strahlstroms man sich befindet, bedeutet dies, dass man entweder eine Periode anomal kalten oder warmen Wetters und/oder eine Periode ungewöhnlich trockener oder feuchter Bedingungen vor sich hat:

Abbildung 4

Dieses Phänomen wird von Sonnenforschern seit langem vorhergesagt und wird sich mit der weiteren Vertiefung des Großen Sonnenminimums voraussichtlich noch verstärken. Wir alle beobachten dies nun in Echtzeit, ob wir es nun wissen oder nicht.

Neben den Auswirkungen der geringen Sonnenaktivität auf die Jetstreams gibt es noch weitere Wirkweisen der „globalen Abkühlung“: die große Konjunktion, die wolkenbildende kosmische Strahlung und auch den Beaufortwirbel – und seine immensen Auswirkungen auf den Golfstrom und damit das Klima insgesamt.

Aber angesichts dieser Realitäten frage ich mich immer noch, was es braucht, damit der IPCC und seine MSM-Schoßhündchen zugeben, dass das, was sie in den letzten 30+ Jahren propagiert haben, auf einer verdrehten Ideologie und nicht auf Wissenschaft basiert. Die Logik wurde nun so verdreht, dass die arktischen Ausbrüche (umbenannt in Polarwirbel) eine direkte Folge der globalen Erwärmung sind, d. h. Erwärmung = Abkühlung, was ein perfektes Beispiel für das ist, was Orwell „doublethink“ nannte: die gleichzeitige Akzeptanz konträrer Meinungen oder Überzeugungen, insbesondere als Ergebnis politischer Indoktrination.

Ich befürchte, dass die drakonische Zukunft, die Orwell beschrieben hat, schnell Wirklichkeit wird; ich fürchte, das Klima wird in den kommenden Jahren die geringste Sorge der Menschen sein, da wir die Zivilisation ganz allein zu zerstören scheinen: digitale IDs, CBDCs, Kohlenstoffsteuern, Energieknappheit, Rationskarten…

„Globale Erwärmung“ oder „Klimawandel“ ist der Vorwand für diese Armut verursachenden, Freiheiten beschränkenden Maßnahmen, aber die so genannte „Klimakrise“ ist kein menschengemachtes Phänomen, das wegbesteuert werden kann, sondern lässt sich vollständig durch ein natürliches und zyklisches „Einknicken“ der Jetstreams (zonale Strömung zu meridionaler Strömung) erklären, das durch eine historisch niedrige Sonnenaktivität verursacht wird.

Link: https://electroverse.co/grand-solar-minimum-the-future-looks-cold/

Übersetzt von Christian Freuer für das EIKE

 




Neue Studie: Ein „Denkmodell“, das von einem „natürlichen Treibhauseffekt“ von 33 K ausgeht, ist eine „wertlose“ Behauptung

Kenneth Richard

Die Vorstellung von einer 33 K wärmeren Erde aufgrund des Vorhandenseins von Wasserdampf und CO (Treibhausgase) in der Atmosphäre beruht vollständig auf unbeobachteten und unbekannten Faktoren oder auf Annahmen darüber, wie eine imaginäre Welt ohne Atmosphäre aussehen würde.

Es wird weithin angenommen, dass wir die effektive Strahlungstemperatur, eine einheitliche globale Temperatur, die weltweit einheitliche Albedo … eines Gesteinsplaneten bestimmen können, indem wir einfach Gedankenexperimente darüber anstellen, wie eine erfundene Welt ohne Atmosphäre aussehen würde (z. B. kein N, O, atmosphärischer Druck, Wolken, Wasserdampf …).

Dieses „Gedankenmodell“ wurde in einer neuen, von vier Atmosphären-Physikern veröffentlichte Studie einer kritischen Analyse unterzogen.

Die Autoren verwenden Beobachtungsmessungen aus 24 Datensätzen für den Mond – der in der realen Welt einem Gesteinsplaneten ohne Atmosphäre am nächsten kommt – als Testobjekt. Sie kommen zu dem Schluss, dass die global gemittelte Temperatur notwendigerweise „etwa 60 K“ niedriger ist als die effektive Strahlungstemperatur, was die Annahmen des „Denkmodells“ über einen Unterschied von 33 K „Treibhauseffekt“ für die effektive Strahlungstemperatur gegenüber der globalen Durchschnittstemperatur (255 vs. 288 K) „wertlos“ macht.

Andere Beispiele für einen disqualifizierenden Kontrast zwischen Beobachtungen und modellierten Annahmen sind:

„Im Falle der Erde ohne ihre Atmosphäre würde [die effektive Strahlungstemperatur] nur dann einer global gemittelten temperatur entsprechen, wenn diese gleichmäßig verteilt wäre [d.h. die Temperatur an den Polen wäre die gleiche wie in den Tropen], was bei weitem nicht der Fall ist.“

„Das Potenzgesetz von Stefan und Boltzmann ist nur auf einer lokalen Skala gültig. Seine Anwendung auf globaler Ebene widerspricht den Voraussetzungen und Annahmen, auf denen die Ableitung dieses Gesetzes beruht.“

„Die DLRE-Daten [Mond] liefern Beobachtungsdaten, die belegen, dass die effektive Strahlungstemperatur für Planeten und ihre natürlichen Satelliten verworfen werden muss.“

„Die Annahme einer globalen Albedo von etwa 0,30 ist jedoch weit von der Realität entfernt, da sich dieser Wert auf das gesamte System Erde-Atmosphäre bezieht. Die Wolkendecke trägt in erster Linie zu diesem Wert der globalen Albedo bei, aber eine Wolkendecke kann in dem Denkmodell der Erde ohne ihre Atmosphäre nicht existieren.“

Link: https://notrickszone.com/2022/12/26/new-study-a-thought-model-saying-theres-a-33-k-natural-greenhouse-effect-is-meritless-assumption/

Übersetzt von Christian Freuer für das EIKE