Warum Primärenergie immer noch König ist

von Dr. Lars Schernikau, Autor von „Unbequeme Wahrheiten… über Strom und die Energie der Zukunft“ (hier bestellbar)

Viele Ingenieure oder Menschen mit einer Ausbildung oder Tätigkeit im Energiebereich argumentieren immer wieder, dass die Elektrifizierung von Heizung, Verkehr und Industrie die Energieeffizienz erhöhen und damit den Primärenergieverbrauch senken wird. So prognostiziert die IEA in ihrem „Netto-Null-Pfad“ eine Verringerung des Primärenergieverbrauchs um 10 % bis 2030 und sogar noch mehr bis 2050, und das trotz Bevölkerungswachstum und steigendem Lebensstandard, wobei der Energieverbrauch pro Kopf im schnell wachsenden „globalen Süden“ logischerweise zunimmt.

Geht man von einem Bevölkerungswachstum von 25% und einem Pro-Kopf-Energiezuwachs von 20% aus, so wäre ein Anstieg der Primärenergie um etwa 50% bis zum Jahr 2050 realistischer (Abbildung 1). Damit läge die Welt im Jahr 2050 im Durchschnitt etwa auf dem Niveau des heutigen Chinas, weit hinter Europa oder den USA, und es würde dabei davon ausgegangen, dass die Netto-Energieeffizienz bei der „Produktion“ und dem „Konsum“ von Energie von heute bis 2050 in etwa unverändert bliebe. Warum die Annahme einer konstanten Primärenergieeffizienz von einigen und auch mir infrage gestellt wird, versuche ich hier zu erklären.

Abbildung 1: Primärenergie bis heute und Projektion bis 2050. Quellen: Schernikau basierend auf Our World in Data nach Vaclav Smil 2017 und Energy Institute Statistical Review of World Energy 2023, (link)

Elektromotoren sind effizienter als Verbrennungsmotoren, Wärmepumpen sind effizienter als Öl- oder Gasbrenner. Die Nutzung von Strom zur Erzeugung von Industriewärme ist effizienter als die Verbrennung fossiler Brennstoffe. Dies sind nur einige der Argumente, die wir regelmäßig hören, auch für Wasserstoff. Und hier scheint der Beweis erbracht: Der Primärenergieverbrauch in Deutschland ist in den 20 Jahren der „Energiewende“ um etwa 20% gesunken, während sich der Lebensstandard, die Bevölkerung und der Stromverbrauch weniger verändert haben (Abbildung 2).

Es ist richtig, dass ein Elektromotor effizienter ist als ein Verbrennungsmotor, warum sonst würden unsere modernen Züge elektrisch und nicht mehr mit Dieselmotoren fahren? Es ist auch richtig, dass der „Transport“ von Energie von einem Ort zum anderen, um die Temperatur um 1 °C zu erhöhen (z. B. vom Boden zu Ihrer elektrischen Heizung mithilfe eines Wärmetauschers), im Durchschnitt nur etwa ein Drittel der benötigten Energie im Vergleich zur Verbrennung von Öl oder Gas verbraucht.

Ich weiß nicht genug über Industriewärme, um mich dazu zu äußern, also lasse ich das für heute aus.Für meine Argumentation hier macht es allerdings auch keinen Unterschied. Die Herstellung und Verwendung von Wasserstoff als Energieträger ist sicherlich NICHT energieeffizient, das steht hoffentlich außer Frage.

Warum führen die oben genannten energiewirtschaftlichen Fakten über Elektromotoren und Wärmepumpen nicht zu einem geringeren Primärenergieverbrauch, sondern ganz im Gegenteil? Warum gibt es ein grundlegendes Missverständnis darüber, wie viel Primärenergie benötigt wird, um unser Leben zu führen, ob elektrisch oder nicht? Gehen wir der Sache auf den Grund.

Abbildung 2: Installierte Kraftwerksleistung in Deutschland, Stromerzeugung, Primärenergie. Quellen: Schernikau auf Basis von Fraunhofer, Agora, AG Energiebilanzen. Siehe auch www.unpopular-truth.com/graphs.

1. Was ist Primärenergie?

Primärenergie ist die in der Natur vorkommende „rohe, unverarbeitete Energie“, die wir ihr entnehmen

(Lars Schernikau)

Diskussionen über die Verwendung des Primärenergiemaßstabs sind aufgekommen, da „erneuerbare Energien“ wie Wind und Sonne einen größeren Anteil an der Elektrizität, jedoch einen geringeren Anteil an der Primärenergie ausmachen, wie Sie in Abbildung 2 und 3 sehen können. Einige Ökonomen halten die Primärenergie für veraltet und irreführend, weil sie der Ansicht sind, dass „Primärenergie“ aus Sonne und Wind mit geringen Energieverlusten in nutzbaren Strom umgewandelt werden kann.

Für diese wichtige Diskussion stellen wir klar, dass weltweit ca. 70.000 TWh Primärenergie für die Stromerzeugung verwendet werden (etwa 40 % der Primärenergie), was ca. 30.000 TWh nutzbarem Strom entspricht (Abbildung 3). Die Differenz ergibt sich größtenteils aus der thermischen Umwandlung bzw. dem (Un-)Wirkungsgrad von konventionellen Brennstoffen in Elektrizität in Wärmekraftwerken. Der Rest geht somit in Form von Wärme an die Umwelt „verloren“.

In Wikipedia heißt es meines Erachtens richtig: „Primärenergie (PE) ist die in der Natur vorkommende Energie, die noch keinem von Menschen durchgeführten Umwandlungsprozess unterzogen wurde. Sie umfasst die in Rohstoffen enthaltene Energie und andere Energieformen, einschließlich Abfälle, die einem System zugeführt werden. Primärenergie kann nicht-erneuerbar oder erneuerbar sein.“

Um die Sache noch weiter zu verwirren, gibt es verschiedene Methoden zur Berechnung der Primärenergie: die Methode der teilweisen Substitution und die Methode des physikalischen Energiegehalts (siehe Our World In Data oder IEA FAQ), aber auch dieser Aspekt ist für diese Diskussion hier nicht relevant.

Warum also mache ich so ein Aufheben darum und bezweifle, dass eine „elektrische Welt“, die auf Wind und Sonne (Formen von Primärenergie) basiert, weniger Gesamtprimärenergie benötigen würde, als die IEA und viele andere behaupten?

Erstens behaupte ich, dass die Art und Weise, wie die Primärenergie für jedes einzelne Land berechnet wird, zumindest irreführend ist, weil sie die außerhalb des Landes verbrauchte Primärenergie außer Acht lässt! Deshalb sieht man in Deutschland einen – unzutreffenden – Rückgang des Primärenergieverbrauchs.

Zweitens behaupte ich, dass die Art und Weise, wie Wind- und Solarenergie in den Energiestatistiken auftauchen, nämlich mit geringen Energieverlusten oder mit geringen Auswirkungen auf die Primärenergie, irreführend, wenn nicht gar falsch ist. Die Standardinterpretation der veröffentlichten Elektrizitäts- und Primärenergiedaten, d.h. Wind und Sonne seien primärenergieeffizienter, ist einfach nicht mit der Physik und der Energiewirtschaft vereinbar.

Abbildung 3: Die „Nutzung“ der globalen Primärenergie und ihr Vergleich mit der Elektrizität. Quellen: Schernikau auf der Grundlage von IEA, Energy Institute (ex BP), Our World in Data. Siehe auch www.unpopular-truth.com/graphs.

2. Primärenergie aus „abgebauten Bodenschätzen“ vs. Primärenergie aus Sonne und Wind

Für diese Diskussion lasse ich Wasserkraft und Biomasse außen vor. Wasserkraft ist natürlich begrenzt, Biomasse hat ganz andere ökonomische und Umweltauswirkungen, auf die ich hier aufgrund der Zeit und Artikellänge nicht eingehen kann. Ich konzentriere mich auf:

a) die so genannte „nicht erneuerbare“ Energie aus den „abgebauten Brennstoffen“ Öl, Kohle, Gas und Uran, die fast 90 % der Primärenergie und etwa 70 % der Elektrizität ausmacht, und

b) die so genannte „erneuerbare“ Energie aus Sonne und Wind, die angeblich etwa 5 % der Primärenergie und 12 % der Elektrizität ausmacht (Abbildung 3).

Um es gleich vorwegzunehmen: Öl, Kohle, Gas und Uran sind „abgebaute Energierohstoffe“, die wir aus dem Boden gewinnen, und logischerweise gibt es eine Grenze für das, was Mutter Erde zur Verfügung hat. Bitte akzeptieren Sie, dass wir über diesen Punkt jetzt nicht streiten müssen. Auf der Grundlage unseres heutigen Wissens und der Tatsache, dass wir ständig neue Ressourcen finden, sehe ich für die nächsten paar hundert Jahre kein Problem. Wenn Sie über 50 Jahre alt sind, erinnern Sie sich noch daran, was man Ihnen in der Grundschule darüber erzählt hat, wie lange das Öl noch reicht? Vergleichen Sie diese Zahl mit heute.

Damit will ich keineswegs sagen, dass wir uns keine Sorgen über die Erschöpfung von Rohstoffen machen sollten. Eine solche Erschöpfung führt zu höheren Kosten und logischerweise zu größeren Auswirkungen auf die Umwelt, da es schwieriger wird, die Ressourcen zu „finden“ und „abzubauen“. Dies lässt sich im Alltag der Kraftstoffgewinnung beobachten. Außerdem sind und bleiben die geförderten Energierohstoffe begrenzt. Wie relevant dies für unser Leben ist, hängt von der gesamten (ich behaupte, weitgehend noch unbekannten) Ressourcenbasis und unserer jährlichen Entnahme ab.

Der derzeitige Energiegehalt der gesamten (heute bekannten) Ressourcen an konventionellen Energierohstoffen beläuft sich auf etwa 150 Mio. TWh gegenüber etwa 160.000 TWh jährlicher Förderung (BGR 2023). Wenn sich diese Zahlen nicht ändern und wirklich nur 150 Mio. TWh konventionelle Brennstoffe im Boden vorhanden sind, und wenn wir sie ökonomisch abbauen könnten, bleiben uns bei den derzeitigen Förderraten noch etwa 900 Jahre „geförderte Energierohstoffe“, bevor die Lichter ausgehen. Ich verstehe, dass das sehr viel zu sein scheint, mehr als Sie vielleicht dachten, aber ich lade Sie ein, die Zahlen zu prüfen. Ich spreche von Ressourcen, nicht Reserven.

Die Primärenergie von Energierohstoffen wie Öl, Kohle oder Gas wird durch ihre „inhärente“ Energie oder ihren Heizwert oder Verbrennungswert gemessen, normalerweise in kcal/kg oder btu oder etwas Ähnlichem. Diese in den „geförderten Energierohstoffen“ enthaltene Primärenergie ist in der Natur „frei“ verfügbar, erfordert aber einen beträchtlichen Aufwand

a) dem Boden entnommen, aufbereitet und transportiert zu werden, und

b) durch Verbrennung in nutzbaren, wertvollen Strom „umgewandelt“ zu werden. Alles führt zu einem „Energieverlust“, da die Entropie jedes Mal zunimmt, wenn wir Energie nutzen oder speichern.

Was die so genannte „erneuerbare“ Energie aus Sonne und Wind betrifft, würde ich in der Tat zustimmen, dass wir „fast“ unbegrenzte Energie aus der Sonne und vielleicht etwas begrenztere Energie aus dem Wind haben. Die Windkraft als globale Energiequelle wird auf 45 bis 100 TW geschätzt (Adams und Keith 2013). Dem stehen weniger als 9 TW der derzeit weltweit installierten Kapazität aller Arten von Strom gegenüber, also ist alles gut? Vielleicht nicht!

Wir wissen, dass auch hier der 1. Hauptsatz der Thermodynamik gilt: Energie geht nie verloren, sie wird nur von einer Form in eine andere „verschoben“ oder „übertragen“. Wenn wir also Wind aus der Luft „nehmen“, um ihn in Strom umzuwandeln, verlangsamen wir natürlich die Windgeschwindigkeit. Diese Windgeschwindigkeiten werden mit der Zeit wieder „aufgefüllt“, und die Energierückgewinnungsrate ERR für Wind besagt, dass etwa 1 bis maximal 2 MW/km² für die „erneuerbare“ Nutzung durch den Menschen zur Verfügung stehen, andernfalls hört der Wind auf zu wehen (Smith und Schernikau 2023 für weitere Einzelheiten und Quellen von Dritten). Heute wird vielfach viel „dichter“ gebaut, auch hier mit Konsequenzen. Diese geringe „Leistungsdichte“ des Windes hat, wie Sie sehen werden, eine primärenergetische Konsequenz. Wenn wir von „Energieverlusten“ sprechen, „verlieren“ wir natürlich keine Energie, sondern wandeln lediglich die ursprünglich „nützliche“ Energie in „nutzlose“ Energie aufgrund stetig steigender Entropie um. Diese Wärmenergie erwärmtie schließlich die Welt um uns herum.

Die Leistungsdichte der Sonne pro m² ist ebenfalls von Natur aus begrenzt, nicht nur durch a) die Länge der Nächte oder die Bewölkung, sondern auch b) durch die Sonneneinstrahlung oder die „Kraft der Sonne, die auf Ihren Kopf scheint“. Es macht einen Unterschied, ob Sie mittags in Arizona oder in Nordkanada in der hellen Hochsommersonne stehen. Auch diese geringe Leistungsdichte von etwa 5.000 bis 10.000 kWh pro installiertem kW pro Jahr in Deutschland im Vergleich zu Arizona (Global Solar Atlas) hat eine direkte Auswirkung auf die Primärenergie.

Sie werden nun hoffentlich zustimmen, dass es Energie, Rohstoffe, Land und Geld bedarf, um a) die „freie“ Energie aus der Natur zu gewinnen, ob sie nun „erneuerbar“ ist oder nicht, und b) die „gewonnene Energie“ für den Endverbraucher in Form einer verbrauchbaren kWh oder Wärme nutzbar zu machen.

Dies ist für die Energiediskussion von grundlegender Bedeutung:

Während die Primärenergie für uns kostenlos ist (abgebaut oder „erneuerbar“), müssen wir immer Energie, Rohstoffe, Land und Geld aufwenden, um (a) diese Energie zu gewinnen und (b) sie für die Endnutzung zu verarbeiten.

3. Benötigte Primärenergie, um Wind und Sonne nutzbar zu machen

Es mag Sie überraschen, dass bei der Berechnung der Primärenergie in Deutschland davon ausgegangen wird, dass nahezu 100% des aus Sonne oder Wind „geernteten“ oder gewonnenen Stroms in nutzbaren Strom für den Verbraucher umgewandelt wird. So tauchen in Deutschland im Jahr 2022 fast 200 TWh Primärenergie aus Wind und Sonne als etwa 190 TWh verbrauchbarer Strom in der Statistik auf (AGEB Jahresbericht, S. 43). Bei der Kernenergie entsprechen 105 TWh Primärenergie aus Kernenergie etwa 35 TWh verbrauchtem Strom.

Erkennen Sie den Trugschluss? Hatten wir uns nicht gerade im vorherigen Abschnitt darauf „geeinigt“, dass wir die Energie einbeziehen müssen, um a) die Energie aus der Natur zu gewinnen und b) die „gewonnene Energie“ für die Endnutzung durch den Verbraucher nutzbar zu machen? Eigenartigerweise haben wir b) im Gasbeispiel mit einbezogen, aber weder a) noch b) im Sonnen- oder Windbeispiel. Was ist hier falsch gelaufen?

a) Energie zur Gewinnung der Energie aus der Natur: Bleiben wir bei Solar und Gas in Deutschland, um den Punkt zu illustrieren. Die benötigte Primärenergie, um Solarenergie aus der Natur zu gewinnen, finden Sie größtenteils in den Statistiken Chinas wieder. 80-90% der Wertschöpfungskette für Solarmodule ist in oder um China angesiedelt. Die Wärme und der Strom, die für die Herstellung von Polysilizium, Glas, Aluminium, Kupfer, Chemikalien und Stahl für die Montagekonstruktion benötigt werden, basieren größtenteils auf Kohle und werden ebenfalls größtenteils, aber nicht nur, in den Statistiken Chinas ausgewiesen. Ich habe einen ganzen Blogeintrag zu diesem Thema verfasst (Coal’s importance for Solar panel manufacturing; in deutscher Übersetzung hier) und eine neue, noch unveröffentlichte wissenschaftliche Arbeit ist in Arbeit (Mariutti und Schernikau 2024).

Das Gleiche gilt natürlich für den Bau eines Gaskraftwerks, auch dieser Aufwand muss berücksichtigt werden (was in Deutschland derzeit nicht der Fall ist). Das Gas selbst ist in der deutschen Statistik aber einkalkuliert. Sie werden es vielleicht ahnen, dass die geringe Energiedichte von Solarenergie (und Windkraft) bedeutet, dass viel mehr Land für Solarenergie benötigt wird, aber auch, dass viel mehr Tonnen an Rohstoffen und damit Energie benötigt werden, um die installierte Kapazität von Solar- oder Windenergie im Vergleich zu Gas, Kohle oder Kernkraft bereitzustellen (Abbildung 4).

Abbildung 4: Ausgewählte Materialien, die je nach Stromerzeugungstechnologie benötigt werden. Quelle: Schernikau auf der Grundlage von Daten des Department of Energy DOE, USA. Siehe auch www.unpopular-truth.com/graphs.

b) Energie, um die „gewonnene Energie“ für die Nutzung durch den Verbraucher nutzbar zu machen: Die Energie, um die Solarenergie für den Endverbrauch wirklich „nutzbar“ zu machen, ist eine weitere, komplexere Frage, die sich von der des Gases unterscheidet, da man bei Gas den Wirkungsgrad des Kraftwerks „einfach“ schätzen könnte, um eine grobe Zahl zu erhalten.

Man darf jedoch nicht vergessen, dass Strom aus Sonnenkollektoren für den „normalen“ Gebrauch im Stromnetz einen geringeren Wert hat, da er unstetig, unzuverlässig und somit unvorhersehbar ist, zumindest auf Versorgungsebene. Um eine kWh aus Sonnenenergie im Stromnetz wirklich nutzbar zu machen, sind zusätzliche Anlagen erforderlich (alle im Vergleich zu einem einzigen Gaskraftwerk):

  1. Ein großer Überbau von Solarmodulen, um niedrige natürliche Kapazitätsfaktoren auszugleichen (10 bis 11% in Deutschland, 25 % in Kalifornien) + Überbauung, um Speicher zu „laden“ + Überbauung, um Energie-„Verluste“ zu berücksichtigen, die nicht nur für die Speicherung, sondern auch für die Aufbereitung, den Ausgleich und die Übertragung erforderlich sind.

  2. Kurzzeit-Energiespeicherung (z.B. Batterien?) zum Ausgleich kurzfristiger Tagesschwankungen.

  3. Langfristige Energiespeicherung (z.B. Wasserstoff?) zur Überbrückung von Tagen oder sogar Wochen ohne „nutzbare“ Sonneneinstrahlung, auch saisonale Speicherung genannt.

  4. Ein thermisches Kraftwerk in Bereitschaft für schlechte Zeiten, zumindest derzeit in den Plänen Deutschlands enthalten.

  5. Eine viel komplexere und größere Netzintegration und Übertragungsinfrastruktur, um den Solarstrom in das Netz zu integrieren.

Mir ist zwar klar, dass nicht immer alle 5 Punkte erforderlich sind, aber im Versorgungsbereich oder im Netzbereich sind sie oft erforderlich und werden eingeplant. Diese 5 Punkte werden umso wichtiger, je mehr Wind- und Sonnenenergie im System vorhanden ist.

Müsste man also nicht die Primärenergie mit einbeziehen, die für alle oben genannten 5 Punkte benötigt wird, um die gewonnene Sonnenenergie für den Endverbraucher „nutzbar“ zu machen? Wären die Zahlen dann nicht vergleichbar mit denen eines Gas- oder Kohlekraftwerks? Wir nennen solche „nutzbare“ Energie „abschaltbare“ Energie oder „feste“ Energie, d.h. Energie, die bei Bedarf zur Verfügung steht, und nicht nur dann, wenn die Natur sie bereitstellen kann.

Gas-, Kohle- und größtenteils auch Kernkraftwerke benötigen diese 5 Systeme nicht, da sie von Natur aus weitgehend regelbar sind (weniger bei der Standard-Kernkraft, aber die Grundlast der Kernkraft hat eine ganz andere Qualität und einen anderen Wert als intermittierender Wind- und Solarstrom). Es gibt genügend energiewirtschaftliche Literatur, die auch beweist, dass jede zusätzliche kWh Solar- oder Windenergie ab einem bestimmten, relativ geringen Durchdringungsgrad weniger Wert hat als die vorherige (z.B. Hirth 2013). Somit steigen die Gesamtkosten für Strom mit jedem zusätzlichen Solarpanel oder Windrad im System.

Die benötigte Primärenergie, um die gewonnene Solarenergie wirklich nutzbar zu machen, wird sicherlich in keiner Statistik eines einzelnen Landes erfasst, wohl aber in dem Land, in dem all diese Anlagen hergestellt oder produziert werden. Auch die graue Energie (embodied energy) für alle benötigten Rohstoffe und Materialien müsste mit einbezogen werden und wird irgendwo auf der Welt erfasst, aber nicht in Deutschland. (man denke an Eisenerz, Kalkstein für Zement, Kupfererz, Lithiumerz, Nickelerz, Bauxit, Rohöl und vieles mehr).

Das bedeutet, dass die Primärenergie, die Wind und Solarstrom zugerechnet wird zu gering ausgewiesen ist und logischerweise damit die Primärenergie, die nutzbarer Kohle-, Gas-, oder Ölenergie zugerechnet wird zu hoch ist.

4. Und nun?

Fassen wir zusammen. Wir wissen, dass der Anteil der Sonnen- und Windenergie an der Primärenergie derzeit stark unterschätzt wird, da davon ausgegangen wird, dass fast 100 % der primären Sonnen- und Windenergie in nutzbaren Strom umgewandelt werden. Die wahren Energie- und Rohstoffauswirkungen von Wind und Sonne sind in der Kohle-, Öl- und Gas-Primärenergie „versteckt“, die benötigt wird, um a) die Sonnen- und Windenergie zu gewinnen und b) den erzeugten Strom für den Verbraucher wirklich nutzbar zu machen. Die gleiche „Falschaussage“ gilt auch für genutzte Energie aus Kohle, Gas oder Öl. Jedoch sinddie Auswirkungen wesentlich geringer, da der Brennstoffverbrauch bedeutender ist als die Investitionsgüter und der zusätzliche Bedarf für Überbauung, Speicherung und Übertragung entweder nicht vorhanden oder viel geringer ist (man erinnere sich an die Liste der 5 Systeme). Außerdem ist die Leistungs- oder Energiedichte pro m² bei konventionellen Brennstoffen viel höher, so dass weitaus weniger Ausrüstung erforderlich ist, um der Anforderung gerecht zu werden.

Jede Windturbine und jedes Solarmodul bringen also eine Menge Ballast mit sich, der in den Statistiken nicht ausgewiesen wird. Auf globaler Ebene werden Sie sehen, wie die Primärenergie mit mehr Wind- und Solarenergie wächst. Tatsächlich ist die Netto-Energieeffizienz (eROI) von Wind- und Solarenergie unter Berücksichtigung des gesamten Systems, um den Strom wirklich nutzbar zu machen, viel niedriger als die von Kohle, Gas oder Kernkraft. Daher kann man davon ausgehen, dass die Primärenergie mit zunehmender Wind- und Solardurchdringung schneller steigt. Dies wird durch den „wahren EROI des Gesamtsystems“ diktiert, der bei Wind- und Solarenergie niedriger ist als bei konventionellen Energiesystemen. Auch hier arbeiten wir an einer akademischen Grundlagenstudie, die dies zeigt. Einen Top-Down-Blick gibt es hier bei Schernikau, Smith und Falcon 2022 „Full Cost of Electricity ‚FCOE‘ and Energy Returns ‚eROI‘“.

Zum Argument des Elektrofahrzeugs. Ja, ein Elektromotor ist effizienter als ein Verbrennungsmotor, wenn man ihn direkt ohne den ehrlichen Lebenszyklus vergleicht. Aber die Versorgung des Elektroautos mit Wind- und Sonnenenergie bedeutet, dass das Elektroauto all die oben genannten Nachteile mit sich bringt und der Vorteil des Elektromotors selbst „verloren“ geht (was bei einem mit Kohle, Gas oder Kernkraft betriebenen Elektrozug nicht der Fall ist). Hinzu kommt das Batterieproblem, die gesamte Primärenergie für die Herstellung der Batterie (die ein elektrischer Zug nicht benötigt), die – einmal hergestellt – immer noch aus dem Netz geladen werden muss. Daher werden Elektrofahrzeuge im großen Maßstab die Primärenergie nicht reduzieren. Elektrofahrzeuge können für bestimmte Anwendungen, wie z.B. den gewerblichen Kurzstreckenverkehr in oder um Städte, durchaus sinnvoll sein, aber ich habe diese Berechnungen nicht durchgeführt, daher ist dies nur eine Vermutung. Hier lassen wir aber die praktische Unverkäuflichkeit von E-Fahrzeugen aufgrund der geringen Lebensdauer der Batterie außer Acht.

Das Gleiche gilt nun auch für die Wärmepumpe. Jede Wärmepumpe benötigt Strom, was bei einer Gas- oder Ölheizung nicht der Fall ist, oder nur in sehr geringem Maße. Logischerweise, so wird uns gesagt, sollte der Strom „erneuerbar“ sein, also größtenteils aus Wind- oder Solaranlagen stammen. Die durch die Technologie der Wärmepumpe gewonnene Effizienz geht durch die Ineffizienz der Wind- und Solar- oder konventionellen Systeme verloren. Hinzu kommt das Problem, dass eine Wärmepumpe an Effizienz verliert, je kälter es wird (ihre Leistungszahl, COP, sinkt).

Im Winter, wenn wirklich geheizt werden muss, benötigen Sie also mehr Strom. Nicht nur, weil es kälter ist, sondern auch weil der Wirkungsgrad der Wärmepumpe sinkt. Denken Sie daran, dass der Winter die Zeit ist, in der die Sonnenenergie knapp ist. In dicht besiedelten Städten sind Wärmepumpen ohnehin ein Mythos. Wie dem auch sei, Wärmepumpen sind großartig. Unsere Familie nutzt sie seit Jahrzehnten wegen des Kostenvorteils und da Strom sicher verfügbar war, auch im Winter. Aber glauben Sie nicht, dass ein wind- und solarbetriebenes Wärmepumpensystem die Primärenergie reduziert, das tut es nicht!

Dass ein „wasserstoffbasiertes“ industrielles System NICHT primärenergieeffizient ist, sondern das genaue Gegenteil, liegt auf der Hand, sodass ich nicht dafür plädieren werde. Lassen Sie mich stattdessen einfach Osburg,, den Vorsitzenden von Thyssen Krupp Steel zitieren: Deutschland: „Die Umstellung auf Klimaneutralität [mit H2] wird den Strombedarf allein in unserem Duisburger Werk von 4,5 TWh auf 45 TWh verzehnfachen“.

Ein erheblicher Teil der Kohle-, Gas- und Öl-Primärenergie in der globalen Statistik muss dem Wind- und Solarstrom zugerechnet werden.

Diese Brennstoffe werden benötigt, um a) die Wind- und Solarenergie zu gewinnen und b) die Wind- und Solarenergie durch Hilfssysteme wie z. B. Speicherung/Backup und Netzintegration oder -übertragung wirklich nutzbar zu machen.

5. Zusammenfassung

Wir haben nun festgestellt, was die Primärenergieprobleme sind und warum es ein Fehler ist, anzunehmen, dass eine elektrische Welt, die weitgehend, aber nicht nur auf Wind- und Solarenergie basiert, global gesehen zu weniger Primärenergie führen wird. Parallel dazu haben wir logischerweise auch einen Teil der Gründe erläutert, warum Wind- und Solarenergie die teuerste und am wenigsten energie- und rohstoffeffiziente Art der „nützlichen“ Stromerzeugung ist.

Denken Sie daran, dass diese Aussage nicht politisch ist und uns nicht daran hindert, alles in unserer Macht Stehende zu tun, um die Umweltauswirkungen unserer Energiesysteme zu minimieren. Die Aussage beruht einfach auf physikalischen und tatsächlichen Gegebenheiten und lässt sich leicht am Beispiel Deutschlands veranschaulichen.

Die wahren finanziellen Kosten der sogenannten „Energiewende“ übersteigen – wegen all der erforderlichen Hilfssysteme – bei weitem alle bisherigen Schätzungen. Würden Wind- und Solarenergie Energie sparen, eine kostengünstige Lösung darstellen und wirklich zu 100 % effizient sein, dann hätten wir natürlich keinen Streit und Deutschland hätte nicht die höchsten Strompreise aller Industrienationen. Die deutsche Wirtschaft würde mit kostengünstiger und zuverlässiger Energie florieren, aber nichts davon ist der Fall (Bloomberg Feb 2024: Germany’s Days as an Industrial Superpower Are Coming to an End).

Das wichtigste Ergebnis für heute ist somit, dass die globale Primärenergie aus drei Gründen zunehmen und nicht abnehmen wird:

  1. Zunahme der Bevölkerung,

  2. Anstieg des Pro-Kopf-Energieverbrauchs, da der „globale Süden“ aufholt, und

  3. Rückgang der „Primärenergieeffizienz“ zur Stromerzeugung, solange der Anteil von Wind- und Sonnenenergie im Netzsystem steigt

Ich stimme zu und verstehe voll und ganz, dass es auch Verbesserungen bei der „Primärenergieeffizienz“ durch Technologie und Innovation geben wird. Die großen Verbesserungen konzentrieren sich jedoch auf den „Energieverbrauch“. Das Jevons-Paradoxon besagt, dass neue Energienutzungen Effizienzverbesserungen ausgleichen. Man denke nur an die aufkommende künstliche Intelligenz, Rechenzentren, Raumfahrt, terrestrische Reisen und vieles mehr. Der springende Punkt ist hier die Verringerung der Primärenergieeffizienz bei der „Energieerzeugung“.

Mein Vorschlag lautet nach wie vor: INVESTIEREN wir in konventionelle Energiesysteme statt aus diesen AUSZUSTEIGEN, um die wirtschaftliche und ökologische Produktivität weiter zu verbessern und einen wirklich positiven Unterschied für die wachsende Bevölkerung zu machen, indem Sie erschwingliche und zuverlässige Energie mit den geringsten Umweltauswirkungen bereitstellen. Parallel dazu müssen wir mehr in Forschung und Entwicklung investieren, um langfristig die Abhängigkeit von unzureichender „fossiler“ Energie zu reduzieren und diese mit energieeffizienteren Formen ersetzen zu können.

Logischerweise bleibt „Net Zero anything“ bestenfalls Wunschdenken.

Mehr Details zu den o.g. Themen können sie im Buch des Autors Unbequeme Wahrheiten… über Strom und die Energie der Zukunftnachlesen und hier bestellen.

Link: https://unpopular-truth.com/2024/05/24/why-primary-energy-is-still-king/

Übersetzt von Christian Freuer für das EIKE

Hinweis: Diese Übersetzung ist vom Autor begutachtet worden.

 




Neue Studie bestätigt GWPF-Berichte über abnehmende Wetterkatastrophen

Presseerklärung des GWPF
London, 6. Juni – Eine neue wissenschaftliche Studie hat bestätigt, was GWPF-Berichte und -Erklärungen schon seit einiger Zeit betonen: Natur- und klimabedingte Katastrophen haben im 21. Jahrhundert eher ab- als zugenommen.

Seit Jahren geben internationale Organisationen wie das UN-Büro für Katastrophenvorsorge (UNDRR), die Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO), die Weltorganisation für Meteorologie (WMO) und das Internationale Rote Kreuz (IFRC) Berichte heraus, in denen sie behaupten, dass klimabedingte Katastrophen derzeit eskalieren.

Seit Jahren weist die GWPF darauf hin, dass solche Behauptungen falsch sind und durch empirische Daten widerlegt werden. Die irreführenden Behauptungen der UN-Organisationen beruhen darauf, dass sie den erheblichen Anstieg der Katastrophenmeldungen nicht berücksichtigen, der durch das Aufkommen neuer Technologien seit den 1970er Jahren hervorgerufen wurde.

Nicht nur die jährliche Zahl der klimabedingten Katastrophen ist seit über 20 Jahren tendenziell rückläufig.

Auch die Zahl der Menschen, die durch Natur- und Wetterkatastrophen ums Leben kommen, ist in den letzten 120 Jahren stetig zurückgegangen:

Quelle: Alimonti & Mariani (2024)

In einer neuen Studie, in der die zeitliche Entwicklung der Zahl der seit 1900 gemeldeten Naturkatastrophen analysiert wird, bestätigen zwei italienische Wissenschaftler, dass im 21. Jahrhundert „ein abnehmender Trend bis 2022“ zu verzeichnen ist, der „durch einen signifikanten Rückgang der Zahl der [Katastrophen-]Ereignisse gekennzeichnet ist…“

Quelle: Alimonti & Mariani (2024)

„Die Behauptung, dass wir mit einem zunehmenden Trend von Naturkatastrophen konfrontiert sind, wie in den drei offiziellen Berichten von UNDRR und FAO auf der Grundlage desselben EM-DAT-Datensatzes behauptet wird […], wird nicht durch Daten gestützt“ (Gianluca Alimonti & Luigi Mariani (2024) Environmental Hazards, 23:2, 186-202).

Die Autoren betonen, dass die empirischen Daten

„in deutlichem Widerspruch zu früheren Analysen zweier UN-Organisationen (FAO und UNDRR) stehen, die eine steigende Zahl von Naturkatastrophen und -auswirkungen im Zusammenhang mit der globalen Erwärmung prophezeien. Unsere Analysen widerlegen diese Behauptung ebenso wie die vom UNDRR veröffentlichten Extrapolationen, die auf dieser Behauptung beruhen“.

In ihrer Schlussfolgerung betonen die Wissenschaftler, dass sie

„besorgt sind über die falsche Darstellung des Trends zu Naturkatastrophen, weil solche Behauptungen von vielen verschiedenen Medien und von der FAO selbst unkritisch verbreitet wurden, wodurch die Wahrnehmung der Öffentlichkeit in Bezug auf das Risiko von Naturkatastrophen verzerrt wurde… Die Fehlinterpretation des Trends zu Naturkatastrophen ist eine sehr ernste Angelegenheit, weil sie die Weltbevölkerung dem Risiko einer inkonsistenten Politik sowohl auf nationaler als auch auf internationaler Ebene aussetzt, wodurch Ressourcen verschwendet oder von der Lösung viel konkreterer Probleme abgezogen werden.“

Dr. Ralph Alexander, der eine Reihe von Kritiken an irrigen Behauptungen über Klimakatastrophen verfasst hat, sagte:

„Die neue Studie von Alimonti und Mariani bestätigt, was wir in einem GWPF-Bericht vor drei Jahren gesagt haben – klimabedingte Katastrophen nehmen trotz der globalen Erwärmung nicht zu. Das Gegenteil wird seit Jahren von mehreren internationalen Agenturen behauptet. Diese Agenturen haben jedoch nicht erkannt, dass die offensichtliche Zunahme von Naturkatastrophen seit den 1970er Jahren lediglich auf eine erhebliche Zunahme der Katastrophenmeldungen aufgrund neuer Technologien zurückzuführen ist.“

GWPF-Direktor Dr. Benny Peiser sagte:

„Es gibt ein berühmtes Sprichwort, das die Bemühungen der GWPF zusammenfasst, die Trends bei Katastrophen und Klimakatastrophen richtig zu stellen, : ‚Erst ignorieren sie dich, dann lachen sie über dich, dann bekämpfen sie dich, dann schließen sie sich dir an.“

Weitere Informationen:

Gianluca Alimonti & Luigi Mariani (2024) Is the number of global natural disasters increasing? Environmental Hazards, 23:2, 186-202)

Hannah Ritchie and Pablo Rosado (2024) – “Is the number of natural disasters increasing?” Our World In Data 

Ralph Alexander: Extreme Weather in 2020 (pdf)

Paul Homewood: UN claim “Staggering rise in climate emergencies since 2000”

GWPF: Red Cross claims of increasing climate disasters is “grossly misleading”

GWPF: Disasters report features ‘crudely manipulated data’

UN disasters report is a huge blunder and embarrassment: GWPF calls for fatally flawed UN report to be withdrawn

Link: https://mailchi.mp/f8726c137529/new-study-confirms-gwpf-reports-on-declining-climate-disasters-201671?e=08ba9a1dfb

Übersetzt von Christian Freuer für das EIKE

 




Wassertemperatur-Blues

Willis Eschenbach

Auf X-Twitterverse tut Roger Hallam (@RogerHallamCS21) sein Bestes, um den Leuten Angst zu machen. Hier ist sein xtweet:

Wenn es jemals einen Datenpunkt gab, der bewies, dass sich die Menschheit unweigerlich auf eine Periode revolutionärer sozialer Umwälzungen zubewegt, dann ist es der Punkt oben rechts in dieser Grafik.

Die Temperatur des globalen Meeresspiegels für die ersten 5 Monate des Jahres 2024 ist buchstäblich aus dem Rahmen gefallen. Die Super-Exponentialhypothese ist lebendig und ungebrochen.

In der Alltagssprache bedeutet dies, dass die Dinge so schnell so schlimm werden, dass die politischen Regime wie Dominosteine zusammenbrechen werden.

Wie ich immer wieder sage – die Schlüsselfrage unserer Zeit ist diese: WAS KOMMT ALS NÄCHSTES? – Faschismus oder Radikaldemokratie?

Abbildung 1. Roger Coppocks Diagramm, auf das sich Roger Hallam in seinem Tweet bezieht.

Was kann man an diesem Diagramm nicht mögen?

Nun, zunächst einmal repräsentiert jeder Punkt im Diagramm ein ganzes Jahr an Daten … mit Ausnahme des Punktes oben rechts, der nur 5 Monate an Daten enthält, von Januar bis Mai. Wenn ich mich recht erinnere, ist dies als „Vergleich von Äpfeln mit Orangenschalen“ oder so ähnlich bekannt. Und in jedem Fall, egal unter welchem Namen … ist es nicht getan.

Als Nächstes haben sie etwa 90 % der Daten weggeworfen, indem sie sie auf Jahre gemittelt haben. Warum nicht monatliche Daten verwenden, da wir sie haben?

Außerdem ist die Vorstellung, dass ein paar Monate mit einem wärmeren Meeresspiegel als üblich „beweisen, dass die Menschheit unweigerlich in eine Periode revolutionärer sozialer Umwälzungen eintritt“, ein Witz. Sie geht davon aus, dass wir noch nie einen raschen Anstieg der Meerestemperatur erlebt haben.

Wie würde also eine echte Grafik der ERSST-Daten aussehen? Um diese Frage zu beantworten, habe ich mir, wie üblich, die zugrunde liegenden Daten besorgt und sie grafisch dargestellt. Hier ist das Ergebnis:

Abbildung 2. Grafik des vollständigen ERSST.V5-Datensatzes der monatlichen Meerestemperatur (SST). Die Zeiträume mit der roten Linie und dem blauen Hintergrund sind Zeiten schneller Erwärmung oder Abkühlung.

An diesem Datensatz gibt es mehrere interessante Aspekte. Erstens gab es in der Vergangenheit zwei Zeiträume, um 1878 und um 1942, in denen ähnlich große Sprünge in der Meerestemperatur zu verzeichnen waren. Ich habe diese beiden Anomalien zusammen mit der aktuellen Erwärmung in Rot hervorgehoben. Seltsamerweise führte keine dieser beiden Anomalien zu einer, wie hieß es doch gleich, „Periode revolutionärer sozialer Umwälzungen“. Wenn es keine Thermometer gäbe, wüsste man nicht einmal, dass sie aufgetreten sind.

Ich meine, wann sind Sie das letzte Mal aufgewacht und haben gedacht: „Nanu, es fühlt sich an, als wäre die globale Temperatur der Ozeane ein Viertelgrad wärmer als vor ein paar Monaten!“?

Was also war die Ursache für die Sprünge in den Jahren 1878 und 1942? Und vor allem: Warum sank die Temperatur in beiden Fällen recht schnell wieder auf den Status quo ante?

Wie wir während der vielen Saisons zu sagen pflegten, die ich in der kommerziellen Fischerei verbrachte: „Mehr ungelöste Geheimnisse des Meeres.“

Als Nächstes: Obwohl die CO₂-Werte in dem halben Jahrhundert von 1860 bis 1910 stiegen, sanken die Meerestemperaturen in dieser Zeit. Ein weiteres ungelöstes Rätsel des Meeres …

Als nächstes gibt es in den Daten einen relativ starken Zyklus mit einer Periode von etwa 9,1 Jahren … zu kurz, um mit Sonnenflecken zusammenzuhängen. Warum neun+ Jahre? Immer diese Rätsel!

Schließlich kommen wir zu dem Fragezeichen in der oberen rechten Ecke in Abbildung 1 – was wird der morgige Tag bringen? Meine erste Vermutung wäre, dass es so sein wird wie in der Vergangenheit: Es geht aufwärts und dann wieder abwärts. Um jedoch ein besseres Gefühl dafür zu bekommen, wohin die Reise geht, zeigt Abbildung 3 einen genaueren Blick auf den jüngsten Teil der in Abbildung 1 gezeigten Daten, mit den gleichen gelb/roten geglätteten Linien wie in Abbildung 1:

Abbildung 3. Dieselben Daten wie in Abbildung 1, aber nur mit der aktuellen Meerestemperatur seit 2016. Die gelben/roten Linien sind die gleiche CEEMD-Glättung der Daten wie in Abbildung 1.

Und dies offenbart eine merkwürdige Tatsache … die Meerestemperaturen sind nicht in die Höhe geschossen, wie Hallam und Coppock behaupten. Ganz im Gegenteil – die Temperatur erreichte im August letzten Jahres, 2023, ihren Höchststand und ist in den neun Monaten seither allgemein gesunken.

Und schließlich können wir sehen, warum in der Hallam/Coppock-Grafik der Durchschnitt der ersten fünf Monate der Temperaturdaten von 2024 so viel höher ist als der Durchschnitt der vollen zwölf Monate der Daten von 2023, obwohl die Meerestemperaturen seit neun Monaten sinken.

TL;DR Version: Wir bewegen uns vielleicht tatsächlich „auf eine Periode revolutionärer sozialer Umwälzungen zu“, aber nicht wegen eines sehr irreführenden Punktes auf einer Grafik der globalen Meerestemperaturen …

Link: https://wattsupwiththat.com/2024/06/05/sea-surface-temperature-blues/

Übersetzt von Christian Freuer für das EIKE

 




Alle Dinge sind gleich

[Original-Titel: „All Things Equal“]

Andy May

In einer interessanten Linkedin-Debatte zwischen Tinus Pulles und mir kamen zwei Themen zur Sprache, die miteinander zusammenhängen und zu kompliziert für einen Kommentar sind. Die erste ist Tinus‘ Frage: „Wird mehr atmosphärisches CO₂, wenn alle anderen Variablen gleich bleiben, zu einer höheren Temperatur führen?

Die zweite Frage kam auf, als ich Folgendes aus dem IPCC-Bericht AR6 zitierte:

„Infolgedessen dienen nicht-kondensierende Treibhausgase mit viel längeren Verweilzeiten als ‚Steuerknüppel‘, welche die planetarische Temperatur regulieren, wobei die Wasserdampfkonzentrationen einen Rückkopplungseffekt darstellen (Lacis et al., 2010, 2013). –(IPCC, 2021, S. 179).

Und dieser Kommentar aus AR5:

„Derzeit hat Wasserdampf den größten Treibhauseffekt in der Erdatmosphäre. Allerdings sind andere Treibhausgase, vor allem CO₂, notwendig, um die Präsenz von Wasserdampf in der Atmosphäre aufrechtzuerhalten. … Andere Treibhausgase als Wasserdampf sorgen also für die Temperaturstruktur, die das derzeitige Niveau des atmosphärischen Wasserdampfs aufrechterhält. Obwohl CO₂ die wichtigste anthropogene Stellschraube für das Klima ist, ist Wasserdampf eine starke und schnelle Rückkopplung, die jeden anfänglichen Antrieb um einen typischen Faktor von zwei bis drei verstärkt. Wasserdampf ist kein signifikanter anfänglicher Antrieb, aber dennoch ein grundlegender Faktor des Klimawandels.“ – (IPCC, 2013, S. 667).

Seltsamerweise glaubt Tinus nicht, dass der IPCC den Gedanken von Lacis et al. ernst nimmt, dass CO₂ ein Steuerknüppel für die Temperatur ist, und er scheint damit nicht einverstanden zu sein. Seine Ausrede ist, dass im ersten Zitat „control knob“ in Anführungszeichen steht und im zweiten in einem farbigen Kasten, der es als Antwort auf eine „häufig gestellte Frage“ oder FAQ 8.1 ausweist (Kapitel 8, S. 666-667).

Aber beide Berichte zitieren eindeutig Lacis et al. (2010 & 2013), verwenden die Sprache von Lacis et al. und stimmen mit ihnen überein. Wir können getrost davon ausgehen, dass die IPCC-Berichte AR5 und AR6 mit Lacis et al. übereinstimmen, unabhängig von Tinus‘ Einwänden.

Das Interessante daran ist, dass diese beiden Punkte auf besondere Weise eng miteinander verbunden sind. Die erste Frage von Tinus ist eine Suggestivfrage, die von der Annahme ausgeht, dass CO₂ das Klima steuert. Er weiß wie jeder andere auch, dass reines CO₂, das in einem Labor mit Infrarotstrahlung bestrahlt wird, einen Teil davon absorbiert und sich erwärmt. Das Laborexperiment ist das „all things equal“, von dem er spricht.

Außerhalb des Labors und in der realen Welt gibt es eine Reihe anderer Faktoren, die das Ergebnis verändern können. Deshalb ist die Frage, die Tinus stellt, eine Suggestivfrage. Oft kann die Art und Weise, wie eine Frage formuliert ist, zu einer falschen Antwort führen, weshalb wir es vermeiden müssen, Suggestivfragen zu beantworten.

Nun kommen wir zum zweiten Punkt, der CO₂ als „Steuerknopf“ für das Klima bezeichnet. Lacis et al. erläutern diesen Gedanken, der vom IPCC eindeutig unterstützt wird:

„Es gibt zahlreiche physikalische Beweise dafür, dass Kohlendioxid (CO₂) das wichtigste klimarelevante Treibhausgas in der Erdatmosphäre ist. Das liegt daran, dass CO₂ ebenso wie Ozon, N₂O, CH₄ und Fluorchlorkohlenwasserstoffe bei den derzeitigen Temperaturen nicht kondensiert und aus der Atmosphäre ausfällt, während Wasserdampf dies kann und tut. Die nicht kondensierenden Treibhausgase, die 25 % des gesamten terrestrischen Treibhauseffekts ausmachen, sorgen somit für die stabile Temperaturstruktur, die das derzeitige Niveau des atmosphärischen Wasserdampfs und der Wolken durch Rückkopplungsprozesse aufrechterhält, die für die restlichen 75 % des Treibhauseffekts verantwortlich sind. Ohne den Strahlungsantrieb durch CO₂ und die anderen nicht kondensierenden Treibhausgase würde das terrestrische Treibhaus zusammenbrechen und das globale Klima in einen eisigen Zustand der Erde stürzen.“ Lacis et al. schätzen, dass Wasserdampf etwa 75 % des gesamten Treibhauseffekts ausmacht, was in der Größenordnung anderer Schätzungen liegt, aber niemand weiß es genau, weil die Wirkung der Wolken unbekannt ist. Wolken haben nachts einen großen positiven (wärmenden) Treibhauseffekt, da sie Wärme zurückhalten, und tagsüber einen großen negativen (kühlenden) Albedo-Effekt, da sie hellweiß sind und einen Großteil des einfallenden Sonnenlichts reflektieren. Außerdem variieren Wolken im Laufe der Zeit und je nach Ort (mehr über Wolken hier und hier).

Das bedeutet, dass sich der Treibhauseffekt sowohl zeitlich als auch räumlich verändert. In den Tropen, wo es ständig feucht ist, ist der Treibhauseffekt sehr groß, während er in Wüsten und in den Polarregionen im Winter sehr gering ist und an den Polen über weite Strecken des Winters sogar negativ ist. In den Polarregionen im Winter und in den Wüsten ist der Himmel normalerweise wolkenfrei.
Wie Lacis et al. sagen, kondensiert Wasserdampf und ist ungleichmäßig über die Erdoberfläche verteilt. Das ist der Kern ihres Arguments, dass CO₂ und andere nicht kondensierende Treibhausgase der „Steuerknopf“ für das Klima sind und Wasserdampf eine bedeutende, aber relativ unwichtige „Rückkopplung“ ist, die das tut, was die übergeordneten Treibhausgase ihr sagen.

Ist dieses Argument stichhaltig? Das Wortspiel ist durchaus beabsichtigt. Wie Wim Röst (in einer sehr guten Präsentation im Juni 2023 in Hillegom, Niederlande) gesagt hat, dominieren Wasser, Schnee und Wasserdampf den Treibhauseffekt, kühlen die Oberfläche durch Verdunstung, geben einen Großteil ihrer latenten Wärme an den Weltraum ab und bestimmen das gesamte Wetter. Die verschiedenen wassergetriebenen Prozesse in der Troposphäre steuern die Menge der ein- und ausgehenden Strahlung, indem sie sowohl die Lage und Bewegung der Wolken als auch die latente Wärme verändern.

Wyatt und Curry [ (Wyatt & Curry, 2014), (Wyatt M. G., 2012c), (Wyatt M., 2014)] haben gezeigt, dass sich zahlreiche ozeanische und atmosphärische Oszillationen in einer koordinierten Weise über die Erdoberfläche bewegen, die sie als „Stadiumwelle“ bezeichnen und die einen etwa 65-70-jährigen Klimazyklus oder eine Oszillation bilden. Diese Oszillation lässt sich an der globalen Durchschnittstemperatur ablesen, wie in (May & Crok, 2024) in Abbildung 1 gezeigt:

Abbildung 1. Die Atlantische Multidekadische Oszillation (AMO) in ihrer Rohform (oben) und als trendbereinigter Index (unten) aufgetragen. Der HadCRUT4-Durchschnittswert der globalen Temperatur wurde ebenfalls abgeleitet und als graue gestrichelte Linie über die abgeleitete AMO gelegt. Daten von NOAA. Darstellung aus (May & Crok, 2024), Zusammenfassung hier.

Wie Abbildung 1 zeigt, stimmt die abgeleitete globale durchschnittliche Temperatur (HadCRUT4) sehr gut mit dem abgeleiteten AMO-Index überein. Diese Übereinstimmung ist, zumindest visuell, besser als die Übereinstimmung zwischen CO₂ und Temperatur. Die AMO ist nicht die führende Oszillation in der Stadiumwelle, aber sie ist eine wichtige Komponente davon. Die Übereinstimmung der AMO mit der globalen durchschnittlichen Temperatur eröffnet die Möglichkeit, dass Wasser und Wasserdampf keine „Rückkopplung“ sind, sondern eine Triebkraft des Klimawandels. CO₂ und andere nicht kondensierende Treibhausgase haben wahrscheinlich eine gewisse Auswirkung auf den Klimawandel, aber nach allem, was man hört, ist sie gering, und es ist zweifelhaft, dass sie die Hauptrolle spielen.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2024/06/04/all-things-equal/

Übersetzt von Christian Freuer für das EIKE

 




Verfügbarkeit von Wind- und Solarressourcen – ein fataler Fehler!

Roger Caiazza

Als pensionierter Meteorologe eines Stromversorgers verfolge ich seit vielen Jahren die Probleme im Zusammenhang mit der Verfügbarkeit von Wind- und Solarenergie. Mein Denken hat sich so weit entwickelt, dass ich nun glaube, dass in einer rationalen Welt jedes Stromnetz, das sich auf Wind- und Solarenergie verlässt, zum Scheitern verurteilt ist. Dieser Beitrag erklärt, warum.

Hintergrund

Die North American Electric Reliability Corporation (NERC) hat kürzlich ein Webinar für die Cold Weather Preparedness Small Group Advisory Sessions (SGAS) einberufen, um registrierten Unternehmen die Möglichkeit zu geben, sich mit Vertretern der NERC und der regionalen Entitäten zu treffen, um die Cold Weather Preparedness Standards und mögliche Compliance-Ansätze in einer offenen und prüfungsfreien Umgebung zu diskutieren“. Der Anstoß für diese Initiative war die auf der folgenden Folie beschriebene Veranstaltung in Texas im Februar 2021. Die gesetzgeberischen Auswirkungen dieses Ereignisses sind noch nicht abgeschlossen, aber die Notwendigkeit zu diskutieren, wie man am besten mit diesen Ereignissen umgeht, ist so akut, dass die SGAS in einer „offenen und auditfreien Umgebung“ eingerichtet wurde.

Der springende Punkt ist, dass es bereits im bestehenden System Probleme mit der Angemessenheit der Stromnetzressourcen bei extremen Wetterereignissen gibt. Am meisten Sorgen bereitet mir das künftige Netz, das auf wetterabhängige Ressourcen angewiesen ist. Obwohl Texas über beträchtliche Wind- und Solarressourcen verfügt, hat deren Vorhandensein nicht wesentlich zu diesem Stromausfall in Texas beigetragen. Vielmehr lag es daran, dass viele Komponenten der traditionellen Erzeugungs- und Übertragungssysteme nicht ausreichend gegen extreme Kälte gewappnet waren. In Zukunft wird das wetterabhängige Stromnetz häufiger ähnliche Probleme verursachen und, wie ich zeigen werde, möglicherweise nicht in der Lage sein, einen katastrophalen Stromausfall zu verhindern.

Meine Hauptsorge gilt der Durchführbarkeit des Umsetzungsplanes für das New Yorker Klimagesetz, oder besser gesagt, dem Fehlen einer angemessenen Durchführbarkeitsanalyse, die den schlimmsten Fall einer Dürre bei den Wind- und Solarenergiequellen berücksichtigt. Im September 2021 habe ich die Herausforderungen für die Zuverlässigkeit des Climate Act beschrieben, die von den für die Zuverlässigkeit des Stromnetzes zuständigen Organisationen genannt wurden. Alle glaubwürdigen, für die zukünftige Netzzuverlässigkeit durchgeführten Analysen weisen auf das zu erwartende Worst-Case-Szenario hin: Wenn New York Heizung und Transport elektrifiziert, wird die Spitzenlast im Winter auftreten, wenn es am kältesten ist. In der Integrationsanalyse wurde eine mehrtägige Windflaute im Winter festgestellt. Der New Yorker Independent System Operator hat ähnliche Analysen durchgeführt und gezeigt, dass Windflauten im Winter, die mit geringer Solarverfügbarkeit und hohen Lasten zusammenfallen, das eigentliche Problem darstellen werden. Auch das New York Department of Public Service hat die Lücke bei den „erneuerbaren“ Energien als großes Problem erkannt. Meiner Meinung nach hat jedoch keine der bisher durchgeführten Analysen das Worst-Case-Szenario ermittelt, da sie alle relativ kurze Zeiträume historischer Daten verwendet haben.

Alle glaubwürdigen Analysen zur Projektion erneuerbarer Ressourcen verwenden historische meteorologische Daten, Projektionen der zukünftigen Last während dieser Zeiträume und Schätzungen der Verfügbarkeit elektrischer Ressourcen auf der Grundlage des angenommenen Einsatzes von Wind- und Solarenergie, Energiespeicherung und anderen Technologien, die zur Deckung der erwarteten Last benötigt werden. Stündliche Profile von Wettervariablen, die mit Hilfe von Wettervorhersagemodellen erstellt wurden, werden verwendet, um stündliche Bedarfsprognosen und Energieertragsprofile für Wind- und Solarressourcen für die untersuchten Zeiträume zu entwickeln. Die glaubwürdigen Analysen unterscheiden sich nur in ihren Annahmen für die Merkmale der Ausbauten und die Genauigkeit der potenziellen Verfügbarkeit auf der Grundlage klimatologischer und geografischer Beschränkungen. Sobald die Analyse abgeschlossen ist, können die daraus resultierenden Daten zur Ermittlung des ungünstigsten Falls verwendet werden.

Der New York Independent System Operator (NYISO) arbeitet mit seinem Berater DNV zusammen, um die Verfügbarkeit von Onshore-Wind-, Offshore-Wind- und Solarressourcen in New York zu ermitteln. Für die Analyse wird eine 23-jährige historische meteorologische Datenbank für die Gebiete mit erneuerbaren Ressourcen im Bundesstaat New York verwendet. Ähnliche Analysen sind in anderen Regionen der regionalen Netzbetreiber im Gange. Es wurde auch erkannt, dass größere Gebiete in ähnlicher Weise behandelt werden müssen. Das Electric Power Research Institute hat eine Low-Carbon Resources Initiative ins Leben gerufen, die den nordamerikanischen Kontinent untersucht. Auch branchenfremde Forscher haben mit Hilfe der ERA5-Reanalysedaten von 1950 bis heute Analysen von Wind- und Solarenergie-Mangel durchgeführt. Bei der Analyse der Reanalysedaten werden aktuelle Wettervorhersagemodelle und historische Beobachtungen verwendet, um stündliche meteorologische Felder zu erhalten. Diese Daten können auf einer feineren Skala weiter verfeinert werden, um die Verfügbarkeit von Wind- und Solarressourcen zu prognostizieren.

Ergebnisse

Alle diese Analysen kommen zu dem Ergebnis, dass es Perioden mit geringer Verfügbarkeit erneuerbarer Ressourcen gibt. Die Arbeitsgruppe für extreme Wetterbedingungen des New York State Reliability Council (EWWG) analysierte beispielsweise die hochauflösenden NY-Offshore-Winddaten, die von NYISO und seinem Berater DNV für Offshore-Windressourcen bereitgestellt wurden. In der Zusammenfassung des Berichts heißt es:

Das Ausmaß, die Dauer und die weitreichenden geografischen Auswirkungen, die in dieser vorläufigen Analyse ermittelt wurden, sind ganz erheblich und werden durch den Lastzuwachs infolge der Elektrifizierung noch verstärkt. Dies unterstreicht, wie wichtig es ist, dass Zuverlässigkeitsüberlegungen im Zusammenhang mit Offshore-Windenergie und Flauten in den kommenden Zuverlässigkeitsbewertungen, Ruhestandsstudien und Überprüfungen der Systemadäquanz berücksichtigt werden, um sicherzustellen, dass die Systemauslegung ausreicht, um das große Offshore-Windvolumen zu bewältigen, das voraussichtlich in den nächsten fünf bis zehn Jahren in Betrieb gehen wird.

Für die Analyse von NYISO/DNV wurde eine 21-jährige Datenbank verwendet. Bei einer ähnlichen Analyse, dem Independent System Operator of New England (ISO-NE) Operational Impact of Extreme Weather Events (Betriebliche Auswirkungen extremer Wetterereignisse), wurden die ERA5-Daten verwendet, um eine Datenbank für den Zeitraum 1950 bis 2021 zu erstellen. Die Analyse bewertete 1-, 5- und 21-tägige extreme Kälte- und Hitzeereignisse.

Eines der wichtigsten Ergebnisse der ISO-NE-Analyse war eine Tabelle des prognostizierten Systemrisikos für Wetterereignisse über einen Zeitraum von 72 Jahren. In der Analyse wurde das Systemrisiko als das aggregierte nicht verfügbare Angebot plus die außergewöhnliche Nachfrage während des 21-tägigen Ereignisses definiert. Beachten Sie, dass bei der Analyse gleitende Fenster für die 21-Tage-Ereignisse berücksichtigt wurden, indem das 21-Tage-Fenster alle sieben Tage verschoben wurde. Der nicht überraschende Punkt, den ich hervorheben möchte ist, dass das Systemrisiko mit zunehmender Rückschauzeit steigt. Würde die Ressourcenplanung für Neuengland nur die letzten zehn Jahre betrachten, läge das Systemrisiko bei 8714 MW, aber über den gesamten Zeitraum betrug das schlimmste Systemrisiko 9160 MW, was einem Anstieg der Ressourcen um 5,1 % entspricht.

Quelle: ISO-NE Operational Impact of Extreme Weather Events, verfügbar hier

Es sei darauf hingewiesen, dass Judith Curry und ich eine EWWG-Analyse historischer Wetter- und Klimaextreme für New York durchgeführt haben, die das Ereignis vom Januar 1961 als wahrscheinliches Worst-Case-Szenario identifiziert. Wir fanden heraus, dass es einen 15-tägigen Zeitraum vom 20. Januar bis zum 3. Februar 1961 gab, der sich wahrscheinlich als die schlimmste Kältewelle herausstellen wird. In diesem Zeitraum beherrschten Hochdrucksysteme das Wetter im Nordosten, und diese Bedingungen bedeuteten geringe Windgeschwindigkeiten.

Diskussion

Ich glaube nicht, dass wir jemals ein Stromnetz haben werden, das zuverlässig Strom liefert, wenn er am meisten gebraucht wird. Heute müssen sich die Planer für die Angemessenheit der Stromnetzressourcen keine Gedanken darüber machen, dass viele Erzeugungsressourcen nicht zur gleichen Zeit verfügbar sein könnten. In einem zukünftigen Stromnetz, das sich auf Wind und Sonne stützt, ist die Tatsache, dass diese Ressourcen zeitlich und räumlich korrelieren, meiner Meinung nach das unüberwindbare Planungsproblem. Die gesamte Sonnenenergie verschwindet nachts, und Flauten betreffen ganze Gebiete der regionalen Übertragungsorganisation (RTO) zur gleichen Zeit. Dieses Problem wird noch dadurch verschärft, dass die Flaute mehrere RTO-Gebiete zur gleichen Zeit betrifft, in der die höchste Last erwartet wird.

Der Grund dafür, dass wir einem Netz aus Wind, Sonne und Energiespeichern niemals vertrauen können, liegt darin, dass ein für den schlimmsten Fall ausgelegtes System wahrscheinlich nicht praktikabel ist, wenn wir von energiebegrenzten Ressourcen abhängig sind, die wiederum vom Wetter abhängen. Nehmen wir die Ereignisse bei ISO-NE, wo festgestellt wurde, dass der jüngste 10-Jahres-Planungsrückblick ein Systemrisiko von 8714 MW vorsieht. Würde der Planungshorizont jedoch bis 1961 zurückreichen, im ungünstigsten Fall bis 1950, wären zusätzliche 446 MW erforderlich, um das Systemrisiko zu decken. Ich kann mir nicht vorstellen, dass sich der Einsatz von Energiespeichern oder der magischen einsatzfähigen emissionsfreien Ressource wirtschaftlich lohnt, die nur einmal in 63 Jahren benötigt wird. Zum einen ist die Lebenserwartung dieser Technologien viel geringer als 63 Jahre. Selbst bei einem kürzeren Zeithorizont wie den letzten zehn Jahren ist die Frage, wie eine benötigte Anlage wirtschaftlich betrieben werden kann, wenn sie so selten läuft, ohne Subventionen und sehr hohe Zahlungen, wenn sie doch läuft.

Wie ich bereits in einem früheren Artikel beschrieben habe, wurden auf der Fachkonferenz des New York Department of Public Service (DPS) Proceeding 15-E-0302 Zero Emissions by 2040 Bedenken hinsichtlich dieser Ressourcenlücke und der Möglichkeiten zu ihrer Behebung deutlich. Abgesehen von der Tatsache, dass die bevorzugten Technologien noch nicht kommerziell erprobt sind, werden sie alle außerordentlich teuer sein. Ich glaube, dass dies die Worst-Case-Lösungen unpraktikabel macht.

Andererseits ist die Alternative inakzeptabel, den schlimmsten Fall zu ignorieren. In der Netto-Null-Fantasiewelt, die sich auf Wind und Sonne stützen soll, wenn Heizung und Verkehr elektrifiziert werden sollen, wird der Bedarf an zuverlässiger Elektrizität noch größer. Wenn wir keine Ressourcen für den beobachteten schlimmsten Fall bereitstellen, wird es zu einem Stromausfall kommen, wenn diese Bedingungen unweigerlich eintreten, wenn der Strom am meisten gebraucht wird, um die Menschen davor zu bewahren, im Dunkeln zu erfrieren, weil sie nicht fliehen können.

Die Abwägung zwischen Zweckmäßigkeit und Notwendigkeit wird nicht von den Planungsgruppen für die Angemessenheit der Ressourcen gelöst, welche die beschriebenen Analysen durchführen. Ich glaube auch nicht, dass Organisationen wie der New York State Reliability Council oder NERC diese Entscheidungen treffen werden. Dies ist etwas, das von Politikern auf höchster Ebene entschieden werden muss. Hoffentlich wird das Problem auf offene und transparente Weise behandelt, aber der politische Lobbydruck wird immens sein, weil die Durchführbarkeit des politisch korrekten aktuellen Plans gefährdet ist, in New York und anderswo auf Wind- und Solarenergie zu setzen.

Schlussfolgerung

Ich habe lange dafür plädiert, dass New York eine Machbarkeitsstudie durchführen sollte, um festzustellen, ob der im Scoping-Plan enthaltene Netto-Null-Ansatz zur Erfüllung des Climate Act überhaupt funktionieren könnte. Francis Menton hat mich davon überzeugt, dass es besser wäre, ein Demonstrationsprojekt in einem kleineren Staat durchzuführen, um zu beweisen, dass es funktionieren kann. Der beschriebene Kompromiss zwischen der Praktikabilität des Einsatzes von Ressourcen für das beobachtete Worst-Case-Ressourcendefizit und der Notwendigkeit, dies zu tun, um einen katastrophalen Stromausfall zu verhindern, sollte bei der Bewertung der Praktikabilität eine zentrale Rolle spielen.

Meiner Meinung nach ist jedes elektrische System unpraktisch, das von Wind und Sonne abhängt. Wenn das Ziel ein emissionsfreies Elektrizitätssystem ist, muss die Kernenergie natürlich der Eckpfeiler sein. Wenn die Erschwinglichkeit ein Anliegen ist, dann würde die pragmatische Akzeptanz einer großen Emissionsreduzierung anstelle eines Null-Ziels die Verwendung von etwas Erdgas erlauben, wie Russell Schussler und ich letztes Jahr vorgeschlagen haben. In Anbetracht der eingefleischten Kapitalisten und Sonderinteressen, die Wind- und Solarenergie unterstützen, wird jeder Richtungswechsel, selbst wenn er zum Schutz von Gesundheit und Sicherheit notwendig ist, ein enormer Fortschritt sein.

# # #

Roger Caiazza blogs on New York energy and environmental issues at Pragmatic Environmentalist of New York. This represents his opinion and not the opinion of any of his previous employers or any other company with which he has been associated.

Link: https://wattsupwiththat.com/2024/06/04/wind-and-solar-resource-availability-fatal-flaw/

Übersetzt von Christian Freuer für das EIKE