Einige wenige Graphiken sagen alles bzgl. vom Wetter abhängiger „erneuerbarer“ Energie

Ed Hoskins edmhdotme

Ein paar Diagramme sagen alles über Wind- und Solarenergie.

Dies ist der 10-Jahres-Produktivitätsrekord für wetterabhängige „Erneuerbare“ in Europa: das ist die jährliche Stromerzeugung geteilt durch die Nennleistung der wetterabhängigen „Erneuerbaren“ in den letzten zehn Jahren. Die Daten werden von EurObservER bereitgestellt, einer von der EU unterstützten Organisation zur Förderung „wetterabhängiger erneuerbarer Energien“.

Die Produktivität der wetterabhängigen „erneuerbaren Energien“ ist begrenzt, da sie nur intermittierende und schwache Energiequellen wie Wind und Sonne erfassen.  Da sie nicht in der Lage sind, die von der Zivilisation benötigte überschüssige Energie zu erzeugen, sind sie Parasiten für alle anderen Stromerzeugungstechnologien.

Als da wären: Konventionelle Stromerzeugung, Gas-, Kohle- oder Kernkrafttechnologien…

… produzieren viel mehr Energie für die Nutzung durch die Zivilisation, als sie für ihren Bau und Betrieb benötigen. Sie haben eine hohe Energierendite auf die investierte Energie.

… laufen 24 Stunden an 7 Tagen der Woche

… können bei Bedarf eingeschaltet werden, um die Nachfrage zu decken

… verbrauchen wenig Landfläche

… können in der Nähe von Bedarfszentren errichtet werden

… ihre Anlagen verbrauchen wenig Material

… sie können vor Ort zu geringen Kosten über eine umfangreiche Energiespeicherung verfügen
sie sind nachweislich wesentlich billiger als die von ihnen erzeugte Energie, selbst bei den derzeit hohen europäischen Gaspreisen.

Die US EIA, Energy Information Administration, erstellt vergleichende Kapital- und Langzeitkosten für Stromerzeugungstechnologien. Wenn man ihre wetterabhängigen Kosten für „erneuerbare Energien“ mit der in Europa verzeichneten Produktivität für die Erzeugung der gleichen Energieeinheit über das Jahr hinweg zusammenführt und mit der billigsten Stromerzeugungstechnologie, der Gasverbrennung zu US-Preisen, vergleicht, wird das Preis-Leistungs-Verhältnis deutlich.

Bei diesem Vergleich wird davon ausgegangen, dass der derzeitige europäische Preis für Erdgasbrennstoff etwa dreimal so hoch ist wie der Standardpreis in den USA für die Produktion von Fracking-Gas.

Würde irgendjemand, der bei Verstand ist, ein Auto kaufen, welches das 5- bis 10-fache des normalen Preises kostet und nur an einem von fünf Tagen funktioniert, wenn man nie weiß, welcher Tag das sein könnte?  Und dann darauf bestehen, dass seine Technologie zum Antrieb der gesamten Wirtschaft verwendet wird.

Selbst bei den gegenwärtig gestiegenen europäischen Gaspreisen sind die geschätzten Mehrausgaben für wetterabhängige „erneuerbare Energien“ in Europa immer noch sehr hoch: 0,5 Billionen Dollar an Investitionsausgaben und langfristig 1,2 Billionen Dollar Mehrausgaben.

Diese einfachen Berechnungen zeigen, dass jede Behauptung, Wind- und Solarenergie seien jetzt zu den Kosten wettbewerbsfähig mit konventionellen fossilen Brennstoffen (Gas), offenkundig falsch ist.  Die Zahlen geben einen Überblick über die finanziellen Errungenschaften der grünen Aktivisten bei der Verhinderung von Fracking für Gas in Europa, die sich auf fast 1,2 Billionen Dollar an Mehrkosten belaufen.

Das Ausmaß der vergeudeten Ausgaben für die derzeitige britische „Erneuerbare-Energien“-Flotte beläuft sich auf etwa 60 Milliarden Pfund an Kapitalkosten und ~0,22 Billionen Pfund auf lange Sicht.

Das Leistungsbild des Vereinigten Königreichs wird durch die verstärkte Installation von Offshore-Windenergie leicht verbessert.

Diese sehr einfachen Berechnungen, bei denen lediglich die Rohkosten für die Einspeisung einer Energieeinheit in das Netz verglichen werden, sind nur die Spitze des Kosteneisbergs, denn die wetterabhängigen „erneuerbaren Energien“ verursachen alle möglichen anderen Kosten und Nachteile, die hier nicht dargestellt sind.

Die Erkenntnis, dass der künftige „Klimawandel“, der durch die Verbrennung fossiler Brennstoffe durch den Menschen verursacht wird, kein Problem darstellt, und die Tatsache, dass man auf dieses Nicht-Problem nicht auf wirtschaftlich zerstörerische Weise reagiert, wäre die beste Nachricht für die westliche Welt, für die Biosphäre und für die Menschheit.

[Hervorhebung im Original]

Weitere Links:

A 2022 model of comparative costings for power generation technologies

Minor Greenhouse Gasses: CO2 – CH4 – N2O

https://edmhdotme.wordpress.com/combatting-climate-change/”>https://edmhdotme.wordpress.com/combatting-climate-change

https://edmhdotme.wordpress.com/weather-dependent-power-generation/”>https://edmhdotme.wordpress.com/weather-dependent-power-generation/

The 2021 European Wind Drought and Weather-Dependent power generation

Energy Performance and Material Usage of power generation technologies: 2020

Link zum Original hier: https://wattsupwiththat.com/2022/10/05/a-few-graphs-say-it-all-for-weather-dependent-renewables-2/

Übersetzt von Christian Freuer für das EIKE

 




Das Verbreitungs-Problem, Teil I: Wind und Solar – je mehr man macht, umso schwieriger wird es

Dr. Judith Curry’s Climate Etc. von Planning Engineer

Es scheint der Glaube vorzuherrschen, dass die Zunahme von Wind- und Solarprojekten den weiteren Fortschritt mit diesen Ressourcen erleichtern wird. Nichts könnte weiter von der Wahrheit entfernt sein.

Die Steigerung des Verbreitungsgrades von Wind- und Solarenergie ist eine Sisyphusarbeit, nur dass sie noch schlimmer ist. Man kann sich die Herausforderung so vorstellen, als würde man einen riesigen Felsen, der immer schwerer wird, einen immer steiler abfallenden Hügel hinaufschieben, während der Boden darunter immer glatter und instabiler wird. Die Probleme, die mit einer stärkeren Verbreitung verbunden sind, machen alle potenziellen Vorteile zunichte, die durch Größenvorteile erzielt werden könnten.

Das Stromversorgungssystem ist traditionell stark und sehr robust. Im Allgemeinen gibt es keine nennenswerten Probleme, wenn kleine Systemelemente (kleine Mengen an Wind- und Sonnenenergie) hinzugefügt werden, die das System eher belasten als unterstützen. Das System ist in begrenztem Maße in der Lage, Wind- und Solarenergie zu absorbieren und kann sie nutzen, um die auf teure Brennstoffe angewiesene Stromerzeugung zu ersetzen. Bei höheren Verbreitungsgraden wird diese Fähigkeit jedoch stark eingeschränkt und die Wirtschaftlichkeit kann sich verschlechtern oder sogar umkehren. Nachstehend sind einige Gründe aufgeführt, warum eine zunehmende Verbreitung erneuerbarer Energien zu rasch steigenden Kosten und rasch abnehmender Zuverlässigkeit führen wird.

1) Wind- und Solarenergie können nicht ohne weiteres wesentliche Leistungen bzgl. Zuverlässigkeit erbringen. Die konventionelle Stromerzeugung hat Eigenschaften, die die Stabilität und den Betrieb des Netzes unterstützen. Sie haben eine träge Masse und drehen sich synchron mit den Wellenformen, die das System antreiben, während sie ohne weiteres Spannungs- und Frequenzunterstützung bieten. Da Wind- und Sonnenenergie einen immer größeren Anteil an der Stromerzeugung ausmachen, werden diese wünschenswerten Eigenschaften immer weniger. Einige argumentieren, dass die elektronische Emulation dazu dienen kann, den Verlust dieser Eigenschaften zu kompensieren, aber das ist kostspielig und die Ergebnisse sind minderwertig. Frühere Schriften, die sich ausführlich mit diesem Thema befassen, sind unter anderem dieser und dieser Beitrag.

2) Wind- und Solarenergie sind intermittierende Ressourcen, deren Verfügbarkeit bzw. Leistung oft nicht mit dem Bedarf des Systems übereinstimmt oder diesen unterstützt. Es gibt zwar Hoffnung für die Batterietechnologie, aber die derzeitigen Ziele sind bescheiden. Andere Ressourcen müssen die Intermittenz von Wind und Sonne ausgleichen. Je höher der Anteil von Wind- und Solarenergie ist, desto größer sind die Herausforderung und die Kosten für das Backup. Frühere Beiträge zu diesem Thema neben Anderen stehen hier und hier.

3) Der Erfolg von Wind- und Solaranlagen ist sehr standortabhängig. Sie können Karten abrufen, die die Eignung und Angemessenheit verschiedener Standorte für Wind- und Solarenergie zeigen. Auch andere Überlegungen zur Flächennutzung führen dazu, dass sich Standorte mehr oder weniger gut für Wind- und Solaranlagen eignen. Bei den derzeitigen Bemühungen um den Ausbau von Wind- und Solarenergie werden die optimalsten Standorte genutzt. Die verbleibenden Standorte sind weniger optimal. Wenn der Verbreitungsgrad über das derzeitige Niveau hinaus steigt, wird die Eignung potenzieller Standorte abnehmen. Dieser Beitrag, der in Zusammenarbeit mit Rud Istavan verfasst wurde, enthält einige Ausführungen zu Standortproblemen.

4) Wind- und Solarenergie hängen von Materialien ab, die abgebaut werden müssen, und ihre Kapazität kann begrenzt sein. Ein starker Anstieg der Solar- und Windenergieproduktion wird wahrscheinlich die Kosten erhöhen und zu Versorgungsproblemen führen. Bei der europäischen Windenergie gibt es schon jetzt einen Kampf um knappe Materialien.

5) Mit zunehmender Verbreitung der Wind- und Solarenergie wird es für andere Ressourcen immer schwieriger, ihren Ausbau zu subventionieren. Es ist eine Sache, eine kleine Komponente des Erzeugungsmixes zu subventionieren, eine ganz andere, die Hauptkomponenten zu subventionieren. Siehe hier und hier.

6) Der Bau von Wind- und Solaranlagen ist sehr energieaufwändig. Ihr Betrieb und ihre Wartung verbrauchen sehr viel Energie. Viele sehen, dass es zweifelhaft ist, ob solche Anlagen sich selbst tragen, die Last bedienen und genügend Energie liefern können, um Ersatzanlagen derselben Art zu bauen. Wenn dann auch noch Elektrofahrzeuge hinzukommen, wird das Problem noch größer. Der „grüne“ Plan zur Abschaffung von Gasgeräten und die zusätzlichen Verluste durch den verstärkten Einsatz von Batterien werden ebenfalls nicht helfen. Es gibt eine Reihe von Bedenken, die sich auf den gesamten Energie- und Ressourcenverbrauch von Wind- und Solaranlagen beziehen. Dies wird als das Problem der Energiedichte oder Leistungsdichte bezeichnet. Hier sind einige Links (hier, hier, hier und hier), die diese Art von Bedenken erörtern. Diese Bedenken liegen außerhalb meines Erfahrungsbereichs. Ich hoffe, dass die Leser in den Kommentaren weitere Hinweise geben können.

7) Wind- und Solarenergie machen die Untersuchung, die Steuerung und den Betrieb des Energiesystems komplizierter und unsicherer. Diese Ressourcen sind intermittierend und für die Betreiber unberechenbarer. Um die Stabilität aufrechtzuerhalten, ist eine gute Modellierung unabdingbar. Es werden detaillierte Modelle mit komplexen Differentialgleichungen erstellt. Die Planer können die Erbauer großer Kraftwerke zwingen, ziemlich gute Daten über die Auswirkungen der Anlagen zu liefern. Die Beschaffung guter Daten für verstreute Projekte mit vielen kleinen Elementen, die sich während des Projekts und nach der Installation ändern können, ist wesentlich schwieriger. Und schließlich haben Anlagenbetreiber und Planer jahrelange Erfahrung mit großen rotierenden Maschinen, nicht so sehr mit Wind- und Solarkraftwerken.

8) Ein großflächiger Einsatz von Wind- und Solarenergie würde voraussetzen, dass der Strom über große Entfernungen übertragen wird (oder man bräuchte eine unrealistische und unglaubliche Menge an Batteriespeichern). Um die Windenergie von den Ebenen in die Bevölkerungszentren zu bringen, sind lange Übertragungsleitungen erforderlich. Die Befürworter der Grünen argumentieren, dass Ungleichgewichte zwischen Last und Erzeugung aus Solar- und Windenergie durch die Nutzung von Ressourcen aus einem größeren geografischen Gebiet ausgeglichen werden können. Dies erfordert einen noch größeren Bedarf an langen Stromleitungen sowie ein robustes Netz. Wind und Sonne erzeugen Gleichstrom, der mit Hilfe des Netzes in Wechselstrom umgewandelt werden muss. Edison und Tesla lieferten sich vor Jahren einen Kampf um Wechselstrom und Gleichstrom. Tesla gewann, denn um Strom über eine große Entfernung zu übertragen, muss man ein Wechselstromsystem verwenden. Wie in Punkt 1 erwähnt, bieten Solar- und Windenergie nicht genügend Elemente wie Trägheit und Schwankungen, um ein solches System stabil zu halten. (Randbemerkung: Eine Hochspannungs-Gleichstromleitung kann Strom über große Entfernungen mit geringeren Verlusten übertragen. Um eine Hochspannungs-Gleichstromleitung nutzen zu können, muss jedoch unbedingt ein starkes Wechselstromsystem vorhanden sein, das den Strom empfängt. Das System muss so robust sein, dass der Strom von Gleichstrom in Wechselstrom umgewandelt werden kann. Hochspannungs-Gleichstromleitungen sind nicht die Rettung für ein wind- und solarbasiertes System).  Eine hohe Verbreitung von Wind- und Solarenergie erfordert zwar ein robustes Netz, aber ihre größere Präsenz verringert die Leistungsfähigkeit des Netzes.

Die Liste der oben genannten Herausforderungen ist beeindruckend. Wie könnten sie überwunden werden? Nicht durch größenbedingte Einsparungen bei der Wind- und Solarstromerzeugung. Erstens ist es schwer vorstellbar, dass Größenvorteile diese Ressourcen in die Lage versetzen würden, die oben beschriebenen gewaltigen Herausforderungen zu überwinden. Zweitens scheint es nicht so, dass signifikante Verbesserungen der Größenvorteile zu erwarten sind. Meine Recherchen zu diesem Thema haben ergeben, dass alle Versuche, Größenvorteile zu erzielen, fehlgeschlagen sind. Der Bau von immer mehr und immer kleineren Anlagen wird aufgrund der gestiegenen Materialkosten wahrscheinlich keine größeren Größenvorteile bringen. Größere Wind- und Solaranlagen verursachen eine Reihe von Kosten, die bei kleineren Anlagen nicht anfallen. Die Befürworter von Wind- und Solaranlagen argumentieren stattdessen, dass kleinere lokale Projekte mehr Nutzen bringen als größere Anlagen.

Könnte die Kernenergie einen Beitrag zu einer Zukunft mit geringeren Kohlenstoffemissionen leisten? Auf jeden Fall. Keine der oben genannten Bedenken trifft auf die Kernenergie zu. Durch standardisierte Kernkraftwerke und vernünftige Vorschriften könnten die Kosten gesenkt werden. Auch die Wasserkraft lässt sich gut in das Stromsystem integrieren. Leider gibt es nur wenige bis gar keine potenziellen Standorte für den Ausbau der Wasserkraft. (Anmerkung: Pumpspeicherung ist eine Möglichkeit, Energie zu speichern, aber keine zusätzliche Nettoenergie zu erzeugen).

Es ist viel zu früh, sich eine Zukunft mit 100 % erneuerbaren Energien vorzustellen, zu der die derzeitigen Wind- und Solarkapazitäten wesentlich beitragen. Es ist keine gute Strategie, die derzeitigen „grünen“ Technologien zu fördern und die konventionelle Energieerzeugung in der Hoffnung auf ein Wunder, wenn wir es brauchen, einzustellen und zu verbieten. Vielleicht können wir uns mit dem umfassenden Einsatz von Kernkraft, Kohlenstoffabscheidung und anderen Technologien einem kohlenstofffreien Netz nähern. Die derzeitigen Wind- und Solartechnologien werden in einem solchen Plan bestenfalls eine kleine Rolle spielen.

This is the first post in a series on The Penetration Problem

Part 1: Wind and Solar: The More You Do, The Harder it Gets

Part 2: Will the Inflation Reduction Act Cause a Blackout?

Link: https://wattsupwiththat.com/2022/10/06/the-penetration-problem-part-i-wind-and-solar-the-more-you-do-the-harder-it-gets/

Übersetzt von Christian Freuer für das EIKE

 




Warum es eine Rolle spielt, dass Klimatologen den Sonnenschein vergessen haben

Christopher Monckton of Brenchley

Es ist nun fast zwei Jahre her, dass wir unseren Aufsatz über den zentralen Fehler der Klimaforscher bei ihren Versuchen, die Klimasensitivität auf anthropogene Treibhausgase abzuleiten, vorgelegt haben – nämlich ihr Versagen zu erkennen, dass solche Rückkopplungsprozesse, wie sie zu einem bestimmten Zeitpunkt im Klimasystem vorhanden sind, zu diesem Zeitpunkt notwendigerweise auf jedes Kelvin der gesamten Referenztemperatur gleichermaßen reagieren müssen. Rückkopplungen reagieren nicht – ich wiederhole: nicht – nur auf Störsignale, die Referenzempfindlichkeiten. Sie reagieren auch auf das Basissignal, die Emissionstemperatur, die auch dann herrschen würde, wenn keine Treibhausgase in der Luft wären, weil die Sonne scheint. Doch einer der bedeutendsten Klimatologen der Welt spiegelte den Irrtum wider, der in seiner Branche nahezu allgegenwärtig ist, als er nach einem mehrtägigen Gefecht auf eine direkte Frage von mir zugab, dass er nicht davon ausgeht, dass es eine Rückkopplung auf die Emissionstemperatur gibt.

Das folgende Diagramm zeigt die beiden konkurrierenden Verfahren, wie sie für das Jahr 1850 gelten. Verfahren (a) in rot ist das unvollständige Verfahren, das die Klimatologen in die Irre führte. Verfahren (b) in grün ist das vollständige und korrekte Verfahren, das die Tatsache, dass die Sonne scheint, gebührend berücksichtigt.

Die letztgenannte Methode ist notwendig, weil das Basissignal, die 260-K-Emissionstemperatur R0 (im korrigierten Diagramm sonnengelb dargestellt, im fehlerhaften Diagramm jedoch weggelassen), etwa das 30-fache der 8-K-Referenzsensitivität ΔR0 gegenüber den natürlich vorkommenden, nicht kondensierenden Treibhausgasen (oder der direkten Erwärmung durch diese) beträgt, die in der vorindustriellen Atmosphäre von 1850 vorhanden waren. Dann ist R1, die Summe von R0 und ΔR0, das gesamte Eingangs- oder Referenzsignal, wie es 1850 vorlag. Dieses Jahr ist deshalb von Interesse, weil damals ein Temperaturgleichgewicht herrschte: In den folgenden 80 Jahren würde es keinen Temperaturtrend geben.

Die Rückkopplung auf die Emissionstemperatur R0 ist B0. Ebenso ist die Rückkopplungsreaktion auf ΔR0 ΔB0. Die Rückkopplungsreaktion auf das gesamte Eingangssignal R1 im Jahr 1850 ist somit B1. Der differentielle Rückkopplungsanteil oder Regelkreis-Verstärkungsfaktor h ist der Anteil des unkorrigierten Ausgangssignals, der Gleichgewichtsempfindlichkeit ΔE0, der durch die Rückkopplungsantwort ΔB0 dargestellt wird. Ebenso ist die absolute Regelverstärkung H der Bruchteil des korrigierten Ausgangssignals, der Gleichgewichtstemperatur E1, der durch die gesamte Rückkopplungsreaktion B1 dargestellt wird.

Fordern wir den Computer auf, eine anspruchsvollere Berechnung des Energiebudgets durchzuführen als die stark vereinfachte Version, die ich Anfang des Monats gezeigt habe, und lassen wir ihn seine Arbeit zeigen:

Wir beginnen mit dem Jahr 1850, indem wir die Antriebe durch die wichtigsten natürlich vorkommenden Treibhausgasarten im Jahr 1850 berechnen. Die Daten stammen aus Meinshausen et al. (2017); die Formeln sind aus IPCC (2007, Tabelle 6.2). Der Vorteil dieser speziellen Formeln ist, dass sie so konzipiert wurden, dass sie die Berechnung der Antriebe von Null an ermöglichen und nicht von einer willkürlichen Konzentration größer als Null. Die Antriebe bis 1850 belaufen sich daher auf 25,3 Watt pro Quadratmeter.

Als nächstes werden die mittleren Anfangsbedingungen festgelegt. Bis auf zwei Ausnahmen sind alles Standardbedingungen. Erstens korrigiert die Aerosolanpassung von 0,6 Watt pro Quadratmeter den übermäßig negativen Aerosolantrieb des IPCC, um einer umfangreichen Literatur zu diesem Thema Rechnung zu tragen. Professor Lindzen hat öffentlich erklärt, dass der in den Modellen angenommene stark negative Aerosolantrieb ein künstlich berechneter Korrekturfaktor ist, um die Klimaempfindlichkeit zu übertreiben.

Zweitens wird der anthropogene Anteil M am gesamten Treibhausgas-Antrieb mit 0,9 angenommen. In Wirklichkeit könnte man durch Gewichtung der Einträge in Tabelle 2 in Wu et al. (2019) unter Bezugnahme auf die relevanten Periodenlängen ableiten, dass von dem gesamten Periodenantrieb von 0,96 W/m² 0,71 W/m² anthropogenen und 0,25 W/m² natürlichen Ursprungs waren. Auf dieser Grundlage waren etwa 73,5 % des Antriebs während des Zeitraums anthropogenen Ursprungs. Wir haben jedoch vorsichtig angenommen, dass sogar 90 % des Antriebs anthropogenen Ursprungs waren.

Die Emissionstemperatur wird dann über die Stefan-Boltzmann-Gleichung abgeleitet. Dabei wird jedoch, wie in der Klimatologie leider üblich, nicht berücksichtigt, dass es ohne Treibhausgase in der Luft keine Wolken gäbe, so dass die Albedo die Hälfte des hier verwendeten Standardwerts betragen würde und die Emissionstemperatur – selbst unter Berücksichtigung der Hoelderschen Ungleichungen, die Klimatologen im Allgemeinen ignorieren – weit über 260 K liegen würde.

Es wird dann gezeigt, dass der Systemgewinnfaktor im Jahr 1850, das Verhältnis A1 der Gleichgewichtstemperatur E1 zur Referenztemperatur R1 in diesem Jahr, 1,0764 war, was bedeutet, dass – wenn sich das Rückkopplungsregime seit 1850 nicht geändert hat (was das Le Chatellier-Prinzip und die geringe Erwärmung seither erwarten lassen und wovon die Klimatologen implizit ausgehen) – die Gleichgewichtsempfindlichkeit bei verdoppeltem CO2 nur 1 beträgt. 1 K. Mit dem falschen Verfahren würde der Systemgewinnfaktor, der fälschlicherweise als das Verhältnis a1 zwischen Gleichgewichts- und Referenzsensitivität ausgedrückt wird, 3,712 betragen, was uns 3,9 K ECS erwarten ließe.

Woher wissen wir, dass dies der Fehler ist, den die Klimatologen begangen haben? Der Grund ist einfach. Vor etwa 15 Jahren schrieb ich an Sir John Houghton, den damaligen Vorsitzenden des IPCC-Klima-„Wissenschafts“-Gremiums, und fragte ihn, warum man angesichts der Tatsache, dass die direkte Erwärmung durch die Verdoppelung des CO2-Gehalts der Luft kaum mehr als 1 K beträgt, von einer endgültigen Erwärmung von 3 oder 4 K ausgeht. Sir John antwortete, dass der gesamte natürliche Treibhauseffekt im Jahr 1850 32 K betrug und die Referenzsensitivität gegenüber natürlich vorkommenden Treibhausgasen bei etwa 8 K lag. Daher, so sagte er, liege der Systemgewinnfaktor bei etwa 4 und daher würde der ECS in der Größenordnung von 4 K liegen.

Als nächstes muss ein Energiebudget-Experiment für den Zeitraum 1850-2022 durchgeführt werden. Dabei soll festgestellt werden, ob sich der Systemgewinnfaktor A2 im Jahr 2022 unter Verwendung von Daten aus dem mittleren Bereich und dem Mainstream signifikant von dem Systemgewinnfaktor A1 = 1,0764 unterscheidet, der sich aus den Daten für 1850 ergibt. Auf der Grundlage der gezeigten Mainstream-Daten im mittleren Bereich sind die beiden Werte identisch. Das Rückkopplungssystem hat sich also mit dem Anstieg der globalen mittleren Oberflächentemperatur um lediglich 0,35 % seit 1850 nicht verändert. Das ist keine große Überraschung.

Ein Hinweis zur Vorsicht. Gerade weil – ob es den Klimatologen gefällt oder nicht, ob sie es zugeben oder nicht – die zu einem bestimmten Zeitpunkt vorhandenen Rückkopplungen auf das gesamte Eingangssignal reagieren, einschließlich der enormen Sonnenscheintemperatur von 260 K, würde selbst eine sehr kleine Änderung des Rückkopplungsregimes potenziell zu einer sehr großen Änderung der globalen mittleren Temperatur führen, da die erhöhte Rückkopplungsstärke auf die gesamte Referenztemperatur einschließlich der vorherrschenden Sonnenscheintemperatur wirken muss und nicht nur auf die dürftigen Referenzsensitivitäten.

Ein weiterer Hinweis zur Vorsicht: Die Daten und damit auch die Klimaempfindlichkeiten können leicht in jede gewünschte Richtung verändert werden. So hat das IPCC die mittleren Werte und Grenzen der zugrunde liegenden Daten immer wieder verändert (z. B. hat es die mittlere Schätzung des verdoppelten CO2-Antriebs von den durchschnittlichen 3,52 W/m² in den CMIP6-Modellen auf 3,93 K angehoben, ein Anstieg, der die seit langem etablierten ±10%-Grenzen überschreitet).

Gerade weil kleine Änderungen in den zugrundeliegenden Daten die Stärke der Rückkopplung und damit den Systemgewinnfaktor beeinflussen und weil der Systemgewinnfaktor nicht nur für die anthropogene Referenzsensitivität, sondern für das gesamte Eingangssignal, einschließlich der Emissionstemperatur, gilt, ist es einfach nicht möglich, ECS durch die Diagnose der Rückkopplungsstärken aus den Ergebnissen der Modelle einzuschränken. Daher ist die Behauptung, dass die auf der Grundlage solcher Diagnosen vorhergesagte hohe ECS eine „anerkannte Wissenschaft“ darstellt, noch weniger aussagekräftig als das Zirpen der Grillen vor meinem Fenster hier im steinzeitlichen Gozo.

Selbst die einfache Energiebilanzmethode, die unser Computer verwendet, ist anfällig für diesen Fehler. Warum können wir also ausschließen, dass sich das Rückkopplungssystem seit 1850 stark verändert hat? Der Grund ist ein praktischer. Wenn es tatsächlich eine große Abweichung vom Rückkopplungsregime von 1850 gegeben hätte, wäre die Erwärmung seit 1990 nicht – wie es der Fall ist – zweieinhalb Mal geringer als das, was der IPCC in jenem Jahr zuversichtlich, aber fälschlicherweise vorhergesagt hatte.

Deshalb sind die langen Pausen in der globalen Temperaturentwicklung zu einem Zeitpunkt, zu dem die anthropogenen Einflüsse weiterhin geradlinig ansteigen, so bedeutsam. Sie sind ein sichtbares Zeichen dafür, dass die globale Erwärmung doch nicht in der ursprünglich vorhergesagten Geschwindigkeit stattfindet und dass es daher keine nennenswerte Änderung der Rückkopplung gegeben hat.

Nun haben Kritiker angemerkt, dass sich die Vorhersagen des IPCC als richtig erwiesen hätten, wenn man die tatsächlichen Veränderungen der Treibhausgase seit 1850 auf die Diagramme des IPCC anwendet, die die vorhergesagten Treibhausgase ab 1990 zeigen. Ein offensichtliches Problem dabei: Wenn sich die Entwicklung der Treibhausgase seit 1990 als so viel geringer erwiesen hat als die Vorhersagen des IPCC für das Jahr 1990, warum sagt das IPCC dann weiterhin eine zweieinhalbmal so starke Erwärmung voraus, wie die Entwicklung der Treibhausgase erwarten ließe?

Ein weiterer beliebter Einwand der Kritiker ist, dass wir uns einer unzulässigen „Extrapolation“ schuldig gemacht haben. Aus der obigen Berechnung sollte jedoch ersichtlich sein, dass es sich keineswegs um eine „Extrapolation“ handelt.

Es waren die Klimatologen, nicht wir, die darauf bestanden, dass ECS auf der Grundlage der Daten für 1850 etwa 3-4 K betrug und dass es auf der Grundlage der Daten seit 1850 auch heute noch 3-4 K beträgt. Das von uns verwendete Energiebudget-Verfahren beruht überhaupt nicht auf Extrapolation. Bei einem Anstieg der absoluten globalen mittleren Temperatur um nur 0,35 % würde man keine oder nur geringe Änderungen im Rückkopplungssystem erwarten, und die obige Berechnung zeigt, dass sich der Systemgewinnfaktor zwischen 1850 und 2022 bei Verwendung der üblichen Mittelwerte möglicherweise überhaupt nicht geändert hat, so dass der ECS in der Größenordnung von 1,1 K liegt.

In einem kürzlich erschienenen Beitrag wurden vier Klimatologen zitiert, die anderer Meinung sind als wir. Aber keiner der fraglichen Klimatologen hat unsere Studie gelesen. Keiner von ihnen hat besondere Kenntnisse der Regelungstheorie (genauso wenig wie der Poster). Zwei von ihnen konnten nicht einmal zugeben, dass es überhaupt eine Rückkopplung auf die Emissionstemperatur gibt (Hinweis: Es gibt sie, gewöhnen Sie sich daran). Die beiden anderen haben unser Ergebnis überhaupt nicht kommentiert. Wenn unsere Arbeit so einfach zu widerlegen wäre, wie das Poster suggeriert, würde sie nicht immer noch beim Herausgeber einer führenden Klimazeitschrift liegen, mit dem Vermerk „With Editor“ auf der Website der Redaktion, fast zwei Jahre nachdem sie eingereicht wurde. Wäre sie fehlerhaft, wäre sie einfach zurückgeschickt worden, was aber nicht geschehen ist.

Warum ist das alles wichtig? Es ist wichtig, weil, wenn wir Recht haben, zwei wichtige wissenschaftliche Schlussfolgerungen daraus zu ziehen sind. Erstens ist es mit dem Energiebudget-Verfahren möglich zu zeigen, dass ECS unter Verwendung von Mainstream-Daten mittlerer Reichweite wahrscheinlich nur 1,1 K beträgt und notwendigerweise noch geringer ist, wenn man die eigene, nicht unvernünftige Annahme der Klimatologie (Kritiker würden sie als „Extrapolation“ bezeichnen) annimmt, dass sich das Rückkopplungsregime seit 1850 nicht verändert hat.

Zweitens wird, sobald die extreme Empfindlichkeit des ECS auf sehr kleine Änderungen im Rückkopplungsregime richtig verstanden wird – was in der Klimatologie derzeit nicht der Fall ist – sofort deutlich, dass die Ergebnisse der Modelle keinerlei Grundlage für die Ableitung von ECS-Werten bieten, die besser sind als Vermutungen, weil die Datenunsicherheiten das sehr enge Intervall der Systemgewinnfaktoren überschreiten, welches eine vernünftige Begrenzung des ECS erlauben würde.

Diese Schlussfolgerungen sind von Bedeutung, da das Energiebudget-Verfahren, wie in einer Reihe von Veröffentlichungen gezeigt wurde, darauf hindeutet, dass ECS viel geringer ist, als IPCC und andere es für zweckmäßig halten zuzugeben. Bisher haben Klimatologen die geringen Empfindlichkeiten, die mit dem Energiebudget-Verfahren ermittelt wurden, damit erklärt, dass die Ergebnisse der Modelle ausgefeilter sind und dass daher die Diagnose der Stärke der Rückkopplung und folglich des ECS vorzuziehen ist. Unsere Studie räumt mit dieser Illusion auf. Wie Pat Frank bereits gezeigt hat, sind die Vorhersagen der Modelle über die künftige globale Erwärmung nicht besser als Würfelspiele. Unsere Ergebnisse bestätigen ihn in höchstem Maße, allerdings mit der eindeutigen Methode, die extreme Empfindlichkeit all dieser Vorhersagen gegenüber sehr kleinen Störungen im Rückkopplungsbereich zu demonstrieren.

Lassen Sie uns abschließend die Schätzung aktualisieren, wie wenig die globale Erwärmung verringert würde, selbst wenn die gesamte Welt auf Netto-Null-Emissionen umsteigen würde – was nicht der Fall sein wird, da 70 % aller neuen Emissionen aus so genannten „Entwicklungsländern“ wie China und Indien stammen, die gemäß den verschiedenen Klimaverträgen von jeglicher rechtlichen Verpflichtung zur Reduzierung ihrer Emissionen ausgenommen sind. Tatsächlich hat China vor kurzem vernünftigerweise vorgeschlagen, Hunderte neue Kohlekraftwerke zu bauen.

Aber tun wir einmal so, als ob die Welt bis 2050 tatsächlich Netto-Null-Emissionen erreichen würde. Eine erste Einschätzung der „Vorteile“ und Kosten dieser fragwürdigen Errungenschaft finden Sie auf der Rückseite des nachstehenden Umschlags:

In den letzten drei Jahrzehnten hat es einen anthropogenen Treibhausgasantrieb von 1 W/m² gegeben, der sich fast geradlinig mit 1/30 W/m² pro Jahr entwickelt:

Trotz des ganzen Geschwafels auf den aufeinanderfolgenden Konferenzen der Vertragsparteien des Rahmenübereinkommens über den Klimawandel und trotz der Billionen, die von den westlichen Ländern bereits für die Emissionsreduzierung vergeudet wurden, zeigt diese gerade Linie kein Anzeichen eines Rückgangs. Somit würde bis 2050 nur ein halbes Watt pro Quadratmeter eingespart werden, selbst wenn sich die ganze Welt bis zu diesem Jahr geradlinig von hier auf Netto-Null bewegen würde – was nicht der Fall sein wird, da sich 70 % der Welt geradlinig in die entgegengesetzte Richtung bewegen und die verbleibenden 30 % es sehr viel schwieriger und teurer finden, Netto-Null zu erreichen, als sie ursprünglich vorgaben.

Nehmen wir nun an, dass der IPCC mit seiner mittleren Schätzung richtig liegt, wonach es als Reaktion auf 4 K effektiven CO2-Antrieb eine ECS von 3 K geben würde, und dass es daher seit 1990 eine mindestens doppelt so starke Erwärmung gegeben haben müsste, wie es in der realen Welt, die die Modellierer so verachten, der Fall war. Wenn dies der Fall ist, würde die Verringerung einer halben Einheit des Antriebs, was alles ist, was bis 2050 verringert werden würde, selbst wenn die ganze Welt ernsthaft Netto-Null-Emissionen anstreben würde, die globale Erwärmung bis 2050 um lächerliche 3/8 K verringern. Und das sind kaum mehr als 0,1 % der gegenwärtigen absoluten globalen mittleren Temperatur.

Nach Angaben der Unternehmensberatung McKinsey würden sich allein die Kapitalkosten für die Erreichung des globalen Netto-Nullpunkts auf 275.000 Milliarden Pfund belaufen. Und diese Schätzung wurde vor dem jüngsten Anstieg der Energiepreise vorgenommen, dessen Hauptursache das törichte Beharren des Westens auf der Stilllegung von Kohlekraftwerken war, die Strom für 30 Dollar pro MWh erzeugen, und deren Ersatz durch unzuverlässige Kraftwerke, die ein Vielfaches dieser Kosten pro Einheit verursachen, ganz zu schweigen von der Verzehnfachung der sibirischen Gaspreise, die es dem Kreml ermöglicht, solange er seine militärische Sonderoperation in der Ukraine aufrechterhalten kann, großzügig zu profitieren, Sanktionen hin oder her.

Nach unserer nachrichtendienstlichen Einschätzung wird Moskau, wenn es den Krieg am Laufen halten kann, durch die um Größenordnungen gestiegenen Preise für Gas, Öl, Getreide, Nickel, Kobalt, Kupfer, Lithium und andere Rohstoffe, die seit langem die Haupteinnahmequelle seiner rohstoffbasierten Wirtschaft sind, so viel Geld verdient haben, dass Putin, der eine pathologische (und berechtigte) Angst vor der Staatsverschuldung hat, in der Lage sein wird, die gesamte russische Staatsverschuldung in nur zwei Jahren zu tilgen. Er hat sie bereits auf etwa 25 % des jährlichen BIP gesenkt, eine der niedrigsten Quoten der Welt. Er strebt keine Netto-Null-Emissionen an (seine Akademie der Wissenschaften hat ihm gesagt, dass er sich darüber keine Sorgen machen muss), sondern eine Netto-Null-Staatsverschuldung. Trotz des jüngsten Rückschlags für seine Streitkräfte in der Ukraine ist es keineswegs klar, dass er mit diesem legitimen Ziel scheitern wird.

Bleiben wir bei der mittleren Schätzung des IPCC, wonach jede verringerte Treibhausgasmenge die globale Temperatur um 3/4 K senkt. Dividieren wir die 3/8 K, die bis 2050 durch die halbe Treibhausgasverringerung verringert würden, wenn die Welt tatsächlich auf Netto-Null gehen würde, durch die Kosten von 275.000 Milliarden Dollar für die Erreichung von Netto-Null, so beträgt die Menge der globalen Erwärmung, die durch jede für Netto-Null-Emissionen verschwendete Milliarde Dollar verringert wird, – warten Sie es ab – weniger als 1/700.000 K.
Weniger als ein siebenhunderttausendstel Grad pro 1 Milliarde Dollar, die in den Gully geworfen wird. Nicht gerade ein gutes Preis-Leistungs-Verhältnis – in der Tat wäre es das schlechteste Preis-Leistungs-Verhältnis in der Geschichte der globalen Besteuerung.

Doch nun müssen wir die folgenden Fakten berücksichtigen. Infolge des Ukraine-Krieges, der durch die Idiotie der Regierungen noch verschlimmert wird, die auf grobe und ineffiziente Weise in den freien Markt der Energieversorgung eingreifen, indem sie Kohlekraftwerke zwangsweise stilllegen und durch teure unzuverlässige Anlagen ersetzen, werden die Kapitalkosten für die Erreichung von Netto-Null ein Vielfaches dessen betragen, was McKinseys sich vorgestellt hatte. Hinzu kommt, dass die laufenden Kosten für die Erreichung des Netto-Nullpunkts, die in der Schätzung von McKinseys nicht enthalten waren, nicht geringer sein werden als die Kapitalkosten. Die britische Netzbehörde schätzt, dass die Erreichung von Netto-Null bis 2050 allein für die Umgestaltung des Stromnetzes 3.000 Milliarden Dollar kosten würde.

Man muss auch die Kosten für die Installation einer ausreichenden Anzahl von Ladestationen für Elektrobuggys einkalkulieren, die den Strombedarf allein im Vereinigten Königreich um 70 % erhöhen würden. Und woher sollen das Nickel, Kobalt, Kupfer und Lithium für die Batterien kommen? Ach ja, aus Russland und China, deren Propagandisten die Fähigkeit des Westens zum rationalen Denken in dieser Frage seit Jahrzehnten untergraben. Putin lacht sich bereits ins Fäustchen, bis hin zur Moskauer Narodny Bank. Stellen Sie sich nun vor, wie viel mehr er und sein kommunistischer Seelenverwandter Xi Tsin-Ping zu lachen haben werden, wenn man sich die folgende Tatsache vor Augen hält: Wenn allein Großbritannien all seine echten Autos durch elektrische Buggys ersetzen würde, würden die Batterien das Doppelte der jährlichen Weltproduktion an Kobalt und fast die gesamte Lithiumproduktion verbrauchen. Wenn andere westliche Länder idiotischerweise eine ähnlich verrückte Politik verfolgen, wird der Preis für die seltenen Metalle, aus denen die Batterien der Buggys bestehen, zwangsläufig um eine weitere Größenordnung steigen. Wir wollen etwas Lithiumkarbonat in unserem Schuppen lagern und dann fünf Jahre warten, bevor wir als Milliardäre abkassieren.

Wenn man diese Tatsachen berücksichtigt und bedenkt, dass ECS nicht 3 K, sondern 1,1 K im mittleren Bereich liegt, könnte die tatsächliche Erwärmung, die durch jede Milliarde Dollar, die für die Verfolgung der Schimäre von Netto-Null-Emissionen ausgegeben wird, verringert wird, nur ein Fünfmillionstel bis ein Zehnmillionstel Grad betragen.

Selbst wenn wir tatsächlich mit der nahezu sicheren Tatsache eines ECS bei 3 oder 4 K konfrontiert wären, die sich die Klimatologen gewinnbringend vorstellen (und die laut Professor Lindzen selbst dann, wenn sie einträfe, netto harmlos wäre), ließe sich nicht vernünftig argumentieren, dass so hohe Ausgaben für solch infinitesimale Erträge in irgendeiner Weise zu rechtfertigen sind.

Unser Ergebnis zeigt jedoch, dass die Schlussfolgerungen der offiziellen Klimatologie, die auf den Ergebnissen von allgemeinen Zirkulationsmodellen beruhen, reine Vermutungen sind. Sie rechtfertigen in keiner Weise irgendwelche Maßnahmen zur Eindämmung der globalen Erwärmung.

Auf der Grundlage der impliziten Annahme der Klimatologie, dass die gesamte Rückkopplungsstärke, die in Watt pro Kelvin Referenztemperatur angegeben wird, die 1850 erreicht wurde, auch heute gilt, ist bewiesen, dass ECS nur in der Größenordnung von 1,1 K liegen wird. Die Kritiker, die uns eine falsche „Extrapolation“ vorwerfen, sollten ihre Bedenken daher nicht an uns, sondern an die offizielle Klimatologie richten.

Nimmt man die wissenschaftlichen und die wirtschaftlichen Argumente zusammen, so besteht die richtige politische Option darin, die linksextremen Kritiker zu ignorieren, die Subventionierung unzuverlässiger Energiequellen einzustellen, das IPCC aufzulösen, das UNFCCC abzuschaffen, die kostspieligen Konferenzen der Vertragsparteien zum Schweigen zu bringen, die Kohlekraftwerke am Laufen zu halten und das seit langem geplante und nun unmittelbar bevorstehende wirtschaftliche Harakiri des Westens zu beenden, das die Klimaaktivisten und ihre Hintermänner so lange und auf so unehrliche Weise gefördert haben.

—————————–

Übersetzt von Christian Freuer für das EIKE

 




Beendigung der Demokratie durch erzwungene Klimapolitik

Peter Murphy

Viele der gleichen Politiker, die unablässig vor dem Ende der Demokratie warnen, setzen die undemokratischsten Mittel ein, um der amerikanischen Gesellschaft und der Welt ihre Agenda zur globalen Erwärmung (auch bekannt als Klimawandel) aufzuzwingen, was zu wirtschaftlichem Chaos führt.

Es gibt jedoch Anzeichen für eine Gegenwehr, auch von Seiten des oft feigen und kleinmütigen Privatsektors der großen Unternehmen, die bei den Bestrebungen bzgl. globaler Erwärmung der Biden-Regierung und internationaler Organisationen mitgespielt haben.

Der in der Psychologie verwendete Begriff der Projektion geht auf den berühmten Psychologen Sigmund Freud aus dem 19. Jahrhundert zurück. Psychology Today beschreibt es als „den Prozess, die eigenen Gefühle auf eine andere Person, ein Tier oder ein Objekt zu übertragen… die eigenen inakzeptablen Triebe einer anderen Person zuzuschreiben… [und] inakzeptable Gefühle oder Impulse einer anderen Person zuzuschreiben, um eine Konfrontation mit ihnen zu vermeiden“.

Wir sehen diese Eigenschaft täglich bei Politikern, angefangen bei Präsident Joe Biden, der Sprecherin des US-Repräsentantenhauses, Nancy Pelosi, und vielen anderen, die vor einer „Bedrohung unserer Demokratie“ warnen, und davor, dass die Demokratie durch ihre politischen Gegner „in Gefahr sei.

Diejenigen, die psychologisch projizieren, sind sich dessen nicht unbedingt bewusst. Politiker, die sich für die globale Erwärmung einsetzen, verhalten sich viel schlimmer, indem sie heuchlerisch und absichtlich ihre politischen Gegner beschuldigen, das zu tun, was sie, die Ankläger, praktizieren.

Beginnen wir mit dem Drängen vieler Mitglieder des Kongresses, einschließlich des Mehrheitsführers im Senat und Politikers auf Lebenszeit, Chuck Schumer aus dem einstigen Imperium (jetzt im Niedergang begriffen) des Staates New York. Kurz nach dem Amtsantritt von Präsident Biden drängten Senator Schumer und andere darauf, einen „Klimanotstand“ auszurufen, um die Legislative zu umgehen und der Privatwirtschaft neue Auflagen und Beschränkungen aufzuerlegen. Ein solches Vorgehen wäre schlimmer gewesen als die Covid-Mandate, da zumindest der Kongress und die Legislative der Bundesstaaten dafür gestimmt haben, der Exekutive Notstandsbefugnisse zu erteilen.

Präsident Biden hat zwar nie offiziell einen Klima-„Notstand“ ausgerufen, doch seine Regierung setzt diesen durch Durchführungsverordnungen und behördliche Vorschriften effektiv um, ohne dass der Kongress tätig geworden wäre oder eine gesetzliche Befugnis bestanden hätte. Beispiele gibt es viele.

Die US-Börsenaufsichtsbehörde Securities and Exchange Commission (SEC) hat im vergangenen Frühjahr Vorschriften erlassen, wonach börsennotierte Unternehmen im Rahmen ihrer Berichterstattung an die SEC „klimabezogene finanzielle Risiken“ bewerten müssen, wozu sie keine gesetzliche Befugnis hat. Bundesbehörden, die das Bankensystem überwachen, tun dasselbe, indem sie die Portfolios von Banken und Investmentfirmen ins Visier nehmen, die die Erschließung von Öl- und Gasvorkommen finanzieren, um den für den Lebensstandard der Amerikaner so wichtigen traditionellen Energiesektor auszuhungern.

Die Biden-Regierung übt auch Druck auf die Weltbank aus, die Erdöl-, Kohle- und Erdgasprojekte in Entwicklungsländern nicht mehr unterstützt und stattdessen erneuerbare Energien forciert. Dies ist eine besonders heuchlerische Politik, die von dem blechernen „Klimabotschafter“ und Bewohner von Martha’s Vineyard, John Forbes Kerry (der in das reiche Heinz-Familienvermögen eingeheiratet hat) und dem ehemaligen Vizepräsidenten und Mit-Centimillionär Al Gore unterstützt wird.

Günstigere und leicht zugängliche Energie aus fossilen Brennstoffen ist der sicherste und schnellste Weg, um die Armut in den Entwicklungsländern zu verringern und eine Mittelklassewirtschaft aufzubauen – so wie es in den USA in den letzten 150 Jahren geschehen ist. Stattdessen versuchen die USA, diese Länder auszubeuten, was dazu führt, dass ihre Bevölkerung in einer Weise, die der der Kolonisten vergangener Jahrhunderte würdig ist, in ständiger Armut verharrt und der weltweite Hunger aufgrund höherer Lebensmittelkosten noch verschärft wird.

Undemokratische, schädliche Klimapolitik geht über die Biden-Exekutive in Washington hinaus. Anfang dieses Monats haben demokratische Beamte aus 13 [US-]Bundesstaaten, die für öffentliche Pensionsfonds zuständig sind, einen Brief herausgegeben, in dem sie ihre Kollegen in anderen Bundesstaaten anprangern, weil sie ihre Pensionsinvestitionen nicht nach „ökologischen, sozialen und Governance-Nachhaltigkeitszielen“ ausrichten. Bei ESG-Investitionen geht es letztlich darum, Klimapolitik und andere linke Ziele durchzusetzen, was dazu dient, Rentner mit mittlerem Einkommen und aus der Arbeiterklasse zu benachteiligen, anstatt die größtmögliche Rendite zu erzielen.

Das Ergebnis dieser undemokratischen Politik zur globalen Erwärmung ist, dass das wirtschaftliche Wohlergehen der Amerikaner spürbar beeinträchtigt wird, was auf ähnlich absurde und sinnlose Klimabemühungen in Deutschland, Großbritannien und anderen europäischen Ländern folgt. Infolgedessen sind die Energiepreise in Europa und den USA in die Höhe geschnellt, so dass viele Europäer sogar dazu übergegangen sind, ihre Häuser mit Brennholz zu heizen.

Es gibt immer mehr Anzeichen dafür, dass die von der Biden-Regierung verordneten Maßnahmen zur globalen Erwärmung im privaten Sektor und der breiten Öffentlichkeit zu weit gegangen ist. Anfang dieses Monats verlangte die US-Abgeordnete Rashida Tlaib aus Michigan, eine führende Klimafanatikerin im Kongress, zu erfahren, ob die Führungskräfte von Unternehmen eine Politik gegen die Finanzierung neuer Öl- und Gasprojekte verfolgen. Jamie Diamond, der langjährige Chef von J.P. MorganChase, antwortete: „Auf keinen Fall. Das wäre der Weg zur Hölle für Amerika.“

Es ist an der Zeit, dass sich jemand in der amerikanischen Wirtschaft gegen solche Klimatricksereien wehrt. Es gibt noch mehr Anzeichen für weitere Gegenreaktionen.

Der amerikanische Bankenverband äußerte, wenn auch lau, Bedenken gegen die sogenannten „klimabezogenen Finanzrisiken“, die von den Biden-Bankenaufsichtsbehörden auferlegt werden. Außerdem haben große Investmentbanken, darunter Morgan Stanley und die Bank of America, damit gedroht, sich aus der Klima-Finanzallianz der Vereinten Nationen zurückzuziehen, da sie sich durch die zu restriktiven Dekarbonisierungs-Verpflichtungen rechtlich exponiert sehen.

Abgesehen von den Konzernchefs wird die amerikanische Öffentlichkeit bei den Zwischenwahlen in diesem Herbst die Chance haben, sich gegen die Agenda zur globalen Erwärmung zu wehren, die keine Auswirkungen auf das globale Klima hat, aber zu höherer Inflation, Entwertung der Altersvorsorge und einem Rückgang des Lebensstandards führt.

Autor: Peter Murphy is Senior Fellow at CFACT. He has researched and advocated for a variety of policy issues, including education reform and fiscal policy, both in the non-profit sector and in government in the administration of former New York Governor George Pataki. He previously wrote and edited The Chalkboard weblog for the NY Charter Schools Association, and has been published in numerous media outlets, including The Hill, New York Post, Washington Times and the Wall Street Journal.

Link: https://www.cfact.org/2022/09/30/end-running-democracy-by-forcing-climate-policies/

Übersetzt von Christian Freuer für das EIKE

 




Entschlüsselung der Net Zero-Täuschungen

Dr. Jay Lehr

Mehrere Staaten und eine beträchtliche Anzahl von Stromversorgern haben sich zu Dekarbonisierungszielen verpflichtet. Der Begriff „Netto-Null-Emissionen“ wird im Allgemeinen verwendet, um diese Ziele zu formulieren. Natürlich ist Dekarbonisierung ein völlig falscher Begriff. Er bedeutet eigentlich keine Kohlendioxid-Emissionen, aber wie immer ist der Begriff Kohlenstoff erschreckender, da die meisten Menschen ihn mit Ruß in Verbindung bringen. Für all die Global-Warming-Alarmisten, zu denen heute unsere gesamte neue Bundesregierung gehört, bedeutet Netto-Null-Emissionen:

Alle vom Menschen verursachten Treibhausgas-Emissionen müssen aus der Atmosphäre entfernt werden, indem entweder ihre Quelle beseitigt wird oder sie durch Reduktionsmaßnahmen wie das Abpumpen in den Untergrund aus der Atmosphäre entfernt werden.

Diese Definition bedeutet, dass Treibhausgas-Emissionen erlaubt sind, solange die Emissionen entweder auf natürliche Weise, z. B. in Wäldern, oder durch Kohlenstoffabscheidung und -speicherung aus der Atmosphäre entfernt werden. Dieses Konzept der Netto-Null-Emissionen ist unehrlich, weil die Prozesse zur Entfernung von CO2 aus der Atmosphäre entweder nicht messbar oder nicht durchführbar sind.

Einige Versorgungsunternehmen haben sich eine 100-prozentige Dekarbonisierung zum Ziel gesetzt. Das bedeutet, dass sie sich bei der Stromerzeugung vollständig auf Wind, Sonne, Wasser und Kernkraft verlassen müssen. Die Wasserkraft ist jedoch auf einige wenige Staaten beschränkt, in denen es bereits Staudämme gibt, während die Kernkraft unter dem Druck mächtiger Anti-Atomkraft-Gruppen ausläuft.

Auch Biomasse, vor allem Holz, wird verwendet. Es ist umstritten, ob dies tatsächlich die CO2-Emissionen verringert. Es wird davon ausgegangen, dass das durch die Verbrennung von Biomasse freigesetzte CO2 wieder aufgenommen wird, wenn Bäume oder Pflanzen anstelle der verbrannten Pflanzen wachsen. In den Vereinigten Staaten ist ein großes Unternehmen entstanden, das Bäume und Pflanzen erntet, um daraus Holzpellets oder Holzkohlebriketts herzustellen, die in baumlose Gebiete in Europa verschifft werden, wo sie angeblich die CO2-Emissionen verringern.

Sich bei der Stromversorgung zu 100 Prozent auf Wind und Sonne zu verlassen, ist ein riskantes Unterfangen. Ohne eine angemessene Speicherung, die bis heute nicht möglich ist, ist die Verwendung von Erdgas erforderlich. Terigi Ciccone, mein Co-Autor des Buches A Hitchhikers Journey Through Climate Change aus dem Jahr 2020, und ich haben eine Faustregel für elektrische Energie aufgestellt, die einfach besagt:

„Alle Wind- und Solarenergie in einem Stromnetz muss durch eine mindestens gleich große Menge an fossiler Energie unterstützt werden, die zu 100 % der Zeit auf Standby läuft, um das Netzgleichgewicht aufrechtzuerhalten, wenn der Wind nicht weht und/oder die Sonne nicht scheint.“

Die Regeln des Green New Deal erlauben die Verwendung von Erdgas, wenn das gesamte Kohlendioxid, das bei der Verbrennung freigesetzt wird, aufgefangen und abgeschieden wird. Bei der Verbrennung von Erdgas, das aus Methan (CH4) besteht, entsteht CO2. Zum Leidwesen der Green New Dealers führt die Abscheidung von CO2 aus einem mit fossilen Brennstoffen betriebenen Kraftwerk dazu, dass das Kraftwerk um etwa ein Drittel heruntergefahren wird. Mit anderen Worten: Aus einem Kraftwerk, das für eine Leistung von 300 Megawatt (MW) ausgelegt ist, wird ein Kraftwerk, das nur 200 MW produzieren kann.

Dies ist darauf zurückzuführen, dass ein Drittel der Kraftwerksleistung für den Betrieb der Anlagen zur Abscheidung und Komprimierung des CO2 verwendet werden muss, damit es transportiert und unterirdisch gespeichert werden kann. Dies wird noch dadurch erschwert, dass für die Abscheidung der Abgase aus der Kompressionsanlage noch mehr Energie benötigt wird, da der Abgasstrom weniger CO2 enthält, was die Abscheidung erschwert.

Seltsamerweise wäre es unmöglich, ein Null-Emissionsziel zu erreichen, wenn Erdgas durch den Verzicht auf Hydraulic Fracturing im Boden gehalten würde. Europa hat den Einsatz von Wasserstoff-Brennstoffzellen als Ersatz für Erdgas in Erwägung gezogen, aber die Probleme, die sich daraus ergeben würden, stellen die hier erörterten in den Schatten.

Angesichts all der physikalischen Probleme mit Wind- und Solarenergie in den Stromnetzen unserer Länder haben mehr als zwei Dutzend Bundesstaaten vorgeschrieben, dass alle Stromversorgungsunternehmen einen Teil ihrer Energie aus erneuerbaren Quellen beziehen müssen, die sie Wind und Sonne nennen. Sie haben diese Anteile alle paar Jahre erhöht. Einige Staaten fordern, dass bis 2050 100 % der Energie aus sauberen Quellen stammen soll. All dies ist absurd und unmöglich. Wir hoffen, dass die Nation und ihre Staaten zur Vernunft kommen, bevor Stromausfälle und Blackouts an der Tagesordnung sind.

Hinweis: Große Teile dieses Artikels wurden aus dem 2020 erschienenen Buch THE LOOMING ENERGY CRISISIS entnommen: Are Blackouts Inevitable, mit Genehmigung des Autors Donn Dears. Es wird von diesem Autor sehr empfohlen.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2022/10/03/unscrambling-net-zero-deceptions/

Übersetzt von Christian Freuer für das EIKE