Die verzweifelten Versuche der Energiepolitik

von Fritz Vahrenholt

bevor wir auf die Pläne der Bundesregierung zur Bewältigung der Energiekrise zu sprechen kommen, werfen wir einen Blick auf die Temperaturentwicklung, die ja der Grund der Klimastrategie der Bundesregierung ist.
Die Abweichung der globalen  Temperatur vom 30-jährigen Mittel der satellitengestützten Messungen der University of Alabama (UAH) ist im Mai 2022  gegenüber dem April von 0,26 Grad auf 0,17 Grad Celsius gesunken.  Die Temperatur steigt seit 40 Jahren um durchschnittlich 0,13 Grad Celsus pro Jahrzehnt. Das ist nicht gerade  besorgniserregend.

Die Zerstörung des deutschen Gasnetzes

Wenn uns vor zehn Jahren jemand gesagt hätte, dass im Jahre 2022 ein Vertreter der Bundesregierung den Bürgern und Unternehmen des Landes erklären würde, daß bis 2045 das deutsche Gasnetz aus Klimaschutzgründen zurückgebaut werden müsste, wir hätten ihn doch für verrückt erklärt, oder ?
Patrick Graichen, Staatsekretär im Bundeswirtschaftsministerium von Robert Habeck (Grüne) hatte auf der Handelsblatt – Tagung „Stadtwerke 2022“ am 10. Mai 2022 in Berlin die Stadtwerke aufgefordert, mit den Planungen zum Rückbau zu beginnen. Graichen führte zur Begründung aus :“ Natürlich ist im Jahr 2045 da kein Gas mehr in den Netzen“ und der Betrieb einzelner Heizungen mit klimaneutralem Wasserstoff als Erdgasersatz sei „Träumerei“, wie die „Welt“ berichtete. Bis 2025 sollte es in jeder Kommune eine Wärmeplanung geben, die klare Vorgaben macht, wie lange noch welches Gasnetz betrieben werde, sagte der Staatsekretär.
Das wäre dann der dritte finale Anschlag auf die Sicherheit der Energieversorgung Deutschlands: nach dem Kernenergie- und dem Kohleausstieg folgt der Erdgasausstieg.
Deutschland verfügt mit seinen über 500.000 Kilometern an Gasverteilnetzen über eine hervorragend ausgebaute Infrastruktur, über die rd. 1,6 Millionen Industrie- und Gewerbekunden sowie mehr als 19 Millionen Haushalte mit Gas versorgt werden. Mehr als die Hälfte aller Haushalte erhalten heute ihre Wärme durch Gas – entweder direkt über Gasheizungen oder indirekt über Fern- und Nahwärmesysteme.
Herr Graichen rechtfertigt diesen Eingriff unter anderem mit der Situation nach dem Ukraine – Krieg. Doch die Planung verfolgt er schon länger. Wer Herrn Graichen in seiner damaligen Funktion als Direktor der Lobbygruppe AGORA-Energiewende vor der Wahl zugehört hat, konnte es schon damals im September 2021  lesen : „Bis 2030 ist der Kohleausstieg vollzogen, bis 2040 folgt der Gasausstieg“.
Die Stadwerke sind entrüstet, hatten sie doch erwartet, dass sie ihre Gasnetze mit Wasserstoff oder synthetischem grünen Gas weiter betreiben könnten.
„Die jüngsten Aussagen von Staatssekretär Graichen aus dem Bundeswirtschaftsministerium sind an Dreistigkeit und Ignoranz nicht zu überbieten. Die Stadtwerke jetzt aufzufordern, den Rückbau der Gasnetze zu planen, ist grob fahrlässig. Herr Staatssekretär Graichen sollte besser seine ideologischen Scheuklappen ablegen“.
Damit würde eine Infrastruktur, die mehrere Hundert Milliarden € wert ist, entwertet, assistierte ihm Ingbert Liebing, Hauptgeschäftsführer des Verbandes kommunaler Unternehmen.
Die Oster – Paket des Dr. Robert Habeck
Die Bundesregierung hat dem Bundestag ein Gesetzespaket zur Änderung der Stromerzeugung in Deutschland (genannt Oster-Paket) zugeleitet. Zur Beschleunigung des Ausbaus der Erneuerbaren in allen Rechtsbereichen soll im Erneuerbare-Energie-Gesetz (EEG) der Grundsatz verankert werden, dass „die Nutzung erneuerbarer Energien im überragenden öffentlichen Interesse liegt und der öffentlichen Sicherheit dient“.
Die Strommenge soll bis 2035 auf 750 Terawattstunden (TWh) ansteigen, um Elektromobilität und Wärmepumpen zusätzlich mit Strom zu versorgen. Bis 2030 sollen bereits 600 TWh aus erneuerbaren Energien, vor allem aus Solar und Wind, stammen. Wie realistisch ist das? Wie versorgungssicher ist das? Und wie teuer wird das?  Darüber schweigt das Gesetzespaket.
Der heutige Stromverbrauchmix zeigt die Ausgangslage. (Quelle BDEW Jahresbericht 2021, S. 33)
Im heutigen Strommix liefern Wind und Sonne etwa 29 % des Stroms. Die immer wieder in die Debatte geworfenen 42 % Erneuerbarer Strom erwecken einen falschen Eindruck, denn Biomasse, Wasserkraft und Mülllverbrennungsanlagen sind nicht wesentlich auszuweiten. Eine Steigerung um mehr als das Doppelte ist daher für Wind und Solar in sieben Jahren angesagt (das neue EEG gilt ab 2023).
Daher schraubt das Osterpaket folgerichtig  die Windenergie an Land von einer heutigen Erzeugungskapazität von 56.130 MW auf 115.000 MW in 2030. Offshore-Windkraftanlagen sollen von heute 7.800 MW auf 40.000 MW in 2030 ansteigen. Aber auch eine Verdoppelung der Erzeugungskapazität wird nicht ausreichen, eine gesicherte Leistung auch in Flautenzeiten zu erbringen. Der einzige Weg von fluktuierender Erzeugung zu gesicherter Leistung ist (wenn man auf den einfachen Weg von backup-Kraftwerken auf Gas- und Kohlebasis verzichten will) die Zwischenspeicherung in Wasserstoff. Das führt aber zu erheblichen Umwandlungsverlusten von 70-75 %.
Dr. Ahlborn hat für ein 100% Wind/Solar-System berechnet, daß „das Stromnetz 36% der Energie unmittelbar aufnehmen kann. Der Betrag an überschüssiger Energie beträgt 64%. Dieser Anteil teilt sich auf in 52% der Energie, die dem Elekrolyseprozeß zugeführt wird und 12% des Betrages, der abgeregelt wird. Denn nur für einige Stunden des Jahres werden sich die ungeheuerlich hohen Spitzen in der Erzeugung nicht wirtschaftlich in Elektrolysen unterbringen lassen. Bei der Rückverstromung des Wasserstoffs bleiben unter günstigen Bedingungen 30% übrig., d. h. von den 52% elektrischer Energie, die dem Speicherprozeß zugeführt wird, bleiben nach der Rückverstromung weniger als 16% übrig.
Ahlborn weiter:
„Diese Betrachtung verdeutlicht, dass durch das Zusammenspiel der zufälligen Einspeisung mit dem Speichersystem und dem Netz insgesamt rund 50% der ursprünglichen elektrischen Energie aus Solar- und Windkraftanlagen durch Abregelung und Wandlungsverluste verloren gehen. Dem gesamten System aus elektrischem Netz und Speicher muss also der doppelte Betrag an elektrischer Energie zugeführt werden.“
Wir brauchen also doppelt soviel Anlagen wie die Bundesregierung plant, um die Dunkelflauten mit Wasserstoffstrom zu überbrücken.
Auch die Photovoltaik soll stark ausgebaut werden. Dazu soll die Subvention aus dem Bundeshaushalt steigen.
Neue Dachanlagen, die ihren Strom vollständig in das Netz einspeisen, erhalten eine erhöhte (!)  Förderung von bis zu 13,8 Cent/kWh. Die Photovoltaik auf Ackerflächen (Agri-PV) wird erweitert, was die Pachtpreise für Ackerflächen in die Höhe treiben wird. Schon heute werden 2.000 € Pachtpreise pro Hektar Acker von PV-Investoren gezahlt. Photovoltaik soll nun sogar auf Wasserflächen (Floating-PV) und Moorböden (Moor-PV !!) ausgedehnt werden. Die Erzeugungskapazität soll von heute 55.000 MW auf 215.000 vervierfacht werden.
Nun könnte man darauf hinweisen, daß der heutige Börsen-Strompreis schon bei 12-15 Cent/kWh liegt und wir uns daher an diese hohen Strompreise gewöhnen müssen. Doch in einem System fluktuierender Stromversorgung mit wasserstoffbasierter Flautenabsicherung ist der Strom 2-3 mal so teuer. Zum einen verdoppeln die oben beschriebenen Energieverluste auf dem Wasserstoffpfad den Preis. Zum anderen sind ja Elektrolyseure, Zwischenspeicher und Wasserstoffkraftwerke nicht zum Nulltarif zu haben.
Natürlich können dezentrale Batteriespeicher für Hausdächer die Kosten für den Eigenverbraucher etwas senken. Aber es fehlt die Gesamtkostenbilanz. Schon jetzt ist klar: International ist das alles andere als wettbewerbsfähig.
Auch dazu findet sich in der Gesetzesvorlage kein Satz.



Der NICHT schmelzende Gletscher

Terigi Ciccone, Dr. Jay Lehr

Könnte der „dem Untergang geweihte Gletscher“ in der Antarktis innerhalb von 3 Jahren wirklich verschwinden?

Die Zeit schmilzt für einen der größten Gletscher der Antarktis dahin, und sein rapider Verfall könnte mit dem vollständigen Zusammenbruch des Schelfeises in nur wenigen Jahren enden“, warnten alarmistische Forscher auf einer virtuellen Pressekonferenz am 13. Dezember 2021 auf der Jahrestagung der American Geophysical Union (AGU), einer einstmals herausragenden Fachgesellschaft, die jetzt aber ein Handlanger der Linken ist.

Oben ist der erste Satz des Artikels mit dem [Original-]Titel „Antarctica’s ‚Doomsday Glacier‘ could meet its doom within 3 years,“ nicht das, was wir von einer einst seriösen Quelle, der American Geophysical Union, erwarten würden. Darin wird gewarnt, dass der größte Gletscher der Welt, etwa so groß wie Florida, in einigen Jahren schmelzen und den Meeresspiegel um bis zu 3 Meter anheben wird. Dann wird erklärt, dass der Gletscher von unten her schmilzt, weil sich das umgebende Meerwasser „wegen des vom Menschen verursachten Klimawandels“ erwärmt hat. Schließlich erfahren wir, dass ein Team von mehr als 100 Wissenschaftlern aus den USA und dem Vereinigten Königreich den Thwaites-Gletscher untersucht hat und seine Ergebnisse mit Wissenschaftlern in aller Welt teilt.

Der Artikel erklärt dann, dass der Thwaites nicht von oben schmilzt, sondern dass „das Schmelzen von unten kommt“, nämlich von den Ozeanen, die durch das vom Menschen verursachte CO2 und den Treibhauseffekt erwärmt wurden. Der größte Teil des Artikels befasst sich dann mit den prognostizierten Folgen für die ganze Welt:

– Überschwemmungen in allen Küstengemeinden mit einem dramatischen Bild von Venedig,

– Die Hunderte von Eisbergen, die auf die offenen Ozeane gelangen,

– wie der katastrophale Abbruch des gigantischen Thwaites-Schelfeises eine Beschleunigung des Schmelzens anderer Schelfeisflächen bewirken kann. Und so weiter.

– Abschließend wird erklärt, wie das Wissenschaftlerteam die Entwicklungen weiter beobachten und die wissenschaftliche Gemeinschaft, die politischen Entscheidungsträger und die Öffentlichkeit auf dem Laufenden halten wird.

Lesen Sie den vollständigen Artikel hier. Auch wenn dieses Spitzenteam von Wissenschaftlern aus den USA und dem Vereinigten Königreich die Wissenschaftler der Welt über ihre Ergebnisse auf dem Laufenden gehalten hat, haben sie sich selbst möglicherweise nicht über die Ergebnisse anderer Wissenschaftler informiert.

Dieses Team hat möglicherweise nicht einmal miteinander kommuniziert. Fast ein Jahrzehnt zuvor hatten Geologen bereits Beweise für Vulkane an einer bekannten aktiven tektonischen Plattengrenze entdeckt, die unter dem Gletscher und den Ozeanen begraben war. Vor 2017 wurden mindestens 47 Vulkane in der westlichen Antarktis und um das Gebiet des Thwaites-Gletschers gefunden. Im Jahr 2017 berichtete der Guardian, dass weitere 91 Vulkane entlang der Westküste der Antarktis gefunden wurden, von denen einige unter dem Twaites-Gletscher selbst liegen. Siehe den Artikel mit dem Titel [übersetzt] „Wissenschaftler entdecken 91 Vulkane unter dem antarktischen Eisschild“.

Hier haben wir also einen Artikel von Mindy Weisberger, der am 21. Dezember 2021 veröffentlicht wurde, also mindestens vier Jahre nach der Entdeckung der 91 zusätzlichen Vulkane (138 insgesamt), in dem das Wort Vulkane nicht einmal erwähnt wird, nicht ein einziges Mal. Wenn wir richtig rechnen, hätte der Thwaites-Gletscher um 2019 abreißen müssen, aber er ist immer noch da und schmilzt immer noch von unten, verursacht durch vulkanische Aktivitäten, aber diese nutzlosen so genannten Wissenschaftler geben immer noch dem Menschen die ganze Schuld am Schmelzen.

Was sollen wir daraus schließen? War dieser Artikel ein Beispiel für einen „isolierten Fehler“ einer Person/eines Herausgebers oder ein weiteres Beispiel für die Desinformationskampagne der CO2-/Treibhausgas-Alarmisten? Es ist eindeutig das Letztere.

Im Gegensatz zu Ihnen sind Ihre Autoren seit mehr als einem halben Jahrhundert in diese größte aller Betrügereien verwickelt. Wir haben die Lügen auf den Konferenzen der Vereinten Nationen bis in die 1960er Jahre hinein untersucht. Deshalb ist es für uns unmöglich, das Thema bei jedem einzelnen gesellschaftlichen Wortwechsel zu vermeiden. Letzte Woche ging es für den Juniorautor um den Kauf einer Benzinpumpe bei Advance Auto Parts. Wo immer wir können, versuchen wir, die Leute die Lügen vor Augen zu führen, mit denen sie inzwischen aufgewachsen sind. Es ist ein kleiner Schritt für die Menschheit, aber am Ende des Tages haben wir das Gefühl, etwas zur Bekämpfung dieses Krieges der wissenschaftlichen Fehlinformation beigetragen zu haben.

Autoren: Terigi Ciccone Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2022/05/31/the-not-melting-glacier/

Übersetzt von Christian Freuer für das EIKE




Wolken haben den Anordnungen des IPCC oder der Klimamodelle nicht gehorcht

Michael Jonas

Ich beschäftige mich seit einiger Zeit mit Wolkendaten und habe jetzt eine Studie über das Verhalten von Wolken veröffentlicht, das die Interpretation von Wolken durch den IPCC und in den Klimamodellen in Frage stellt. Das IPCC weist darauf hin, dass Wolken (1) eine positive Rückkopplung zum (CO2-getriebenen) Klimawandel darstellen und (2) auf Aerosole mit einer zunehmenden Abkühlung reagiert haben. Die Logik des IPCC besteht im Wesentlichen darin, dass das vom Menschen verursachte CO2 mit Hilfe von Nr. 1 so stark war, dass es Nr. 2 mehr als überwunden hat. In meinem Papier wird argumentiert, dass sich die Wolken weitgehend unabhängig von CO2 verhalten haben und einen ebenso starken Erwärmungseffekt hatten wie CO2, vielleicht sogar viel stärker. Soweit ich die wissenschaftliche Literatur durchsuchen konnte, wurde eine solche Analyse bisher noch nicht vorgelegt.

Abstract:

Die Verhaltensmuster der Wolken, sowohl für die Wolkenfläche als auch für die optische Wolkendicke, werden über den Zeitraum der verfügbaren Daten (1983 bis 2017) untersucht. Während des Untersuchungszeitraums nahm die Bewölkung ab, während die globalen Oberflächentemperaturen stiegen. Die Muster von Wolken und Temperatur deuten darauf hin, dass der Rückgang der Wolkenbedeckung nicht durch den Anstieg der Oberflächentemperatur verursacht worden sein kann. Daraus ergibt sich eindeutig, dass der Rückgang der globalen Wolkenfläche durch einen anderen, nicht näher spezifizierten Faktor verursacht worden sein muss, der weder direkt noch indirekt durch CO2 gesteuert wird. Die Auswertung der Veränderungen der Wolken und des CO2 während des Untersuchungszeitraums deutet darauf hin, dass dieser nicht näher spezifizierte Faktor einen ebenso positiven Einfluss auf die Menge der die Oberfläche erreichenden Strahlung (Strahlungsantrieb) hatte wie der CO2-Anstieg, möglicherweise sogar einen weitaus größeren positiven Einfluss. Die Klimamodelle, die unabhängig von CO2 keinen oder einen negativen Einfluss der Wolken auf den Strahlungsantrieb haben, müssen dies berücksichtigen, damit der Einfluss von CO2 nicht überschätzt wird.

Die Studie deckt eine ganze Reihe von Themen ab und ist als Open Source verfügbar, so dass jeder es lesen kann, hier. Dieser Link öffnet das vollständige Dokument.

Zunächst sollte ich darauf hinweisen, dass wissenschaftliche Arbeiten dazu neigen, immer mehr ins Detail zu gehen, während diese Studie auf einer viel höheren Ebene bleibt und sich nur mit globalen Zahlen oder mit globalen Zahlen, aufgeteilt nach Meer und Land, beschäftigt. Mit anderen Worten: Ich betrachte den „Wald“, während viele wissenschaftliche Arbeiten dazu neigen, nur die „Bäume“ zu betrachten. Das gilt vor allem für die Klimamodelle, die versuchen, aus allen einzelnen „Bäumen“ ein Bild des „Waldes“ zu erstellen – meiner Meinung nach ein sinnloser Ansatz, da kein „Baum“ mehr als ein paar Tage in die Zukunft vorausgesagt werden kann.

Es folgt eine kurze Zusammenfassung des Papiers (NB: Dies ist nur eine Zusammenfassung, wenn Sie ihr widersprechen wollen, dann tun Sie das bitte, indem Sie der Studie widersprechen, nicht der Zusammenfassung).

Die verfügbaren Wolkendaten reichen von Mitte 1983 bis Mitte 2017 (34 Jahre) und bilden somit den Untersuchungszeitraum der Studie. Die globale Bewölkung ging in diesem Zeitraum zurück, während die globale Oberflächentemperatur anstieg [Abbildung 1]. Betrachtet man jedoch die Wolken- und Temperaturmuster auf kürzeren Zeitskalen (einige Monate), so zeigt sich, dass höhere Temperaturen zu mehr und nicht zu weniger Wolken führen [Abbildungen 2, 3, 4]. Die abnehmende Wolkendecke kann also nicht durch einen Temperaturanstieg verursacht worden sein. Das Wolkenverhalten muss demnach unabhängig von der Temperatur gewesen sein, d. h. unabhängig vom vom Menschen verursachten CO2.

In dem Papier wird dieses unabhängige Wolkenverhalten bewertet [Abbildungen 5, 6]. Entscheidend dabei ist, dass die Wolkenfläche abnahm, während die optische Wolkendicke zunahm. Allerdings nahm die Wolkenfläche über dem Meer und über dem Land in sehr ähnlichem Maße ab, während die Wolkendicke über dem Meer viel stärker zunahm als über dem Land [Abbildungen 7 und 8]. Die wahrscheinlichste Erklärung ist, dass die Zunahme der Wolkendicke über dem Meer nicht direkt durch den in der Zusammenfassung erwähnten, nicht näher spezifizierten Faktor verursacht wurde, sondern eine Reaktion auf die höheren Temperaturen war.

Die Schlussfolgerung ist, dass der unabhängige Erwärmungseffekt der Wolken mit dem Effekt des vom Menschen verursachten CO2 vergleichbar und möglicherweise viel größer ist. Im IPCC und in den Modellen ist dies nicht vorgesehen [Abbildung 9]. Wenn die Modelle dies berücksichtigen, kann dies dazu beitragen, dass sie nicht zu „heiß“ laufen.

Was in der Studie nicht ausdrücklich erwähnt wird (vielleicht hätte man es tun sollen), obwohl es angedeutet wird ist, dass wenn die Modelle dieses Wolkenverhalten berücksichtigen, die Erwärmung durch das vom Menschen verursachte CO2 zwangsläufig viel geringer ausfällt, wenn die Modelle auf die beobachteten Temperaturen abgestimmt werden. Folglich wird der zukünftige Effekt des vom Menschen verursachten CO2 sehr viel geringer.

In der Studie wird auch nicht versucht, den nicht näher spezifizierten Faktor zu identifizieren, der die Abnahme der Wolkenbedeckung verursacht. Der Grund dafür ist einfach, dass ich ihn nicht untersucht habe. Ich hätte möglicherweise Dinge wie kosmische Strahlung oder solares UV (Ultraviolett) als mögliche Ursachen erwähnen können und sie mit den IPCC-Berichten in Verbindung bringen können, in denen sie erwähnt werden, aber das habe ich nicht getan. Das wäre nur reine Spekulation gewesen.

In dem Papier wird ausdrücklich darauf hingewiesen, dass die Projektionen der Modelle bereits als äußerst unzuverlässig bekannt sind (unter Berufung auf die in den IPCC-Berichten genannten Gründe), so dass es keine Entschuldigung dafür gibt, dass keine Vorkehrungen für ein unabhängiges Wolkenverhalten getroffen wurden.

Diejenigen, die bei allen Zahlen gerne Fehlerbalken sehen, werden enttäuscht sein. Der Grund dafür ist, dass die Berechnungen ohnehin nur sehr grob sind, so dass Fehlerbalken sinnlos wären. Die endgültigen Schlussfolgerungen „ähnliche Auswirkungen“ und „möglicherweise viel größere Auswirkungen“, sind ohnehin keine Zahlen.

Anmerkung: Ich habe hier auf WUWT schon einmal über die Wolkenrückkopplung geschrieben [in deutscher Übersetzung hier].

Diese Studie beschränkte sich nur auf die Ozeangebiete. Die vorliegende Studie geht von globalen Daten aus, um sie für den Vergleich mit dem IPCC bezüglich des Strahlungsantriebs relevanter zu machen.

Link: https://wattsupwiththat.com/2022/05/31/clouds-havent-behaved-the-way-the-ipcc-or-the-models-say/

Übersetzt von Christian Freuer für das EIKE

 




Die große Abzocke mit „Erneuerbaren“

Andrew Montford

Im März machte die Energy and Climate Information Unit, eine von grünen Milliardären finanzierte Denkfabrik, viel Lärm um die so genannten „negativen Subventionen“, die im Rahmen des Contracts for Difference-Programms gezahlt werden. Da die Marktpreise für Strom in die Höhe geschnellt sind, mussten die Stromerzeuger, die an dem Programm teilnehmen, große Summen in das Programm zurückzahlen, anstatt wie sonst Geld aus dem Programm zu nehmen.

Dabei handelt es sich um nicht unerhebliche Summen. Die Netto-Rückzahlungen in das System beliefen sich im letzten Quartal 2021 auf 133 Millionen Pfund, und die ECIU erklärte etwas atemlos, dass die Verbraucher bis April 2023 in Höhe von 660 Millionen Pfund profitiert haben.

Ein kleines (naja, eigentlich ziemlich großes) Problem bei dieser Behauptung war, dass die Begünstigten dieser Rückzahlungen eigentlich die Stromversorger waren. Das liegt daran, dass die CfD-Regelung nur vorschreibt, dass das Geld so weit kommt: Es gibt in den Rechtsvorschriften keinen Mechanismus, um es an die Verbraucher zurückzugeben. Die Regelung verlässt sich im Wesentlichen auf die Marktkräfte, um die Preise zu senken, aber angesichts der angespannten Finanzlage des Stromversorgungsmarktes wird das in nächster Zeit nicht passieren. Am Ende werden die Verbraucher also über den Tisch gezogen.

Aber das ist nicht das einzige Problem. Anfang April trat die jährliche Erhöhung der CfD-Preise in Kraft, und es wurden fürstliche 7 % auf breiter Front verteilt. Die Preiserhöhung setzt sich aus zwei Komponenten zusammen. Die erste ist eine Indexierungsanpassung, die eine weitere Abzocke der Verbraucher darstellt, da nur ein sehr geringer Prozentsatz der Kosten einer Windfarm der Inflation unterliegt. Die zweite Komponente ist eine Anpassung an die gestiegenen Netzentgelte. Da die Erhöhung größtenteils auf die ständig wachsende Präsenz von Windparks im Netz zurückzuführen ist, handelt es sich im Wesentlichen um eine Übertragung der Kosten von den Schuldigen auf die Unschuldigen. Mit anderen Worten: eine weitere Abzocke.

Der CfD-Preisanstieg reichte aus, um die negativen Subventionen für einige Wochen auszugleichen. Danach kam es zu einem plötzlichen Einbruch der Gaspreise und damit der Strommarktpreise. Man hätte zwar hoffen können, dass sich dies auf die Verbraucher auswirkt, aber das ist bei der CfD-Regelung sicher nicht der Fall, denn die niedrigen Preise bedeuteten, dass die Verbraucher wieder Geld an die Windkraftanlagen abführen mussten. Seit einigen Wochen fließen täglich 1-6 Millionen Pfund an Subventionen für Windkraftanlagen. Ja, die Verbraucher werden also wieder abgezockt.

Die vom ECIU genannte Zahl von 660 Millionen Pfund, die zwischen Oktober 2021 und April 2023 verdient werden, bedeutet einen durchschnittlichen Tagessatz von (minus) 1,1 Millionen Pfund. Es wäre also zu erwarten gewesen, dass wir inzwischen bei etwa 70 Millionen Pfund Rückzahlungen angelangt wären. Stattdessen sind wir bei 10 Millionen Pfund angelangt, und in ein paar Tagen könnte die kumulierte Position wieder bei Null liegen.

Es ist eine Abzocke nach der anderen.

Link: https://www.netzerowatch.com/the-great-renewables-ripoff/

Übersetzt von Christian Freuer für das EIKE

 




Handreichung zum besseren Verständnis der Stefan-Boltzmann-Inversion

Vorwort der EIKE Redaktion

Der folgende Beitrag wird wieder eine heftige Diskussion unter einigen unserer Leser auslösen. Dies ist insofern unverständlich, als das doch wohl vorausgesetzt werden kann, dass – wie jeder aus eigenem Erleben weiß – die Sonne nur tagsüber scheint. Das muss als gesetzt akzeptiert werden. Was dann noch bleibt ist die Klärung der Frage: Sind die von der internationalen Klimawissenschaft gemachten Vereinfachungen der Bildung der Mittelwerte von Ein- und Abstrahlung über die Kugelfläche statt der Halbkugelfläche, bei der Ermittlung der der Erde zugestrahlten und abgestrahlten Energiemenge, zulässig oder nicht. Wären sie es, dann müsste es ein Leichtes sein, aus ihren Ergebnissen auch die Temperatur der real bestrahlten Halbkugel bei gleichzeitiger Abstrahlung durch die Vollkugel widerspruchsfrei und auf die Kommastelle genau herzuleiten. Bisher hat das aber niemand vermocht, zumindest nicht hier in dieser Leserschaft. Vielleicht regt der folgende Beitrag dazu an.

von Uli Weber

Obgleich es auf unserer Erde erwiesenermaßen Tag und Nacht gibt (Abbildungen 5 und 6) und sich die Relation zwischen beiden über den Jahresverlauf ständig verändert (Siehe Titelbild), wird mein hemisphärisches Stefan-Boltzmann-Modell von vielen Kommentatoren noch immer nicht verstanden und eine rein mathematische Tag=Nacht-Mittelung als Grundlage einer globalen 24h-S-B-Inversion bevorzugt.
Gerne wiederhole ich daher noch einmal die Widerlegungsanforderung für meinen hemisphärischen S-B-Ansatz aus WEBER (2017) hier auf EIKE über einen physikalischen Tag=Nacht-Beweis:

„Wenn also wissenschaftlich eindeutig nachgewiesen würde, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.“

Dazu ein Zitat aus dem Artikel, „Ist „Klimawandel“ Wissenschaft oder Pseudo-Wissenschaft?“ von Andy May, übersetzt von Christian Freuer für das EIKE:

Eine Hypothese, die durch kein denkbares Ereignis widerlegbar ist, ist nicht wissenschaftlich. Popper fragte sich 1919, worin sich Marxismus, Freud und Astrologie von wirklich wissenschaftlichen Theorien wie Newtons Gravitationsgesetz oder Einsteins Relativitätstheorie unterscheiden. Er erkannte, dass letztere getestet und als falsch nachgewiesen werden konnten. Inspiriert wurde er durch die Bestätigung von Einsteins Theorie durch Frank Dyson, Andrew Crommelin und Arthur Eddington während der Sonnenfinsternis 1919.“

Ich darf hier also in aller Bescheidenheit darauf verweisen, dass ich schon sehr frühzeitig einen Widerlegungsbeweis für mein hemisphärisches S-B-Modell eingefordert hatte. Trotz dieser Beweisanforderung ist mir bis heute kein wissenschaftlicher Nachweis für eine physikalische Gleichheit von Tag (@2PiR²) und Nacht (@2PiR²) bekannt geworden. Man ersetzt bei der konventionellen Stefan-Boltzmann-Inversion vielmehr weiterhin die Ungleichheit zwischen Tag und Nacht durch einen physikalisch bedeutungslosen rein mathematischen 24h-Durchschnittswert (@4PiR²) …

Nachfolgend nähern wir uns den theoretischen S-B-Grundlagen einmal über das Stefan-Boltzmann-Experiment. Das Stefan-Boltzmann-Experiment ist ein Standardexperiment in der physikalischen Ausbildung, das den Zusammenhang zwischen der Temperatur eines künstlich erhitzten Schwarzen Körpers und der von seiner Oberfläche abgegebenen spezifischen Strahlungsleistung im gemeinsamen und zeitlich unmittelbaren thermischen Gleichgewichtszustand beschreibt. Der Versuchsaufbau ist denkbar einfach:

Abbildung 1: Das klassische Stefan-Boltzmann-Experiment, Ofen. Hitzeschild mit Blende und Messgerät

Beschreibung:

  • Ein Rohrofen (rechts) wird auf eine bestimmte Temperatur erhitzt; der Schwarze Strahler wird dabei beispielsweise durch einen brünierten Messingzylinder dargestellt.
  • Der Ofen hat eine konstante Temperatur und wird durch eine (ggf. gekühlte) Blende (Mitte) vom Meßgerät abgeschirmt.
  • Die austretende Strahlungsleistung wird gemessen (links).

Das Stefan-Boltzmann-Gesetz lautet:

(1) P = σ * A * T4 oder S = P/A = σ * T4
mit der Stefan-Boltzmann-Konstante σ = 5,670 10 -8 [W m-2 K-4]

und P = Strahlung in [W], A = Fläche [m²], T = Temperatur in [K],
S = spezifische Strahlungsleistung in [W/m²]

Die Systematik dieser physikalischen S-B-Beziehung wird sofort klar, wenn wir in der nachfolgenden Abbildung einmal vier unterschiedlich große Schwarzkörper mit gleicher Temperatur betrachten:

 

Abbildung 2: Zur Bedeutung der spezifischen Strahlungsleistung „S=P/A“ im S-B-Gesetz

Für einen beliebigen Schwarzen Körper mit einer Temperatur von +15°C gilt also immer:

Die SPEZIFISCHE Strahlungsleistung S@15°C dieses Schwarzen Körpers beträgt 390 W/m².

Aus dieser Abbildung wird unmittelbar deutlich, dass die unterschiedlichen Strahlungsleistungen „Pi“ und die zugehörigen ABSTRAHLENDEN Flächen „Ai“ eindeutig zusammenhängen, weil sie für jeden Körper (1-4) eine augenblickliche spezifische Strahlungsleistung „S@15°C“ definieren, die wiederum über das Stefan-Boltzmann-Gesetz eindeutig mit der Momentantemperatur des jeweiligen Körpers von 15°C verknüpft ist. Allein diese Temperatur (primär) bestimmt also die gleichzeitige spezifische Strahlungsleistung (sekundär) eines Schwarzen Körpers nach dem Stefan-Boltzmann-Gesetz:

Stefan-Boltzmann-Gesetz: Temperatur (primär) => Spezifische Strahlungsleistung (sekundär)

Jede Berechnung einer Temperatur (sekundär) aus der spezifischen Strahlungsleistung (primär) stellt demnach eine Inversion des Stefan-Boltzmann-Gesetzes dar, welche nur zulässig ist, wenn alle Randbedingungen, des S-B-Gesetzes streng erfüllt sind. Da diese aber nicht per se erfüllt werden, ist eine Inversion des S-B Gesetzes immer nur in physikalisch wohl definierten Fällen zulässig. Und diese Fälle orientieren sich wiederum an einer Umkehrung des S-B-Experimentes: Es muss sowohl die in diesem Moment ANGESTRAHLTE Fläche eindeutig definiert sein, als auch der Unterschied zwischen den Flächennormalen von einfallender Strahlung und beleuchteter Fläche (Neigung = Klima) vektoriell berücksichtigt werden.

Stefan-Boltzmann-Inversion: Spezifische Strahlungsleistung (primär) => Temperatur (sekundär)

Wohlgemerkt: JEDE Berechnung einer Temperatur aus der spezifischen Strahlungsleistung nach dem S-B-Gesetz stellt eine S-B-Inversion dar, auch die fehlerhafte konventionelle 24h-Tag=Nacht- Berechnung einer sogenannten „Gleichgewichtstemperatur“ von (-18°C) aus 235 W/m² @4PiR²!

Machen wir es uns mal ganz einfach und simulieren wir das S-B-Experiment bei 20°C Zimmertemperatur, 100°C, 200°C und 300°C. Die zugehörige spezifische Strahlungsleistung entnehmen wir jetzt einfach dem Stefan-Boltzmann-Gesetz:

  • 20°C entspricht 293 K und 419 W/m²
  • 100°C entspricht 373 K und 1100 W/m²
  • 200°C entspricht 473 K und 2842 W/m²
  • 300°C entspricht 573 K und 6119 W/m²

Der Zusammenhang zwischen Temperatur und spezifischer Strahlungsleistung nach dem Stefan-Boltzmann-Gesetz ist nachfolgend in Abbildung 1 dargestellt:

 

Abbildung 3: Der Temperaturverlauf nach dem Stefan-Boltzmann-Gesetz (blaue Kurve) mit den 4 imaginären „Messpunkten“ bei 20°C, 100°C, 200°C und 300°C (rote Punkte im roten Kreis).

Sie werden bemerkt haben, dass die T4-Kurve bei 0 W/m² auf 0 Kelvin fällt. Das Dumme ist, dass im S-B-Experiment bei einer Raumtemperatur von 20°C keine Wertepaare unter 20°C/419 W/m² gemessen werden können. Denn der ganze Raum strahlt ja bei dieser Temperatur mit 419 W/m², selbst das Messgerät. Die S-B-Umgebungsgleichung trägt diesem Umstand Rechnung und das Stefan-Boltzmann-Gesetz in seiner allgemeinen Form lautet dann:

(2)

(Anmerkung: Die Gleichung 2 wurde am 8.6.22 vom Autor korrigert. Mit Dank an den aufmerksamen Leser Harde)

Alle Parameter wie in Gleichung 1 mit T0 = Umgebungstemperatur

Und jetzt bilden wir aus unseren „Messpunkten“(schwarz) einmal Mittelwerte (rot):

Tabelle 1: „Messwerte“ nach dem S-B-Gesetz und daraus abgeleitete Mittelwerte der 1. bis 3. Generation

Diese Mittelwerte (rot) fügen wir jetzt wiederum in die Stefan-Boltzmann-Funktion (Abb.1) ein und erhalten:

Abbildung 4: Vergleich des Temperaturverlaufs nach dem Stefan-Boltzmann-Gesetz (blaue Kurve) mit den berechneten Mittelwerten aus Tabelle 1 (rote Punkte 1 bis 6). „(X)“ ist der Mittelwert aus der vorgeblichen nächtlichen Oberflächentemperatur in der konventionellen S-B-Inversion von 0K und der solar induzierten theoretisch möglichen Maximaltemperatur (Näheres im Text nach Abbildung 7).

In Abbildung 4 ist deutlich zu erkennen, dass die berechneten Mittelwerte nicht auf die Stefan-Boltzmann-Funktion fallen. Vielmehr entfernen sich die 3 Mittelwert-Generationen sukzessive von der blauen Kurve: 1. Generation (Punkte 1, 3 und 6), 2. Generation (Punkte 2 und 5), 3. Generation (Punkt 4). Die Differenz der linearen Durchschnittswerte zur Stefan-Boltzmann-Funktion wird also umso größer je größer die Spreizung der beteiligten Einzelwerte ist. Bei einer T4-Funktion sollte dieses Ergebnis eigentlich nicht weiter verwundern.

Wir leben in einer Zeit, wo Meinungen als Fakten verkauft werden, und man Fakten als Meinungen diffamiert. Bilden Sie sich also selbst eine Meinung, indem Sie die Fakten bewerten:

Abbildung 5: Die Inversion des Stefan-Boltzmann-Gesetzes

Unsere Erde wird lediglich auf ihrer Tagseite von der Sonne angestrahlt

Zwischenfrage: Sind die beiden Körper in Abbildung 6 physikalisch wirklich absolut identisch? – Es kann doch nur ein physikalisch korrektes Modell geben, entweder links oder rechts in Abbildung 6:

 

Abbildung 6: Vergleich eines selbstleuchtenden Sterns (Schwarzkörper) mit einem Planeten (Erde)

Links selbstleuchtender Stern (ohne Tag und Nacht), ABSTRAHLUNG: 235W/m² @ 4PIR² bei -18°C
Rechts hemisphärisch beleuchteter Planet (unsere Erde mit Tag und Nacht)
Solare EINSTRAHLUNG = Σi (940W/m² * cos ϕi)/i @ 2PIR² über eine Halbkugel (-Pi/2 bis +Pi/2) bei einer Durchschnittstemperatur von +15°C mit ϕi=örtlicher Zenitwinkel der Sonne

Nun, der S-B Durchschnitt der Temperatur wird für den selbstleuchtenden Stern (Schwarzkörper) im konventionellen Ansatz mit -18°C angegeben, der gemessene Durchschnitt für unsere Erde beträgt aber ca. 15°C. Der Klima-Mainstream bewertet die beiden Körper aus Abbildung 6 also als physikalisch völlig gleich und erklärt die Temperaturdifferenz mit einem sogenannten „natürlichen atmosphärischen Treibhauseffekt“ von 33 Grad. Wir können also verkürzend zusammenfassen, dass der physikalische Unterschied zwischen einem selbstleuchtenden aktiven Stern und einem halbseitig bestrahlten passiven Planeten ein sogenannter „atmosphärischer Treibhauseffekt“ sein soll.

Abbildung 7: Das Bermuda-Dreieck einer fehlerhaften Inversion des Stefan-Boltzmann-Gesetzes: „Gleichgewichtstemperatur“ (-18°C), (+15°) real „gemessener“ Durchschnitt, 33° Differenz=THE

Der sogenannte „atmosphärische Treibhauseffekt“ entstammt also dem Bermuda-Dreieck einer physikalisch fehlerhaften Inversion des Stefan-Boltzmann-Gesetzes. Das ist schon komisch, denn allein der Durchschnitt aus minimaler und maximaler Temperatur bei einem halbseitig bestrahlten Körper wie der Erde sieht folgendermaßen aus: Die maximal mögliche solar induzierte Temperatur auf unserer Erde beträgt bei vertikalem Sonnenstand ohne Albedo 394 Kelvin, während die nächtliche Oberflächentemperatur im konventionellen S-B-Ansatz mit 0 Kelvin angenommen wird. Beides ergibt einen Mittelwert von (394+0)K/2 = 197 [K] bei (1367+0)W/m²/2 = 683,5 [W/m²], wie er als „(X)“ in Abbildung 4 eingetragen ist.

https://www.eike-klima-energie.eu/wp-content/uploads/2021/05/up_01.jpg

Das Stefan-Boltzmann-Gesetz verknüpft Temperatur und spezifische Strahlungsleistung eines Körpers im Moment der ABSTRAHLUNG und gilt daher ausschließlich „just in time“. Es wird also aus dem Stefan-Boltzmann-Experiment unmittelbar deutlich, dass eine Mittelung über die Tag- und Nachtseite unserer Erde gar nicht der Stefan-Boltzmann-T4-Beziehung gehorchen kann (S. auch Anhang). Eine Inversion des Stefan-Boltzmann-Gesetzes für die Temperaturbestimmung auf der Erde darf vielmehr nur Flächen einschließen, die genau im Augenblick der solaren ABSTRAHLUNG auch tatsächlich ANGESTRAHLT werden:

Um es hier noch einmal barrierefrei auszudrücken: Nur die ANGESTRAHLTE Fläche zählt bei einer S-B-Inversion. Denn wenn man die unbeleuchtete Nachtseite unserer Erde als ANSTRAHLUNGSFLÄCHE in die Temperaturberechnung einer Stefan-Boltzmann-Inversion einschließt, dann könnte man ebenso gut die unbeleuchtete Tischplatte des Experimentiertisches als ABSTRAHLUNGSFLÄCHE in das Stefan-Boltzmann-Experiment einbeziehen.

Zum besseren Verständnis meiner hemisphärischen Temperaturberechnung für unsere Erde verweise ich abschließend auf diesen Text, diesen Artikel und/oder dieses Buch.

Anhang: Die Berechnungen von Professor Dr. G. Gerlich aus seinem Vortrag zur Treibhaus-Kontroverse, Leipzig, 9./10. Nov. 1995 mit einer Hervorhebung:

Wir haben gesehen, dass lediglich die Tagseite der Erde (2πR2) im Strahlungsgleichgewicht zwischen Sonne und Erde mit dem Stefan-Boltzmann-Gesetz betrachtet werden darf. Aber auch Gerlich betrachtet bei seiner Temperaturberechnung fälschlich die gesamte Erdoberfläche und schließt dabei die Nachtseite mit 0 Kelvin ein. Von daher muss diese Lösung von Gerlich (1995) für die gesamte Erdoberfläche (4πR2) auf die Tagseite der Erde (2πR2) reduziert bzw. das Ergebnis verdoppelt werden:

Temperatur Tagseite = Lösung Gerlich * 4πR2 / 2πR2 = 2 * Lösung Gerlich

meine hemisphärische Korrektur der Integrallösung von Gerlich (1995)

Folglich verdoppelt sich die Lösung von Gerlich (1995) für die physikalische Temperatur auf Tagseite der Erde zu Tphys-hem = 2*(-129°C =144 K) = 2*144 K = 288 K oder 15°C

Ausführliche Herleitung: Anmer­kungen zur hemisphä­rischen Mittelwert­bildung mit dem Stefan-Boltzmann-Gesetz | EIKE – Europäisches Institut für Klima & Energie (eike-klima-energie.eu)