Der gemeine Küchenherd als Beispiel für die Anwendung des Stefan-Boltzmann-Gesetzes – Teil 1

von Uli Weber

(A) Vorbemerkung: Ich hatte in der fernen Vergangenheit oft die populärwissenschaftlichen Aussagen von US-amerikanischen Wissenschaftlern bewundert, deren stark vereinfachende Erklärungen allgemeinverständlich waren, ohne grob fehlerhaft zu sein. Von einem aktuellen Fortbestand dieser hohen Kunst ist mir in den Zeiten spontaner Empörung und hochmoralischem Mobbing leider nichts bekannt. Denn dazu gehört nunmal auch auf Seiten von selbsternannten „Fachleuten“ und sogenannten „Faktencheckern“ eine Kultur des Zulassens solcher allgemeinverständlichen Beschreibungen ohne spontan-cholerische Besserwisseranfälle, die solche Bemühungen konterkarieren. Schon die Mathematik scheint in der gegenwärtigen Kommunikation an frühe Verständnisgrenzen zu stoßen, und die Physik bedient sich der Mathematik lediglich als Formalsprache. Im aktuellen EIKE-Artikel von Dr. Hans Hofmann-Reinecke heißt es dazu, Zitat mit Hervorhebungen:

Unsere grassierende Inkompetenz in Sachen Mathematik ist kein rein akademisches Problem, sie hat dramatische Konsequenzen, auch für die deutsche Politik. Dabei geht es nicht etwa um Fehler bei den letzten Stellen hinterm Komma, es geht um das Verkennen von Größenordnungen. Diese kognitive Behinderung führt zu katastrophalen Entscheidungen durch unsere „Politiker-innen“. Da aber die Mehrheit der Bevölkerung auch nicht besser rechnen kann, ist sie nicht in der Lage, das Versagen der Verantwortlichen zu erkennen und sie dafür zur Rechenschaft zu ziehen.

Das vorstehend Gesagte gilt umso mehr für komplizierte physikalische Vorgänge, wenn dem geneigten Leser in unserer MINT-fernen Gesellschaft zusätzlich auch noch grundlegende physikalische Begriffe unbekannt sind, selbst wenn er denn eigenständig rechnen könnte. Was nun mein hemisphärisches Stefan-Boltzmann-Modell betrifft, mit dem ich den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ widerlegt hatte, so sind mir in der Vergangenheit drei Sorten von „Total-Quatsch“-Kritikern untergekommen. Die Hälfte dieser Kritiker besteht aus Professoren mit unterschiedlichen Schwerpunkten in Physik oder Chemie, die altersgemäß-intellektuell ihren ganz persönlich interpretierten „atmosphärischen Treibhauseffekt“ nicht mehr loslassen wollen oder können, ein weiteres Viertel davon sind Dunning-Krüger-Schmalspurphysiker, die nur ihre eigene vorgefasste Meinung (aner)kennen, und das letzte Viertel besteht aus sophistisch vorgebildeten Trollen der Klimakirche. Unter diesen Voraussetzungen ist es ziemlich ungünstig, sich mit stark vereinfachenden Beispielen zusätzlich angreifbar zu machen. Daher werde ich das jetzt mal versuchen und setze dabei einfach die Grundrechenarten ganz frech voraus.

(B) Fangen wir also mal mit den physikalischen Einheiten an: Physikalische Berechnungen bestehen nicht nur aus Zahlen und Symbolen, bestimmend sind vielmehr die jeweilig korrekten [physikalischen Einheiten]. Nehmen wir einmal an, Ihr Auto hätte eine Leistung von 100 [kW], das sind [k=kilo=1.000] mal 100 [Watt], also so viel wie 1.000 von den inzwischen verfemten 100 [Watt] Glühbirnen. Diese Leistung hat Ihr Auto immer, auch wenn es in der Garage steht. Und wenn Sie sich jetzt wundern, dass Ihr Auto dann gar nicht leuchtet, das tut die Glühbirne auch nicht, solange kein Strom fließt. Man nennt die Fähigkeit eines Körpers, Arbeit zu verrichten, physikalisch „Leistung“ (Einheit Watt [W]), und zwar auch dann, wenn dieser Körper momentan gar nichts leistet, sondern sich in der Garage oder im Supermarkt-Regal ausruht. Wenn Sie aber den Lichtschalter umlegen, dann läuft die Zeit, die Glühbirne verbraucht diese 100 [Watt] an elektrischem Strom und liefert Ihnen dafür Licht. Und wenn Sie diese Glühbirne jetzt 12 Stunden brennen lassen, dann stellt Ihnen Ihr Stromversorger dafür 12 Stunden mal 100 Watt in Rechnung, also 1,2 Kilowattstunden. Diese 1,2 Kilowattstunden bestehen also aus 100 Watt [W] mal 12 Stunden [h] gleich 1.200 Wattstunden [Wh] und nennen sich physikalisch „Arbeit“. Arbeit ist also Leistung [Watt] mal Zeit [Zeiteinheit], oder

Arbeit: 1 [Wh] = 1 [W] x 60 [min = 60sek] = 3.600 [Watt x Sekunden] [= Joule = Ws]

Zum Durchschnitt von physikalischer Arbeit: Nehmen wir jetzt einmal an, Sie haben für diese Glühbirne einen eigenen Stromzähler und lassen sie an 182,5 Tagen im Jahr brennen. Nach genau einem Jahr stellen Sie fest, dass Ihre Glühbirne 100 Watt x 182,5 Tage [=d] Strom verbraucht hat, also

100 [W] x 182,5[d] x 24[h] = 438.000 [Wh] x 3.600[s] = 1.576.800.000 [Ws oder Joule]

Nun sind Sie aber vielleicht schon etwas älter und ein bisschen vergesslich. Daher wissen Sie nicht mehr so genau, wie lange Sie die Glühbirne haben brennen lassen. Dummerweise ist auch die Leistungsangabe auf der Glühbirne nicht mehr lesbar, sodass Sie weder die tatsächliche Brenndauer noch die Leistung der Glühbirne aus dem Stromverbrauch physikalisch korrekt rückrechnen können, wie es sonst eigentlich möglich wäre:

Brenndauer der Glühbirne = 438.000 [Wh] / 100 [W] = 4.380 [Stunden =h]

Leistung der Glühbirne = 438.000 [Wh] / 4.380 [Stunden =h]= 100 [Watt]

Anmerkung: Wie Sie sicher bereits gemerkt haben, stehen physikalische Einheiten oft in eckigen Klammern. Diese physikalischen Einheiten müssen sich auf beiden Seiten des Gleichheitszeichens entsprechen und unterliegen ebenso den Regeln der Mathematik wie die davor stehenden Zahlen, also beispielsweise: 100 [Ws] / 10 [s] = 10 [W]

Ihnen bleibt jetzt also nur noch eine rein mathematische Rückrechnung, wobei Sie entweder die Leistung der Glühbirne oder deren Brenndauer als bekannt voraussetzen müssen, im einfachsten Fall also beispielsweise das gesamte Abrechnungsjahr, weil Ihre Stromrechnung darauf lautet:

Der Gesamtverbrauch war 438.000 [Wh] / [a] – und das Jahr [a] hat 8.760 Stunden [h]

Daraus folgt: Leistung der Glühbirne = 438.000 [Wh] / 8.760 Stunden [h] = 50 [Watt =W]

In dem Moment, wo Sie aus einer vorhandenen „Leistung“ [W] durch Einbeziehung der „Zeit“ [s] eine „Arbeit“ [Joule=Ws] abfordern, geht Ihnen der physikalisch eindeutige Bezug zwischen „Leistung“ und „Zeit“ verloren. Sie müssen also mindestens eine der beiden tatsächlichen Eingangsgrößen kennen, um den originären physikalischen Bezug wieder herzustellen. Das Ergebnis von „Arbeit“ [Ws] ist also mathematisch richtig, kann aber rückblickend den tatsächlichen physikalischen Sachstand nicht mehr eindeutig aus sich heraus abbilden. Denn Sie hatten ja gar keine 50 W Glühbirne übers ganze Jahr brennen lassen, sondern eine 100 W Glühbirne für ein halbes Jahr.

(C) Das geheimnisvolle Stefan-Boltzmann-Gesetz: Nachdem wir nun die nötigen physikalischen Einheiten geklärt haben, wenden wir uns einmal dem geheimnisvollen Stefan-Boltzmann-Gesetz zu. Dieses physikalische Gesetz verknüpft die Temperatur eines Körpers mit seiner Abstrahlungsleistung:

P / A = C x T x T x T x T = C x T^4 mit

P = Strahlungsleistung in [W]

A = Fläche des Körpers in Quadratmetern [m x m = m^²]

C = Konstante (S-B-Konstante) [W/(m^² x K^4)]

T = Temperatur des Körpers bezogen auf den absoluten Nullpunkt

[0 Kelvin = 0 K]

Anmerkung: 0 Kelvin entspricht einer Temperatur von -273,15°C

Wir können diese Gleichung vereinfachen, indem wir eine spezifische Strahlungsleistung „S“ (= P / A) in [W/m^²] einführen und erhalten dann:

S [W/m^²] = C [W/(m^² x K^4)] x T^4 [K^4] Stefan-Boltzmann-Gesetz

Jeder Körper mit einer Temperatur größer 0 Kelvin, also größer als -273,15°C, strahlt mit einer spezifischen Strahlungsleistung, die sich direkt aus dem Stefan-Boltzmann-Gesetz ergibt. Wie Sie unschwer erkennen, kommt die Zeit [t] im Stefan-Boltzmann-Gesetz gar nicht vor. Dieses physikalische Gesetz gilt nämlich ausschließlich „just in Time“, also, ein Körper strahlt dann und nur dann die durch das Stefan-Boltzmann-Gesetzes vorgegebene spezifische Leistung ab, wenn er in diesem Augenblick auch ganz genau die dort vorgegebene Temperatur hat.

Temperatur [Kelvin]

Abbildung: Die Abhängigkeit der spezifischen Strahlungsleistung [W/m^²] von der Temperatur [K] im Stefan-Boltzmann-Gesetz (mit freundlicher Genehmigung von M. Limburg)

Der in der vorstehenden Abbildung gezeigte Verlauf der Stefan-Boltzmann-Funktion ist durch eindeutige Wertepaare von Temperatur und spezifischer Strahlungsleistung gekennzeichnet. Eine mathematische Anwendung dieser Funktion auf Mittelwerte ist physikalisch nicht erlaubt. In einer räumlichen Umgebung, die gegenüber einem betrachteten Körper sehr groß und massereich ist, tendiert dieser Körper dazu, die Temperatur seiner Umgebung anzunehmen. Wenn Sie also ein Eis aus dem Kühlschrank nehmen und sich eine Tasse Kaffee aufbrühen, dann ist das Eis kälter als die Umgebung und der Kaffee heißer. Wenn Sie dann gestört werden und Eis und Kaffee vergessen, werden Sie später feststellen, dass beides die Temperatur der Küche angenommen hat; das ist sowohl schlecht für das ehemals kalte Eis wie auch für den ehemals heißen Kaffee, und für Sie bleibt auch nichts Gescheites mehr übrig. Im Ergebnis hatte also das Eis so lange Strahlung aufgenommen, bis es die Temperatur der Umgebung angenommen hat, und der Kaffee hatte so lange Strahlung abgegeben, bis er ebenfalls diese Temperatur angenommen hatte. Nehmen Sie zum Beispiel eine Tiefkühlpizza und schieben Sie diese in den Ofen. Solange der Ofen nicht angeschaltet ist, schmilzt diese Tiefkühlpizza lediglich still vor sich hin und nimmt schließlich die Umgebungstemperatur des kalten Ofens an. Sie müssen also den Ofen anschalten und die vorgegebene Temperatur einstellen, damit Sie Ihre Tiefkühlpizza aufbacken können. Physikalische Gleichzeitigkeit bedeutet also, dass der Ofen genau dann Wärme erzeugen muss, wenn die Pizza im Ofen aufgebacken werden soll.

Sie finden das selbstverständlich? Naja, Tag und Nacht sind auch selbstverständlich, das weiß schon jedes Kindergartenkind. Nur in der Klimawissenschaft ist das immer noch nicht bekannt.

(D) Das glauben Sie nicht? – Dann schaunmermal der Klimawissenschaft genau auf die Finger:

Die strenge physikalische Gleichzeitigkeit im Stefan-Boltzmann-Gesetz gilt nicht nur für Ihre Pizza und den heißen Ofen, sie ist ebenfalls eine zwingende Voraussetzung für eine Stefan-Boltzmann-Inversion*. Inversion heißt in diesem Fall, dass, in Umkehrung des Stefan-Boltzmann-Gesetzes, eine spezifische Strahlungsleistung auf einen Körper einwirkt und dort eine Temperatur erzeugt. Und diese Temperatur folgt dann wiederum dem Stefan-Boltzmann-Gesetz. Soweit die Theorie, in der Praxis ist das gar nicht so einfach, wenn man die Temperatur der sonnenbeschienenen Erde berechnen will, denn es gibt auf unserer Erde nun mal Tag und Nacht:

Abbildung: Die geometrischen Verhältnisse beim Einfall der Sonneneinstrahlung auf die Erde

Und das sind die bestimmenden Parameter:

Spezifische Strahlungsleistung der Sonne: 1.367 W/m² (= Solarkonstante)

Fläche des Lichtkegels, der auf die Erde fällt: Kreisfläche mit dem Erdradius R

Von der Sonne beschienene Fläche: Halbkugel mit dem Erdradius R

Gesamtoberfläche der Erde: Kugel mit dem Erdradius R

Kreisfläche, Halbkugelfläche und Kugelfläche verhalten sich zueinander wie 1 : 2 : 4

Und mit diesem Flächenverhältnis haben wir bereits den wesentlichen Knackpunkt für eine Stefan-Boltzmann-Inversion auf unserer Erde zu fassen. Beim S-B-Gesetz (Temperatur erzeugt Strahlung) hat der betreffende Körper nämlich eine einheitliche Temperatur und strahlt in alle Richtungen gleichmäßig ab. Bei der S-B-Inversion (Strahlung erzeugt Temperatur) ist das nicht so. Versuchen Sie einfach mal, einen Fußball komplett mit einer Taschenlampe zu beleuchten (danke für das schöne Beispiel, Herr W. Schulz), dann erkennen Sie das Problem sofort. Denn egal was Sie auch machen, die Rückseite des Fußballs bekommen Sie mit dem Lichtstrahl nie zu fassen. Nun könnte man mit der sogenannten „Klimawissenschaft“ argumentieren, dass sich die Erde unter dem Lichtkegel der Sonne ja einmal in 24 Stunden um sich selber dreht und einfach über diese 24 Stunden mitteln. Wir haben aber bereits gesehen, dass eine mathematische Mittelung über Dunkelzeiten physikalisch nicht so richtig funktioniert. Denn schließlich wäre die dunkle Nachtseite der Erde in einer solchen 24h-Mittelung ja immer mit enthalten. Nehmen wir jetzt also noch einmal unsere Tiefkühlpizza und stellen über einen gemeinsamen Stromzähler nebeneinander 2 Herde auf, die Tag- und Nachtseite der Erde repräsentieren sollen und jeweils 12 Stunden des 24h-Tages angeschaltet sind. Jeder dieser beiden Herde wird also für 12 Stunden mit 2 [kW] betrieben und danach kommt der andere Herd dran. Wenn Sie Ihre Pizza aufbacken wollen, dann müssen Sie daher je nach Tageszeit den jeweils eingeschalteten Herd auswählen. Über einen 24h-Tag liegt der Verbrauch beider Herde zusammen dann bei 48 [kWh]. Bezogen auf einen einzelnen Herd ergibt das jeweils einen Verbrauch von 24 [kWh] in 24 Stunden oder 1 [kW] pro Stunde. Wenn wir jetzt einmal vereinfachend eine lineare Beziehung zwischen Stromverbrauch und Temperatur unterstellen, dann würden echte 2 [kW] beispielsweise 200°C entsprechen, 1 [kW] Durchschnitt dagegen nur 100°C. Die 200°C reichen zum Aufbacken der Pizza in der vorgegebenen Zeit völlig aus; bei 100°C sehe das Ergebnis dagegen sehr viel langwieriger und trockener aus…

Wir sehen also, dass die Ableitung von Temperatur allein aus einer Energiemenge zu völlig unterschiedlichen Ergebnissen führen kann, je nachdem, ob die tatsächliche physikalische Situation in die Berechnung eingeht oder nicht. Man muss also in einer Stefan-Boltzmann-Inversion immer die tatsächliche „Just-in-Time“ Augenblicksleistung als physikalische Grundlage für die Berechnung der tatsächlichen Augenblickstemperatur verwenden.

Weiterhin gilt das Stefan-Boltzmann-Gesetz nur für einen sogenannten „schwarzen“ Körper. Das ist ein idealisierter Körper, der sämtliche Strahlung aufnimmt, die auf ihn trifft. Und hier kommt ein weiterer wichtiger Fachbegriff ins Spiel, und zwar die sogenannte „Weiße“ (Albedo) eines natürlichen Körpers. Diese „Weiße“ gibt an, wie viel der Einstrahlung ein solcher Körper zurückreflektiert. Während also ein „schwarzer“ Körper eine Albedo von „0“ hat, reflektiert eine Diskokugel die gesamte Strahlung und hat eine Albedo von „1“. Und die natürlichen Körper liegen als sogenannte „graue Körper“ irgendwo dazwischen, beispielsweise auch unsere Erde:

https://eike-klima-energie.eu/wp-content/uploads/2022/10/word-image-97452-1.jpegAbbildung: Earthrise, Farbbild, von Bill Anders – gemeinfrei (Wikipedia)

Alles, was Sie hier in dieser Abbildung von der Erde sehen ist das reflektierte Sonnenlicht, und das sind etwa 30% (oder 0,30 vom Ganzen=1) der Sonneneinstrahlung. Diese 30 Prozent müssen wir also schon einmal von der Solarkonstanten (1.367 W/m²) abziehen, wenn wir das Stefan-Boltzmann-Gesetz auf die Erde anwenden wollen. Es bleiben somit etwa 940 W/m² für die Erzeugung der Temperatur auf unserer Erde übrig. Wir können auf der obigen Abbildung die Tagseite und die Nachtseite unserer Erde deutlich unterscheiden. Weiterhin ändern sich über die Breitenkreise der Zenitwinkel der Sonne, also wie hoch die Sonne am Himmel steht. Deshalb fahren Sie im Urlaub beispielsweise gerne in den Süden, weil es dort bei höherem Sonnenstand wärmer ist als hier bei uns. Und über das Jahr ändert sich dann auch noch das Verhältnis zwischen Tageslicht und Nacht, was man bei uns Sommer und Winter nennt.

(E) Der sogenannte „natürliche atmosphärische Treibhauseffekt“: Die Klimawissenschaft macht sich die Berechnung der „theoretischen“ Temperatur unserer Erde nun denkbar einfach. Sie nimmt nämlich einfach die einfallende Sonnenstrahlung auf der Kreisfläche mit dem Erdradius, zieht den reflektierten Anteil von 30% (Albedo) davon ab und teilt diesen Betrag dann durch 4, weil die Kugelfläche der Erde viermal größer ist als die Kreisfläche der einfallenden Sonnenstrahlung. Im Ergebnis ergibt sich somit ein Wert von:

(Solarkonstante – 30% = 940 W/m²) / 4 = 235 W/m² für jeden Quadratmeter unserer Erde.

Mit dieser spezifischen Strahlungsleistung geht man nun in das Stefan-Boltzmann-Gesetz hinein und erhält -18°C für die „theoretische Temperatur“ unserer Erde. Die „tatsächlich gemessene globale Durchschnittstemperatur“ beträgt dagegen etwa +15°C**. Die Differenz von 33°C zwischen diesen beiden Temperaturen schreibt man nun einem „natürlichen atmosphärischen Treibhauseffekt“ zu, der durch sogenannte IR-aktive „Klimagase“, das sind mit absteigender Wichtigkeit Wasserdampf, CO2, Methan und andere IR-aktive Gase, erzeugt werden soll. Wenn Sie nun einmal das Internet durchsuchen, dann werden Sie feststellen, dass der Wasserdampf nur noch sehr selten unter den „Klimagasen“ auftaucht. Das war vor etwa einem Jahrzehnt noch ganz anders; damals hatte der Wasserdampf bei weitem den größten Anteil am sogenannten „natürlichen atmosphärischen Treibhauseffekt“:C:\Users\Uli\Documents\Ablage & Archiv\Texte\Klimahysterie\Text 12 x 19\Charts\Charts skaliert\Chart 7.jpg

Abbildung: Die gemittelten Anteile am sogenannten „natürlichen atmosphärischen Treibhauseffekt“

Quelle: Klimahysterie gefährdet die Freiheit Seite 57 (damals hat der Autor den THE noch „geglaubt“)

Das Problem von Klimawissenschaft und globaler Transformationspolitik war sicherlich der geringe Anteil von CO2 am sogenannten „Treibhauseffekt“, denn der „menschengemachte“ CO2-Anteil ist wiederum nur ein Bruchteil des natürlichen atmosphärischen CO2. Die Argumentation für den Wegfall des Wasserdampfs ist daher ganz einfach. Mit der Temperatur steigt der Anteil von Wasserdampf in der Atmosphäre. Also werden die übrigen „Klimagase“ zu „primären Temperaturanheizern“ befördert, während Wasserdampf mit einem Beitrag von etwa 65% am sogenannten „Treibhauseffekt“ nur ein „Mitläufer“ ist, der lediglich auf einen solchen Temperaturanstieg reagiert – und damit ist er ‘raus aus der Betrachtung. Vielmehr wird sein Einfluss auf die „globale Durchschnittstemperatur“ den „primären Klimagasen“ einfach proportional, also je nach deren eigenem Anteil an diesem Temperaturanstieg, zugerechnet. Mit diesem Zaubertrick hat man dann auch gleich noch die natürlichen Klimaschwankungen von ca. 50% (IPCC) für den „menschengemachten Treibhauseffekt“ vereinnahmt. Was die platten Zahlen angeht, so ist der aktuelle Stand bei den atmosphärischen Anteilen von CO2 und Wasserdampf:

Atmosphärisches CO2: um 420 ppmWasserdampf im Mittel 0,4 %

Ich hoffe, diese Zahlen haben einen allgemeinen Aufschrei unter meinen Lesern bewirkt, denn die Äpfel und Birnen stimmen in diesem Vergleich nicht überein. Wenn schon ppm, dann muss man in einem direkten Vergleich beide Anteile in ppm angeben, und bei Prozent ist das ebenso, also:

Atmosphärisches CO2: 420 ppm oder 0,042% – Wasserdampf 4.000 ppm oder 0,4 %

Mit der oben zitierten Argumentation kann man sich nun voll auf das lebensspendende CO2 als „klimatisches Giftgas“ stürzen, wie die nachfolgende Abbildung vom Umweltbundesamt beweist:

 Abbildung: Beitrag zum Treibhauseffekt durch Kohlendioxid und langlebige Treibhausgase 2021
Quelle: UBA mit Angabe: National Centers for Environmental Information (NOAA)

Im dazu gehörigen Text ist nirgendwo beschrieben, dass es sich bei dieser Kreisgrafik um lediglich etwa 30% des sogenannten „natürlichen atmosphärischen Treibhauseffektes“ handelt beziehungsweise der „Klimaeffekt“ von Wasserdampf bei den dargestellten „Klimagasen“ bereits mit eingerechnet ist. Das große Problem der sogenannten Klimakatastrophe soll nun vielmehr der stetig wachsende menschengemachte Anteil am atmosphärischen CO2 durch die Verbrennung fossiler Energieträger sein, durch den dieser „Treibhauseffekt“ sich immer weiter verstärken und schließlich zu einer „Selbstverbrennung“ unserer Erde führen soll:

Abbildung: Der atmosphärische Treibhauseffekt (Wikipedia, Autor „A loose necktie“, Lizenz Creative Commons Attribution-Share Alike 4.0 International

Die Erklärung dazu lautet, Zitat:Sonnenlicht (weiße Pfeile) wird auf der Erdoberfläche in Wärmestrahlung umgewandelt. Diese wird zurückgestrahlt (orange Pfeile). Ein Teil davon wird von Molekülen der Treibhausgase aufgenommen (Wasserdampf, Kohlendioxid und Methan) und in eine zufällige Richtung wieder emittiert, teilweise auch zurück zur Erde“.

Nix Genaueres über diesen sogenannten „natürlichen atmosphärischen Treibhauseffekt“ finden Sie übrigens auch beim Umwelt Bundesamt, das sich hinter historischen Fehlinterpretationen und schwammigen Vermutungen versteckt, ohne konkrete zahlenbasierte physikalische Mechanismen darzustellen. Wer’s etwas theoretischer mag, möge hier nachschauen…

Die Fortsetzung dieses Artikels erfolgt im 2. Teil: In Teil 2 wird zunächst das Kapitel (E) beendet, indem die Kenntnisse aus den Kapiteln (B) bis (D) auf die Berechnung der Klimawissenschaft für ihren „natürlichen atmosphärischen Treibhauseffekt“ angewendet und daraus Fragen abgeleitet werden. In Kapitel (F) erfolgt dann ein Abgleich dieser Fragestellungen mit den Gesetzen der physikalischen Wärmelehre. Als Gegenentwurf wird in Kapitel (G) dann mein hemisphärisches Stefan-Boltzmann-Modell vorgestellt. Und am Ende folgen in Kapitel (H) noch ein paar Nachweise, warum die mit meinem S-B-Modell berechnete und die gemessene Temperatur nicht übereinstimmen können.

Erklärungen

*) Stefan-Boltzmann-Inversion: Sowohl die klimawissenschaftliche Ableitung des Treibhauseffektes (THE) als auch mein hemisphärisches Stefan-Boltzmann-Modell stellen Inversionen des Stefan-Boltzmann-Gesetzes dar. In beiden Fällen wird aus der spezifischen Strahlungsleistung der Sonne eine Temperatur berechnet. Anstelle von (Temperatur erzeugt Strahlung) wird bei der Inversion also das S-B-Gesetz umgekehrt (Strahlung erzeugt Temperatur). Die Erwärmung eines Körpers durch Sonnenstrahlung kann jeder selber beobachten und überprüfen. Für eine genaue Berechnung müssen zusätzlich alle Randbedingungen des S-B-Gesetzes eingehalten werden, beispielsweise die zwingende Gleichzeitigkeit von Temperatur und Strahlung sowie die exakten geometrischen Verhältnisse bei der Einstrahlung. Das ist bei der klimawissenschaftlichen Faktor4-Berechnung des THE aber nicht der Fall.

**) Die „tatsächlich gemessene globale Durchschnittstemperatur“ von etwa +15°C: Diese „gemessene globale Durchschnittstemperatur“ ist eine Schimäre, denn dafür gibt es kein exaktes und nachvollziehbares „Kochrezept“ und keine zuverlässige Datengrundlage. Der interessierte Leser findet dazu die detaillierten Analysen und Ausführungen von Herrn Dipl.-Ing. Limburg hier und hier auf EIKE. Die Differenz dieser aktuell „gemessenen“ Globaltemperatur zu einer „vorindustriellen Temperatur“ stellt nun aber die Grundlage für die Sage von der „menschengemachten Klimakatastrophe“ dar. Der Menschen soll nämlich durch die Nutzung von fossilen Energieträgern und dem damit verbundenen Ausstoß von CO2 einen Temperaturanstieg verursachen, der schließlich das Ende der Menschheit herbeiführen soll. Aber selbstverständlich gibt es für die ominöse „vorindustrielle Globaltemperatur“ auch kein Kochrezept und keine nachvollziehbare Datengrundlage. Inzwischen werden sogar fast nur noch Differenzen zwischen dieser „vorindustriellen Temperatur und der angeblich „gemessenen globalen Durchschnittstemperatur“ veröffentlicht. Das wiederum ist ganz natürlich, denn es gab und gibt gar keine globalen vorindustriellen Daten, wie die nachstehende Abbildung beweist:

Abbildung: NOAA Global Historical Climatology Network: Gebiete mit mehr als 10 Jahren kontinuierlicher Temperaturaufzeichnung im Zeitraum 1861-1890 (rechts, grau unterlegt)

Anmerkung: Der angegebene Link aus 2020 funktioniert aktuell nicht mehr.

Die Industrialisierung begann in der 1. Hälfte des 19. Jahrhunderts. Es gibt aber selbst aus der 2. Hälfte des 19. Jahrhunderts keine weltumspannenden Temperaturdaten, lediglich aus Teilen der USA, Europa, Ceylon und Australien liegen solche Daten vor. Das reicht für eine Globaltemperatur schon mal nicht aus. Vielleicht wird jetzt auch klar, warum die „gemessene globale Durchschnittstemperatur“ nur noch als Differenz zu einem ungenannten Fixwert angegeben wird – und gleichzeitig das oben abgebildete Beweismittel verschwunden ist…

 




Eine Stellungnahme zum GEG Gesetzentwurf der Bundesregierung

von Dr. Dipl. Ing. Helmut Waniczek

Stellungnahme zum Gesetzentwurf der Bundesregierung

„Entwurf eines Gesetzes zur Änderung des Gebäudeenergiegesetzes, zur Änderung der Heizkostenverordnung und zur Änderung der Kehr- und Überprüfungsordnung, Bundestagsdrucksache 20/6875  unter Berücksichtigung der „Leitplanken“ vom 13. Juni 2023 anlässlich der Öffentlichen Anhörung im Ausschuss für Klimaschutz und Energie des Deutschen Bundestages am 21. Juni 2023

Kurzbewertung des Gesetzentwurfs

Der vorliegende Gesetzentwurf Drs. 20/6875klärt schon in der Einleitung darüber auf, dass sich der Antragsteller nicht im Klaren ist, welche Folgen die geplanten Maßnahmen haben:

„Eine auf erneuerbaren Energien basierende Wärmeversorgung dürfte mittel- bis langfristig eine sehr viel kalkulierbarere, kostengünstige und stabile Wärmeversorgung gewährleisten.“ (Seite 45 Abs.4)

Nach dem Lesen der unübersichtlichen und vagen Vorlage komme ich zu dem Schluss, dass die Wärmeversorgung mit erneuerbaren Energien eine unkalkulierbare, teure und instabile Wärmeversorgung werden dürfte.

Zur flächendeckenden Installation von Wärmepumpen

Eine ganze Reihe von Maßnahmen scheint unkalkulierbar. Schon die flächendeckende Versorgung mit Wind- und Solarstrom ist zweifelhaft, wenn die Bundesnetzagentur schon jetzt Stromabschaltungen für Wärmepumpen fordert, weil zu wenig Strom vorhanden ist. Aber selbst wenn für die vorliegenden Pläne ausreichend Strom zur Verfügung gestellt würde, wäre das Netz an vielen Stellen nicht geeignet, die nötige Strommenge durchzuleiten. Die Versorgung mit Wasserstoff ist noch nicht einmal im Ansatz geklärt, und die Kosten dafür stehen in den Sternen. Der Fachkräftemangel wird in dem Papier zwar angesprochen und bestätigt, die Lösung des Problems wird aber verschwiegen (S. 149).

Wenn die Bürger nun aller Orten Wärmepumpen einbauen, können unsere Häuser dann so aussehen.

Quelle: kanvag / Fotolia.com

Dieses Bild findet man auf der Seite des Umweltbundesamtes:

https://www.umweltbundesamt.de/themen/blauer-engel-fuer-klimageraete

Mit dem Kommentar: „Klimageräte stoßen nicht nur durch den hohen Stromverbrauch viele Treibhausgase aus: Auch die verwendeten Kältemittel haben negative Auswirkungen auf das Klima.“ Dies stimmt natürlich auch für Wärmepumpen, die zum Heizen verwendet werden. Nun handelt es sich bei dem vorliegenden Gesetz ja nicht um Kühlgeräte, sondern um Heizgeräte, die der Umwelt die Wärme entziehen. In unseren Breiten werden diese Geräte im Winter, wenn das Heizen nötig ist, etwa so aussehen:

Quelle: https://heimwerk.org/waermepumpe-vereist

 

Je mehr diese Wärmepumpen auf engem Raum betrieben werden, umso ineffizienter werden sie, da es wie beim „Stilling-Effekt“ bei den Windrädern dazu kommt, dass eine Anlage der anderen die nötige Wärme entzieht. Rechtliche Fragen, wem denn eigentlich die Wärme außerhalb eines Gebäudes gehört, sind offen. Darf ich vor meinem Fenster der Luft so viel Wärme entziehen, dass beim Nachbarn die Fenster zufrieren? Da die Wärmepumpen an Fassaden auch die Hauswände stark kühlen werden, sind Auswirkungen auf die Bausubstanz zu befürchten. Auch die Innenseiten der Fassaden würden gekühlt und Kondenswasser entstehen, was zu Schimmelbildung führt.

Ein Wust an Vorschriften soll eingehalten und sanktioniert werden. Dies führt entweder dazu, dass der Fachkräftemangel noch verstärkt wird, oder dass die Vorschriften eben nicht eingehalten werden können, und der Bürger immer sanktionierbar ist.

Zur flächendeckenden Beimischung von grünem Wasserstoff ins Erdgasnetz

Offensichtlich soll gemäß dem Gesetzentwurf im deutschen Gasnetz dem Erdgas Wasserstoff beigemischt werden. Wie viel das sein soll, ob sich das Mischungsverhältnis im Laufe der Zeit ändern soll, in welchen Zeiträumen diese Änderungen erfolgen sollen, ist nicht ersichtlich. Diese Angaben wären aber zwingend erforderlich, um das Vorhaben überhaupt bewerten zu können. 10 oder 20 Prozent Wasserstoff im Erdgas werden kaum technische Änderungen erfordern. Soll der Wasserstoffgehalt jedoch auf 50 Prozent gesteigert werden, dann werden viele Brenner der Heizungsanlagen schon nicht mehr geeignet sein, und auch das Gasnetz muss nachgerüstet werden, da etwa die doppelte Gasmenge durch die Leitungen transportiert werden muss, um die gleiche Wärmemenge anzubieten. Wenn dann irgend wann 100 Prozent Wasserstoff durch das Deutsche Gasnetz transportiert werden sollen, dann treten wieder die gleichen Probleme wie beim ersten Schritt auf, und zusätzlich werden Materialprobleme einen Austausch erheblicher Rohrleitungen erfordern. Diese Rohrleitungen liegen alle unterirdisch mit dem daraus resultierenden Aufwand.

Dann müssen auch mehr als dreimal so hohe Volumina durch die Rohrleitungen als heute. Die dann erforderlichen Brenner für die Heizungen müssen Spezialbrenner sein, welche heute erst entwickelt werden. Sie müssen gewährleisten, dass das Wasserstoff-Luft-Gemisch vor der Verbrennung optimal durchmischt wird, und dass die Gefahr des Rückzündens vermieden wird. Diese Brenner sind teuer. Denn ein ganz gravierendes Problem hat der Verfasser des Gesetzentwurfes gar nicht erwähnt. Der Verfasser denkt offensichtlich, dass bei der Verbrennung von Wasserstoff nur Wasser entsteht. Die Verbrennung von Wasserstoff erfolgt aber bei wesentlich höheren Temperaturen als die von Erdgas. Dies führt dazu, dass erhöhte Mengen an NOx, Stickoxiden, entstehen. Diese Stickoxide sind Atemgifte.

Dieses Problem ist nur lösbar entweder durch die oben erwähnten Spezialbrenner die in jedem Haushalt eingebaut werden müssen, oder durch Einbau nachgeschalteter Katalysatoren. Dadurch wird die Maßnahme für die Bürger unkalkulierbar teuer.

Der Gesetzgeber hat es bisher versäumt, spezielle Abgasregulierungen für industrielle oder private Wasserstoff-Feuerungen zu erlassen. An der schrittweisen Erhöhung des Wasserstoffanteils im Erdgas wird aber kein Weg vorbeiführen, da der Wasserstoff in der nötigen Menge schlicht nicht vorhanden ist. Dass dies so ist, zeigen die folgenden drei Veröffentlichungen:

Markus Söder (CSU) preist die Pionieranlage in Wunsiedeln am 15.09.2022 an:

Am 29.12.2022 schreibt die Frankenpost: Zweiter Eletrolyseanlage liegt auf Eis:

https://www.frankenpost.de/inhalt.wunsiedel-zweite-elektrolyse-liegt-auf-eis.538e96a9-aa3f-4871-

8f7c-60f49fb406d0.html

Die Süddeutsche Zeitung schreibt am 15.01.2023, dass die erste Wasserstoffanlage in Bayern stillsteht, weil der Wasserstoff unverkäuflich, weil zu teuer ist:

https://www.sueddeutsche.de/bayern/wunsiedel-wasserstoff-strompreisbremse-bayern-1.5732369

Auch der internationale Handel mit Erdgas wird von dem vorliegenden Vorhaben stark beeinflusst. Durch die Rohrleitungen, durch die mit Wasserstoff angereichertes Erdgas geleitet wird, kann nicht gleichzeitig reines Erdgas geleitet werden. Diese Leitungen fallen für den internationalen Austausch aus. Deutschland hat dann kein Erdgasnetz mehr, um Erdgas durchzuleiten.

Grundsätzlich muss aber zu Wasserstoff als Heizgas erwähnt werden, dass 1 kWh Wasserstoff mit mehr als 2 kWh Strom hergestellt werden muss. Heizen mit Wasserstoff wird deshalb in jedem Fall doppelt so teuer, wie Heizen mit Strom. Deshalb wird die gesamte Wasserstoffstrategie der Bundesregierung nicht an der Machbarkeit scheitern, sondern sie wird an den hohen Kosten scheitern.

Sollte jemand daran denken, dass man mit dem Wasserstoff-haltigen Erdgas Brennstoffzellen betreiben könnte (Wasserstoffbusse, Rückverstromung), so soll hier erwähnt werden, dass dies technisch nicht möglich ist. Für Brennstoffzellen muss Wasserstoff in Reinst-Form eingesetzt werden, da sonst die Elektroden vergiften und die Brennstoffzelle nach kurzer Zeit zum Stillstand kommt.

Aber es gibt auch Kurioses in diesem Gesetzentwurf. Gemäß § 71 d Absatz 2 darf in einem bestehenden Gebäude eine elektrische Direktheizung nur eingebaut und aufgestellt werden, wenn das Gebäude den vorgeschriebenen Wärmeschutz um 45 Prozent unterschreitet. Nun muss eine elektrische Direktheizung nicht eingebaut werden. Es reicht, wenn man den Stecker des Heizlüfters in die Steckdose steckt. Sollen die Millionen in Haushalten existierenden Heizlüfter verboten werden?

Besonders heiter ist der Folgesatz, dass § 71 d Abs. 2 nicht beim Austausch eines bestehenden Heizlüfters anzuwenden ist. Man darf also den Heizlüfter im Wohnzimmer erneuern, aber nicht in das Schlafzimmer tragen.

Und wichtig scheint zu sein, dass § 71 d Abs. 2 nicht für Gebäude gilt, die nicht mehr als zwei Wohnungen haben, und eine davon vom Eigentümer bewohnt wird. Zieht der Eigentümer aus, muss also in der anderen Wohnung der Heizlüfter entfernt werden.

So steht es zumindest im Entwurf. Ob das auch so gemeint ist, weiß man nicht, es wird aber zu großer Verwirrung führen.

Der vorliegende Gesetzentwurf behandelt nur einen kleinen Teil der Maßnahmen, die zur Erreichung des vorgegebenen Zieles, die sogenannte „Wärmewende“ zu erreichen, nötig sind. Die wesentlich umfangreicheren Veränderungen und Investitionen, die dafür nötig werden sind ausgespart und teilweise nur erwähnt. Die Bürger werden zu Maßnahmen verpflichtet werden, deren Auswirkungen und Kosten noch gar nicht bekannt sind. Nach dem Motto – erst bauen, dann planen – wird dem Bürger ein großes Risiko aufgebürdet, und mit Strafmaßnahmen gedroht.

Dr. Helmut Waniczek am 21. Juni 2023

Das obige Video ist ein Zusammenschnitt der Fragen und Antworten an den Sachverständigen seitens einiger Abgeordneter

Und zusätzlich

Auf die Frage an Dr. Engelke vom vzbv (Verbraucherschutz Bundesverband): Welche Rolle könnte Wasserstoff aus ihrer Sicht beim Heizen spielen.

Antwort: Dr. Engelke:

Der Gesetzentwurf der Bundesregierung sieht vor, dass Gasheizungen, die mit reinem Wasserstoff betrieben werden können, die 65% Vorgabe erfüllen. Das Papier geht sogar noch weiter. Die Heizung sollen zum Beispiel auch dann eingebaut werden dürfen, wenn eine kommunale Wärmeplanung ein klimaneutrales Gasnetz vorsieht, das muss aber erst 2045 umgesetzt sein. Wie hoch der Anteil 2030 im Gasnetz sein muss, ist offen. Der vzbv kann diese Position nicht nachvollziehen. Es gibt einen Grundkonsens in der Wissenschaft, dass Wasserstoff für den Gebäudesektor in 2030 oder vielleicht auch 2045 kaum eine Rolle spielen wird. Wasserstoff bleibt also ein knappes und teures gut, Erdgas und seine Infrastruktur werden tendenziell teurer. Verbraucher müssen wissen, dass sie H2-ready-Heizungen gegebenenfalls für Jahrzehnte nur mit Erdgas betreiben können. Wenn jetzt Verbraucherinnen und Verbraucher glauben oder glauben sollen, dass sie mit dem Kauf einer H2-ready-Heizung diese in absehbarer Zeit klimafreundlich und kostengünstig mit grünem Wasserstoff betreiben können, ist das durch Fakten nicht hinreichend unterlegt. Im Gegenteil, Verbraucherinnen Verbrauchern droht eine Kostenfalle. Das muss verhindert werden, die Erfüllungsoptionen von theoretisch mit Wasserstoff betriebenen Erdgasheizungen müssen aus dem Gesetzesvorschlag gestrichen werden.

 

 




Energiewende: Neuer deutscher Gigantismus

Deutschlands Energiewende wird viele hundert Milliarden Euro verschlingen. Riesige Netzausbau- und Windparkprojekte sind geplant. Da wird ein neuer deutscher Gigantismus ausgelebt. Derweil investiert China in seinen ersten Thorium-Kernreaktor. Kostenpunkt: einige hundert Millionen. 

von Manfred Haferburg

Der von mir sehr geschätzte Journalist Daniel Wetzel titelt in der Welt Online hinter der Bezahlschranke: „Projekt „Giga“ – diese 500-Kilometer-Trasse soll 8 KKW wettmachen“. Gemeint ist die Gleichstromtrasse „Rhein-Main-Link“, die acht Gigawatt Windstrom aus Norddeutschland vom nördlichen Niedersachsen ins südliche Hessen transportieren soll. Acht Gigawatt, das entspricht einer Leistung von fünf Kernkraftwerken, wie Deutschland sie gerade verschrottet hat.

Bisher dachte ich immer, dass Hochspannungsleitungen Strom von einem zum anderen Ort transportieren, aber selbst keinen Strom erzeugen. Deswegen hat der Kollege Wetzel auch das weise Wort „wettmachen“ verwendet. Bei einer Stromleitung kommt immer hinten ein klein bisschen weniger Strom raus, als ich vorne reintue, niemals aber mehr.

Mit dem Gigaprojekt ist geplant, den Strom der geplanten großen Meereswindparks von der Nordseeküste, der bei Oldenburg in einem geplanten Knotenpunkt eingesammelt werden soll, nach Süden zu leiten. Geplant sind Offshore-Windmühlen, die bis 2030 eine installierte Leistung von 30 Gigawatt und bis 2045 70 Gigawatt haben. Festgelegt wurde das in Habecks „Osterpaket“. Aktuell sind weniger als 10 Gigawatt installiert. Wenn ich im Kopf richtig überschlage, bedeutet das, dass für die nächsten 20 Jahre jeden Tag ungefähr ein 10 MW-Windrad Offshore errichtet werden muss. Das ist sehr viel mehr als „ambitiös“, würde ich sagen.

Von diesen gigantischen 70 Gigawatt – das ist fast die Leistung des derzeitigen konventionellen Kraftwerksparks – sollen über die neue Trasse acht Gigawatt in Richtung Frankfurt am Main geleitet werden. Per Gleichstrom. Das ist nach meinem bescheidenen Wissen auch noch keine Standard-Stromübertragungstechnologie. Auch das ist ambitiös, lassen wir uns überraschen. Immerhin traue ich den Ingenieuren vom Netzbetreiber hunderte Male so viel mehr zu wie Ministern und Staatssekretären. 2033 soll die Trasse in Betrieb gehen. Der genaue Trassenverlauf ist noch nicht festgelegt. Die Kosten werden auf 15 Milliarden Euro veranschlagt.

„Ist ja nur Geld“

Doch jetzt wird es im Artikel interessant. Die Netzbetreiber haben einen Netzentwicklungsplan vorgelegt, nach dem bis 2045 ein „Zubaunetz“ mit einer Länge von 25.723 km errichtet werden muss. Kostenpunkt 251,3 Milliarden Euro. Doch für die vielen E-Ladestellen und Wärmepumpen wird auch ein neues stärkeres regionales und örtliches Verteilernetz gebraucht. Eine Größenordnung gefällig? Ich habe die Zahl von 1,5 Millionen Kilometer Niederspannungsnetze im Kopf. Kostenpunkt grob geschätzt 500 Milliarden Euro. Macht zusammen schlappe 750 Milliarden Euro für den Netzausbau. Wie sagte Herr Dr. Habeck? „Ist ja nur Geld“.

Nicht dass der geschätzte Leser nun denkt, er kommt mit einer dreiviertel Billion Euro für die Energiewende bis 2045 weg. Das ist nur der Netzausbau. Da plant die Bundesregierung schon weitere Giga-Investitionen zum Ersatz des bisherigen Kraftwerksparks, der ja systematisch verschrottet werden soll. Bis vor der Energiewende reichte für die benötigte deutsche Spitzenlast von maximal 85 Gigawatt ein Kraftwerkspark, bestehend aus richtigen Kraftwerken, mit einer installierten Leistung von 100 bis 120 Gigawatt aus. Da hatte man noch reichlich Margen.

Die Bundesregierung plant zum Ersatz der 100 bis 120 Gigawatt Kraftwerksleistung den Ausbau der Erneuerbaren Energieanlagen auf die astronomische Höhe von 700 Gigawatt, was einer Versiebenfachung der bisher installierten Kraftwerksleistung entspricht. Dieses Mehr an installierter Leistung ist nötig, weil die neuen Wind- und Sonnenanlagen wetter- und tageszeitbedingt, deutlich weniger elektrische Arbeit bereitstellen als richtige Kraftwerke. Die Verfügbarkeit eines Windrades an Land beträgt gerade mal etwas unter 20 Prozent. Und dann muss man noch daran glauben, das irgendwo in Deutschland immer Wind ist. Leider beweist die Deutsche Windstudie, dass dies ein Irrglaube ist.

Kein Mensch weiß, was das kostet. Ist auch nicht nötig, das kann sowieso keiner bezahlen, auch kein Sondervermögen. Womit sich der Kreis schließt. Die neue Trasse macht eben nicht acht Kernkraftwerke wett, wenn eine Dunkelflaute  über Deutschland liegt. Und vom Bau neuer Stromspeicher habe ich noch nichts anderes gehört, als dass sich diverse Laienspielpolitiker, die von Beruf ungelernt, Bankkaufmann oder Theaterwissenschaftler sind, sich gern „Energieexperte der Fraktion“ nennen und gegenseitig Kinderbücher über eine Wasserstoffwirtschaft vorlesen. Bezahlen können es die wie Weihnachtsgänse ausgenommenen Steuerzahler auch nicht mehr, da sie ihr Gespartes schon in die neue Wärmepumpenheizungswelt investieren mussten.

Bleibt nur zu erwähnen, dass die chinesische Behörde für nukleare Sicherheit kürzlich eine zehnjährige Betriebsgenehmigung für den Prototypen eines experimentellen Thorium-Kernreaktors mit geschmolzenen Salzen erteilt hat. Dies ist Teil einer weltweiten Revolution im Bereich der zivilen Kernenergie. China errichtet seinen ersten Thorium-Kernreaktor mit geschmolzenen Salzen in der Wüste Gobi, 110 Kilometer von Wuwei entfernt, und investiert dafür 535 Millionen Euro. Man beachte: Millionen, nicht Milliarden.

Die „Giga-Manie“ der deutschen Energiepolitik ist so Gaga, dass mir als Fachmann die Worte fehlen und ich vom Kopfschütteln ein Schleudertrauma befürchte.

 

Der Beitrag erschien zuerst bei ACHGUT hier

 

 




Gaskrise voraus

von Frank Hennig

Atom ist böse, Kohle out. „Erneuerbare“, Klimapanik und Verzicht bringen aber keine sichere Energieversorgung. Es bleibt das fossile Erdgas, von dem wir künftig weniger haben werden. Die Lage wird sich krisenhaft zuspitzen.

In diesen Wochen voller Hitzewarnungen und bei Energiepreisen, die zumindest im Großhandel wieder auf Vorkriegsniveau gesunken sind, kann man sich Winterkälte, eisige Böen und sogar Schnee schwer vorstellen. Die Schlagzeilen handeln von Rammstein und einem Bühnenunfall von Helene Fischer. Sie erzeugen künstliche Aufregung über Unwesentliches und sorgen für das wohlig-sichere Empfinden, selbst nicht betroffen zu sein. Die schrecklichen Kriegsnachrichten verniedlichen sich in theoretischen Talk-Show-Diskussionen. Selbst die Erkenntnis, dass der Klimawandel unser geringstes Problem wäre, wenn dieser Krieg eskaliert, dringt bei den meisten nicht ins Bewusstsein.

Der Füllstand unserer Gasspeicher liegt bei fast 80 Prozent, auch dies ein beruhigendes Signal. Nun droht Gefahr, ausnahmsweise nicht aus dem Osten, sondern aus dem Westen. Die Ankündigung der Niederlande, die Erdgasförderung im Feld Groningen zum 1. Oktober 2023 einzustellen, sorgte für Aufsehen. Es ist das größte kontinentale Erdgasfeld in Westeuropa. Dabei war die Entscheidung absehbar und auch schon angekündigt, nachdem eine Vielzahl von Erdbeben zu hohen Sachschäden führte. Ursprünglich war das Förderende für 2022 geplant, der Krieg führte jedoch zu einer Verschiebung des Termins, wozu Deutschland die Niederlande nötigte. Mit der Einstellung der Förderung würden etwa 25 Prozent der gegenwärtigen Importmenge entfallen.

Für den übernächsten Winter kommt erschwerend hinzu, dass Verträge zum Gastransit durch die Ukraine Ende 2024 auslaufen und nach Aussage der Ukraine nicht verlängert werden. Das würde vor allem in der Slowakei, Ungarn, Österreich und angrenzenden Ländern zu deutlichem Mangel führen und Druck auf den deutschen Export ausüben. Minister Habeck baut schon vor und kündigt für diesen Fall an, unsere Industrie dann herunterzufahren oder abzuschalten.

Optional könnte eine Gasspeicherung in der Ukraine etwas helfen, die dortigen Speicher sind mit 320 Terawattstunden (TWh) sogar die größten Speicher Europas. Aber ob die Ukraine bei Engpässen dann von diesem Gas etwas abgibt, dürfte nicht sicher sein. Zumindest ebenso unsicher, wie der Betrieb von Gasspeichern in Kriegsgebieten eben ist. Aber wir wissen ja höchstministeriell, dass man selbst Kernkraftwerke in Kriegsgebieten sicher betreiben kann, wenn sie nun mal da sind.

Erdgas wird also absehbar knapp werden. Die im „Deutschlandtempo“ errichteten LNG-Terminals, bisher im Grunde nur Schiffsanleger mit Pipeline-Anbindung für schwimmende Regasifizierungsanlagen (FSRU), liefern überschaubare Mengen. Anstelle der angekündigten 500 TWh täglich wird nur etwa die Hälfte eingespeist. Unter diesen trüben Aussichten strickt nun das Ministerium für Wirtschaft und Klima (mit Schwerpunkt Klima) an einer Kraftwerksstrategie.

Zwar versuchten bildungsferne Schichten die These zu verbreiten, Wärme und Strom hätten nichts miteinander zu tun, aber genau hier treffen sich nun die Sektoren. Nach der Ächtung von Kernkraft und Kohle bleibt für die gesicherte Versorgung nur – Erdgas. Aus kosmetischen Gründen beeilt man sich, den Zusatz „wasserstofffähig“ zu betonen und den Begriff „fossiles Erdgas“ zu vermeiden. Beeindruckend sind die erforderlichen Kapazitäten neuer Gaskraftwerke. Zwischen 27 und 43 Gigawatt an Kapazität schätzen Verbände und Wissenschaftler. Eine Vielzahl von Anlagen müsste bis 2030 zeitgleich errichtet werden, was schon aus Gründen der Planungs-, Genehmigungs- und Montagezeiten unwahrscheinlich ist.

Sollte dieser Zubau gelingen, saugen diese Werke gewaltig an den Pipelines. Das moderne GuD-Kraftwerk „Fortuna“ in Düsseldorf leistet 600 Megawatt (elektrisch), 300 Megawatt (thermisch) und verbraucht bei voller Leistung 105.000 Kubikmeter Gas – pro Stunde. Ein Einfamilienhaus (120 Quadratmeter) nimmt sich 1.700 Kubikmeter – pro Jahr. Angesichts des Neubaus von mindestens zwanzig neuer „Fortuna“-Kraftwerke kann man sich jede weitere überschlägige Rechnung ersparen. Gasheizungen zu verbannen, aber eine gesicherte Stromversorgung, auch für Wärmepumpen, auf Gasbasis schaffen zu wollen, scheint im Ansatz nicht ganz durchdacht.

Wir werden weniger Erdgas zur Verfügung haben, subventionieren aber (über Ausschreibungen) die Stilllegung von Steinkohlekraftwerken. Wir werden weniger Strom zur Verfügung haben, subventionieren aber mit E-Mobilität und Wärmepumpen höheren Verbrauch. Die angekündigten Ausschreibungen für Gaskraftwerke werden auch mit Steuergeld unterlegt werden müssen, denn kein Investor wird mehr das Risiko eingehen, in Deutschland auf eigenes Risiko ein fossiles Kraftwerk zu bauen.

Die Vision vom billigen und künftig reichlich vorhandenen grünen Wasserstoff wurde durch eine vermutlich unbedachte Bemerkung von Minister Habeck im Rahmen der Wärmepumpendiskussion bereits ramponiert. Wasserstoff sei zum Heizen zu teuer, führte er aus, viermal so teuer. Aber was bedeutet das für die Stromproduktion in künftigen wasserstofffähigen Gaskraftwerken?

Die Tatsache, dass die exzessiv ausgebauten Wind- und Solarkapazitäten hinsichtlich einer gesicherten Versorgung vollständig versagen, wird regierungsamtlich standhaft ignoriert. „Wir brauchen mehr Erneuerbare“ ist ohne den genauso schnellen Ausbau von Netzen und Speichern grundsätzlich falsch. Aber es entspricht den Forderungen der Lobby.

Die Energieversorgungslage wird sich krisenhaft zuspitzen. Helfen könnte ein Kriegsende, das wieder Lieferungen durch die Ukraine möglich macht und eventuell auch direkt aus Russland. Nötig wäre eine durchdachte, an den Realitäten orientierte langfristig angelegte Energiestrategie mit einem verlässlichen Energiemix. Die ist von CO2-zentrierten Politikern nicht zu erwarten.

Der Sommer ist bald vorbei.

Der Beitrag erschien zuerst bei TE hier

 




Buchempfehlung: Das Ende der liberalen Demokratie

von Michael  Limburg

Vor einigen Tagen erhielt ich das neue Buch von Norbert Patzner. Mit über 430 Seiten ein Schwergewicht, und überdies eine ungeheure Fleißarbeit.  Zunächst mal für den Autor, aber dann, etwas weniger, auch für den Leser. Denn Patzner bleibt nicht im Ungefähren. Er berichtet und belegt, er belegt und berichtet. Und zieht seine Schlüsse. Und die sind evident. Für jeden, der sehen will und eine liberale Demokratie für die beste Staatsform hält, die Deutschland mit der alten/neuen Bundesrepublik je hatte.

Im Nachfolgenden daher eine Übersicht in Kurzform was den Autor betrieben hat, dieses so wichtige Buch zu schreiben:

„Mit Demokratie schaffen wir das nicht“

Zwei Kostproben von sehr einflussreichen Organisationen:

„ …. nur ein wohlmeinender Diktator (benevolent dictator) oder eine mit starken Sanktionsinstrumenten ausgestattete Weltregierung könne das Klimaproblem angehen“ (swp – Stiftung Wissenschaft und Politik)

„Derzeit hat die Demokratie diese Zukunftsfähigkeit noch keineswegs unter Beweis gestellt … Zeitdruck und Komplexität der Transformation werfen deshalb die Frage nach der Funktionsfähigkeit und Tauglichkeit demokratischer Systeme auf.“ (WBGU – Wissenschaftlicher Beirat der Bundesregierung globale Umweltveränderungen“)

Wozu dieses Buch?

Wer den „anthropogenen“, also vom Menschen verursachten Klimawandel bezweifelt, wer meint, globale Klimaänderungen seien natürliche Vorgänge, der wird nicht freundlich behandelt. Der ist ein „Klimaleugner“ oder ein „Verschwörungstheoretiker“ und hat keinesfalls alle Tassen im Schrank.

Der Mainstream ist klar: Der Mensch beeinflusst durch seine Art des Wirtschaftens das globale Klima negativ und gefährdet das Leben der Menschen auf der Erde. Deshalb brauchen wir eine „Transformation zur Klimaneutralität“.

Der „anthropogene Klimawandel“ ist die Kulisse für einen bedrohlichen Vorgang.

Das vorliegende Buch enthüllt Bestrebungen von mächtigen, finanziell starken Gruppen, die uns aufrütteln müssen. Die Vorgänge in Deutschland – aber auch weltweit – die der Verfasser darstellt und mit eindeutigen Dokumenten belegt, sind auf jeden Fall erschreckend und die in diesem Zusammenhang geäußerten Gedanken sind an Menschenverachtung nicht mehr zu überbieten. Der Autor beschreibt keine Außenseiterpositionen sondern bezieht sich auf höchst einflussreiche Organisationen.

Der Autor scheut sich nicht, die nach 1945 immer wieder gestellte Frage aufzugreifen:

„Wie konnte das geschehen?“ Es ist keine einfache Kost, noch können wir etwas tun.“

Und das findet nicht nur der Autor, sondern wir nach Lektüre auch der Leser finden und danach handeln.

In dieser peniblen Dokumentation weist der Autor nach, dass die seit mehreren Jahrzehnten betriebene „Klimaschutzpolitik“ keine Grundlage hat.

Es gibt keinen Zweifel:

Die Öffentlichkeit ist in die Irre geführt worden. Was steckt dahinter?

Die Nutzung fossiler Energieträger hat keinen signifikanten Einfluss auf das Weltklima

Klimaschwankungen haben andere Ursachen

Eine Diskussion darüber ist praktisch verboten. Wer dem Mainstream nicht folgt, wird gebrandmarkt als: „Klimaleugner“, „rechtsradikal“, „Anti-Windkraft-Taliban“  und er wird gesellschaftlich ausgegrenzt –  das sollte zu denken geben.

Die Erkenntnisse der internationalen Wissenschaft werden totgeschwiegen.

Das ist natürlich keine leichte Kost!

Wie konnte das geschehen? Der Autor gibt Antworten und regt zum Nachdenken an.

Zu bestellen bei allen lokalen Buchhandlungen und vielen Versandbuchhandlungen

Das Ende der liberalen Demokratie?: Die Feinde der Freiheit haben die Klimakrise entdeckt

mit EAN / ISBN-:9783991302551