Wer steht hinter Habeck´s Klimaagenda?

In einem Aufsehen erregenden Video hat vom Mai vergangenen Jahre die AfD Bundestagsabgeordente Beatrix von Storch die Hintermänner von Habeck´s Klimaagenda beim Namen genannt.

Da das Video seit dieser Zeit online steht und noch von keiner dagegen juristisch in irgendeiner Weise etwas unternommen hat, muss die Öffentlichkeit davon ausgehen, bis zum Beweis des Gegenteiles, dass die Ausführungen von Frau von Storch ganz oder zum größten Teil wahr sind. Treffen sie also zu, dann sind die Auswirkungen davon enorm. Es ist nicht nur der unglaubliche Geldeinsatz über den diese Leute zu verfügen scheinen, sondern es ist auch ihr fast ungehinderte Einflussnahme auf die Politik. Sowohl hierzulande, als auch in anderen westlichen Staaten, insbesondere die USA.

Gern werden wir darüber berichten, sofern man behauptet, dass diese diese Aussagen falsch sein sollten. Die müssten dann natürlich auch bewiesen werden,

Hier ist die Rede aus dem Beutschen Bundestag  

Dorin ist auch ein Transkript herunterladbar




BACK TO EARTH: Stand des hemisphärischen S-B-Modells als Wegweiser durch meine EIKE-Artikel

von Uli Weber

Noch in seinem geowissenschaftlich geprägten Buch „Klimahysterie…“ (Farbe / S-W) hatte der Autor den vorgeblich durch eine „atmosphärische Gegenstrahlung“ angetriebenen „natürlichen atmosphärischen Treibhauseffekt“ als Stand der Klimawissen­schaft beschrieben. Und in seinem letzten EIKE-Artikel hatte er eine anthropogene Nutzung dieser „atmosphärischen Gegenstrahlung“ einmal über den 2. Hauptsatz der Thermodynamik hinweg zu Ende gedacht. Sein hemisphärisches Stefan-Boltzmann-Modell für die Temperaturgenese auf unserer Erde ist zwar ebenfalls längst zu Ende gedacht, aber auf mehr als 40 EIKE-Artikeln verteilt. Daher dürfte inzwischen selbst ein gutwilliger Kommentator den Überblick verloren haben, und es ist höchste Zeit, den aktuellen Stand dieses Hemisphärenmodells einmal zusammenfassend darzustellen.

Der hemisphärische Stefan-Boltzmann-Ansatz geht auf eine Veröffentlichung von 2016 in den „Roten Blättern“ der Deutschen Geophysikalischen Gesellschaft zurück und beschreibt die Temperaturgenese auf unserer realen Erde ohne einen „natürlichen atmosphärischen Treibhauseffekt“. Ein populärwissen­schaftlicher Artikel darüber erschien Anfang 2017 auf Tichys Einblick und wurde von EIKE übernommen. Seither konnte dieses Hemisphärenmodell in mehr als 40 EIKE-Artikeln an diversen Klimaphänomenen erprobt und kontinuierlich weiterentwickelt werden, wofür ich mich bei der EIKE-Redaktion, insbesondere bei Herrn Dipl.-Ing. Michael Limburg, ganz herzlich bedanke.

Die nachfolgende Zusammenfassung des hemisphärischen S-B-Modells wird diesmal nicht mit physikalischen Beweisen oder im Abgleich mit dem konkurrierenden THE-Paradigma erfolgen. Vielmehr wird mit Zahlen in eckigen Klammern jeweils auf den/die im Anhang verlinkten weiterführenden EIKE-Artikel mit der entsprechenden Beweisführung hingewiesen. Für den interessierten Laien wird hier zur Problemübersicht auf meine EIKE-Trilogie „Eine Analyse der Thesen/Antithesen für einen ‚natürlichen atmosphärischen Treibhauseffekt‘“ mit Teil 1 „Gegenüberstellung der Thesen/Antithesen“ [1], Teil 2 „Diskussion der Thesen/Antithesen“ [2] und Teil 3 „Erkenntnisse zu den Thesen/Antithesen und das Ergebnis dieser Analyse“ [3] hingewiesen. Auch das Stefan-Boltzmann-Gesetz wird hier nicht erneut beschrieben [4], genauso wenig wie der physikalisch entscheidende Unterschied zwischen Leistung und Energie [5]. Und auch der Abgleich des hemisphärischen Stefan-Boltzmann-Modells mit echten Temperatur­messungen vom Mond [6] und [7] als real existierendes Modell für eine Erde ohne Atmosphäre ist nicht Teil dieser Zusammenfassung. Nachfolgend sind alle entsprechenden EIKE-Artikel mit einer ausführlichen Beweisführung unter den jeweils in eckigen Klammern angegebenen Zahlen im Anhang verlinkt.

Das hemisphärische Stefan-Boltzmann-Modell betrachtet das System Erde vom makroskopischen Standpunkt der Klimadefinition als Durchschnitt von 30 Jahren Wetter. Daraus versucht der Autor dann die primären Wirkmechanismen der terrestrischen Temperaturgenese auf unserer realen Erde qualitativ abzuleiten. Im Prinzip handelt es sich dabei also um ein hybrides Modell, das auf Berechnungen (Tagseite) und terrestrischen Wärmespeichern (Nachtseite) aufbaut. Die Berechnun­gen für die Tagseite beruhen auf dem S-B-Temperatur­äquivalent aus einer Inversion der hemisphä­risch eingestrahlten spezifischen Strahlungsleistung der Sonne. Der Beitrag der terrestri­schen Wärme­speicher Atmosphäre und Ozeane, die mit ihrem Energieinhalt auf die individuellen Ortslagen der Nachthälfte einwirken, lassen sich über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes herleiten. Die Ausgangssituation für die terrestrische Temperaturgenese ist geometrisch eigentlich ganz einfach und zwingend, aber offenbar steckt schon hier der Teufel im Detail:

Abbildung 1: Die geometrischen Flächenverhältnisse bei der terrestrischen Temperaturgenese

Einstrahlung: Hochfrequente (HF) Sonneneinstrahlung, die auf einer Kreisfläche mit dem Erdradius (@PiR²) auf die Erde fällt, erwärmt die Materie von deren Tagseite (@2PiR).

Abstrahlung: Die erwärmte Materie strahlt Infrarot(IR)-Strahlung über die gesamte Erdoberfläche (@4PiR²) ab.

Wir betrachten jetzt einmal die häufig als Indikator für globale Klimaveränderungen verwendete sogenannte „Near Surface Temperature“ (NST) in Form der gemessenen und global gemittelten Durchschnittstemperatur. Diese NST bleibt trotz Tag und Nacht, Jahreszeiten und deren gegensätz­lichen Verläufen auf Nord- und Südhalbkugel über aufeinander folgende Jahresmittel relativ stabil. Daraus ist wiederum abzuleiten, dass sich das Klimasystem unserer Erde in einem gesättigt eingeschwungenen Zustand befindet, in dem die eingestrahlten und abgestrahlten Energiemengen sich im langjährigen Mittel ausgleichen. Um diese quasi-stabile Gleichgewichts­situation zu verstehen, nähern wir uns unserer Erde jetzt einmal aus dem Blickwinkel eines 1:1-Eisballmodells [8]:

Wir verbringen also zu einem Zeitpunkt “0” ein Duplikat unserer Erde aus einem Dunkelkammer-Weltraumlabor an den aktuellen Standort unserer Erde. Dieses Duplikat soll eine voll funktionsfähige Erde in einem „tiefgefrorenen“ Zustand mit einer Eigentemperatur von minus 240 Grad Celsius aus einem eigenen terrestrischen Wärmefluss von 60 Milliwatt darstellen. Vom Zeitpunkt “0” an ist unsere neue Schneeball-Erde nun der Sonnenstrahlung mit der Solarkonstanten So=1.367 W/m² ausgesetzt. Die Sonneneinstrahlung trifft grundsätzlich nur die Tagseite der Erde. Die Polkappen sind etwas schwerer zu beschreiben, weil Polartag und Polarnacht jeweils ein halbes Jahr dauern [9]. Wir beschränken uns daher bei der folgenden Betrachtung auf die Äquinoktien, also die Tag und Nacht Gleiche am Frühlings- und Herbstpunkt, wenn die Sonne direkt über dem Äquator steht [10]:

Abbildung 2: Eine Summierung der vom mittäglichen Zenitwinkel abhängigen maximalen solaren Einstrahlung über 1°-Kugelsegmente und deren S-B-Temperaturäquivalent im Äquinoktium

Es muss an dieser Stelle ausdrücklich hervorgehoben werden, dass hier die Berechnung des S-B-Temperaturäquivalentes mit einer Anfangstemperatur von 0 Kelvin erfolgt ist, die auf unserer realen Erde überhaupt nicht vorkommt. Vielmehr dient diese Berechnung dem Nachweis, welche Durchschnittstemperatur die Sonne auf der Tageshemisphäre unserer Erde nach dem S-B-Gesetz maximal zu erzielen in der Lage ist. Der hemisphärische Mittelwert der solaren Einstrahlung über eine Summation von 1°-Kugelsegmente ergibt eine Durchschnittstemperatur von 14°Celsius, die hemisphärisch korrigierte Integrallösung [10] von Gerlich und Tscheuschner (2009) kumuliert bei einer Temperatur von 15°C, die der gemessenen global gemittelten NST entspricht und in der weiteren Betrachtung verwendet wird. Jetzt dreht sich also das tiefgefrorene Abbild unserer Erde wie ein Grillhähnchen unter der hemisphärischen Sonneneinstrahlung [11] und wärmt sich langsam auf. Während dieser Erwärmung steigt dann auch die terrestrische IR-Abstrahlung von 60 Milliwatt ganz langsam auf den Betrag der solaren Einstrahlung an. Während dieses Temperaturanstieges taut der Permafrost in niederen und mittleren Breiten auf, bilden sich die atmosphärischen Zirkulationszellen und ihre Windfelder und natürlich auch die thermohaline Zirkulation in den Ozeanen, die etwa zu 2/3 die Oberfläche unseres Wasserplaneten bilden.

Mit welchen Zeiträumen und Energiemengen müssen wir bei diesem Prozess rechnen?

Ein konservativer Vergleich des Wärmeinhalts der Ozeane mit der täglichen und jährlich global eingestrahlten Sonnenenergie zeigt, dass deren Einfluss auf die 24h-tägliche globale Temperaturgenese nicht vernachlässigt werden darf [12]. Allein die aktuell in den Ozeanen gespeicherte Energie (=Arbeit=Leistung*Zeit) [5] entspricht ohne Berücksichtigung der Albedo in grober Abschätzung einer solaren Einstrahlung von etwa 120 Jahren:

Solare Einstrahlung auf der Erde an einem 24h-Tag: 1,05*10^22 Joule

Solare Einstrahlung auf der Erde über ein Jahr: 3,85*10^24 Joule

Gespeicherte Wärmemenge in den Ozeanen: 4,59*10^26 Joule

Nachdem wir eine Vorstellung von den terrestrisch gespeicherten Wärmemengen ermittelt haben, müssen wir uns jetzt Gedanken um die Zeiträume machen, die ein solches Auftauen erfordern würde. Nehmen wir dazu einmal den längsten aktiven Klimaprozess auf unserer Erde als Maßstab, die thermohaline Zirkulation mit etwa 1.000 Jahren für einen kompletten Umlauf. Sicherlich würde ein einziger thermohaliner Umlauf nicht ausreichen, um die gefrorene Tiefsee und möglicherweise auch den Permafrost aufzutauen. Wenn wir jetzt einmal den Faktor 10 zusetzen, kommen wir mit 10.000 Jahren in etwa ans Ende der letzten Kaltzeit. Da seither die Permafrostböden der verglet­scherten mittleren Breiten bis auf alpine Reste verschwunden sind, können wir diese 10.000 Jahre zumindest grob für die aufzuheizenden Landflächen ansetzen. Die tiefgefrorenen Ozeane mit ihrem Permafrostboden dürften eher noch einen weiteren Faktor 10 vertragen. Aber das soll uns hier jetzt nicht weiter interessieren, denn eine Abkühlung würde vergleichbare Zeiträume dauern und es geht bei all diesen Überlegungen lediglich um das Verhalten der Nachttemperaturen auf unserer Erde.

Und da können wir bezüglich der Nachtabsenkung der Temperaturen auf unserer realen Erde feststellen, dass es auf Grundlage der in diesem eingeschwungenen System vorhandenen Energiemengen völlig ausgeschlossen ist, dass irgendwo auf der Nachtseite unserer Erde auch nur ansatzweise der absolute Nullpunkt erreicht wird.

https://eike-klima-energie.eu/wp-content/uploads/2023/08/word-image-106414-6.jpeg Umgekehrt heißt das wiederum, dass die hemisphärisch einfallende Sonneneinstrahlung auf der Tagseite unserer Erde lediglich die über den 24h-Tag abgestrahlte Energiemenge ersetzen muss:

Abbildung 3: Die Beziehung zwischen Temperatur und spezifischer Strahlungsleistung im Stefan-Boltzmann-Gesetz am Beispiel des Leistungsbedarfs einer mittleren Oberflächentemperatur von 15°C mit einer Tag-Nacht-Schwankungsbreite von +/-10°C

Sowohl die Temperatur auf der Tagseite der Erde als auch die Temperatur auf deren Nachseite setzen auf der Temperatur der globalen Wärmespeicher auf, die im Wesentlichen von der Durchschnittstemperatur der Ozeane (ca. 20°C) bestimmt wird. Wasser ist der hauptsächliche Träger dieser Energie, sei es in flüssiger Form in den Ozeanen oder gasförmig in der Atmosphäre. Die örtliche Nachttemperatur der kontinentalen Landflächen wird also letztendlich über die Umgebungstemperatur ziehender Tiefdruckgebiete oder lokaler Land- Seewind Systeme bestimmt und gehorcht damit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes [13]. Je weiter also eine Örtlichkeit vom Meer entfernt ist und umso weniger Wasserdampf die örtliche Atmosphäre enthält, umso größer sind dort die Temperaturschwankungen zwischen Tag und Nacht. Die kontinentalen Wüstengebiete unserer Erde sind dafür ein ganz hervorragendes Beispiel. Seit jeher haben die Ozeane mit einem Zeitverzug von Jahrhunderten jede Klimaänderung „mitgemacht“ und gleichzeitig die jeweiligen individuellen Ortstemperaturen oder meinetwegen auch eine sogenannte „globale Durchschnittstemperatur“ auf der Nachthemisphäre nach unten abgesichert:

Die Erwärmung von 0 Kelvin auf die jeweilige Ortstemperatur muss also nicht erst durch die aktuelle solare Einstrahlung erzeugt werden, denn diese Ortstemperatur mit ihren Schwankungen zwischen Tag und Nacht ist in diesem „eingeschwungenen“ System Erde ja bereits vorhanden.

https://eike-klima-energie.eu/wp-content/uploads/2020/02/weber_2-640x346.png Die Abbildung 2 stellt eine Momentaufnahme der maximalen spezifischen solaren Strahlungsleistung und das entsprechende S-B-Temperaturäquivalent aus einer Stefan-Boltzmann-Inversion [14] für die terrestrische Temperaturgenese dar. Die Zeit ist von einer solchen Betrachtung mit dem Stefan-Boltzmann-Gesetz ausgeschlossen. Für eine 24-Stunden-Betrachtung müssen wir also das örtliche Maximum der solaren Strahlungsleistung bzw. dessen S-B-Temperaturäquivalent aus den konzentrischen 1°-Kugelsegmenten einmal über den 24h-Tag für die gesamte Erdoberfläche fortschreiben [15], wie die nachfolgende Abbildung auf Grundlage einer Mollweide Projektion zeigt:

Abbildung 4: Die maximale breitenabhängige temperaturwirksame solare Strahlungsleistung (Skala links) und das resultierende S-B-Temperaturäquivalent (Skala rechts) über einen 24-Stunden-Tag im Äquinoktium mit farblich unterlegter Mollweide-Projektion (© L. Rohwedder – Lizenz CC BY-SA 3.0)

Linke Skala: MAX (Si) @24h-Tag mit (Si = 1.367W/m²* (1-ALBEDO) * cos PHIi)
und (PHIi = örtlicher Zenitwinkel)

Rechte Skala: Maximales örtliches S-B-Temperazuräquivalent( SBTi) von MAX (Si)

Aus dieser Abbildung wird sofort deutlich, dass die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne im Tagesverlauf des Äquinoktiums bei gleicher geographischer Breite immer denselben Maximalwert und damit auch immer dasselbe maximale örtliche S-B-Temperauräquivalent ergibt. Im Tagesverlauf wird also zwischen 75 Grad N und S (mit jeweils 243 W/m²) und dem Äquator (mit 940 W/m²) die global gemittelte temperaturwirksame spezifische Strahlungsleistung von 235 W/m² (≅ -18°C) nach dem THE-Paradigma weit übertroffen.

Anmerkung: Der Autor hat in seinem hemisphärischen S-B-Modell ganz bewusst die maximale solare Einstrahlung betrachtet, denn nur so lässt sich der Tag-und-Nacht-Wechsel physikalisch sinnvoll darstellen. Jede Rückrechnung aus irgendeiner Energiemenge über die Zeit auf eine Durchschnitts­leistung [5] entfernt sich dagegen physikalisch unwiderruflich vom Stefan-Boltzmann-Gesetz.

https://www.eike-klima-energie.eu/wp-content/uploads/2021/05/up_05.jpg Weiterhin verfügt unsere Erde auf zwei Dritteln ihrer Oberfläche über eine Warmwasser-Fußbodenheizung mit einer Vorlauftemperatur zwischen 0°C und 30°C bis etwa 70° nördlicher und südlicher geographischer Breite und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt wird mit 20°C angegeben und dürfte etwas über der NST von 15°C kumulieren. Damit ist bewiesen, dass die täglich durch Sonneneinstrahlung überall auf der Erde zwischen 75°N und 75°S erzeugten Temperaturen keinerlei zusätzlichen „natürlichen atmosphärischen Treibhauseffekt“ benötigen, um die gemessenen Ortstemperatur zu erklären. Die Ozean-Temperaturen repräsentieren wiederum zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Wie wir bereits erfahren haben, wird das maximale rechnerische S-B-Temperaturäquivalent des hemisphärischen S-B-Modells aufgrund von örtlicher Konvektion und Verdunstung in der Realität aber nirgendwo auf unserer Erde erreicht [16]. Andererseits sinkt die Temperatur in mittleren und höheren Breiten der Winterhemisphäre, insbesondere in der Polarnacht, niemals auf das rechnerische S-B-Temperaturäquivalent der geringen/fehlenden solaren Einstrahlung ab. Die nachfolgende Abbildung zum globalen breitenabhängigen Wärmetransport [17] gibt Aufschluss über die Gründe dafür:

Abbildung 5: Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite. QUELLE: HÄCKEL, Meteorologie, Verlag Eugen Ulmer, Stuttgart 1990 – Hinweis: In dieser Grafik ist die horizontale Achse der Breitenkreise vom Äquator ausgehend polwärts gestaucht dargestellt

Aus dieser Abbildung 5 „Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten“ ergibt sich für die

Strahlungsbilanz: In den Tropen ist die Strahlungsbilanz positiv und geht dann knapp jenseits von 40°N und 40°S in den negativen Bereich. Wenn Sie’s mal mit dem 0°C-Durchgang des S-B-Temperatur­äquivalents aus der maximalen solaren Einstrahlung bei etwa 70° geografischer Breite im Äquinoktium in der Abbildung 2 vergleichen, dann ist im Jahresdurchschnitt ein energetischer Nulldurchgang bei 40° Breite durchaus plausibel.

Latente Energie: Die latente Energie ist um den Äquator positiv, geht dann um ca. 10°N&S ins Negative, steigt nach ca. 40°N&S noch einmal an und geht dann zu den Polen auf null.

Advektion durch Luft: Um den Äquator werden erhebliche Wärmemengen abgezogen. Der weitere Verlauf auf den beiden Hemisphären ist, offenbar aufgrund der Land-Meer-Verteilung, recht unterschiedlich, aber jenseits von ca. 50°N&S wird zu den Polregionen ein erheblicher Zustrom vom Wärme dokumentiert.

Advektion durch Ozean: In den Tropen wird Wärme abgezogen, etwa von den beiden Wendekreisen an ergibt sich dann ein Zufluss von Wärme zu höheren geographischen Breiten, der sich zum jeweiligen Pol hin auf null reduziert.

Anmerkung: Der Zeitversatz zwischen den Jahreszeiten auf der Nord- und Südhalbkugel ist der Mittelung für den durchschnittlichen Jahresverlauf zum Opfer gefallen.

Die Sonneneinstrahlung in den Tropen und den mittleren Breiten der Sommerhemisphäre erwärmt die globalen Energiespeicher und treibt damit den Klimamotor auf unserer Erde an [13] [18]. Alle Energie­ströme summieren sich bei Häckel im mehrjährigen Mittel über alle Ortslagen einer festen geographischen Breite gerade auf null, wobei sich deren durchschnittliche individuelle Beiträge und Ortstemperaturen in der Realität je nach meridionaler Land-Meer-Verteilung durchaus unterscheiden können. Wir können hier also erkennen, dass sich die Überschüsse und Defizite gegenüber dem örtlich berechneten hemisphärischen S-B-Temperaturäquivalent durch den lateralen Transport von Energie gerade global ausgleichen und damit das hemisphärische S-B-Modell voll bestätigen. Dieser Punkt ist offenbar der am wenigsten verstandene im hemisphärischen S-B-Modell. Dabei wurden die globalen Wärmespeicher unserer Erde und deren Temperaturwirkung über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes bereits in diversen Artikeln thematisiert und mehrfach mit der Grafik von Häckel (Abbildung 5) veranschaulicht. Der terrestrische Wärmetransport bedarf daher offenbar erneut einer ausführlicheren Erklärung:

Primär = Sonneneinstrahlung auf der Tageshemisphäre: Die HF-Einstrahlung der Sonne bewirkt die terrestrische Temperaturgenese. Die Temperatur einer individuellen Ortslage ist abhängig von dem örtlichen solaren Zenitwinkel , der terrestrischen Albedo und dem von der Tageszeit abhängigen Azimut. Die örtlich maximal mögliche Temperatur aus der solaren Einstrahlung ergibt sich dann aus [So x (1-Albedo) x COS(Zenitwinkel)] durch eine Inversion des Stefan-Boltzmann-Gesetzes [19]. Dieser theoretische Wert wird aber nirgendwo auf der Erde erreicht, weil während der gesamten Sonnenscheindauer Energie in die globalen Energiespeicher von Atmosphäre und Ozeanen abfließt.

Sekundär = Abstrahlung der Erde: Die sekundäre IR-Abstrahlung der Erde aus erwärmter Materie erreicht aufgrund des örtlichen Abflusses von Energie durch Konvektion und Verdunstung nicht den Gesamtbetrag der solaren Einstrahlung.

Tertiär = Speicherung von Energie durch Konvektion und Verdunstung: Beim primären terrestrischen Erwärmungsprozess wird Energie in Form von Verdunstung und Konvektion aus diesem Prozess herausgelöst, in Atmosphäre und Ozeanen gespeichert und durch die globalen Strömungssysteme aus der jeweiligen Ortslage abgeführt.

Quartär = Abgabe von Energie durch Advektion und Kondensation: Da es sich beim Energieinhalt der Wärmespeicher unserer Erde um ein eingeschwungenes Klimasystem handelt, wird im langjährigen Mittel gleichzeitig genauso viel Energie von den globalen Strömungssystemen abgegeben, wie dort zeitgleich aus der primären HF-Sonneneinstrahlung „eingelagert“ wird. Die Zeiträume solcher individuellen Speicherzyklen betragen Stunden, Tage, Wochen, Monate, Jahre, Jahrzehnte oder gar Jahrhunderte.

Im langjährigen Klimamittel über 30 Jahre gilt demnach auf unserer Erde für das energetische Gleichgewicht (IN=OUT=1,15*10^26 Joule in 30 Jahren) oder:

HF-Primär [J] = IR-Sekundär [J] + IR-Quartär [J] ≅ 3,85*10^24 Joule im Jahresdurchschnitt

mit ((Tertiär = HF IN @Energiespeicher [J]) ≈ (Quartär = IR OUT @Energiespeicher [J]))

https://eike-klima-energie.eu/wp-content/uploads/2023/03/word-image-101726-6.jpeg Und die Summe der örtlichen Abweichungen zu diesem Jahresmittel nennt man dann „Wetter“. Dabei ist noch zu beachten, dass üblicherweise Energie aus den niederen Breiten und mittleren Breiten der Sommerhemisphäre abgeführt und den mittleren und hohen Breiten der Winterhemisphäre zugeführt wird. Das hemisphärische Stefan-Boltzmann-Modell ist also in der Lage, die Temperaturgenese auf unserer Erde qualitativ zu beschreiben, ohne dazu irgendwelche physikalischen Hilfskonstruktionen wie einen „natürlichen atmosphärischen Treibhauseffekt“ zu benötigen. Darüber hinaus schließt dieses Modell weitere Faktoren der terrestrischen Klimagenese ein, beispielsweise die Umkehr der vektoriellen Richtung zwischen Einstrahlung und Abstrahlung [20]. Weiterhin bildet dieses Modell die Breitenabhängigkeit der solaren Einstrahlung ab [21], erklärt die Jahreszeiten [22] und widerlegt den äquatorialen Hotspot in der Atmosphäre [23] sowie die „atmosphärische Gegenstrahlung“ [24]. Und schließlich ist in einem Faktencheck [25] mein hemisphärisches Modell das einzige von drei Modellen für die Temperaturgenese auf unserer Erde, das den Verlauf der terrestrischen Beleuchtungs­klimazonen nachzuzeichnen vermag:

Abbildung 6: Vergleich hemisphärisches S-B-Modell mit den Beleuchtungsklimazonen der Erde

Links: Das hemisphärische S-B-Modell aus einem Modellvergleich von Dr. G. Kramm (persönliche Mitteilung 2021 mit freundlicher Genehmigung) – Originale Bildunterschrift:

Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

Rechts: Beleuchtungsklimazonen der Erde (N-S gestreckt)
Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Wie es die wissenschaftliche Beweisführung der Physik befiehlt, ergibt sich am Ende dieser Betrachtung also eine widerspruchsfreie semi-quantitative Übereinstimmung in Raum und Zeit zwischen Theorie und praktischem Versuchsaufbau, nämlich zwischen meinem hemisphärischen Stefan-Boltzmann-Modell und der Temperaturgenese und -verteilung auf unserer realen Erde im langjährigen Durchschnitt. Die Erklärung dieser, für viele Betrachter eher unerwarteten Übereinstimmung ist ziemlich einfach, denn wärmer als das Mittel aus den örtlichen S-B-Temperatur­äquivalenten der maximalen örtlichen HF-Solareinstrahlung [= So x (1-Albedo) x COS(max. Zenitwinkel)] kann es auf unserer Erde nun einmal nicht werden [10].

ANHANG: Wegweiser durch meine EIKE-Artikel mit den im Text bezeichneten Verweisen

[1] Eine Analyse der Thesen/Antithesen für einen „natürlichen atmosphärischen Treibhauseffekt“ – Teil 1: Gegenüberstellung der Thesen/Antithesen

[2] Eine Analyse der Thesen/Antithesen für einen „natürlichen atmosphärischen Treibhauseffekt“ – Teil 2: Diskussion der Thesen/Antithesen

[3] Eine Analyse der Thesen/Antithesen für einen „natürlichen atmosphärischen Treibhauseffekt“ – Teil 3: Erkenntnisse zu den Thesen/Antithesen und das Ergebnis dieser Analyse

[4] Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an

[5] Der physikalische Unterschied zwischen Energie und Leistung in der politischen Klimawissenschaft

[6] Beweist die Temperatur des Mondes den hemisphärischen Stefan-Boltzmann Ansatz?

[7] Neues von Willis Eschenbach

[8] Machen wir mal ein Gedankenexperiment: Es gibt gar keine Erde!

[9] Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur

[10] Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz

[11] Das Hähnchengrill-Paradoxon

[12] Der hemisphärische Stefan-Boltzmann-Ansatz ist kein reines Strahlungsmodell – Teil 2

[13] Safety First: Zum besseren Verständnis meiner hemisphärischen Energiebilanz

[14] Handreichung zum besseren Verständnis der Stefan-Boltzmann-Inversion

[15] Anmerkungen zur Bestimmung der hemisphärischen solaren Einstrahlung auf „Mittelerde“

[16] Die dunkle Seite unserer Erde und der meridionale Energietransport

[17] Die sogenannte „gemessene globale Durchschnittstemperatur“ wird von den Ozeanen bestimmt

[18] Die dunkle Seite unserer Erde und der meridionale Energietransport

[19] Handreichung zum besseren Verständnis der Stefan-Boltzmann-Inversion

[20] Zeigt der Poynting-Vektor auf „Mittelerde“ oder auf die sogenannte „Abstrahlungshöhe“?

[21] Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur

[22] Niemand hat die Absicht, eine Ökodiktatur zu errichten

[23] Der Wechsel von Tag und Nacht erklärt das Fehlen eines äquatorialen Hotspots in der Atmosphäre

[24] Anmerkungen zum Gegenstrahlungs-Paradoxon aus einem hemisphärischen Blickwinkel

[25] Faktencheck: Drei Modelle für die Temperaturgenese auf unserer Erde

 




„Ruinator“ Habeck – ein Jahr Atomausstieg

Gestern vor einem Jahr wurden die letzten drei gut funktionierenden Kernkraftwerke Deutschlands abgeschaltet. Zuletzt liefen noch drei Kernkraftwerke, die zu den sichersten und erfolgreichsten Anlagen der Welt gehörten. 

Von Holger Douglas

«Da kommen jetzt die Männer mit den Brennjägern, den Eisensägen und den Wasserstrahlschneidern und fangen an, die Rohre auseinander zu schneiden«, so beschreibt Kernkraftwerksspezialist Manfred Haferburg im TE-Wecker am vergangenen Sonntag die Arbeiten in den letzten drei Kraftwerken. »Sie nehmen die perfekt funktionierenden und gepflegten, extrem teuren Pumpen auseinander, um sie zu verschrotten. Sie bauen die schönen, dichtschließenden und wunderbar gepflegten Armaturen aus und das Ganze wird dann klein geschnitten, dekontaminiert und in Schrott verwandelt.«

Es werde alles in Schrott umgewandelt, der Rückbau sei eigentlich nichts weiter als ein intensives Verfahren der Mülltrennung. Neben der ungeheuren Vernichtung von Volksvermögen der milliardenteuren Anlagen wird zusammen mit dem Abschaltwahn der Kohlekraftwerke die Versorgung Deutschlands mit Energie abgewürgt.
Robert Habeck, derzeit Wirtschaft- und »Klima«-Minister, verteidigte wieder und wieder die Entscheidung zur Abschaltung der Kernkraftwerke. SPD, FDP und natürlich Grüne stehen fest hinter »dem Ausstieg«. Sie bejubeln das, was sonst ein richtiger Feind macht, wenn er ein anderes Land angreift: Die Energieversorgung zerstören.

Angezettelt haben – daran muss wieder erinnert werden – den »Atomausstieg« Gerhard »Gas-Gerd« Schröder und der grüne Joseph Fischer bereits ab 2000. Dazu gehörte auch der Grüne Jürgen Trittin, dessen einziges Lebenswerk im Vorantreiben des »Atomausstiegs« und einer »Energiewende« bestand.

Habeck verwies jetzt auf angeblich fallende Strompreise, verriet jedoch nicht, wo er die sieht. Die Preise allerdings kennen nur eine Richtung: nach oben. Die Bilanz für Verbraucher sieht grausam aus. Das Portal Verivox analysiert:
»Doch die steigenden Kosten für den Betrieb der Stromverteilnetze geben der Strompreisentwicklung neuen Auftrieb – zum Jahreswechsel 2023/2024 sind die Stromnetzgebühren im bundesweiten Durchschnitt um rund 25 Prozent angestiegen. Viele Stromversorger werden diese Kosten an ihre Kunden weiterreichen und das Strompreisniveau bleibt nach wie vor hoch.Im Januar 2024 liegt der durchschnittliche Preis für eine Kilowattstunde (kWh) Strom bei rund 37,37 Cent/kWh und gehört damit zu den höchsten weltweit (Quelle: Verivox-Verbraucherpreisindex Strom). Im Jahr 2014 lag der durchschnittliche Preis für eine Kilowattstunde Strom noch bei rund 28 Cent/kWh. Innerhalb von zehn Jahren ist der Preis damit um über 32 Prozent angestiegen.«

Nach wie vor muss die energieintensive Industrie hohe Strompreise bezahlen, mit denen sie nicht wettbewerbsfähig ist. Deswegen legt sie Produktionsanlagen still und verlagert ihre Produktion in andere Länder, in denen die Energie deutlich billiger ist. So fährt Thyssen Krupp seine Stahlproduktion herunter und hat in der vergangenen Woche bereits einen Stellenabbau angekündigt.
Dieser werde auch nachgelagerte Weiterverarbeitungsstufen sowie die Verwaltungs- und Dienstleistungsbereiche betreffen. In der Sparte arbeiten derzeit rund 27.000 Menschen, davon 13.000 in Duisburg.
Als einen Grund für die Schwierigkeiten im Stahlbereich nannte ThyssenKrupp die »hohen und durch klimapolitische Zielsetzungen weiter steigenden Energiekosten in Deutschland«.

Die grüne Wirtschaftsministerin NRWs, Neubaur, sagte zu den Plänen von ThyssenKrupp: „Die Ankündigung der unternehmerischen Entscheidung Thyssen-Krupps, in Duisburg Überkapazitäten und damit wohl Arbeitsplätze abzubauen, ist eine enttäuschende Nachricht – für den Stahlstandort Deutschland und Nordrhein-Westfalen, in erster Linie aber für die vielen Beschäftigten.“ Dennoch müsse – so Neubaur – ThyssenKrupp die sogenannte klimaneutrale Transformation konsequent vorantreiben, um sich auf dem Weltmarkt zukunftsfähig aufzustellen. Neubaur hat nichts dazu gesagt, wie wesentlich teurer produzierter Stahl von ThyssenKrupp auf dem Weltmarkt bestehen soll.
Wenn die Stahlkocher abwandern und dichtmachen, können auch die Verarbeitungsbetriebe zum Beispiel im Siegerland schließen. Denn die sind auf die Lieferungen von Stahl angewiesen.

Nichtsdestotrotz bejubelt der grüne Umweltminister von Niedersachsen, Meyer, wie schnell es im Kernkraftwerk Emsland gelungen ist, verbrannte Erde zu hinterlassen. Der Primärkreislauf sei bereits auseinandergenommen, das Atomkraftwerk kriege auch CDU-Connemann nicht mehr an, so Meyer auf Twitter.

Nervosität zeigen Äußerungen der Bundesumweltministerin Lemke, die wieder einmal betonte, »wir brauchen Atomkraft schlichtweg nicht«. Sie beauftragte grüne Gefolgsleute, in einer »Studie« des Bundesamtes für die Sicherheit der nuklearen Entsorgung (BASE), auch neuen Reaktorkonzepten wie der »Generation IV« Unsicherheit zu bescheinigen. Zugleich eine gute Gelegenheit für Lemke, wieder 250.000 Euro Steuergelder an die »Ihrigen« zu überweisen.

»Ruinator« – so der neue Titel der Printausgabe von Tichys Einblick – Habeck fabuliert wild entschlossen in den Abgrund: »Wir sehen heute, dass die Stromversorgung weiter sicher ist, die Strompreise auch nach dem Atomausstieg gefallen sind und die CO2-Emissionen ebenfalls runtergehen.«
Die Wirklichkeit sieht deutlich anders aus: Lemke verantwortet mit Habeck eine der schlechtesten CO2-Bilanzen. Diese sogenannten CO2-Bilanzen Deutschlands sind auf fast 400 gCO2/kWh angestiegen. Zum Vergleich: Frankreich dagegen wird mit 43 g CO2/kWh angesetzt. Bedeutet: Lemke und Habeck, die das CO2-Argument ja beharrlich strapazieren, befeuern selbst nach Kräften den sogenannten »Klimawandel«, und Umwelt ist gleichgültig.

Alle Warnungen von Experten seien eingetreten, so Carsten Linnemann, Generalsekretär der CDU, Deutschland sei von Stromimporten abhängig geworden.
Deutschland steht mittlerweile auf dem Rang zwei in Sachen Import von Strom. Nur Italien importiert noch mehr. Frankreich ist mit seinen Kernkraftwerken Stromexportland Nummer 1.

Die Stromversorgung sei sicher, so Ruinator Habeck. Die Realität:
Lieferengpässe bei Strom hat jetzt die Stadt Oranienburg in Brandenburg erklärt. Ab sofort können dort keine neuen Stromanschlüsse mehr genehmigt werden. Dies betreffe sowohl neue Wärmepumpen als auch neue Ladesäulen für Elektroautos. Das vorhandene Umspannwerk könne die benötigte Leistung nicht mehr bereitstellen, heißt es in einer Pressemitteilung.

Danach haben die Stadtwerke Oranienburg in der vergangenen Woche die Bundesnetzagentur darüber informiert, dass im vorgelagerten Hochspannungsnetz keine ausreichende Leistung zur Verfügung gestellt werden können. Damit seien die Versorgungsmöglichkeiten in der Stadt Oranienburg ausgeschöpft, so der Geschäftsführer der Stadtwerke, Peter Grabowsky.

Bürgermeister Alexander Laesicke betonte, der Strombedarf habe sich enorm entwickelt, schneller, als es in der Vergangenheit vorausgesehen wurde.
Zum erhöhten Strombedarf habe der Zuzug von sogenannten Neubürgern sowie der verstärkte Einbau von Wärmepumpen geführt.

Sie träumen davon, etwas »Unumkehrbares« geschaffen, also endgültig verbrannte Erde hinterlassen zu haben. Doch natürlich ist auch der »Atomausstieg« umkehrbar. Allerdings muss Deutschland dann die Kraftwerke aus anderen Ländern kaufen ebenso wie die Bedienmannschaften.

Mehrheit der Deutschen hält Atomausstieg für falsch

58 Prozent halten den Ausstieg aus der Kernkraft für falsch, wie eine Umfrage des Meinungsforschungsinstituts Forsa für das „Trendbarometer“ der Sender RTL und ntv zeigt. Im Osten der Republik sind es sogar 78 Prozent.

Nur eine Minderheit der Bundesbürger (39 Prozent) meint, dass dies eine richtige Entscheidung gewesen sei. Mehrheitlich befürwortet wird die Abschaltung der letzten Atomkraftwerke lediglich von den unter 30-Jährigen (51 Prozent), denjenigen, die sich selbst im linken politischen Spektrum verorten (62 Prozent), den Anhängern der SPD (55 Prozent) und insbesondere den Anhängern der Grünen (83 Prozent).

Fast die Hälfte aller Bundesbürger (45 Prozent) ist der Meinung, dass man eines oder mehrere der abgeschalteten Atomkraftwerke in Deutschland wieder in Betrieb nehmen solle. Ein Viertel aller Bundesbürger (24 Prozent) und 42 Prozent derer, die den Ausstieg aus der Kernenergie für falsch halten, sind der Meinung, dass man in Deutschland auch neue Atomkraftwerke bauen solle. Unter den AfD-Anhängern sind 63 Prozent der Meinung, es braucht neue Atomkraftwerke. Bei den FDP-Anhängern sind es 38 Prozent.

37 Prozent der Bundesbürger glauben, dass durch die Abschaltung der letzten Atomkraftwerke die Stromversorgung in Deutschland gefährdet wird. 60 Prozent glauben das nicht.

Das Meinungsforschungsinstitut Forsa hat für RTL/ntv am 11. und 12. April 2024 1.001 Personen befragt.

Der Beitrag erschien zuerst bei TE hier

 




Bertha Benz, das Batterie-Auto und die Ladeinfrastruktur – Ökoplanwirtschaftliche Sackgasse

Technologieentwicklung findet immer am freien Markt statt. Deswegen brauchte das Deutsche Kaiserreich keine Reichsleitstelle für Tankstellen. Die E-Auto-Strategie ist das genaue Gegenteil: Das E-Mobil ist kein besseres Produkt, wird aber als Zukunftstechnologie festgelegt. 

Von Frank Hennig

Bei Betrachtung heutiger Infrastrukturprojekte kann man sich nur darüber wundern, wie unsere Vorfahren in verhältnismäßig kurzer Zeit den Aufbau eines Industrielandes schaffen konnten. Innerhalb von Jahrzehnten entstanden ein Eisenbahnnetz, ein Telegraphen-, später Telefonnetz, ein Stromnetz, ein Leitungsnetz zur Wasser- und Gasversorgung, ein Straßennetz. Technologischer Fortschritt und privates Kapital brachten Fortschritt. Den will man heute mit staatsplanerischen Vorhaben erreichen.

Schon früher gab es starke Frauen. Sie wurden sichtbar durch Taten, weniger durch Quoten, Demos und „Zeichen setzen“. Bertha Benz war eine solche, auch wenn sie historisch gesehen im Schatten ihres Gatten Carl Benz bleibt. Als sich der Benz Patent-Motorwagen Nummer 3 nicht gut verkaufte, hatte sie die Courage, mit ihren 13 und 15 Jahre alten Söhnen im Jahr 1888 eine Fernfahrt mit einem solchen Gerät anzutreten. Sie wollte den Nachweis der Funktionsfähigkeit auch für lange Strecken erbringen. Ihr Mann wusste davon nichts.

Die drei bewältigten die 106 Kilometer lange Strecke von Mannheim nach Pforzheim mit dem wenig komfortablen Fahrwerk. Am Ende war die Reise ein Erfolg. Bertha registrierte mehrere technische Mängel, unter anderem an den Bremsen. Mit dem Vorschlag, Leder auf die Bremsbacken aufzubringen, gilt sie quasi als Erfinderin der Bremsbeläge.

Unterwegs ging, wie zu erwarten war, das Benzin aus. In Wiesloch kaufte Bertha in einer Apotheke ein Leichtbenzin namens Ligroin.

Die Apotheke, in deren Museum dieser Handel erwähnt wird, war 1858 gegründet worden. Sie musste Ende 2023 schließen, was sicher nicht am zu geringen Absatz von Ligroin lag. Vielleicht hätte die rechtzeitige Umwandlung in eine Tankstelle geholfen? Natürlich verträgt sich der Handel mit Medikamenten nicht mit der Kraftstoffversorgung für Automobile, aber mit der Motorisierung des Verkehrs eröffnete sich im ausgehenden 19. Jahrhundert eine Marktlücke. Mit zunehmender Zahl der Automobile gründeten sich spezialisierte Geschäfte, die Benzin, Petroleum, später Leichtöl (Diesel) für Automobile verkauften. Unternehmer hatten eine Marktlücke erkannt und handelten. Dabei gab es kein Henne-Ei-Problem, wie man es heute für die Ladeinfrastruktur der E-Mobilität zu erkennen glaubt.

Subventionierter „Hochlauf“

Der Energiemix auf der Straße wandelt sich. Batterieelektrische Fahrzeuge haben große technische Fortschritte gemacht. Ihr starker Zuwachs resultierte jedoch nicht aus einem umfassenden technischen, praktischen oder finanziellen Vorteil gegenüber den Verbrennern, sondern aus staatlichen Vorgaben und ihrer konkreten Ausgestaltung, der Subventionierung des Kaufpreises und der Steuerfreiheit. Da es keinen marktwirtschaftlich getriebenen „Hochlauf“ gibt und die Ladesäulen hohe Investitionskosten verursachen, die von steigenden Strompreisen begleitet werden, rechnen sich auch die meisten Stromtankstellen nicht. Dennoch werden sie in großer Zahl gebaut, meist mit Fördermitteln, manchmal aus PR-Gründen von den Versorgern. Wäre der Betrieb von Ladesäulen profitabel, würden sie marktgetrieben installiert und die Theorie vom Henne-Ei-Problem würde nicht strapaziert.

Damit die Elektrifizierung des Straßenverkehrs aus Gründen des vermeintlichen „Klimaschutzes“ schnell gehen möge, gründete man eine „Nationale Leitstelle Ladeinfrastruktur“ mit mehr als 200 Beschäftigten – es gibt noch offene Stellen. Die „nationale Leitstelle“ bedeutet zentralistisches Handeln im Sinne einer zunehmenden Öko-Staatsplanwirtschaft. Technische Fortschritte können auch hier nicht vorausgesehen werden und so kommt es, dass entgegen medialer Klagen die Anzahl der Ladesäulen zu hoch statt zu niedrig ist. Wie kann das sein?

Zum einen ist dies die Folge der eingebrochenen Absatzzahlen der E-Fahrzeuge, zum anderen eines geänderten Ladeverhaltens. Die aktuellen Fahrzeugmodelle haben größere Reichweiten, werden dadurch seltener und dann meist an den Schnellladesäulen geladen. Die Ladestationen der ersten Generation werden zunehmend nicht genutzt. Zudem vermeiden viele Fahrer wegen stark gestiegener Strompreise die öffentlichen Säulen. Auf Langstrecken müssen die Fahrer zwangsläufig an die Ladesäulen verschiedener Anbieter und sich mit verschiedenen Preisen pro Kilowattstunde, verschiedenen Grundgebühren, eventuellen Gebühren für die Ladezeit und Blockiergebühren herumschlagen. Dazu kommen verschiedene Bezahlsysteme über App, Bezahlkarte oder Kreditkarte. Die Strompreise beginnen bei 49 Cent pro Kilowattstunde und reichen bis etwa zum Doppelten des Haushaltsstrompreises. Schon das ist ein Grund, zu Hause den Strom zu ziehen, vor allem, wenn eine PV-Anlage auf dem Dach liegt und ein Stromkanister im Keller steht.

Diese Entwicklung hat die „Nationale Leitstelle“ offenbar nicht vorhersehen können. man verfolgt nach wie vor den „Masterplan Ladeinfrastruktur II“ und hält an der Zielzahl von einer Million öffentlicher Ladepunkte bis 2030 fest. Offensichtlich werden sich diese Ladepunkte nicht rechnen, weshalb die Verluste als Kosten den Kommunen übergeholfen werden sollen. Vor dem Hintergrund des staatlichen Unfehlbarkeits-Anspruchs von Minister Habeck („Der Staat macht keine Fehler“) sieht die ökonomische Perspektive Deutschlands sehr trübe aus. Wirtschaftlichkeit spielt keine Rolle mehr. Die postulierte Unfehlbarkeit des Staates basiert auf dem Allwissensanspruch der regierenden Parteien und erinnert fatal an „Die Partei hat immer Recht“aus SED-Zeiten. Im Link die Originalversion mit Ernst Busch, als Hörerlebnis dringend zu empfehlen.

Keine Reichsleitstelle

Warum gab es nach 1888 keine „Reichsleitstelle Tankstellen“, keinen „Reichsbeauftragten“ zur Versorgung von Automobilen mit Benzin? Warum mussten Kaiser Wilhelm II. und Reichskanzler Fürst von Bismarck nicht eingreifen? Die Antwort ist, dass Technologieentwicklung immer am freien Markt stattfindet. Sie wird teilweise durch staatliche Förderungen begünstigt, teils auch reguliert. Entscheidend ist aber das Wolfsgesetz, dass nur den Unternehmen eine Zukunft gibt, die innovativ am Markt sind und Kundenwünsche am besten bedienen können. Sie verschwinden, wenn sie ihre Produkte nicht weiterentwickeln und/oder bessere zu günstigen Preisen anbieten können. Das E-Mobil ist in der Gesamtbetrachtung kein besseres Produkt.

Es ist ein Markenzeichen rotgrüner Wirtschaftspolitik, politische Festlegungen zu treffen, welches die Technologien der Zukunft sein sollen. Dabei kann man natürlich nur auf heutiges Wissen zurückgreifen und Technologieentwicklungen der Zukunft nicht voraussehen. So kommt es, dass einige Technologien von heute zum Königsweg für die Zukunft festgeschrieben werden sollen. Auch Kinder, Enkel und Urenkel sollen künftig damit zufrieden sein. So gelten für die Stromversorgung Wind und Solar, für die Heizung die Wärmepumpe und für die Mobilität das batterieelektrische Auto als Endstadium der vorgesehenen Technologieentwicklung.

Die Festlegungen stammen von ökoplanwirtschaftlich veranlagten Politikern, zum Teil ohne jeden Berufs- oder Studienabschluss, zumeist energiewirtschaftlich fachfremd, von Juristen, Philosophen, Beamten, Psychologen, Soziologen, Funktionären. Viele von ihnen würden ohne den Politikbetrieb kaum ein wirtschaftliches Bein auf die Erde bekommen. Sie maßen sich aber an, zum Beispiel mit dem Kohleverstromungsbeendigungsgesetz (KVBG) einen 17-Jahresplan mit Tag genau festgelegten Abschaltterminen für Braunkohlekraftwerke zu beschließen. Selbst die (fachlich gebildeten) Kommunisten der realsozialistischen staatlichen Plankommission der DDR wagten nicht, über Fünfjahrespläne hinauszugehen. Sie wussten im Gegensatz zu den Selbstüberschätzern von heute, dass die Vorhersagbarkeit künftiger Entwicklungen schwierig ist. Heute hofft man auf die Segnungen künstlicher Intelligenz, von der man wenig weiß, die man zuerst aber regulieren will. Wir haben keinen Mangel an künstlicher, sondern an natürlicher Intelligenz.

Zu der unsäglichen Arroganz heutiger Entscheider gesellt sich der typisch deutsche Bauchnabelblick, der eine Sicht über den Tellerrand verhindert. Schon die Tatsache, dass Deutschland das einzige nennenswerte (Noch-) Industrieland ist, dass die Kernenergie nicht nutzt, sogar aus ihr ausgestiegen ist, sollte zum tiefen Nachdenken anregen. Lieber hört man auf NGOs und interessengeleitete Institute und deren Chor „wir brauchen mehr Erneuerbare“. Der Unwille, Fakten aufzunehmen, verbunden mit einer zu vermutenden eklatanten Rechenschwäche verhindert die Einsicht, dass auch ein maximierter Ausbau der „Erneuerbaren“ auf jedem Quadratmeter unseres Landes zur Energieversorgung nicht taugt. Dass es unbezahlbar wäre, wird standhaft ignoriert, schließlich ist es kein eigener durch die Diätenerhöhungsautomatik abgesicherter Geldbetrag.

Risiko Mensch

„Der Mensch steht im Mittelpunkt“, lautete eine These im Realsozialismus. „Und damit immer im Weg“, ergänzte der Volksmund. Der Klimaweltrettung von deutschem Boden aus steht der Mensch mit seinen Kaufentscheidungen wieder im Weg. Dagegen sollte das Verbrennerverbot helfen, das absehbar aber fallen wird. Ob der bereits eingetretene Schaden für die deutsche Automobilindustrie reparabel sein wird, ist eine offene Frage. Im Zerstören sind die Deutschen gründlich. Die Jamaikaner sind grundlos glücklich, sagt man. Die Deutschen sind glücklos gründlich.

Heute gibt es eine „Bertha Benz Memorial Route“, auf der man ihre abenteuerliche Reise nachvollziehen kann. Es ist eine Reise in die Vergangenheit, als die Ideen von pfiffigen Erfindern und Konstrukteuren noch nicht verhindernden Verboten unterworfen waren. Dieser erfolgreiche Teil der Geschichte wird in künftigen durchregulierten Verhältnissen nicht wiederholbar sein. Und der mündige Bürger wird, solange er kann, staatlichen Vorgaben im Weg stehen.
Es braucht wieder findige und starke Männer und Frauen, vor allem tatkräftige Berthas, von Mikroaggressionen geplagte Quotilden werden uns nicht helfen.

Der Beitrag erschien zuerst bei TE hier

 




Speichern für die Wende !

…also für die Energiewende, denn der Ökostrom ist wetterfühlig, mal kommt zu viel, was man dann wegschmeißen muss, mal kommt wenig oder gar nichts, und man muss im Ausland zukaufen.

von Peter Würdig

Also braucht man die Speicher, um das auszugleichen und ein stabiles Netz aufrecht zu erhalten. Immerhin, schon 20 Jahre nach dem Start der Energiewende hat man das jetzt ernsthaft angefangen. Darüber berichtet jetzt Focus, „Sie sind das Rückgrat der Energiewende, doch jahrelang ging der Ausbau von Stromspeichern in Deutschland nur schleppend voran. Das ändert sich jetzt – schlagartig.“ Hier der Beitrag: Sogar alte AKWs machen mit: Jetzt kommt die Speicher-Revolution nach Deutschland – FOCUS online

In Braderup, einem Dorf in Schleswig-Holstein, hatte man sogar schon 2014 angefangen mit einer Anlage und einem Speichervolumen von 3 MWh (Mega-Watt-Stunden) ganz klein angefangen, Focus schreibt, dass die Einwohner da zufrieden sind, welche Abdeckung da tatsächlich erreicht worden ist, darüber wird nichts mitgeteilt. Jetzt, 10 Jahre später, hat man die Größe erheblich steigern können, die neue Anlage in Bollingstedt, nur 60 km weiter ab von Braderup, schafft sogar 238 MWh. Und für noch größere Anlagen, die man wohl braucht, hat man eine interessante Idee, das stillgelegte Kernkraftwerk Brokdorf soll als Standort für eine große Speicheranlage diesen, da produziert man dann zwar keinen Strom, aber immerhin können die noch vorhandenen Netzverbindungen als Anschlüsse für das Hochspannungsnetz dienen. Focus nennt dieses Prinzip: „Akkus statt AKW“. Dass man solche Akkus wirklich braucht, hat auch Focus erkannt, denn Focus schreibt: „Und Solaranlagen haben das grundsätzliche Problem, dass sie nachts keinen Strom produzieren“, und das ist als neue Erkenntnis nun auch beim Wirtschaftsministerium angekommen, deswegen hat man im Dezember eine „nationale Speicherstrategie“ vorgelegt.

Wie viel braucht man denn wirklich ? Dazu müsste man nachrechnen, und deswegen hat Prof. Sinn in seinen Vorträgen angemahnt: „Haben die denn keinen Taschenrechner ?“ Nun, wir haben einen und rechnen mal überschlägig nach. Der elektrische Bedarf liegt bei 70 GW (Giga-Watt, das sind 1000 Mega-Watt). Für die Windmühlen muss man mit einem Ausfall von max. einer Woche rechnen , längere Flauten sind eher selten. Anders sieht das bei den PV-Anlagen aus, die produzieren im Sommer reichlich, im Winter, wenn der Bedarf groß ist, wenig oder gar nichts. Das heißt, um zu einer sicheren Versorgung zu kommen, müssen wir den PV-Strom des Sommer-Halbjahres speichern um den Bedarf im Winter abzudecken, das notwendige Speichervolumen der Windkraftanlagen können wir im Vergleich dazu erst mal vernachlässigen. Da nach der Energiewende für Deutschland dann nur Wind und Sonne zur Verfügung steht, nehmen wir mal an, dass die Hälfte des Bedarfs, also 35 GW, von PV-Anlagen gedeckt werden muss, das Sommerhalbjahr hat 4320 Stunden, daher brauchen wir dann 151.200 GWh. Das ist aber nur der elektrische Bedarf, da ja nun Verkehrsleistungen (E-Auto) und Beheizung (Wärmepumpe) und alles übrige auch auf elektrische Leistung umgestellt werden soll, muss man diesen Wert noch mit 5 multiplizieren, also brauchen wir eine Speicherkapazität von 756.000 GWh, das ist schon mal eine ganze Menge.

Ein Bild, das draußen, Himmel, Baum, Gras enthält. Automatisch generierte Beschreibung

Nun hat man ja, wie Focus schreibt, in den letzten Jahren erheblich zugelegt, pro Monat wächst die Kapazität in Deutschland um 0,4 GWh, pro Jahr also um fast 5 GWh, und wenn wir den Zuwachs pro Jahr verdoppeln, dann brauchen wir für die Vollendung der Energiewende nur noch 75.600 Jahre, jetzt versteht man, warum die Inspiratoren der Energiewende einen Taschenrechner lieber gar nicht erst angefasst haben.

In Ahnung dieser Größenordnung hat Focus nun doch noch eine Idee geliefert, die Energiewende noch zu retten, wörtlich: „Der vielleicht wichtigste Speicher könnte sich aber in den Garagen der Deutschen befinden.“, gemeint sind die E-Autos. Die sind aber für diesen Zweck nur brauchbar, wenn man ein E-Auto nicht fährt sondern damit nur die Garage schmückt. Wer dann doch fahren will und gleichzeitig als Speicher die Energiewende unterstützt, braucht die Verbindung zur Steckdose. Dazu holt man vom Baumarkt eine Kabeltrommel, geschickt angebracht würde sich das Kabel dann beim Losfahren automatisch abrollen. Mehr als drei Kabeltrommeln wird man im Kofferraum nicht unterbringen, damit begrenzt sich dann die Reichweite des E-Autos auf 30 Meter. Ich glaube, so werden wir die Energiewende dann auch nicht retten können.

Nun ist aber die Idee mit den Akkus als Speicher gar nicht so neu, denn bei gründlicher Recherche hätte Focus auch das Projekt „Smart Region Pellworm“ entdecken müssen. Auf der Insel Pellworm hat man 2013 den Versuch gemacht, die Insel gestützt auf Speicher vollständig durch Erneuerbare zu versorgen. Man hat dabei in der Spitze sogar eine Versorgung von 97% erreicht, aber mit der Autarkie ist es so wie auch bei der Schwangerschaft, man hat sie entweder ganz oder gar nicht, und für eine vollständige Versorgung hätte man Speicher von mindestens fünf-facher Kapazität gebraucht. Das haben die Förder-Millionen aber doch nicht hergegeben, und die Sache war nicht nur „smart“ sondern auch teuer, und dann hat man nach drei Jahren alles wieder abgebaut. Statt das Gelände als Gedenkstelle für die Energiewende zu nutzen hat man dort einen Hunde-Spielplatz eingerichtet. Wenn das bei anderen Geländen für die Speicherung ähnlich geht, werden wir in Deutschland noch viele Hunde züchten müssen. Die Geschichte der „Smart Region Pellworm“ habe ich in meinem Film dokumentiert: pww.de/BSB/AfD/Pellworm.mp4