Der negative Gewinn der Energiewende

Unter allen Bestandteilen des Strompreises werden die Netzentgelte die größte – und unvermeidbare – Dynamik entfalten. Es hat seinen Preis, Zufallsstrom in das Netz zu integrieren. Dafür muss das bisherige System aufrechterhalten werden. Zwei Systeme für eine Versorgungsaufgabe sind teuer und bringen uns in eine internationale Spitzenposition beim Preis und machen uns zum Loser bei der Wettbewerbsfähigkeit. 

Von Frank Hennig

Im Wirtschaftsleben ist das Auftreten negativer Preise. Es ist ein Zeichen zerstörten Warenwertes und hängt von einem besonderen Angebots- und Nachfrageverhältnis ab.

Im ungünstigen Fall wird ein Anbieter sein Produkt, aus welchen Gründen auch immer, im Preis immer weiter senken müssen, bis es unverkäuflich wird und es auch niemand mehr geschenkt haben will. Dann stellt es einen Totalverlust dar, der in einigen Fällen sogar zu weiteren Kosten, nämlich denen der Entsorgung, führt.

Dies ist im europäischen Strommarkt der Fall, wenn der Bedarf gedeckt ist. Zusätzliche Einspeisung führt dann zum Anstieg der Netzfrequenz und zur Gefährdung der Netzsicherheit. Kommt die magische Waage aus Erzeugung und Verbrauch aus dem Gleichgewicht, kann auch zu viel Strom zum Kollaps führen. Im üblichen Regelbereich bestimmen nach der so genannten Merit-Order (Einsatzreihenfolge) die teuersten Kraftwerke den Strompreis. Das wird oft beklagt, ist aber in sich logisch. Auch auf jedem anderen Markt können Waren (gleicher Art und Qualität) bei einem bestimmten Bedarf einen bestimmten Preis erzielen, der sich am teuersten Anbieter orientiert.

Die Merit-Order greift, weil man die Herkunft des Stroms im Netz nicht kennzeichnen kann. Die Zuordnung von gelbem (yello-), grünem oder anderweitig buntem Strom ist nicht möglich, auch wenn man beim Elektro-Tetzel Grünstromzertifikate kaufen und seinen grauen Strom zeitgeistmäßig darstellen kann.

Jede andere Lösung müsste über vorgegebene Kontingente abgewickelt werden, ein Ansatz, der dem Markt widerspricht. Eine Alternative zum Spotmarkt gibt es ohnehin in Form von längerfristigen Einzelverträgen. Zahlreiche neue Anbieter am liberalisierten Strommarkt gingen zu Beginn der 2000er Jahre sehr schnell pleite, weil sie, auf sinkende Börsenpreise setzend, Dumpingpreise anboten und keine längerfristigen sichernden Verträge abschlossen. Ähnlich erging es Gasanbietern im Vorjahr.

Warum kommt es überhaupt zu dieser Situation, warum schaltet man bei einem Überangebot nicht einfach ab? Die „Erneuerbaren“ betreffend wirkt hier der Einspeisevorrang eines inzwischen anarchischen Erneuerbaren Energien Gesetzes (EEG), dass immer noch die Abnahmepflicht von Ökostrom für die Netzbetreiber unabhängig vom Bedarf vorschreibt. Was in Anfangszeiten des Gesetzes zu Beginn der 2000er Jahre noch sinnvoll erschien, um Nischentechnologien überhaupt eine Chance zu geben, ist heute bei einem etwa 50-prozentigen Anteil an der Stromproduktion völlig kontraproduktiv und preistreibend.

Die meisten der Wind- und Solaranlagen erhalten die EEG-Umlage, also einen festen Preis, der heute eine Mindestvergütung darstellt (bei hohen Börsenpreisen dagegen können die „Übergewinne“ eingestrichen werden). Diese Umlage muss gezahlt werden, auch wenn ein Stromüberschuss zu negativen Preisen im Ausland verklappt werden muss. Der deutsche Stromkunde zahlt also zweimal: Über die EEG-Umlage (früher finanziert über den Strompreis, dann mit Steuergeld, künftig über die gestiegene CO2-Bepreisung an der Tankstelle oder am Öltank) und über die Netzentgelte, die dann teilweise ins Ausland abfließen.

Kommt es aus Gründen von Netzrestriktionen, d.h. örtlichen Überlastungen, zur Abschaltung von Wind- oder Solaranlagen, so werden die Betreiber für den nicht abgenommenen (Phantom-)Strom entschädigt. Wie ist unter diesen völlig schrägen Bedingungen ein System „100-Prozent-Erneuerbar“ vorstellbar? Überhaupt nicht.
Nur für neue Windkraftanlagen gilt eine 6-Stunden-Regel, wonach ab der siebenten Stunde nicht mehr „entschädigt“ wird. Meist sind die Zeiten negativer Preise kürzer.

„Erneuerbare“ im Streichelzoo

Die gegenwärtigen „Erneuerbaren“ bringen etwa die Hälfte des Stromaufkommens in Deutschland, aber keinerlei Systemverantwortung für die Branche. Natürlicher Zufallsstrom wird in großen Mengen eingespeist. Um ihn aber verwenden zu können, ist ein vorhandenes Netz erforderlich, in das dieser Strom eingebettet und mit den so genannten Systemdienstleistungen versehen wird. Frequenz- und Spannungshaltung bleiben also den konventionellen, regelbaren Kraftwerken und den wenigen vorhandenen Stromspeichern vorbehalten. Die Zahl der Kraftwerke nimmt allerdings permanent ab.

Vor allem in Sommerzeiten und an Wochenenden mit geringem Bedarf entsteht ein Überangebot, so dass aus Gründen der Netzstabilität dieser Strom irgendwie untergebracht werden muss. Längst überfällig wäre eine große Reform des EEG, besser dessen Abschaffung. In jedem Fall sollte kein Zufallsstrom mehr gefördert werden, sondern übergangsweise nur noch emissionsarm eingespeister grund- und regellastfähiger Strom.

Die Ursache unseres Preisdesasters ist das nicht reformierte EEG, das eine rückwärtsgewandte grüne 80er-Jahre-Ideologie der 100-Prozent-Erneuerbar-Utopie praktiziert und im Zusammenhang mit der Anti-Atompolitik verheerend wirkt. Mehr als 50 Prozent der Stromproduktion im Jahresdurchschnitt, aber fast Null Prozent Systemverantwortung für die „Erneuerbaren“, so wird das nichts mit Dekarbonisierung und Vollvergrünung.

Natürlich können Wind- und Solaranlagen auch abgeregelt (gedrosselt) werden, aber ob beim nötigen Hochregeln der Wind noch weht oder die Sonne noch scheint, weiß niemand.

Warum schaltet man dann nicht die noch laufenden konventionellen Kraftwerke ab? Das ist begründet zum einen durch den notwendigen Erhalt der Regelfähigkeit im Netz. Die Vielzahl der Windkraftanlagen, ihre weitgehend gleichzeitigen Schwankungen der Einspeisung und die starke Abhängigkeit der Stromproduktion von der Windgeschwindigkeit (in dritter Potenz) führen zu hohen Gradienten von drei Gigawatt (GW) pro Stunde und noch mehr, wenn das Abflauen mit dem Sonnenuntergang oder das Auffrischen mit dem Sonnenaufgang zusammenfällt. Zur Ausregelung dieser Schwankungen müssen konventionelle Kraftwerke in großer Zahl am Netz bleiben, um zeitgerecht hoch- oder herunter fahren zu können. Sind sie außer Betrieb, dauert das Anfahren ein oder mehrere Stunden, abgesehen von Pumpspeicher- oder Gasturbinen-Kraftwerken.

Weiterhin müssen einige der konventionellen Kraftwerke auch Wärmelieferverträge erfüllen, auch im Sommer. Die Kraft-Wärme-gekoppelten Anlagen (KWK) können zwar die Anteile an Strom- und Wärmeproduktion verschieben, aber nicht ausschließlich Wärme produzieren. Hilfsweise errichtet man Power-to-Heat- Anlagen (Strom zu Wärme), die sich im Sommer bei niedrigen Preisen gut einsetzen lassen, deren Wirtschaftlichkeit allerdings im Winter bei hohen Strompreisen und hohem Wärmebedarf in Frage steht. Jedenfalls können Wärmekunden nicht mit Hinweis auf niedrige Strompreise abgeschaltet werden.

Gewinn und Verlust

Negative Preise am Markt sind nicht nur eine Perversion des Marktes, sondern ziehen auch perverse praktische Folgen nach sich. In den Stunden einer solchen Marktlage versuchen natürlich alle zwangsläufig noch produzierenden konventionellen Kraftwerke, ihre Erzeugung so weit als möglich abzusenken. Ist die technologisch machbare Mindestleistung erreicht, werden zusätzliche Pumpen, Lüfter und andere Aggregate zugeschaltet, auch wenn sie technologisch nicht erforderlich sind. Kurzfristig kann auch Dampf über so genannte Umleit- oder Reduzierstationen an den Turbinen vorbei geführt werden, wodurch die Energie im Kühlwasser landet.

Pumpspeicherwerke (PSW) nutzen die bezahlte Stromlieferung sehr gern, um die Oberbecken vollzupumpen. Insbesondere die Werke in Österreich und der Schweiz erzielen gute Preisdifferenzgeschäfte, in dem sie sich zweimal bezahlen lassen. Zum einen tagsüber für den Transport der Wassermassen auf den Berg. Nach Sonnenuntergang, wenn in Deutschland die PV-Module schlafen gehen und die Leute das Licht einschalten, wird, bildlich gesprochen, derselbe Strom für gutes Geld zurückverkauft. Ursache ist, dass wir nicht mehr rational in der Lage sind, unseren eigenen Tagesgang des Verbrauchs auszuregeln.

Am 16. Juli 2023 um 14 Uhr konnten beispielsweise PSW-Betreiber unter Zugabe von 60 Euro pro Megawattstunde ihr Wasser den Berg hochpumpen, um 22 Uhr lief das Wasser durch die Turbinen wieder hinab, dafür gab es aus Deutschland 106 Euro. Macht für die deutschen Stromkunden im Saldo 166 Euro auf dem Zettel der Netzentgelte. Dies ist auch ein Beitrag zum international gern gesehenen Abbau des deutschen Außenhandelsüberschusses.

Was aber, wenn die Oberbecken voll sind und es immer noch Geld für den Stromverbrauch gibt? Die Betreiber sind meist Aktiengesellschaften und der Gewinnerzielung für ihre Anteilseigner verpflichtet. Leicht zufallenden Profit kann man sich nicht entgehen lassen. Für Notfälle, Hochwasser oder Reparaturen besteht in der Regel die Möglichkeit, über Bypässe das Wasser ungenutzt ins Tal laufen zu lassen. Deutsche Stromkunden bezahlen dann künstliche Wasserfälle.
Nicht alle PSW, so auch das größte deutsche im thüringischen Goldisthal, haben einen Bypass. Im beschrieben Fall besteht aber die Möglichkeit, gleichzeitigen Pumpen- und Turbinenbetrieb zu fahren, so lässt sich die Regelleistung vermarkten und Blindleistung herstellen. Ob in der Praxis so verfahren wird, ist unklar. Vattenfall äußerte sich auf Anfrage dahingehend, dass überschüssiger Strom in Power-to-Heat-Anlagen (P2H) in Wärme umgewandelt und gespeichert wird. Auch diese Speicher sind aber irgendwann voll und der Wärmebedarf im Sommer ist gering. Nach mageren Jahren verdient Vattenfall als größter Wasserkraftbetreiber in Deutschland jedenfalls prächtig an seinen Werken.

Im Gegensatz zu den PSW, die als Speicher gleich zweimal verdienen können, an negativen wie auch positiven Preisen, haben andere Kunden an der Strombörse diese Möglichkeit nicht. Große Industrieunternehmen, die direkt an der Börse kaufen, wie auch Regionalversorger und Stadtwerke, können zu Zeiten negativer Preise nur so viel Strom wie möglich „verbraten“. Ob es nun leer laufende Maschinen, Elektroheizungen, Klimaanlagen oder andere Verbraucher sind, die ökonomische Vernunft gebietet, soviel Strom wie möglich zu liquidieren. Damit wird Geld verdient. Das ist betriebswirtschaftlich richtig, volkswirtschaftlich für Deutschland und seine Tarifkunden ein Desaster. Der Bevölkerung werden unterdessen Spartipps gegeben. Die Medien erwecken den Eindruck, die negativen Strompreise seinen normal und so hinzunehmen. Verschwiegen wird, wem es nutzt. Regierungspolitik erfüllt vollumfänglich die Forderungen der Erneuerbaren-Branche und deren Gewinnerwartung.

Der Kipppunkt

Ziemlich termingenau zum 15. April 2023 verabschiedete sich Deutschland mit der Außerbetriebnahme der verbliebenen drei Kernkraftwerke (KKW) von seiner Rolle als langjähriger und zuverlässiger Stromexporteur.

Ein Bild, das Text, Screenshot, Diagramm enthält. Automatisch generierte Beschreibung

Grund ist (noch) nicht ein Mangel an gesicherten Kapazitäten in Deutschland, sondern dass der jetzt bei uns produzierte Strom am europäischen Markt zu teuer ist.
Die deutschen KKW, die früher in der Merit-Order vorn standen, sind entfallen, so dass die nächstteureren Kraftwerke nachrücken. Diese tragen die Belastung durch CO2-Zertifikate, die bei französischer Kernkraft oder alpiner Wasserkraft nicht wirkt.

Ein Bild, das Kreuzworträtsel, Text, Quadrat enthält. Automatisch generierte Beschreibung

Was bleibt, sind die extremen, durch Wind- und Solarkraft ins Netz eingetragenen Schwankungen. Sie werden uns auch weiterhin negative Börsenpreise bescheren.

Daten: Rolf Schuster, Vernunftkraft

Den bisher negativen Rekordpreis gab es am 2. Juli 2023 mit -500€, das entspricht 50 Cent pro Kilowattstunde. Es war ein sonniger Sonntag um 14 Uhr mit naturgemäß geringem Bedarf. Nicht nur die in der Tabelle angeführten Stunden sind ein volkswirtschaftliches Desaster, es kommen viele Stunden hinzu, in denen für sehr wenig Geld bis hin zu Centbeträgen der Strom als Export verramscht wird.
Mit dem weiteren Ausbau der Wind- und Solarkapazitäten öffnet sich die Schere zwischen Überschuss im Sommer und Mangel im Winter immer mehr. Der heilige Grundsatz „Wir brauchen mehr Erneuerbare“ ist völlig falsch, wenn nicht in gleichem Maß Netze und Speicher gebaut werden. Solange Phantomstrom entschädigt wird, kann sich die Branche entspannt zurücklehnen.

Was könnte man tun gegen negative Preise? Speicher wären eine Option, wir bräuchten intersaisonale Speicher großer Kapazität. Das ist beim Strom schwer möglich, deshalb die chemische Option über Wasserstoff. Hier gibt es viele Absichtserklärungen, aber keine Verträge zu Terminen, Mengen und Preisen. Wäre ein wasserstoffbasiertes Energiesystem am Markt darstellbar, es würde es längst geben.

Nicht nur der Überschuss und die negativen Preise, auch die stärker werdenden Schwankungen erhöhen den Aufwand für die Netzbetreiber drastisch. Der Import erfolgt regelmäßig zu hohen Preisen, der Export zu niedrigen bis negativen. Bezüglich des Strompreises sind wir künftig völlig abhängig von unseren Nachbarn und tragen neben dem Preisrisiko auch das Mengenrisiko der Lieferungen.
Die Kosten des so genannten Engpassmanagements stiegen seit 2019 exponentiell auf heute 3,26 Milliarden Euro an (Frankreich wendet dafür einen niedrigen zweistelligen Millionenbetrag auf).

Die Anzahl der erforderlichen Netzeingriffe stieg über die Jahre (jeweils 1.1. bis 31.7.) 2020 bis 2022 von 3492, 4421 und 8701 auf diesjährig bereits 9029 (Quelle).
Der einst planmäßige Netzbetrieb ist zum völlig operativen und teuren Geschäft geworden. Auch der Versorgungssicherheit ist das abträglich. Jedenfalls ist die Hoffnung, die Strompreise könnten mittelfristig wieder sinken, völlig unbegründet.

Wohin der Wind uns weht

Inzwischen gehen weitere Energiewendemythen den Bach runter. Was hörten wir nicht alles gebetsmühlenartig Wiederholtes? Die Erneuerbaren würden die Aufgaben der Kern- und Kohlekraftwerke übernehmen. Wir sehen – sie tun es nicht, weil Zufallsstrom keine Versorgung herstellen kann. Atomstrom verstopfe die Netze. Französischer Atomstrom tut das hingegen nicht. Deutsche Atomkraftwerke seien unsicher, solche im ukrainischen Kriegsgebiet hingegen nicht. Wir seien Vorreiter, werden aber zum Importeur aller Energieformen. Niemand folgt uns.
Negativer Gewinn ist Verlust und macht uns alle ärmer. Es kann keine positive Prognose zu dieser Form deutscher Energiepolitik geben.

Der negative Gewinn der Energiewende

 




Ein Abgesang auf die „dümmste Energiepolitik der Welt“ (Wall Street Journal)

Eine Kurzfassung der Tragödie einer deutschen Energiewende

Dr.- Ing. Erhard Beppler

Im Folgenden wird die politisierte Klimawissenschaft einschließlich der daraus resultierenden deutschen Maßnahmen zur Absenkung des CO2-Ausstoßes stichwortartig behandelt:

1.Zur Basis der politischen Klimawissenschaft

Unter dem Dach der Vereinten Nationen wurde in den 1980er Jahren der „Weltklimarat“ bzw. der „Intergovernmental Panel on Climate Change“ (IPCC) gegründet.
Internationale Wissenschaftler erarbeiten unter diesem Dach Daten, Analysen, Vorhersagen, Prognosen, etc., die jedoch anschließend in einem politisch kontrollierten Prozess im Rahmen des sog, „Summeries for Policy-Makers“ zusammengefasst werden. Was der Grundlinie des IPCC nicht entspricht, bleibt außen vor.
Zu den wichtigsten Grundlinien zählt im Hinblick auf die Wirkung des CO2 die ausschließliche Untersuchung des vom Menschen verursachten CO2-Ausstoß auf das Klima.
Zu einer der weitreichendsten Erkenntnisse des IPCC zählt daher die Aussage, dass der CO2-Anstieg der Atmosphäre ausschließlich auf dem vom Menschen verursachten CO2 beruht und die Erde verglüht, wenn der anthropogene CO2-Ausstoß nicht auf null reduziert wird (Klimaneutralität).
Inzwischen wenden sich 46 ehemalige IPCC-Wissenschaftler vom IPCC ab, die den Klimawandel leugnen. (1,2)
Einen experimentellen Beweis für den Einfluss von CO2 auf das Klima gibt es nämlich nicht, nur Aussagen über fragwürdige Modellbedrachtungen. (vgl. später)

2.Zur Wirkung des anthropogenen CO2-Anteiles in der Atmosphäre auf das Klima

Nun stellt sich auch noch heraus, dass der CO2-Anstieg in der Atmosphäre nur geringfügig auf anthropogenes CO2 zurückzuführen ist.
So lag in den letzten 11 Jahren (2010-2021) die weltweite jährliche Zunahme der anthropogenen CO2-Einträge in die Atmosphäre bei 0,038 ppm/a (0,000 0038%/a), über die natürlichen Quellen bei 2,45ppm/a (0,000 245%/a). (vgl. auch Punkt 8)
0,038ppm/a über anthropogene CO2-Einträge in der Atmosphäre entsprechen damit einem Anteil am Gesamt-CO2-Anstieg in diesen 11 Jahren von 1,53%. (3)
Wie erwähnt, geht das pseudowissenschaftliche CO2- Treibhaus- Narrativ des IPCC dennoch davon aus, dass das in 2021 auf eine Konzentration von 0, 0415% in der Atmosphäre angestiegene CO2 ausschließlich auf anthropogenes CO2-Eintrag zurückzuführen ist und durch Absorption und Re-Emission Infraroter Strahlung die Atmosphäre erwärmt wird.
Auch in einer früheren Arbeit war nachgewiesen worden, dass der anthropogene CO2-Anstieg in der Atmosphäre in 2020 auf 410 ppm nicht anthropogen verursacht sein kann– vielmehr liegt der anthropogene Anteil in 2020 bei nur 4,7 ppm (1,1%). (Bild 1) (4)


Bild 1: Entwicklung der anthropogenen CO2-Zunahme (gelb) und der Gesamt-CO2-Zunahme (grün) nach 1870
Die Klimamodellbetrachtungen des IPCC zum Einfluss des Gesamt-CO2- Gehaltes auf das Klima sind daher alleine schon stoffbilanzmäßig im Hinblick auf die Wirkung des anthropogenen CO2-Anteiles völlig wertlos. (Bild 2)

Bild 2: Darstellung der Temperaturentwicklung nach den Aussagen der Klimamodelle verglichen mit den Messwerten
Wie Bild 2 zu entnehmen ist, kann ein Gleichlauf der Modellergebnisse mit den durchgeführten Messwerten der Temperaturen erwartungsgemäß auch nicht gefunden werden.
Eine Betrachtung der Temperaturentwicklung nach der letzten Eiszeit gibt auch keinen Anlass daran zu glauben, dass der geringe CO2-Anstieg der Atmosphäre von 290 ppm in 1870 auf 410 ppm in 2020 (also 120 ppm oder 0,012%) umwälzende Auswirkungen auf das Klima haben könnte. (Bild 3)

Bild 3: Warmphasen nach der letzten Eiszeit
Schließlich waren von den 6 Phasen mit höheren Temperaturen nach der letzten Eiszeit alle wärmer als die jetzige, ohne einen CO2-Eintrag in die Atmosphäre durch anthropogene Maßnahmen. Ursache für den Temperatur-Anstieg sind variierende Sonnenzyklen (z.B. Schwabe-Zyklus (13 Jahre), Eddy-Zyklus (1000 Jahre) oder Hallstattzyklus (2300 Jahre).
Schließlich deutet auch Bild 3 an, dass der Höhepunkt der Temperaturentwicklung in der jetzigen Warmzeit etwa erreicht sein sollte.
Auch die über Satelliten seit 1979 gemessenen Temperaturen weltweit steigen nicht weiter an (Bild 4). Die auftretenden Temperaturspitzen sind auf die Wirkung des El Ninos zurückzuführen.

Bild 4: Mit Satelliten gemessenen Temperaturen weltweit seit 1979
Zu dem Temperaturanstieg Juli 2023 berichtet Dr. E.Spencer (Universität Alabama), der die Satellitendaten der unteren Troposphäre zusammenstellt: „Es ist zu früh für den sich entwickelnden El Nino im Pazifik, um große Auswirkungen auf die troposphärischen Temperaturdaten zu haben. Der Vulkanausbruch von Hunga Tonga und seine „beispiellose“ Produktion von zusätzlichem Wasserdampf in der Atmosphäre könnte verantwortlich sein“. (5)
Die US-Regierung hatte im Vorfeld des G20-Gipfels Horrormeldungen über einen nie dagewesenen, heißesten Juli 2023 in Europa und den USA verbreitet, um den Ausbau der erneuerbaren Energien zu forcieren.

(6) (vgl. auch Kapitel 8)
Die in diesem Kapitel zusammengestellten Aussagen wie der Anteil des anthropogenen CO2- Ausstoßes in der Atmosphäre, die Temperaturentwicklung nach der letzten Eiszeit sowie die Stagnation der weltweit gemessenen Temperaturen machen bereits deutlich, dass all die z.Z. geforderten, unbezahlbaren Maßnahmen zur Absenkung des anthropogenen CO2-Ausstoßes in Deutschland obsolet sind. (vgl. auch das nächste Kapitel)

3.Der Anteil Deutschlands am weltweiten CO2-Ausstoß

Ungeachtet dieser Aussagen folgen die Deutschen wie kein anderes Land auf dieser Erde den Vorgaben des IPCC wie die Lemminge.
Hier die verursachten CO2-Gehalte der Atmosphäre in Zahlen:

Selbst wenn CO2 einen Einfluss auf das Klima hätte, wäre ein merklicher Einfluss Deutschlands mit einem an Marginalität nicht zu überbietendem Eintrag in die Atmosphäre von 0,000 0094% CO2 (oder gar über Gebäudewärme von 0,000 0014% CO2 (Wärmepumpen)) ein chemisch-physikalisches Wunderwerk.

4.Die Pläne der Bundesregierung zum Ausbau der Energiewende bis 2030 und 2045

Unabhängig von diesen Fakten will die Bundesregierung bis 2030 über die Installation von 115 GW über Wind und 215 GW über Solaranlagen weitgehend, bis 2045 für die Umstellung aller Sektoren auf die H2-Technologie vollkommen auf Kohlekraftwerke verzichten zugunsten von Wind- und Solaranlagen. (eine nicht nachvollziehbare Stilllegung der Kernenergie erfolgte bereits)
Aber diese „Zufallsenergie“ liefert nur sporadisch Strom.
Die entstehenden Lücken müssen zunächst über Gaskraftwerke geschlossen werden mit einer Kapazität von etwa 27-43 GW bis 2030 (6), nach Habeck mit 50 neuen Gaskraftwerken bis 2030 (8), wo auch immer das Gas herkommen soll.
Ein Teil der Stromlücken sollen bis 2030 bereits über die H2-Technologie ausgeglichen werden, nach Aussage des „Beschlusses des Kabinetts am 26.07.2023 zur Fortschreibung der nationalen Wasserstoffstrategie“ über 10 GW oder 95 000 bis 130 000 GWh/a (etwa 2760 t H2 täglich). Von diesen H2-Mengen sollen 50-70% importiert werden. (vgl. auch Kapitel 6)
Bis 2027/2028 sollen in Deutschland 1800 km Leitungsnetze für Wasserstoff aufgebaut werden, in der EU 4500 km, davon 3000 km über vorhandene Erdgasleitungen, was mit hohen Kosten verbunden ist. Das Erdgasnetz in Deutschland hat eine Länge von 11 200 km.
Die vorgesehene Umstellung bis 2030 von Strom, 15 Mio. E-Fahrzeugen und Wärmepumpen auf die H2-Technologie würde eine tägliche H2-Menge von 31 900 t erfordern, die natürlich auch gespeichert werden müsste. (9) Entsprechende Speicher wären nicht vorhanden.

5.Die Entwicklung der Strom- und Gaspreise durch die Stilllegung der Kohlekraftwerke

Die Umstellung der Kohlekraftwerke nicht nur in Deutschland hat bereits vor dem Ukraine-Krieg zu einem massiven Anstieg der Preise für Gas und Strom geführt (Merit-Oder). Hinzu kommt eine Verknappung des Gasangebotes durch die angekündigte Stilllegung der größten Erdgasförderung im Feld Groningen zum 01.10.2023 (Erdbeben!) – etwa 25% der gegenwärtigen Importmenge. Außerdem kommt das Ende des Gastransits durch die Ukraine Ende 2024 und die LNG-Terminals liefern nur überschaubare Mengen. (7)
Die Verteuerung der Strom- und Gaspreise hat bereits zu einer erheblichen Deindustrialisierung Deutschlands geführt (die Insolvenzen im Mittelstand haben in 2023 um 16% zugenommen- FAZ, 04.08.2023). Die Wirtschaft rutscht immer weiter in eine handfeste Krise. Deutschland befindet sich auch nicht mehr unter den ersten zehn Ländern Europas beim Bruttoinlandsprodukt pro Kopf (www.welt.de/246714648).

6.Die Folgen der Einstellung einer Klimaneutralität in 2045 sowie die Stromversorgungssicherheit in 2030 und 2045

Im Sinne der Klimaneutralität in 2045 (Umstellung aller Sektoren auf die H2-Technologie) muss das Erdgas komplett gegen die H2-Technologie ausgetauscht werden, die jedoch nur über einen hohen Energieaufwand für die H2-Herstellung (Wirkungsgrad 70%), die H2-Speicherung (Verluste 10%) und H2-Verstromung (Wirkungsgrad 60%) zu haben ist nach
GW (Wind+Sonne+H2-Technologie) = 1,75 x GW (Wind+Sonne). (Gleichung 1) (9)
Durch den hohen Energieaufwand für die H2-Technologie muss dann die Stromleistung von z.Z. 60 GW auf 600 GW angehoben werden – eine Verzehnfachung der jetzigen Stromerzeugung. (9)
Wegen des niedrigen Nutzungsgrades der Wind- und Solaranlagen (etwa 20%) müsste dann in 2045 die zu installierende Wind- und Solarleistung auf 600 GW/0,20 = 3000 GWinst.
angehoben werden. Z.Z. liegt die installierte Leistung über Wind und Sonne bei 125 GWinst., mit der 38% der 60 GW beigesteuert werden. Um 100% der Leistung über Wind und Sonne und mit Hilfe von Erdgas z.Z. abdecken zu können, wären dann in 2030
125 x 100/38 = 329 GWinst. erforderlich.
Bereits in 2030 sollen nun auch nach der Vorgabe der Bundesregierung die Windanlagen auf 115 GWinst, die Solaranlagen auf 215 GWinst. aufgestockt werden, in Summe 330 GWinst, – also einer Verdreifachung gemessen an heute.

Bild 5: Schwankungsbreite der Kennzahlen bei einer Installation von z.Z. 125 GWinst über Wind und Sonne im Juli 2023
Bild 5 gibt einen Einblick in die Variabilität der „Zufallsenergien“ Wind und Sonne bei den z.Z. installierten Wind- und Solaranlagen von 125 GWinst. anhand von Daten im Juli 2023.(10)
Hervorzuheben in diesem Chaos sind nicht nur die Strompreise (Börsenwert EEX) – sie schwanken zwischen 172 EURO/MWh (0,17 EURO/KWh) und -500 EURO/MWh (-0,50 EURO/KWh) – vor allem aber die für die Stromversorgungssicherheit maßgeblichen Stromimporte wie -exporte, die je bis 13 GW ansteigen.
Dabei kommt es zu dem Paradoxon, dass bei Stromüberschuss Strom billigst an das Ausland abgegeben werden muss (z.B. -0,50 EURO/KWh), der im Ausland von den Pumpspeicherwerken freudig aufgenommen wird und bei Stromunterschuss (meist nachts oder bei Windstille) für viel Geld wieder zurückgekauft werden muss (z.B. 0,17 EURO/KWh) – was die Stromverbraucher schon viele Milliarden EURO gekostet hat. (Deutschland hat bereits die höchsten Strompreise).
Es ist kaum vorstellbar, welches Chaos in der Stromversorgung eine Verdreifachung der installierten Wind- und Solaranlagen hervorrufen würde, wie in 2030 vorgesehen – oder gar eine Verzehnfachung in 2045. (Hervorzuheben ist, dass für den anteiligen Einsatz von flüssigem H2 in 2030 Gleichung 1 anzuwenden ist. Faktor 3 gilt für den Einsatz von Erdgas).
Würden die Spitzenwerte der Stromimporte wie -exporte von 13 GW mit dem Faktor 3 (2030) oder dem Faktor 10 (2045) multipliziert, ergäben sich Stromleistungsunterdeckungen wie -überschüsse

– in 2030 von    3 X13 = 39 GW für die Stromimporte wie -exporte, die in kürzester Zeit zur Sicherung der Stromerzeugung über Erdgas und möglicherweise in geringem Maße über Wasserstoff aufgefangen werden müssten

– in 2045 von 10 X 13 = 130 GW für die Stromimporte wie -exporte, die in kürzester Zeit zur Sicherung der Stromerzeugung komplett über Wasserstoff aufgefangen werden müssten.
Wenn dann auch noch die erforderlichen H2-Mengen praktisch ausschließlich im Ausland erzeugt werden müssen, rückt die Stromversorgungssicherheit in Deutschland in weite Ferne.
Gerade bei der Stromerzeugung als Pfeiler für die Funktionalität der deutschen Industrie muss die Stabilität und Effizienz vor der Ideologie stehen.
Die für Deutschland erforderlichen H2-Mengen zur Einstellung der Klimaneutralität in 2045 lägen im Mittel bei
118 570 t H2 täglich bzw. 43,4 Mio. t jährlich,
die importiert und gespeichert werden müssten – ohne auf die oben zitierten Schwankungsbreiten einzugehen.(9)
Das Ausmaß der erforderlichen Speicher für flüssigen Wasserstoff sprengt geradezu jede Vorstellungskraft, wenn man bedenkt, dass 1 Tonne flüssigen Wasserstoffes ein Volumen von 70 m3 einnimmt.
Z.Z. gibt es ein einziges Schiff für den Transport von flüssigem H2 mit einem Fassungsvermögen von 1250 m3 (Wikipedia). Es müssten dann bis 2045 495 000 Tanker für den Transport von flüssigem Wasserstoff nur für Deutschland gebaut werden. (9)

7. Angaben zu Kosten

Eigentlich macht es keinen Sinn, Kosten für ein derartig hoffnungsloses Vorhaben zu kalkulieren.
Dennoch soll nicht unerwähnt bleiben, dass der für die Kosten der EU zuständige Vizepräsident die notwendigen Investitionen von zusätzlich 620 Mrd. EURO/a für den „Green Deal“ und das damit verbundene Programm RePowerEU bezifferte. (FAZ, 07.07,2023)
BloomNEF erwähnt Kosten bis 2030 für die Umstellung auf die H2-Technologie in Deutschland von etwa 1 Billion Dollar.
Die Bundesregierung hat nun über einen Kabinettsbeschluss am 09.08.2023 über den Klima- und Transformationsfond (KTF) Ausgaben für Klimaschutzmaßnahmen von 212 Milliarden EURO für die nächsten 4 Jahre beschlossen.

8.Die Politik einschließlich aller von der politischen Klimawissenschaft profitierenden Einrichtungen kennen bei der Verbreitung der Angst vor dem Weltuntergang keine Grenzen

Die Ökoidiologen predigen entgegen allen Realitäten ihre seit Jahren propagierten Weltuntergangsscenarien weiter, obwohl alle vom IPCC publizierten Modellbetrachtungen zum Einfluss von anthropogenem CO2 auf das Klima wertlos sind.
Um die Fakten zu verbergen, wird die Klimaangst in hohem Maße gepflegt.
Bereits 2007 wurden von den Klimainstituten, den Medien und NGOs sog. „Kippunkte“ für das Jahr 2013 vorausgesagt: eisfreie Arktissommer in 5 Jahren. (Bild 6) (11)

Bild 6: Vorhersage von „Kippunkten“ bis 2013

Nachdem die „Kippunkte“ in 2013 nicht eintraten, wurden sie locker auf 2030/2050 verschoben. (11)
Greta Thunberg teilte vor 7 Jahren der Welt mit, dass in 2023 die Erde untergeht, etc.
In diesem Sommer beherrscht eine mediale Hitze-Eskalierung die Schlagzeilen zur weiteren Steigerung der Klimaangst, obwohl die Temperaturen weltweit stagnieren (Bild 4) – vgl. auch die „Hitzewelle -Panik: wie es wirklich ist“. (6,12,13)
Bei den Waldbränden wird verschwiegen, dass nicht einmal 5% aller Waldbrände natürlichen Ursprungs sind, den Rest entfachen Menschen und menschliche Infrastruktur. (13)
In Castrop-Rauxel wurde sogar ein Hitzeschutzraum errichtet.
Der Verweis auf viele Hitzetote im Sommer nimmt breiten Raum ein, obwohl im Winter deutlich mehr Menschen sterben.

Das IPCC wird die hier beschriebenen Fakten nicht zur Kenntnis nehmen, wohlwissend, dass die Kenntnis anderer natürlicher Einflussgrößen auf den CO2-Anstieg in der Atmosphäre (CO2-Löslichkeit der Meere nimmt mit steigenden Temperaturen ab (vgl. später), Vulkane (vgl. Kapitel 2), etc.) die notwendige Panik für den Weltuntergang beenden würde und damit auch das Fließen der Gelder für die Tausenden Klimaforscher sowie all die von der Klimaangst profitierenden Einrichtungen.
Die Folge ist eine religiös verblendete Jugend – und nicht nur Jugend – die sich ahnungslos dieser CO2-Angstvorstellung hingibt und noch nicht kapiert hat, dass sie bald Opfer ihrer eigenen Umtriebe sein wird. Sicher wissen diese Jugendlichen nicht einmal, dass es ohne CO2 in der Atmosphäre kein Wachstum gäbe (bereits unter 130 ppm), und dass die Erde um Potenzen höhere CO2-Gehalte der Atmosphäre bestens verkraftet hat. (Bild 7)

Bild 7: Entwicklung des CO2-Gehaltes der Atmosphäre
Messungen anhand von Eisbohrkernen in der Antarktis machen zudem deutlich, dass die CO2-Gehalte der Atmosphäre maßgeblich über die mit steigender Temperatur abnehmenden Löslichkeit von CO2 in Wasser bestimmt werden (Bild 8).

Bild 8: Einfluss der Temperatur auf die CO2-Gehalte der Atmosphäre

Diese in einem Zeitraum von 100 000 Jahren wiederkehrenden Temperatur- und CO2-Anstiege in der Atmosphäre werden bestimmt durch die Veränderung der Umlaufbahn der Erde um die Sonne von kreisförmig zu elliptisch. Gleichzeitig wird der überragende Einfluss eines Temperaturanstieges auf die CO2-Gehalte der Atmosphäre als natürliche Einflussgröße deutlich (vgl. Kapitel 2).
Ungeachtet dieser Zusammenhänge wird von den politischen Eliten die Klimakrise statt der Wirtschaftskrise in den Vordergrund gestellt nach dem Motto, was gilt schon eine verursachte Deindustrialisierung, wenn sowieso bald der Klima-Tod droht.
So ist die Klimaangst zu einer Gelddruckmaschine geworden für die Regierungen, die Regierungs-nahen Organisationen, die Klimaforscher, die Medien, etc.
Wie schrieb das Wall Street Journal: „Die dümmste Energiepolitik der Welt“ – dem ist nichts hinzuzufügen.
Es wird höchste Zeit, dass diese Bundesregierung einschließlich ihrer Denkfabriken wie Ökoinstitut, Fraunhofer Institut, Agora, etc. endlich begreift, dass es nicht reicht, ungeprüfte, viel versprechende Vorschläge zur Absenkung des CO2-Aussoßes in einer geschönten Wirklichkeit zu verbreiten, anstatt – wie in jedem Unternehmen üblich – den Vorschlägen gründliche Stoff-, Energie- und Kostenbilanzen voranzustellen (z.B. beim Wasserstoffausbau).

9. Quellen
1. Allon, C.: „46 den Klimawandel „leugnende“ Aussagen von ehemaligen IPCC-Wissenschaftlern“, EIKE, 03.06.2023
2. Kaufmann, W.: “Weltklimarat: Unfehlbare Klimaforscher?“, EIKE, 11.02.2023
3. Beppler, E.: „Eine Widerlegung der zur Rechtfertigung der Klimaneutralität (Zero Carbon) erhobenen Forderungen des „Weltklimarates“; EIKE, 25.04.2023
4. Beppler,E.: „Quantifizierung des marginalen CO2-Gehaltes in der Atmosphäre – ein seit Jahrzehnten überfälliger Schritt“; EIKE, 26.12,2020
5. Allon, C,: „Temperatur-Wärmespitze: Eine Folge des Hunga Tonga-Ausbruchs“; EIKE, 08.08.2023
6. Leistenschneider, H.: „Die NASA wird doch recht behalten – oder wie sich die fehlgeleitete Klimawissenschaft „in eine massive schockjournalistische Pseudowissenschaft verwandelt hat“, EIKE, 05.08.2023

7. Hennig, F.: Gaskrise voraus“, EIKE, 26.06.2023
8. „Weltwoche“ vom 18.07.2023
9. Beppler, E.: „Wieviel Wasserstoff erfordert die Klimaneutralität in 2045 auf dem Wege über 2030 und welcher Energieverbrauch ist damit verknüpft“; EIKE, 30.06.2023
10. Schuster, R.: „Regierungsauftrag am 5. Juli 23 und Chaos an der Börse“; Mitteilung 05.07.2023
11. Puls, K., AR Göring: „Schmelzende Arktis und heiße Ozeane- das Gegenteil ist korrekt“; EIKE, 01.07.2023
12. Allon, C.: „Die Hitzewelle-Panik: Wie es wirklich ist“: EIKE, 31.07.2023
13. Kuntz,H.: „Im Westen nichts Neues“, EIKE, 04.09.2023

 




Wasserstoffverwendung mal ehrlich betrachtet

Wasserstoff soll der Energieträger der Zukunft werden. Doch über Kosten und Energieaufwand zur Erzeugung wird geschwiegen. Die Energieverluste und die Kosten für Gewinnung, Transport, Lagerung und Nutzung von Wasserstoff sind riesig. 

von Prof. Dr. Ing. Hans-Günter Appel

Die Eigenschaften von Wasserstoff und die Naturgesetze kann man nicht ändern. Sie sind Grundlage für eine sinnvolle Verwendung. Es reicht nicht, Wasserstoff als klimaneutral einzustufen, weil bei der Verbrennung nur Wasserdampf entsteht, der klimaneutral sei. Das ist übrigens eine Falschaussage.

Globales Energie Budget mit den wichtigsten Einflussgrößen, Grafik Willy Soon

Wasserdampf steuert maßgebend unser Klima einschließlich der Erdtemperatur. Wasserstoff als Energieträger kann nicht das Klima retten. Er könnte aber fossile Brennstoffe ersetzen, die noch viele Jahrhunderte zur Verfügung stehen.

Staatliche Zuschüsse für Profiteure

Die Energieverluste und die Kosten für Gewinnung, Transport, Lagerung und Nutzung von Wasserstoff sind riesig. Sie werden von unserer Regierung und den meisten Politikern nicht beachtet, die nur durch ihre ideologische Brille die Weltklimarettung im Auge haben. Zur Klimarettung wären ambitionierte Maßnahmen erforderlich, heißt es. (Dies ist die Umschreibung für den Weg zu einer nicht bezahlbaren und unsicheren Energieversorgung.)

In Zukunft soll Wasserstoff der Hauptenergieträger werden. Dazu werden jetzt Elektrolyse-Pilotanlagen zur Erzeugung von Wasserstoff mit „grünem“ Strom staatlich finanziert, denn private Investoren finden sich nicht für diese utopische Energiepolitik. Stark unterstützt wird sie dagegen von den  Profiteuren, die durch die staatlichen Hilfen hohe Gewinne einfahren. Dazu gehört auch Thyssen-Krupp. Dem Stahlkonzern wurde gerade ein Milliarden-Zuschuss zum Bau einer Wasserstoff -Direktreduktionsanlage zur Gewinnung von Stahl durch den grünen Wirtschaftsminister Habeck zugesagt. Offen bleibt, woher der Wasserstoff kommen soll und welche Stahlkosten nach diesem Verfahren erwartet werden.

Wind- und Solarstrom (Fakepower) aus Deutschland reicht nicht für den Energiebedarf

Inzwischen wurde in den Ministerien ein wenig gerechnet. Die Strommenge für die Wasserstofferzeugung zur Deckung des gesamten Energiebedarfs in Deutschland ist so riesig, dass sie im Land nicht mit Wind und Sonne gewonnen werden kann. Die Fläche in Deutschland reicht dafür nicht. So sollen nun 70 Prozent des Wasserstoffs mit Sonnenstrom in den wolkenarmen Wüstengebiete der Erde erzeugt und nach Deutschland verschifft werden.

Die Verluste beim Wasserstoff-Import

Diese Idee könnte zu einem Nullsummenspiel werden. Das heißt, der gesamte Solarstrom geht auf den Weg zum Verbraucher verloren.  Die Elektrolyse frisst bereits 40 Prozent. (Die Chinesen geben für ihre Elektrolysen-Anlagen sogar 50 % an).  Hinzu kommen Verluste zur Aufbereitung des Wassers (Die Elektrolysen brauchen Reinstwasser, das in den wasserarmen Wüsten durch Meerwasser-Entsalzung gewonnen werden müsste), zur Verflüssigung  des Wasserstoffs (21  K = – 252 °C), Transport in Tankern für flüssigen Wasserstoff  (23-fache Volumen von verflüssigten Erdgas), Verdampfung, Transport und Lagerung in Deutschland (3-faches Gasvolumen von Erdgas). Nach Berechnungen vom Stromverbraucherschutz NAEB summieren sich die Verluste, bis der Wasserstoff den Verbraucher erreicht, auf mindestens 80 %. (Siehe Tabelle).

Wasserstoff Erdgas Erdöl
Temperatur       ° C 20 – 252 20 -161 20
Zustand Gas flüssig Gas flüssig flüssig
Dichte          kg/m³ 0,09 70,9 0,8 450 800
Brennwert    kWh/m³ 3,5 279 11 6500 9500
Volumen m³/1.000 kWh 285 3,58 91 0,154 0,105

Dichte, Brennwert und Volumen der Energieträger Wasserstoff, Erdgas und Erdöl.

Ammoniak ist keine Lösung

Es ist unwirtschaftlich, Wasserstoff wegen seines niedrigen Siedepunkts  zu verflüssigen. In Wilhelmshaven, das sich für den Wasserstoff-Import stark macht, werden daher Pläne geschmiedet, den Wasserstoff an Stickstoff zu Ammoniak (NH3) nach dem Haber-Bosch- Verfahren zu binden. Ammoniak siedet bei -33 °C und kann nach Verflüssigung mit vorhandenen Gastankern transportiert werden.

Flüssiges Ammoniak hat einen Brennwert von 3,3 kWh/Liter und damit ein 3-mal höheres Transportvolumen als von Benzin und Diesel (Brennwert ca. 10 kWh/Liter). Ammoniak kann direkt als Brenn- und Treibstoff verwendet werden. Doch die Verbrennung ist nicht vollständig. Die Abgase enthalten noch Ammoniak mit dem stechenden Geruch, der eine Abgasreinigung erfordert. Auch für die Ammoniak-Synthese geht viel Energie verloren. Das Verfahren läuft unter Druck bei etwa 400 °C. In Japan wurde ein Ammoniak-Speicher-Projekt bereits vor 2 Jahren wieder gestoppt.

Es gibt inzwischen glaubhafte Berechnungen von Fachleuten im Internet, die die gesamten Energieverluste zur Erzeugung von Wasserstoff in der Sahara und in der arabischen Wüste bis hin zum Endverbraucher in Deutschland ermittelt haben. Sie übertreffen die Stromerzeugung, wenn der Energieaufwand für Bau und Betrieb der notwendigen Anlagen mit eingerechnet wird. Die Idee, Energie aus der Sahara, an Wasserstoff gebunden, in Deutschland zu nutzen, könnte folglich ein Nullsummenspiel werden. Tatsächlich werden bereits jetzt Fördermittel in gigantischem Ausmaß sowohl für diese Import-Konzeption ebenso wie auch für die Vorbereitung von Offshore-Windparks mit Wasserstoff-Erzeugung bereits in der Nordsee mit Pipeline-Anschluß an das zukünftige Wasserstoff-Pipeline-Netz getätigt.

Wasserstoffverluste und Versprödung durch Diffusion

Eine Eigenschaft des Wasserstoffs wurde bisher politisch nicht bewertet. Wasserstoff ist das leichteste Element mit dem geringsten Atomdurchmesser. Die kleinen Atome können durch Metalle und Kunststoffe diffundieren. Diffusion ist ein Platzwechsel von Atomen oder Molekülen durch Wärmeschwingungen. Diffusion ist ein langsamer Prozess. Er wird beschleunigt mit steigender Temperatur.

Wasserstoff entweicht durch Diffusion aus unter Druck stehenden Gasleitungen und Tanks. Füllt man normale Autotanks für Gas mit Wasserstoff, ist die Hälfte in wenigen Wochen durch Diffusion verschwunden. Wieviel Wasserstoff bei der Lagerung in Salzkavernen durch Diffusion in den Salzstock verloren geht, ist nicht bekannt. Im Kavernenfeld Etzel bei Wilhelmshaven werden dazu erste Erprobungen durchgeführt. Die Lagerung in Salzkavernen ist aber schon fest geplant.

Kritisch wird es, wenn sich 2 diffundierende Wasserstoffatome in Gitterfehlstellen von Metallen zusammenkommen und sich zum H2-Molekül vereinigen. Das Molekül ist zu groß, um weiter zu diffundieren. Es blockiert Gleitebenen. Eine plastische Verformung ist nicht mehr möglich. Das Metall wird spröde und kann wie Glas brechen. Kommen in einer Fehlstelle mehrere Moleküle zusammen, bilden sie eine kleine Gasblase mit extrem hohem Druck, der zu inneren Spannungen bis hin zum Bruch führt. Es sind schon große Bauwerke durch Wasserstoff-Versprödung zusammengebrochen. Beim Transport und Lagerung muss auch mit der Wasserstoff-Versprödung gerechnet werden.

Energiekosten und Folgen

Über die Kosten der Energieversorgung mit Wasserstoff wird geschwiegen. Eine Zahl kann man sofort nennen. Wenn es stimmt, dass der gesamte Solar-Wüstenstrom bis zum Erreichen des Endverbrauchers aufgebraucht ist, steigt der Strompreis auf Unendlich. Dieser Zustand wird sicher nicht erreicht, weil vorher unsere Lebensgrundlage zusammenbricht.

Sicher ist, Wasserstoff als Energieträger verteuert Strom massiv. Die noch vorhandene Industrie wird noch schneller abwandern oder ihre Betriebe noch schneller schließen. Die Energiekosten sind der Schlüssel zu einer prosperierenden Wirtschaft. Mit der derzeitigen grünen Energiepolitik der steigenden Preise in noch ungewisse Höhen gehen Arbeitsplätze und Industriebetriebe verloren. Der Niedergang läuft. Dank der grünen Energiepolitik wird Deutschland deindustrialisiert.

Der Beitrag erschien zuerst bei mmnews hier

 




Brandenburg – Rückvermoorung stoppen. Kompetente Hilfe gesucht.

von Redaktion

immer öfter werden wir um Hilfe gebeten, um der grünen Politik mit ihren zerstörerischen Aktivitäten mit Kompetenz und Sachargumenten in den Arm zu fallen. Nachdem Ladwirtschaftszerstörungsminister (der) Cem Özdemir sich nun daran macht, bisher ackerbaulich genutzte Flächen in „natürliche“ Flächen wie bspw. Moore umzuwandeln, fühlt sich auch die brandenburgische Landesregierung berufen EU- Bundes- und Landesmittel in großem Umfang anzubieten, um diese „zurück zur Natur Idee“ eines Jaques Rousseau, der übrigens jedes seiner Kinder schon als Säugling in ein Findelheim abgab, in die Praxis umzsuetzen.

Die dafür nötigen massiven Eingriffe in bestehend Kulturlandschaften mit der Zerstörung geregelter Wasserkreisläufe – Bewirtschaftungen, werden dabei entweder nicht gesehen oder billigend in Kauf genommen. Der notwendige Import von Nahrungs-bzw. Futtermittel aus anderen Ländern verschärft den weltweiten Hunger zunehmend, obwohl Deutschland ihn bekämpfen müsste. Viele Landwirte werden mit (einmaligen) Zuschüssen geködert und/oder per sanftem indirektem Zwang zur Auf- und Abgabe ihrer Flächen genötigt. Dem wollen sich einige Landwirte und Anwohner im westlichen Brandenburg entgegenstellen und suchen  dafür sachkundige Unterstützer.

Viel Geld wird dabei nicht herausspringen, allenfalls wäre eine Aufwandsentschädigung denkbar.

 




Buchvorstellung: Es existiert kein natürlicher Treibhauseffekt.

 

Vorbemerkung:

Als Gast auf der EIKE-Internetseite soll zuerst einleitend in 4 Sätzen auf die Naturbeobachtungen der unabhängigen Forschergruppe Josef Kowatsch, Matthias Baritz und Raimund Leistenschneider verwiesen werden. Es wird in diesen Artikeln für alle EIKE-Leser regelmäßig, immer wieder und sehr anschaulich gezeigt: CO2 besitzt in der Natur – trotz kleiner messbarer infraroter Abstrahlungen – keine Wärmewirkung. Anders formuliert: Der sogenannte Treibhauseffekt (THE) existiert nicht einmal in der unmittelbaren Naturbeobachtung. Im Buch bestätigt diese Naturbeobachtung ein ausführlich dokumentierter CO2– Versuch unter Sonnenlicht in Anhang 5. Klimamodelle stehen gegenteilig hierzu. Mehr gemessene ppm CO2 in der Atmosphäre sind in Treibhausmodellen gekoppelt mit größerer mittlerer globaler Durchschnittstemperatur der Erde, einem Ersatzrechenwert. Der Klima-Alarmismus hackt sich hier ein. Alarmistische Klimawissenschaftler dominieren die Medien mit reißerischen Aussagen. Politiker, in der Regel keine Naturwissenschaftler, übernehmen diese: Antonio Guterres am 27.07.2023: „The area of global warming has ended, the area of global boiling has arrived“. Die gesetzgeberischen Auswirkungen wie CO2 Steuer, Heizungsgesetz, ein gezieltes Ende der Verbrennungsmotoren, das Wegbrechen wichtiger Schlüsselindustrien, aber auch der gesetzesbrecherische Fanatismus (extinction rebellion) sind in Deutschland im Alltag angekommen. Wenn bereits die unmittelbare, genaue Naturbeobachtung zur Nicht-Existenz eines Treibhauseffektes führt, sind die gängigen Modelle wirklich richtig? Oder sind sie vielleicht doch von Grund auf falsch? Geht uns das nicht alle an, wenn wir darunter ganz konkret leiden? Gibt es einen anderen Grund für die Entstehung der beobachteten Temperatur an der Erdoberfläche über die Breitengrade – ohne THE? Diese Frage ist die Motivation für dieses Buch. Wenn die gängigen Klimamodelle falsch sind, warum werden nicht auch andere Modellansätze verfolgt? Die politische Unterorganisation der UNO, das IPCC, durfte sich in ihrer Gründungspräambel nur auf Studien stützen, die den durch fossile Brennstoffe von Menschen induzierten Klimawandel betrachtet. Zudem unterbindet die „herrschende Klimalehre“ an Universitäten freies Forschen. Nur noch IPCC-konformes Forschen ist geduldet. Wer als lehrender Professor diesem Mainstream nicht folgt, dem werden nicht nur die Gelder gestrichen, er wird Opfer politisch bestens vernetzter Klimaalarmisten oder Opfer der universitären Cancel Culture.

Buchvorstellung:

Die Veröffentlichung gliedert sich über 120 Unterkapitel und 14 Anhängen im Umfang einer Dissertation. In 16 Kritikpunkten werden die Grundannahmen wie Albedo ca. 0.30, Gegenstrahlung ca. 324 W/m², natürlicher Treibhauseffekt von ca. 33 Kelvin des von der Mehrheit der Klimatologen verwendeten Basismodells zur Erklärung der Temperatur auf der Erdoberfläche am Beispiel der Studie Kiehl und Trenberth 1997 (KT97) in Frage gestellt und final widerlegt. Es wird gezeigt, welchen Einfluss diese Studie auf die Ausbildung von Klimawissenschaftlern besitzt, wie sie bis heute auf die Gestaltung der Algorithmen in Klimamodellen einwirkt, wo genau dort die Modellstellschrauben sitzen, mit denen CO2-Alarmismus befeuert wird und wie der Treibhauseffekt in die Klimamodelle einprogrammiert wird. Der Autor, ein Ingenieur, der auch in Geologie ausgebildet ist, stellt ein neues Modell vor. Dem gängigen BSE-Modell, der Erdkugel aus Kruste- und Mantelschichten, wird der Erdkern hinzugefügt. Die genaue thermodynamische Untersuchung aller Zonen entlang des Erdradius erweitert die neue Modellierung um Temperaturspeicher an der obersten Erdkruste. Für den THE wird ein Erdmodell mit Atmosphäre einem Erdmodell ohne Atmosphäre gegenübergestellt. Oft wird auch der Mond hinzugezogen. Man kann stattdessen auch ein Erdmodell mit Sonne und ein Erdmodell ohne Sonne miteinander vergleichen. Für den Vergleich mit dem Mond wird im Buch auf die neusten Messergebnisse der chinesischen Raumsondenmission Chang´e zurückgegriffen, mit erstaunlichen Ergebnissen. Ferner werden das Fouriersche Gesetz und das Stefan-Boltzmann Gesetz als Tensoren im Energietransport im Erd/Atmosphärenmodell diskutiert. Der Vergleich liefert nicht erwartete Ergebnisse. Dem Ansatz FIG.7. aus KT97, kein Speicher, aber für jedes Zeitintervall immerwährende Gleichsetzung aus Abstrahlung und sofortiger Einstrahlung auf der Vollkugel, wird eine stets nur halbseitig beleuchtete Hemisphäre entgegengestellt. In Abhängigkeit von Sonnenstand des Breitengrades und dortiger mittlerer lokaler Albedo nach Satelliten Messwerten ist es möglich, die Speicherwirkung vom Tag in die Nacht zu erfassen und die Temperaturen über die einzelnen Breitengrade aus der lokalen Abstrahlung zu ermitteln. Konvektion (SH) und Umwandlungsenthalpie (LH) werden hierbei berücksichtigt. Mit den Messwerten des ERBS Satelliten, aber auch dem Satelliten NOAA-9, werden die Abstrahlungen der Erde, getrennt nach Tag- und Nacht, verglichen. Das Integral über die lokalen Abstrahlungen aus Tag- und Nacht liefert die Globaltemperatur der Erde. Dieser Rechenwert zeigt an, ob die Erde im kalulatorischen Mittel „kälter“ oder „wärmer“ wird. Es wird gezeigt, wie Milankovic-Zyklen im Modell Warmzeiten und Eiszeiten ausbilden, bis hin zur Snowball-Earth und ein Ausblick in die nähere Zukunft gewagt. Die Abschmelzgeschwindigkeit von Alpengletschern am Ende der Eiszeit und heuten werden diskutiert, mit neuen Erkenntnissen. Dieses Buch richtet sich an Wissenschaftler und Leser mit Interesse für Klimawissenschaft, Geophysik, Physik bzw. Thermodynamik. Aufgebaut als unmittelbar prüffähiger Nachweis erläutern 500 Fußnoten, über 120 Quellen (soweit möglich mit der wissenschaftlichen DOI-Angabe), rund 100 Grafiken, Tabellen, Bilder, Schemata, Diagramme (die Hälfte farbig), und 14 Anhänge. Ein dokumentierter CO2-Versuch unter Sonnenlicht ergänzt diese Nachweisführung und bestätigt die in der Vorbemerkung zitierte Naturbeobachtung. IPCC-Klimamodelle bilden nach Ansicht des Autors die Natur falsch ab oder „modellieren“ falsch. Die Temperaturbildung über die einzelnen Breitengrade folgt anderen Gesetzen. Diese werden im Buch explizit aufgezeigt. Im Ergebnis gibt es den Treibhauseffekt durch die in voneinander unabhängigen Beweisketten begründeter Nachweisführung real nicht.

Über den Autor:

Als konstruktiver Bauingenieur des Hoch- und Tiefbaus (Stahlbau, Holzbau, Stahlbeton, Spannbeton, Brückenbau, etc., mit universitärer Ausbildung u.a. in Mathematik, Informatik, Physik, Statik, technischer Mechanik, Geologie, Hydraulik, Hydrologie, Wasserbau, Straßen- und Eisenbahnbau, Bodenmechanik, Felsmechanik, Geophysik und Baurecht) habe ich viele Jahre als Statiker und auch als Prüfstatiker gearbeitet. Mit der eigenen Unterschrift, der direkten juristischen Haftung für Freigabe der Ausführung, übernimmt man die persönliche Verantwortung. Als Prüfstatiker wird man in der Regel vereidigt, um unbestechlich, ohne Ansehen der Person oder Institution, zu prüfen. Es ist die Aufgabe, letztverantwortlich Fehler zu finden und zu korrigieren zum Schutz für Leib und Leben der Menschen. Hierbei prüft man auch Algorithmen der Software bzw. die Software selbst. Heute bin ich in einem anderen Bereich des Bauwesens tätig. In der Statik wurden immer leistungsfähigere räumliche Berechnungsverfahren (Netze bzw. Finite Elemente) bereits Ende/Mitte der 1980er Jahre entwickelt. Die Software der Klimamodelle verwendet ebenfalls räumliche Netze (Grids). Sie sind etwas anders aufgebaut, mit anderen Differenzialgleichungen bestückt und gehorchen anderen Randbedingungen als die Netze, die Bauwerke modellieren. Aus rein privatem Interesse begann ich vor vielen Jahren – als die Treibhaushypothese noch nicht im öffentlichen Interesse stand – mich mit dieser auseinander zu setzen. A priori ging ich davon aus, der sogenannte „Treibhauseffekt “ sei selbstverständlich richtig. Klimawissenschaftler haften juristisch weder für ihre Modelle noch für die volkswirtschaftlichen Auswirkungen ihrer Berechnungen. In den gängigen Klimamodellen wird der THE benötigt, um die Temperaturbildung durchzuführen. Es tauchten beim THE für mich Ungereimtheiten, Widerspruche und Fehler in seiner Ableitung auf. Über 900 Studien arbeitete ich über die Jahre zum Thema Modellierung-Klima-THE durch, privat, aber in der Herangehensweise eines Prüfingenieurs.

Taschenbuch DIN A4 264 Seiten ISBN 978-3-347 95039-9 Gebundene Ausgabe DIN A4 264 Seiten ISBN 978-3-347 95040-5

Im Buchhandel oder im tredition shop: Ein Bild, das Screenshot, Schwarzweiß, Muster, Quadrat enthält. Automatisch generierte Beschreibung