Wir können auf Kohlekraftwerke nicht verzichten!

Kohlekraftwerke liefern bedarfsgerecht den preisgünstigsten Strom und sorgen für Netzstabilität.  Wind- und Solarstrom schwanken mit dem Wetter. Sie sind nicht regelbar und können nur begrenzt in ein stabiles Stromnetz eingespeist werden ohne das dies instabil wird.

von Prof. Dr. Hans-Günther Appel NAEB

In unserer Lokalzeitung wurde kürzlich über das Onyx-Kraftwerk in Wilhelmshaven berichtet, das seit 15 Jahren fast rund um die Uhr in Betrieb ist. Dies kleine Jubiläum soll Anlass sein, die Leistungen und Kosten von Wind- und Kohlestrom zu vergleichen.

 

Zur Geschichte

Das Onyx-Kraftwerk mit einer Leistung von 731 Megawatt und einem Wirkungsgrad von 46 Prozent gehört zu den modernsten Anlagen in Deutschland. Es verwandelt 46 Prozent der Verbrennungswärme in Strom, braucht also weniger Kohle als ältere Kraftwerke mit einem Wirkungsgrad um 40 %. Weltweit werden häufig nur 35 % erreicht. Das Werk wurde als Ersatz für die deutschen Kernkraftwerke geplant, die nach massiven grünen Protesten stillgelegt werden sollten. Damals wurde sachlich mit den Stromversorgern diskutiert, wie man den Atomausstieg schaffen kann, ohne die Stromversorgung zu gefährden. Die Lösung war: Die Kernkraftwerke werden durch Kohlekraftwerke ersetzt. Der Strom wird dadurch zwar etwas teurer. Der Preisanstieg um ca. ein Cent/Kilowattstunde sollte aber verkraftbar sein.

So wurden zu dem damals bereits vorhandenen e-on-Kraftwerk noch 3 weitere Kohlekraftwerke am tiefen Fahrwasser von Wilhelmshaven geplant, die die Kernkraftwerke in Norddeutschland ersetzen sollten. Nur das Onyx-wurde gebaut. Dann war die grüne Bewegung gegen die Verbrennung von Kohle, Erdgas und Erdöl so stark geworden, dass die Energieversorgung ausschließlich aus regenerativen Quellen kommen sollte. Wind und Sonne sollten den Hauptanteil liefern. Der Ausstieg aus der Kohleverstromung wurde gestartet. Dieses Mal wurde nicht zusammen mit Fachleuten ein möglicher Weg gesucht. Eine von der Bundesregierung ernannte Kommission aus Politikern, Gewerkschaftlern und lokalen Vertretern der Kohleregionen sollte einen Terminplan für den Ausstieg empfehlen, der dann auch zum Gesetz wurde. Kosten und Versorgungssicherheit wurden nicht beachtet.

Eine treibende Kraft hinter dieser Entwicklung war Rainer Baake. Als grüner Staatssekretär unter Jürgen Trittin hat er den Atomausstieg verhandelt, um wenige Jahre später den Kohleausstieg voranzutreiben. Dazu hat er nach seiner Freistellung als Staatssekretär mit US-Kapital die Agora-Energiewende gegründet, einen Lobby-Verein zur Durchsetzung der Energiewende. Dieser Verein wird inzwischen auch mit deutschen Steuergeldern finanziert. Er ist in den Parteien, die das Weltklima mit der Energiewende retten wollen, gut vernetzt. Die Ernennung des Geschäftsführers von Agora-Energiewende, Patrick Graichen, zum Staatssekretär durch den Minister für Wirtschaft und Klimaschutz, Robert Habeck, ist dafür ein deutlicher Beleg. Auch nach der Entlassung von Graichen wegen Bevorzugung seines Trauzeugen bei einer Ämtervergabe bleibt der Einfluss von Agora und des Graichen-Clans erhalten. Enge Verwandte von Ihm sind weiter an führenden Stellen im Ministerium. Sie setzen die Agora-Vorstellungen in Gesetze um.

 

Kohlekraftwerke sind das Rückgrat der Stromversorgung

Der hohe Auslastungsgrad von dem Onyx-Kraftwerk zeigt, wie wichtig der Kraftwerkstrom für eine sichere Versorgung ist. Es läuft auch dann, wenn bei Starkwind und Sonnenschein die umliegenden Windgeneratoren abgeschaltet werden, um das Stromnetz nicht zu überlasten. Die Kraftwerke werden für ein stabiles Wechselstromnetz gebraucht. Mit ihren großen rotierenden Massen stabilisieren sie die Netzfrequenz. Ein solches Netz kann maximal 60 Prozent Wind- und Solarleistung aufnehmen. Darüber hinaus regeln die Kraftwerke die Netzleistung auf den Bedarf und ergänzen die Leistung bei schwachen Winden und Dunkelheit. Bei Dunkelflaute müssen sie die gesamte Leistung übernehmen.

Die Leistung des Wind- und Solarstrom wird vom Wetter bestimmt und ist weder plan- noch regelbar. Allein mit dem nicht planbaren Wind- und Solarstrom kann keine sichere und bezahlbare Stromversorgung aufgebaut werden. Viele Politiker behaupten das aber. Das ist eine Täuschung der Bevölkerung. Um das zu verdeutlichen, nennt der Stromverbraucherschutz NAEB diesen Strom FAKEPOWER (Fake = Täuschung).

 

Kohlestrom ist auf fast allen Gebieten günstiger als Windstrom. 

Das Kraftwerk Wilhelmshaven hat eine Leistung von 731 Megawatt (MW), die ganzjährig (bis auf planbare Revisionen) verfügbar ist. Für die gleiche mittlere Jahresleistung müssen Windstromanlagen mit 3700 MW installiert werden, denn sie liefern im Mittel nur 20 Prozent ihrer installierten Leistung mit Schwankungen zwischen Null und 60 Prozent. Knapp 2.000 von den 6131 Windgeneratoren in Niedersachsen (Zahlen für 2021) können zwar die gleiche Jahresstrommenge wie das Kraftwerk erzeugen, aber nicht bedarfsgerecht und nicht als eine die Netzstabilität sichernde Grundlast.

Das Kraftwerk Wilhelmshaven hat eine Fläche von ca. 65 Hektar. Davon ist rund die Hälfte versiegelt. Vom Kraftwerk wurde auf eine Bitte um genaue Flächenangaben keine Auskunft gegeben. Die Arbeitsgruppe Windenergie-Freigericht gibt pro Windgenerator 350 Quadratmeter versiegelte Fläche und ca. 4.000 Quadratmeter geschotterte Betriebsfläche an. Hinzu kommt noch die Zuwegung in unterschiedlicher Ausführung. Damit versiegeln die 2.000 Windgeneratoren 70 Hektar, also rund doppelt so viel wie das Kraftwerk. Die benötigte Betriebsfläche übersteigt deutlich das 10-fache der Kraftwerksfläche.

Der Bau des Kraftwerks kostete etwa eine Milliarde Euro. Für die Windgeneratoren mussten 3,7 Milliarden aufgewendet werden, um jeweils 5,5 Milliarden kWh Strom im Jahr zu erzeugen (ca. 1 % des Strombedarfs). Mit Abschreibungen über 20 Jahre plus Zinsen und Betriebskosten liegen die Gestehungskosten des Windstroms bei 6,6 Cent/Kilowattstunde (ct/kWh). Der Aufwand für die Entsorgung des Überschussstroms, die Regelungskosten von 2,3 Milliarden Euro/Jahr, sowie die Kosten für die Demontage und Entsorgung der Anlagen nach 20 Jahren sind hier nicht enthalten. Kraftwerke werden über 30 Jahre abgeschrieben. Einschließlich Zinsen liegen die Gestehungskosten bei 1,2  ct/kWh. Hinzu kommen 3,3 ct für den Brennstoff Kohle (120 Euro/Tonne). Der zuverlässige Kraftwerkstrom wird mit 4,5 ct/kWh deutlich günstiger produziert als der unzuverlässige Windstrom mit 6,6 ct.

 

Holz als Brennstoff ist keine Lösung 

 Es gibt Pläne, das Onyx-Kraftwerk auf Holzfeuerung umzustellen. Dagegen hat kürzlich die örtliche Organisation des NABU demonstriert. Zu Recht. Für die Feuerung nur dieses Kraftwerks brauchte man den Ertrag von tausend Quadratkilometer Wald, wenn Raubbau vermieden werden soll. Die Transportkosten würden verdoppelt, weil der Brennwert von Holz nur halb so hoch ist wie von Kohle. Statt 15 Kohleschiffe müssten jährlich 30 Holzfrachter mit je 100.000 Tonnen Ladung Wilhelmshaven anlaufen. Diese Planung würde den Strom deutlich verteuern und viel Energie vergeuden, die uns fehlt.

 

Ergebnis

  • Kohlestrom ist günstiger und sicherer als Fakepower.
  • Der Strom aus dem Onyx-Kraftwerk kann 2.000 Windgeneratoren ersetzen.
  • Beliebig viele Windgeneratoren können aber kein einziges Kraftwerk ersetzen.
  • Es können alle Fakepower-Anlagen abgeschaltet werden, ohne die Stromversorgung zu gefährden. Das Abschalten nur weniger Kraftwerke kann zum Blackout führen.
  • Holz verliert durch Trocknung und Transport viel mehr Energie als Kohle?

Egal wie man ihn bezeichnet: Ökostrom, Windstrom, Voltaik- oder Solarstrom, Biogasstrom, EE-Strom, Strom aus erneuerbaren Energien, solange er Kraftwerkstrom ersetzen soll, also direkt ins Stromnetz eingespeist wird ohne „Veredelung“ durch ein Kraftwerk, ist es Fakepower.

 




Wunderwaffe Wasserstoff: Das große Nichts – Wenn Milliarden keine Rolle mehr spielen

In der Chemieindustrie weiß man, wie teuer und unsinnig eine Produktion mit Hilfe der Elektrolyse ist. Wasserstoff wird deshalb aus Erdgas hergestellt, das sowohl die Energie als auch den Ausgangsstoff dafür liefert. Freiwillig investieren will niemand in solche Utopien. Deshalb werden Elektrolyse-Pilotanlagen mit Steuergeldern finanziert.

Von Holger Douglas

Wasserstoff heißt die neue Wunderwaffe, die Deutschland retten soll. Das Land setzt bekanntlich die Energiewende durch und steht kurz vor dem energiepolitischen Desaster. Grüne haben mit Begeisterung Kraftwerke zerschlagen und Kühltürme in die Luft gesprengt, CDU/CSU, SPD, Grüne haben Strom so teuer gemacht, dass die Industrie abwandert und Bürger immer ärmer werden.

Da muss eine Wunderwaffe her. Dazu ist das arme Wasserstoffmolekül avanciert, das häufigste Element und das leichteste. Es kommt allerdings nur in chemisch an andere Elemente gebundener Form vor. Damit beginnen die Probleme. Um diese Verbindung zu knacken, ist Energie notwendig.

Aus dem Schulunterricht haben wir noch den Elektrolyse-Versuch des Lehrers in dunkler Erinnerung, wie sich aus Wasser Sauerstoff und Wasserstoff machen lässt. Nur Strom ist dafür notwendig. Und der fällt ja künftig kostenlos an, wenn nur das Land mit Windrädern zugepflastert ist. So kommt immer wieder gebetsmühlenartig der Wasserstoff in Zukunftsszenarien hervor und die Idee, mit Hilfe von Sonnenlicht und Wind Wasserstoff zu erzeugen.

Leider hat der Lehrer meist darauf verzichtet, eine Elektrolyse-Bilanz aufzustellen und auszurechnen, was am Ende übrigbleibt. Da kommt nämlich das große Nichts heraus, und der Effekt des Versuchs wäre dahingeschmolzen. Das konnte allerdings die Bundesregierung nicht davon abhalten, auf Wasserstoff zu setzen.

»Zahlreiche Stimmen aus Wissenschaft, Gesellschaft und Politik, einschließlich der Bundesregierung und der Europäischen Kommission« erachten, so lautet es in einer Schrift des Bundestages über den »Wasserstoffbedarf«, den Einsatz von Wasserstoff (H2) als Schlüsseltechnologie für die Energiewende und den Klimaschutz. Voraussetzung ist, dass der Wasserstoff ausschließlich mithilfe „Erneuerbarer Energien“ gewonnen wird und damit „grün“ ist.

Im Juni 2020 hat das Kabinett eine »Nationale Wasserstoffstrategie« beschlossen. Das klingt nach Ziel und Plan, doch wenn so etwas wie ein Nationaler Wasserstoffrat eingesetzt wird, müssen angesichts solch bombastischer Namen alle Alarmglocken läuten. Da gibt es tatsächlich eine »Leitstelle Wasserstoff«, die offenbar nur die richtigen Knöpfe drücken muss, um die »Wasserstoffwirtschaft« wie Züge auf der Modellbahn »hochlaufen« zu lassen.

Die üblichen Verdächtigen der Katastrophensirenen sitzen drin wie »Klima Allianz Deutschland« oder der BUND. Natürlich gehört auch jemand aus der unheilvollen Graichen-Sippe dazu: Verena Graichen, die Schwester des ehemaligen Habeck-Staatssekretärs Patrick Graichen. Mehr grüner Filz geht kaum. Auch eine Veronika Grimm, gern als Wirtschaftsweise präsentiert, betont als Mitglied des »Nationalen Wasserstoffrates« immer wieder die Bedeutung des Wasserstoffs in der Energiewende.

Mit dabei sind natürlich auch Abgesandte von Siemens Energy AG, MAN Energy Solutions und Daimler Truck AG, die aufpassen müssen, dass noch genügend Subventions-Milliarden der Nettosteuerzahler bei ihnen hängenbleiben. Deren Ingenieure rechnen ihnen zwar die Unsinnigkeit aus naturwissenschaftlicher Sicht vor, aber solange solcherlei Gedanken im internen Rahmen bleiben, spielen sie keine Rolle. Nach außen muss es nur so von »Zukunft«, »Hochlauf« und »Klimaschutz« dröhnen.

Mit den seit Jahrzehnten immer wieder aufkeimenden Träumen, Wasserstoff als Autoantrieb zu benutzen, hatten wir uns schon einmal beschäftigt. Solange öffentliche Gelder fließen, ist alles gut. Danach werden die Versuchsautos wieder eingemottet.

Auch Stahlhersteller Thyssen-Krupp zeigt sich nach außen hin begeistert und bejubelt die verrückte Idee, Wasserstoff in der Stahlproduktion einzusetzen. Kein Wunder, hat doch Habeck Zuschüsse für den Bau einer Wasserstoff-Direktreduzierungsanlage zur Gewinnung von Stahl zugesagt – natürlich in Milliardenhöhe. Je weniger die Protagonisten etwas von Geld verstehen und wissen, wie mühsam es verdient werden muss, desto leichter fließen die Milliardenbeträge.

Hauptsache, das Geld ist weg. Niemand weiß, woher die Mengen an Wasserstoff kommen sollen und wie teuer der Stahl hinterher wird. Vermutlich liegen die Preise weit über dem Weltmarkt, aber dann dürften wieder Milliarden an Zuschüssen fließen – für die Übergangszeit ins grüne Paradies.

Die »Wunderwaffe« Wasserstoff ist alt. Allerdings galt sie in früheren Zeiten nicht als Wunderwaffe, sondern sie wurde nüchtern betrachtet. Das begann mit Henry Cavendish (1731–1810). Der hätte sich wohl in seinen kühnsten Träumen nie vorstellen können, dass mal von so etwas wie einer Wasserstoffwirtschaft geredet wird. Er war zwar ein schrulliger Naturwissenschaftler, aber so schrullig nun auch wiederum nicht, dass ihm eingefallen wäre, Wasserstoff als wichtigsten Energieträger einzuführen, dazu noch mit dem unsinnigen Modelabel »CO2-frei« etikettiert. Gelächter ausgelöst hätte es bei ihm, hätte er den Spruch vom »Zeitalter einer Wasserstoffwirtschaft« gehört, der gerade losgelassen wird.

Zuvor – 1671 – hatte bereits Robert Boyle die Reaktion von Schwefelsäure mit Eisenpulver mit der Bildung eines »leicht brennbaren Dampfes« beschrieben, eben Wasser. Cavendish hatte dann 1766 reinen Wasserstoff als erster isolieren und zeigen können, dass es ein chemisch nicht weiter teilbares Element ist. Als nüchterner Naturforscher war sein Prinzip »beobachten, messen und Fakten sammeln«. Wasserstoff produziert bei der Verbrennung mit Sauerstoff Wasser.

20 Jahre später wollte in Paris der schon damals bedeutende französische Chemiker Antoine Laurent de Lavoisier zeigen, dass bei chemischen Reaktionen keine Masse verloren geht und erhitzte Wasser in einem abgeschlossenen System. Er ließ das entstandene Wasserstoffgas knallen, erschreckte mit »Knallgasexplosionen« sein Publikum. »Hydro-gène«, »wasserproduzierend« nannte er das Gas. Beiden Naturwissenschaftlern gemein war, dass sie sich nicht nur dafür interessierten, dass etwas funktioniert. Entscheidend ist vielmehr: Wie viel kommt dabei heraus? Wie sehen Massenbilanzen und Reaktionsgleichungen aus? Lavoisier war bekannt dafür, dass er Messmethoden für Massen und Gewichte entwickelte und peinlich genau bei jedem Experiment seine Messergebnisse aufzeichnete. Fakten als Grundlage für Erkenntnisse und Schlussfolgerungen.

Genau das unterscheidet sie von heutigen Berliner Energiewendern und Propagandisten einer Wasserstoffwirtschaft. Die ehernen Regeln gelten heute zunehmend als veraltet. Wissenschaft und Technik haben sich dem Politwillen zu unterwerfen, und der ist im Zweifel »grün«.

Nachzutragen ist, dass die fanatischen französischen Revolutionäre mit dem Jahrhundertkopf Antoine de Lavoisier einen der führenden Wissenschaftler der damaligen Zeit guillotinierten. Der blindwütige Richter des Revolutionstribunals soll bei dem Schnellverfahren erklärt haben: »Die Republik braucht keine Wissenschaftler, ein einziger Mann von Geist an der Spitze des Staates reicht.«

Wasserstoff ist sehr gut erforscht. Die physikalischen und chemischen Eigenschaften des Moleküls sind seit langem wohlbekannt. In der Chemieindustrie gehört dieses Element zu den wichtigsten Stoffen und wird sehr häufig für Synthesen oder als Reduktionsmittel benutzt. Die Molekülmasse von Wasser beträgt etwa 18 Gramm pro Mol, und die Molekülmasse von Wasserstoff beträgt etwa 2 Gramm pro Mol. Das bedeutet, dass für die Herstellung von einem Mol Wasserstoff (etwa 2 Gramm) aus Wasser etwa 9 Gramm Wasser (H2O) benötigt werden. Um beispielsweise 100 Gramm Wasserstoff herzustellen, benötigt man etwa 450 Gramm Wasser (H2O). Sehr folgenreich für eine Wasserstoff-Produktion.

Wo soll also der Wasserstoff herkommen? Der kommt nicht aus der Erde wie die Energieträger Kohle, Öl oder Gas, sondern muss erst erzeugt werden; das kostet Energie, viel Energie sogar. »Überschüssiger« Strom soll in Wasserstoff umgewandelt werden, heißt es. Hauptsache, der Strom ist »grün«.

In der Chemieindustrie weiß man, wie teuer und unsinnig eine Produktion mit Hilfe der Elektrolyse ist. Wasserstoff wird deshalb aus Erdgas hergestellt, das sowohl die Energie als auch den Ausgangsstoff dafür liefert. Freiwillig investieren will natürlich niemand in solche Utopien, deshalb werden Elektrolyse-Pilotanlagen von unser aller Steuergeld finanziert.

Unsinniger Elektrolyse-Prozess

Nach Berechnungen des Stromverbraucher-Schutzes NAEB summieren sich die Verluste auf mindestens 80 Prozent. Wenn nicht mehr. Der Elektrolyse-Prozess selbst verschlingt bereits 40 Prozent der ursprünglichen Energie, die Chinesen geben für ihre Anlagen sogar 50 Prozent Energieverluste an.

Die Idee, Photovoltaik-Anlagen in die Wüste zu stellen, und mit diesem Strom Wasserstoff zu produzieren, zeugt ebenfalls nicht von allzugroßer Hellsicht. Es werden enorme Mengen an Wasser benötigt. Wenn schon im mit Wasser reichlich gesegneten Berlin von Wasserarmut geredet wird, was soll man dann in der Wüste sagen?

Millionen Tonnen an reinstem Wasser müssen dorthin transportiert werden. Meerwasser darf es nicht sein, nicht nur, weil Anlagen, vor allem Elektroden, sehr schnell korrodieren, unter anderem würde als Nebenprodukt an der Anode Chlorgas freigesetzt. Das wiederum ist giftig, reizt Atemwege und wurde im Ersten Weltkrieg als chemisches Kampfgas eingesetzt.

Der Wasserstoff müsste ferner für den Transport verflüssigt werden. Er hat in flüssigem Zustand immerhin das 23-fache Volumen von verflüssigtem Erdgas (LNG), entsprechend teuer ist also der Transport. Das bedeutet unter dem Strich ein Nullsummenspiel, rechnet Prof. Hans-Günter Appel vom NAEB vor. Denn ja, im Gegensatz zum grünen Berlin kann man berechnen, was am Ende herauskommt und wie teuer das wird.

Aus neun Kilogramm Wasser werden ein Kilogramm Wasserstoff und acht Kilogramm Sauerstoff. Hier ist bei der Verarbeitung reichlich Vorsicht geboten, sowohl Wasserstoff als auch Sauerstoff können ordentlich knallen. Welcher »Wumms« dahinter steckt, lässt sich anschaulich mit Raketenstarts illustrieren.

Auch der Physiker Ulf Bosselt rechnete bereits 2010 vor, dass Wasserstoff keine Energieprobleme löste (Leibniz-Institut 2010). Bei ihm muss man hinzufügen: Der gilt als einer der Erfinder der »Energiewende«. Bei seiner Rechnung »Was bleibt am Ende übrig?« setzt er für die Kompression des Wasserstoffs für den Transport auf 200 bar den Energieverlust mit sieben Prozent an. Den Energieaufwand für den Transport über rund 2.000 Kilometer hat er damals mit 15 Prozent angesetzt.

Den vergleichsweise geringen Energiegehalt von Wasserstoff illustriert Bosselt mit der Gegenüberstellung eines 40-Tonnen-Tankwagens, der Benzin transportiert. Um die gleiche Energiemenge zu transportieren, müssen 12 Wasserstoff-Druckgas-Tankwagen über die Straßen rollen.

Als Nachhilfe für Berliner Wasserstoff-Träumer dient Bosselts Darstellung über die Dimension des Energieproblems anhand des Frankfurter Flughafens. Wenn ein Jumbo-Jet 130 Tonnen Kerosin tankt, entspricht dies 50 Tonnen flüssigem Wasserstoff. Etwa 50 Jumbo-Jets werden dort abgefertigt – am Tag. Dafür würden 2.500 Tonnen flüssigen Wasserstoffs benötigt. Die müssten aus 22.500 Kubikmeter Wasser hergestellt werden. Um den Strom dafür zu liefern, müssten acht Kraftwerke mit einer Leistung von je einem Gigawatt auf vollen Touren laufen.

Würden alle 520 Flugzeuge am Tag mit Wasserstoff betankt werden, bleibt für die Stadt Frankfurt nicht mehr viel übrig: Das entspricht dem gesamten Wasserverbrauch der Stadt und dem Strom von 25 Kernkraftwerken. Selbst Energiewende-Fan Bosselt kommt zu dem Schluss: »Wasserstoff verhindert die Energiewende«. Der Wirkungsgrad ist einfach miserabel. »Energieprobleme können nicht durch Substitution fossiler Kraftstoffe durch Wasserstoffe gelöst werden!« Der Energiewende-Fan fordert nachdrücklich dazu auf: »Bitte Spekulationen über Wasserstoffimporte beenden!«

Es ist alles bekannt, die Energiebilanzen durchgerechnet und trotzdem

Der grüne Traum: Der überflüssige Strom aus Windrädern und Photovoltaikanlagen solle für die Produktion von Wasserstoff verwendet werden. Doch Wind und vor allem Sonne tun ihnen nicht den Gefallen, rund um die Uhr zur Verfügung zu stehen. Die teuren Industrieanlagen werden also nur über sehr eingeschränkte Zeiten genutzt. Das kostet ebenfalls.

Völlig offen also, woher die gigantischen Strommengen herkommen sollen, um den vollkommen unwirtschaftlichen Elektrolyse-Prozess anzutreiben. Nicht umsonst kam in den 1980er Jahren die Idee einer Wasserstoffproduktion auf, als die Kernkraftwerke gebaut wurden. Die liefern solch hohe Energiemengen, dass mit diesem Strom Wasserstoff hätte produziert werden können. Später dann kam die Kerntechnik in Verruf. Dann sollte es die scheinbar sanfte Sonne richten, so zumindest die Idee Ludwig Bölkows nach all den frühen Jahren, in denen er Technik für den Krieg entwickelte.

Der Diplom-Ingenieur der Elektrotechnik, Klaus Maier, der auch in einem kleinen Büchlein eine »Abrechnung mit der Energiewende – Der Energiewende-Check« geschrieben hat, rechnete in seiner gutachterlichen Stellungnahme zum »Hessischen Wasserstoffzukunftsgesetz« vor, was »Wasserstoffwirtschaft« wirklich kostet: »Die Endenergie Wasserstoff ist vier bis fünf Mal teurer als die bewährten fossilen Kraftstoffe (Benzin, Diesel, Kerosin, Heizöl, Erdgas). Das führt dazu, dass volkswirtschaftliche Mehrkosten von jährlich 200 Mrd. Euro allein für Wasserstoff entstehen würden.«

Als gestandener Ingenieur denkt Maier auch daran, dass solche Anlagen gewartet werden müssen und auch einmal kaputtgehen. Auch das kostet: »Zur Ehrlichkeit gehört zu sagen, dass auch nach den immensen Investitionen von wenigstens 7 Billionen Euro bis 2050 weiterhin jährliche Mehrkosten für Wartung, Betrieb und Erneuerung in dreistelliger Milliardenhöhe für Deutschland aufgebracht werden müssen.«

Wasserstoff – wenn Milliarden keine Rolle mehr spielen.

Der Beitrag erschien zuerst bei TE hier

 




EIKE Vize Michael Limburg redet Klartext

von Von Maurice Forgeng Epoch Times

Ist die „Energiewende ein Akt der Selbstzerstörung einer Industrienation“? So lautete der Titel eines Vortrages von Dipl.-Ing. und Autor Michael Limburg am 19. September in Berlin. Er sprach über die Folgen des kürzlich vom Bundestag beschlossenen Heizungsgesetzes und den Stand der Energiewende. Die Veranstaltung organisierte die Hayek-Gesellschaft.

Limburg sieht im derzeitigen Stand bei der Energiewende mehr Nachteile als Vorteile, wie etwa die „extrem geringe Leistungsdichte“ von Solar- und Windkraftanlagen. So müssten Windräder heutzutage sehr hoch gebaut werden, da „die Summe der Windenergie so ‚dünn‘“ ist.

Die Flügel großer Windkraftanlagen hätten die Größe eines Fußballfeldes und der Turm bis zur Nabe sei längst „höher als der Kölner Dom“. „Sie brauchen riesige Flächen, um die Energie einzufangen. Für relativ wenig Strom muss man Riesenmaschinen aufbauen.“…

Weiterlesen bei EPOCH Times hier




Zum Verständnis der Sonne im Klimawandel

Von Nicola Scafetta

Obwohl die Sonne fast die gesamte für die Erwärmung des Planeten benötigte Energie liefert, wird ihr Beitrag zum Klimawandel nach wie vor weitgehend in Frage gestellt. In vielen empirischen Studien wird behauptet, dass sie einen erheblichen Einfluss auf das Klima hat, während andere (oft auf der Grundlage globaler Klimasimulationen am Computer) behaupten, dass sie nur einen geringen Einfluss hat.

Der Zwischenstaatliche Ausschuss für Klimaänderungen (IPCC) unterstützt die letztgenannte Ansicht und schätzt, dass fast 100 % der beobachteten Erwärmung der Erdoberfläche von 1850-1900 bis 2020 durch vom Menschen verursachte Emissionen verursacht wurde. Dies ist als die Theorie der anthropogenen globalen Erwärmung (AGWT) bekannt.

In einer neuen Studie, die in Geoscience Frontiers veröffentlicht wurde, habe ich mich mit diesem wichtigen Paradoxon befasst. Das Rätsel scheint sich aus zwei Gruppen von Unsicherheiten zu ergeben: (i) die historischen Jahrzehnte und langfristigen Schwankungen der Sonnenaktivität sind unbekannt; (ii) die Sonne kann das Klima der Erde durch verschiedene physikalische Mechanismen beeinflussen, von denen viele nicht vollständig verstanden werden und in den GCMs nicht existieren.

Ein Bild, das Text, Diagramm, Reihe, Screenshot enthält. Automatisch generierte Beschreibung

Abbildung 1: (A) Anthropogene (blau) und vulkanische (orange) effektive Strahlungsantriebsfunktionen, die von den CMIP6-GCMs angenommen werden. (B) Mögliche solare effektive Strahlungsantriebsfunktionen. Quelle: Geoscience Frontiers (2023). DOI: 10.1016/j.gsf.2023.101650

Es ist wichtig zu wissen, dass die AGWT ausschließlich auf Computersimulationen globaler Klimamodelle (GCMs) basiert, die Aufzeichnungen der Gesamtsonneneinstrahlung (TSI) mit sehr geringen multidekadischen und langfristigen Schwankungen verwenden. Dasselbe Modell geht auch davon aus, dass die Sonne das Klimasystem nur durch Strahlungsantriebe wie die TSI beeinflusst, obwohl es Hinweise darauf gibt, dass auch andere solare Prozesse, die mit der magnetischen Aktivität der Sonne zusammenhängen (Sonnenwind, kosmische Strahlung, interplanetarer Staub usw.), das Klima beeinflussen.

Die Aufzeichnungen der Gesamtsonneneinstrahlung (TSI)

Dekadische und langfristige Veränderungen der historischen Sonnenaktivität sind unbekannt, da die Gesamtsonneneinstrahlung (TSI), die die Erde erreicht, nur von Satelliten genau gemessen werden kann, und diese Aufzeichnungen sind erst seit 1978 verfügbar. Diese Daten sind jedoch nach wie vor umstritten, da sich je nach Kombination und Verarbeitung der Aufzeichnungen verschiedener Versuchsteams unterschiedliche Trends ergeben.

Veränderungen der Sonnenaktivität über längere Zeiträume werden mit Hilfe einer Reihe von Proxies modelliert (z. B. Sonnenfleckenaufzeichnungen, Fakulae-Aufzeichnungen, kosmogene 14C- und 10Be-Aufzeichnungen usw.). Die Definition von Proxy-Modellen ist unsicher, was dazu führt, dass die wissenschaftliche Literatur eine Vielzahl von TSI-Rekonstruktionen liefert, die sich sowohl in ihren säkularen Trends als auch in ihrer multidekadischen Modulation stark voneinander unterscheiden.

Ich habe mehrere TSI-Proxy-Modelle kombiniert und ihre effektiven solaren Strahlungsantriebsfunktionen für Klimastudien bewertet. In Abbildung 1 werden sie zusammen mit den effektiven Vulkan- und anthropogenen Strahlungsantrieben verglichen. Die in Abb. 1B dargestellten effektiven solaren Strahlungsantriebsfunktionen unterscheiden sich in mehrfacher Hinsicht.

Die derzeit in den CMIP6-GCM-Simulationen verwendete solare Antriebsfunktion (grün) ist seit etwa 200 Jahren nahezu konstant geblieben und hat darüber hinaus von 1970 bis 2020 schrittweise abgenommen. Unter Verwendung dieses TSI-Datensatzes konnten die CMIP6-GCMs daher nur zu dem Schluss kommen, dass die Sonne fast keinen Teil der seit der vorindustriellen Periode (1850-1900) beobachteten Erwärmung erklären kann, insbesondere nicht die von 1980 bis 2020 beobachtete.

Im Gegenteil, die anderen drei TSI-Aufzeichnungen (rot, gelb und schwarz) zeigen eine multidekadische Oszillation sowie einen deutlich ansteigenden säkularen Trend, der eng mit den in den Aufzeichnungen der Gesamtoberflächentemperaturen beobachteten Veränderungen korreliert ist.

Ein Bild, das Text, Diagramm, Reihe, Screenshot enthält. Automatisch generierte Beschreibung

Abbildung 2: (A) HadCRUT5 globale Oberflächentemperatur im Vergleich zum CMIP6-GCM-Ensemble-Durchschnitt. (B) HadCRUT5-Oberflächentemperatur im Vergleich zur vorgeschlagenen empirischen Modellierung des Klimas unter Verwendung des alternativen Sonnenmodells. Quelle: Geoscience Frontiers (2023). DOI: 10.1016/j.gsf.2023.101650

Modellierung der Auswirkungen der Änderung der Gesamtsonnenaktivität (TSA) auf das Klima

Die Wirkung der Gesamtsonne auf das Klima kann nicht nur anhand der TSI-Antriebsfunktionen bewertet werden, da beispielsweise behauptet wird, dass alternative sonnenbezogene Mechanismen die Wolkenbedeckung direkt beeinflussen. Da die Physik solcher Mechanismen jedoch noch nicht ausreichend verstanden ist, können sie in den derzeitigen GCMs nicht berücksichtigt werden. Sollte sich jedoch zeigen, dass ihr Einfluss groß ist, werden die derzeitigen GCMs für die Modellierung des Klimawandels ungeeignet sein.

Ich habe dieses Problem angegangen, indem ich davon ausging, dass die gegebenen TSI-Aufzeichnungen Stellvertreter für die gesamte Sonnenaktivität (TSA) sind, und ich habe eine empirische Methode zur Bewertung des TSA-Effekts angewandt, indem ich seinen optimalen Klima-Fingerabdruck zusammen mit den von den anthropogenen und vulkanischen Strahlungsantriebsfunktionen, die von den CMIP6-GCMs übernommen wurden, erzeugten Fingerabdrücken bewertet habe.

Das Modell reproduziert die Ergebnisse der CMIP6-GCMs, wenn ihre ursprünglichen Antriebsfunktionen unter ähnlichen physikalischen Bedingungen angewendet werden. In diesem Fall betrug die Gleichgewichts-Klimasensitivität (ECS) 1,4°C-2,8°C, was mit der CMIP6-GCM-Gruppe mit niedriger ECS kompatibel ist. Das bedeutet, dass etwa zwei Drittel der aktuellen GCMs (deren ECS zwischen 1,8°C und 5,7°C schwankt) die anthropogene Erwärmung überbewerten, wie andere aktuelle Studien bestätigt haben.

Werden jedoch die vorgeschlagenen solaren Aufzeichnungen als TSA-Proxies verwendet und wird zugelassen, dass sich die klimatische Empfindlichkeit gegenüber diesen Aufzeichnungen von der klimatischen Empfindlichkeit gegenüber Strahlungsantrieben unterscheidet, wird ein viel größerer solarer Einfluss auf den Klimawandel festgestellt, zusammen mit einem deutlich geringeren Strahlungseffekt. In diesem Fall liegt der ECS bei 0,9°C-1,8°C, mit einem Mittelwert von etwa 1,3°C. Dies bedeutet, dass die vom Menschen verursachte Erwärmung stark überschätzt wird.

Abb. 2 vergleicht den HadCRUT5-Datensatz der globalen Oberflächentemperatur mit (A) dem CMIP6-GCM-Ensemblemittelwert und (B) dem Energiebilanzmodell unter Verwendung eines vorgeschlagenen TSA-Modells, das den TSI-Datensatz der GCMs mit geringer säkularer Variabilität nicht verwendet. Die in Abb. 2A dargestellte GCM-Simulation erwärmt sich monoton (grüne Skizze). Im Gegensatz dazu zeigt das in Abb. 2B dargestellte Modell ein oszillierendes Muster, das sich um einen Erwärmungstrend herum entwickelt und die klimatischen Aufzeichnungen viel genauer wiedergibt.

Dieses Ergebnis deutet darauf hin, dass etwa 80 % des solaren Einflusses auf das Klima nicht allein durch den TSI-Antrieb, sondern vielmehr durch andere Sonne-Klima-Prozesse (z. B. durch eine solare magnetische Modulation der kosmischen Strahlung und anderer Teilchenflüsse und/oder andere) verursacht werden könnten. Diese alternativen Mechanismen müssen gründlich untersucht und physikalisch verstanden werden, bevor vertrauenswürdige GCMs erstellt werden können, die den Klimawandel korrekt interpretieren und zuverlässige Prognosen für die Zukunft erstellen.

Dieser Beitrag ist Teil des Science X Dialogs, in dem Forscher über die Ergebnisse ihrer veröffentlichten Forschungsartikel berichten können. Besuchen Sie diese Seite, um Informationen über den ScienceX Dialog zu erhalten und zu erfahren, wie Sie daran teilnehmen können.

Paper: Nicola Scafetta, Empirical assessment of the role of the Sun in climate change using balanced multi-proxy solar records, Geoscience Frontiers (2023). DOI: 10.1016/j.gsf.2023.101650

Der Beitrag erscheine zuerst bei Klimanachrichten hier




Wir und das CO2

von Eike Roth

Die CO2-Konzentration in der Atmosphäre ist seit Beginn der Industriellen Revolution von 280 auf 420 ppm gestiegen. In dieser Zeit haben wir Menschen sogar die doppelte Menge an CO2 in die Atmosphäre freigesetzt. Und genau so geht es offensichtlich auch weiter: Heute setzen wir 5 ppm/a frei und die Konzentration steigt um 2,5 ppm/a.

Diese Zahlen sind m. E. unstrittig. Aber bei ihrer Interpretation scheiden sich die Geister: Die Einen meinen, sie würden beweisen, dass immer die Hälfte der anthropogenen Freisetzungen langfristig in der Atmosphäre verbleibt. Die Konzentration würde daher immer weiter steigen, solange wir CO2 freisetzen. Daher dürften wir, um die Erwärmung auf einen bestimmten Wert zu begrenzen, ein „festes CO2-Budget“ nicht überschreiten, und wenn das ausgeschöpft wäre, dann müssten wir unsere Freisetzungen zwingend vollständig einstellen. Die Anderen meinen, die Zahlen würden beweisen, dass wir unsere Freisetzungen gerade nicht vollständig einstellen müssen. Schon wenn wir sie um 2,5 ppm/a reduzieren, würde gleich viel CO2 wieder entnommen werden wie freigesetzt wird, und die Konzentration würde dann trotz fortgesetzter Freisetzung nicht mehr weiter steigen. Für die Klimastabilisierung würde das auf jeden Fall reichen, wird gesagt.

Beides ist m. E. nach den Regeln der Logik aber klar falsch. Damit die Hälfte unserer Freisetzungen langfristig in der Atmosphäre verbleibt, müssen m. E. drei Voraussetzungen unbedingt erfüllt sein:

  1. Unsere Freisetzungen müssen die einzigen sein, die hinzugekommen sind.
  2. Die Speicher, auf die sich das in die Atmosphäre freigesetzte CO2 anschließend verteilt, müssen alle zusammen genommen gerade so groß sein wie die Atmosphäre.
  3. Unsere Freisetzungen müssen in ein abgeschlossenes System gehen, das als einzige Verbindung nach außen die anthropogenen Freisetzungen hat.

Voraussetzung 1 kann schon deswegen nicht erfüllt sein, weil zumindest die allgemeine Erwärmung unabänderlich das Ausgasen von CO2 aus dem Ozeanwasser erhöht hat, wodurch auch immer sie zustande gekommen ist. Weitere Veränderungen der Freisetzungen aus natürlichen Quellen sind aufgrund der geschichtlichen Erfahrungen eher wahrscheinlich, z. B. mehr CO2 aus der Biomasse, oder infolge von Umlagerungen von Meeresströmungen, oder durch vulkanische Ausgasungen. „Nur die anthropogenen Freisetzungen“ gilt daher wohl auf keinen Fall.

Bei Voraussetzung 2 muss zunächst geklärt werden, welches denn überhaupt die Speicher sind, in die Teile des erhöht freigesetzten CO2 weitergeleitet werden: Es sind die Biomasse und die oberflächennahe Ozeanschicht. Sie stehen mit der Atmosphäre in intensivem CO2-Austausch („kurzer Kohlenstoffkreislauf“). IPCC gibt im AR 6, Fig. 5.12, folgende Inventare an: Atmosphäre 870 Gt C, Biomasse 450 Gt C in der Vegetation, zuzüglich 1200 Gt C im Permafrost und 1700 Gt C im Boden, und oberflächennahe Ozeanschicht 900 Gt C, zuzüglich 3 Gt C in marinen Lebewesen. Auch wenn man konservativerweise vom Permafrost und vom Boden nichts dem kurzen Kohlenstoffkreislauf zurechnet, sind die „anderen Speicher“ mit zusammen 1353 Gt C klar größer als die Atmosphäre mit 870 Gt C. 50 % Verbleib geht daher schon rein deswegen nicht. Wenn man außerdem berücksichtigt, dass ja nur ein Teil dieser Freisetzungen die anthropogenen Freisetzungen sind (Voraussetzung 1), dann verbleibt von den letzteren nur ein noch viel kleinerer Teil in der Atmosphäre. Voraussetzung 2 ist also wohl auch klar nicht erfüllt.

Voraussetzung 3 schließlich ist sicher nicht erfüllt, weil die Atmosphäre, die Biomasse und die oberflächennahe Ozeanschicht eindeutig kein abgeschlossenes System sind. Nach IPCC tauschen sie sogar mehr CO2 mit dem tiefen Ozean aus, als untereinander. Allerdings hat dieser Austausch eine Besonderheit: Es erhöht sich zwar der Transfer in den tiefen Ozean unmittelbar mit einem erhöhten Angebot an Kohlenstoff, infolge der riesigen Größe des tiefen Ozeans und der langsamen Meeresströmungen in ihm reagiert der Rücktransport aus ihm auf eine solche Störung aber nur mit einer Verzögerung von 500 bis 1000 Jahren. Solange entnimmt der tiefe Ozean mehr als er zurückgibt, und dieser Unterschied wird umso größer, je höher die Konzentration wird. Er wirkt damit jeder Konzentrationserhöhung massiv entgegen. Um 50 % konnte die Konzentration überhaupt nur ansteigen, indem eine weitere wesentlich verstärkte Freisetzung hinzugekommen ist. Und weil der Anstieg so langfristig angehalten hat, muss diese Freisetzung auch selbst immer größer geworden sein.

Es sind also wohl alle drei Voraussetzungen eindeutig nicht erfüllt. Der Anstieg der Konzentration um 2,5 ppm/a kann daher ebenso eindeutig nicht die Folge der Zurückhaltung von 50 % der anthropogenen Freisetzungen sein. Vielmehr kann er nur die Folge der Zurückhaltung eines viel kleineren Prozentsatzes einer viel höheren Freisetzung sein, die außerdem auch noch stark wächst. Es kann daher auch nicht zielführend sein, unsere Freisetzungen um 2,5 ppm/a zurückfahren, oder sie gar ganz einzustellen. Solange nicht auch die Natur ihr Wachsen einstellt, würde die Konzentration immer noch weiterwachsen. Da wir über die Ursachen der in der Erdgeschichte oft noch viel stärkeren Veränderungen der CO2-Konzentation kaum Bescheid wissen, können wir auch nicht vorhersagen, wie sich die natürlichen Freisetzungen und damit die Konzentration zukünftig entwickeln wird. Nur unsere Freisetzungen haben darauf höchstens einen vernachlässigbaren Einfluss. Wir können die Vorteile der Nutzung fossiler Energien also ohne schlechtes Gewissen ausnutzen.

Und weil die Konzentration vorwiegend von natürlichen Quellen bestimmt wird, kann es auch kein „festes CO2-Budget“ für die anthropogenen Freisetzungen geben, wie eng auch immer der Zusammenhang zwischen CO2-Konzentration und Klima sein mag. Alle sich darauf berufenden getroffene Entscheidungen und Forderungen verlieren ihre Berechtigung.