Audimax im KONTRAFUNK: Horst-Joachim Lüdecke – Klima und CO₂ – warum Dekarbonisierung keine gute Idee ist

EIKE-Pressesprecher Prof. Horst Lüdecke hält seine zweite Vorlesung im Kontrafunk!

Horst-Joachim Lüdecke, emeritierter Professor für Informatik und Physik an der Hochschule für Technik und Wirtschaft des Saarlandes, befasst sich schon seit langem mit der Auswertung von Klimadaten. In seiner Vorlesung mit dem Titel „Klima und CO – warum Dekarbonisierung keine gute Idee ist“ beschreibt er viele mächtige physikalische Prozesse, von denen CO nur eine – wahrscheinlich eher geringfügige – unter vielen ist, die unser Klima bestimmen. Klima ist gerade wegen der Interaktion so vieler Einflüsse nur auf kurze Sicht modellierbar, was die langfristigen Klimamodelle, auf die sich Politiker berufen, eher fragwürdig erscheinen lassen.

Unter diesen Umständen ist es wenig sinnvoll, eine hochentwickelte Volkswirtschaft mit enormen Kosten und um den Preis der Deindustrialisierung zu dekarbonisieren. Denn es gibt keine Beweise für eine bevorstehende katastrophale Erwärmung des Klimas durch die industrielle Tätigkeit der Menschen.

Hören Sie hier Klima und CO₂ – warum Dekarbonisierung keine gute Idee ist

Kontrafunk ist ein seit einigen Jahren etablierter kritischer Radiosender, der die Arbeit der öffentlich-rechtlichen Sendeanstalten übernommen hat. In der Schweiz und Österreich kann man Kontrafunk sogar im Radio hören (Tipp für unsere A/CH-Leser).

Hier nun der Text (leicht erweitert und mit Kapitelüberschriften)

 

Klima und CO2

Warum Dekarbonisierung keine gute Idee ist

Horst-Joachim Lüdecke

Welche Länder betreiben Klimaschutz?

Wetter und Klima bestimmen unser persönliches Wohlbefinden, CO2 bestimmt das Wohlbefinden unserer Industrie und unseres Wohlstands. Ohne CO2-Emissionen ist keine international wettbewerbsfähige Industrie möglich. Die Herstellung industrieller Produkte und Gebrauchsgegenstände ist unabdingbar mit anthropogener CO2-Erzeugung aus der Verbrennung von Kohle, Öl und Gas verbunden, dem gleichen CO2 wie es etwa beim Verrotten von Pflanzen im Humus gespeichert wird. CO2, mit heute etwa 0,04 Volumenprozent in der Erdatmosphäre, ist dort zwar nur ein Spurengas. CO2 wirkt zudem global erwärmend, so entstand die Hypothese von seiner Klimaschädlichkeit. Länder wie Deutschland, die diese Hypothese als real einstufen, betreiben Klimaschutz, oder genauer Dekarbonisierung durch hohe CO2-Bepreisung.

Weltweit hat freilich Klimaschutz seinen Höhepunkt überschritten. Vor der Präsidentschaft Donald Trumps waren 20 % der Weltbevölkerung von Klimaschutzmaßnahmen betroffen, ohne die USA bleibt nur noch eine Minderheit von 15 % übrig, vor allem in der EU, England, Japan, Australien und Kanada. 85 % mit China und Indien voran nutzen uneingeschränkt preisgünstige fossile Energien. Sie setzen auf industrielles Wachstum mit der Auffassung, dass „Industrielle Entwicklung und Klimaschutz mit vernünftigen Kosten unvereinbar seien!“ Professor André Thess, Energieexperte und Institutsleiter an der Universität Stuttgart, schätzt, dass die komplette Dekarbonisierung Deutschlands bis 2045 10 Billionen Euro kosten würde (hier). Die Fachzeitschrift für Ökonomie, Frontier Economics, nennt 5 Billionen Euro im gleichen Zeitraum nur für die deutsche Energiewende (hier).

Deutschland betreibt dennoch weiter Klimaschutz und Energiewende und leidet deswegen unter den weltweit höchsten Strompreisen. Wegen Deutschlands minimalen Anteils von nur 1,5 % an den weltweiten CO2-Emissionen ist sein Aufwand für Klimaschutz und Energiewende physikalisch wirkungslos. Volksbefragungen zeigen zunehmende Skepsis gegenüber Klimaschutz und Energiewende. Nur die Klimapropaganda und die sachlichen Falschaussagen des öffentlich-rechtlichen Rundfunks verhindern eine noch größere Ablehnung. Er macht das anthropogene CO2 ohne Nachweise für Wetterextreme, Überschwemmungen, Dürren, bis hin zu Waldbränden, Klimaflüchtlingen und Hitzetoten verantwortlich und ängstigt damit die ahnungslose Bevölkerung. Die Schädigung der deutschen Industrie und die verlorenen Arbeitsplätze lassen allmählich die Klimafurcht schwinden und dafür die Furcht vor Verarmung durch Deindustrialisierung ansteigen. Die deutsche Politik schweigt zu all dem und bevorzugt ein unverrückbares Klima-Mantra mit Gesetzesschutz. Freie Diskussionen mit Fachexperten anderer Meinungen finden nicht statt – in den öffentlich-rechtlichen Anstalten schon gar nicht.

Die Vorlesung verlässt nun diese erforderlichen Vorinformationen und wird von nun an nur noch die physikalischen Klimafakten und ihre Auswirkungen behandeln. Ihre Abschnitte werden sein: Der Unterschied von Wetter und Klima, Klima-Proxies, die Klimavergangenheit, Ursachen von Klimawandel, und der IPCC. Insbesondere wird dann die Hypothese von maßgeblicher Klimaschädlichkeit des anthropogenen CO2 nach heutigem Stand der Klimaforschung überprüft in den weiteren Abschnitten über den Treibhauseffekt, Extremwettervorkommen, Klimasensitivität und die interessante Frage, ob der CO2-Gehalt in Zukunft immer weiter ansteigen wird.

 

Der Unterschied von Wetter und Klima

Was ist überhaupt Klima? Es ist jedenfalls nicht Wetter! Die Wissenschaft definiert Klima als das mindestens 30-jährige statistische Mittel von lokalen Wetterparametern wie Temperatur, Niederschlag, Luftdruck, Extremwetterstatistik und weiteren mehr. CO2 ist kein Klimaparameter. Mindestens eine 30-jährige Periode umfassend und lokal bestimmt werden im Folgenden die maßgeblichen Eigenschaften von Klima betrachtet. Wegen der lokalen Bestimmtheit gibt es kein Globalklima, sondern nur die schon aus der Schule bekannten Klimazonen von tropisch bis polar. In allen Klimazonen und zu allen Zeiten der Erdgeschichte hat sich das Klima stets verändert. Die Naturgesetze erlauben keinen Klimastillstand. Klimaschutz, im Grunde der Wunsch nach konstantem Klima, ist ebenso absurd wie Wetterschutz. Mit Klimaschutz ist in Wirklichkeit Dekarbonisierung gemeint – im Extremfall bis hin zur Abschaffung aller anthropogenen CO2-Emissionen.

Zur Veranschaulichung von Klima im Gegensatz zu Wetter zwei folgende Beispiele: Der extrem starke Hurrikan Katrina hatte 2005 New Orleans schwer geschädigt. In den Jahrzehnten vor und nach Katrina gab es keinen weiteren Hurrikan dieser Gewalt. Katrina war daher ein Wetterereignis. Als zweites Beispiel nehmen wir einen kühlen und regnerischen Winterurlaub der Müllers im Norden Teneriffas, während ihre Bekannten im Süden der Insel Wärme und Sonne genossen. Hatten die Müllers Wetterpech? Nein, denn das Miniklima von Teneriffa-Süd unterscheidet sich deutlich vom dem in Teneriffa-Nord, weil der rund 3700 m hohe Vulkan Teide als höchster Berg Spaniens Teneriffa-Nord und Süd trennt.

Mit der Kenntnis von Klima im Gegensatz zum Wetter erkennt man nun die stets gleiche Methode der öffentlich-rechtlichen Sender, die Extremwetter salopp zu gefährlichen Klimaextremen umdeutet. Das funktioniert meist, weil der Unterschied zwischen Klima und Wetter immer noch zu wenig bekannt ist. Jeder von uns spürt zwar hautnah das Wetter, und Extremwetter wird stets als ungewöhnlich wahrgenommen, obwohl jeder Meteorologe bestätigt, dass die natürliche Eigenschaft des Wetters seine Ungewöhnlichkeit ist. Weil uns aber die Evolution keinen Sensor für Klimaänderungen mitgegeben hat, ist die Verwechslung von Wetterextremen mit Klimaextremen naheliegend.

Natürlich können Wetterextreme und insbesondere ungünstiges Klima für den Menschen sehr gefährlich sein. Einer der wichtigsten Faktoren bei der Entwicklung zur Zivilisation war daher der Schutz gegen Wetterunbilden durch solide Behausungen. Die Entwicklung weiterer Schutzmaßnahmen hat nie aufgehört. Musterbeispiele mit Anwendung modernster Technik sind heute die riesigen, raffiniert gesteuerten Deichsysteme Hollands gegen Sturmfluten oder die Bewaldung von Wüstenregionen in China. In Vorzeiten wurden Wetterunbilden mit dem Fehlverhalten der Menschen gegen Götter in Verbindung gebracht. Die Zeitspanne der Aufklärung von diesem Irrtum dauerte leider nicht lange. In der Moderne steht nun das Klima im Mittelpunkt der Verantwortung durch den Menschen. Die moderne Erzählung von menschgemachten Klimakatastrophen behauptet, dass das Klima nach Beginn der Industrialisierung um 1850 durch anthropogene CO2-Emissionen völlig anders und gefährlicher geworden sei als in allen Zeiten davor. Wie ist solch ein Vergleich überhaupt möglich, denn vor 1850 gab es noch gar keine systematischen Wettermessungen?

 

Klima-Proxies, was ist das überhaupt?

Die Klimawissenschaft ist bei langen, zurückliegenden Zeiten auf sogenannte Klima-Proxies angewiesen. Sie finden sich in Sedimenten, Stalagmiten, Eisbohrkernen, Baumringen und weiteren Quellen. Aus ihnen werden mit modernsten Analysemethoden die Klimawerte der Vergangenheit ans Licht gebracht. Ein gut bekannter Klima-Proxy ist zum Beispiel das auch in der Archäologie verwendete radioaktive Kohlenstoffisotop 14C, das mit einer Halbwertszeit von etwa 5700 Jahren zu stabilem 14N zerfällt. 14C wird laufend durch kosmische Strahlung neu gebildet, so dass das Verhältnis von 14C zu 12C in der Atmosphäre und in Bäumen konstant bleibt. In totem Holz erneuert sich 14C aber nicht mehr, und das dadurch immer kleiner werdende Verhältnis von 14C zu 12C verrät sein Alter. Diese Radiocarbonmethode ist bis etwa 50.000 Jahre zurück ausreichend genau. Eine hier interessierende Anwendung ermittelt das Alter von ehemaligem Holz aus Bergwäldern, das heute immer wieder in schmelzenden Gletscherzungen der Alpen auftaucht. Das Alter dieser Holzfunde aus der weiten Vergangenheit und ihre Fundhöhen belegen zuverlässig, dass in 2/3 der letzten 9000 Jahre, die Alpengletscher kleiner und ihre Umgebungstemperaturen sowie die Baumgrenzen höher waren als heute. Das Thema Gletscher wird hier später noch einmal aufgegriffen.

Weiter sind die Gewichtsverhältnisse des Sauerstoffisotops 18O zum leichteren 16O und des Wasserstoffisotops Deuterium zu Wasserstoff in Gletschereis temperaturabhängig. Diese Isotope waren über Äonen hermetisch eingeschlossen und werden heute aus Eisbohrkernen von Gletschern ans Tageslicht gebracht. Sie erlauben es die Temperatur des Niederschlags zum Zeitpunkt der Eisbildung zu bestimmen. Die Abzählung der Jahresschichten des Eisbohrkerns liefert die vergangene Zeitspanne. Schließlich ist damaliges CO2 sogar noch unverändert in den Lufteinschlüssen von Eisbohrkernen vorhanden. Solche Analysen von Eisbohrkernen in Gletschern gehören heute zu den zuverlässigsten Methoden, um Kenntnisse über die Klimavergangenheit bis viele 100 000 Jahre zurück zu erhalten. Der Rekord von Bohrprojekten in der Antarktis liegt heute bei einem 2800 Meter langen Eisborkern, der einen lückenlosen Rückblick auf 1,2 Millionen Jahre Klimavergangenheit ermöglicht. Insbesondere über die Eiszeiten, die erst unmittelbar vor 9000 Jahren endeten, liefern uns diese Analysemethoden die wertvollsten Klimaerkenntnisse.

 

Die Klimavergangenheit der Erde

Um einen Eindruck vom Klimawandel in der Klimavergangenheit zu erhalten, werden im Folgenden zwei Zeitspannen betrachtet: Eine extrem lange, von einer halben Milliarde Jahren bis zu einer halben Million Jahren zurück und direkt anschließend von dieser halben Million Jahre bis heute. In der ersten langen Zeitspanne gab es so starke Klimaänderungen, dass sie insgesamt fünf Massenaussterben auslösten. Es wird vermutet, dass die Erde mehrfach eine Eiskugel ohne Leben war – ausgenommen von Resten in den Ozeanen. Das Leben hat sich dennoch immer wieder erholt, und die ausgelöschten Arten machten jedes Mal neuen Arten Platz. Die wechselnden Gase der Erdatmosphäre, die durch den veränderten Stoffwechsel der neuen Arten entstanden, waren für die Änderungen der Strahlungsbilanz und somit für den Klimawandel maßgebend mitverantwortlich. Eine ganze Reihe von Klimawandel-Ursachen in dieser langen Zeitperiode sind heute bekannt. So folgte die Temperatur einem Zyklus von etwa 150 Millionen Jahren Dauer, deren Ursache dem regelmäßigen Eintauchen der Erde in Staubzonen bei ihrem Umlauf in der Galaxis zugeschrieben wird. Der extreme Vulkanismus über Hunderttausende von Jahren im sibirischen Trapp, die Folgen der Kontinentalverschiebungen sowie die einer Supernova-Explosion und insbesondere der extreme Asteroiden-Einschlag im Golf von Mexiko vor 65 Millionen Jahren, der die Dinosaurier aussterben ließ, sind weitere bekannte Klimaursachen.

Die Temperaturen dieser langen Zeit zeigen keine gute Korrelation mit dem CO2. Der stark schwankende CO2-Gehalt der Erdatmosphäre reichte von 0,2 %, das ist etwa das 5-fache der CO2-Konzentration von heute, bis 0,1 % über längere Zeitphasen. Nur selten erreichte er den heutigen tiefen Wert um 0,04 % und darunter. Die Zeiten, in denen beide Erdpole vereist waren, so wie sie es heute wieder sind, werden auch als Eiszeitalter bezeichnet – nicht zu verwechseln mit den uns näher liegenden kürzeren Eiszeiten, von denen gleich die Rede sein wird. Wir leben daher aktuell in einem Eiszeitalter und dort in einem lebensfreundlich warmen Zwischenglazial unmittelbar vor der nächsten Eiszeit.

Die zweite gewählte Zeitspanne von vor einer halben Million Jahren bis heute wird von vier lückenlos aufeinander folgenden Eiszeiten beherrscht, jede zwischen 90- bis 120-tausend Jahre lang. In ihren Temperaturtiefpunkten sank die CO2-Konzentration der Erdatmosphäre in gefährliche Bereiche bis auf 0,02 %, denn schon wenig darunter beginnt die Photosynthese auszusetzen, und alles Leben ist dann zu Ende. Der Temperaturverlauf jeder der vier Eiszeiten war gleich und ähnelte einem Sägezahn: In etwa 90 % der Eiszeitlänge wurde es langsam und mit starken zwischenzeitlichen Schwankungen immer kälter. Dann plötzlich gab es stets eine steile Erwärmung in eine neue Warmzeit von nur etwa 10 000 Jahren, die meist wärmer war als heute. Ausgrabungen fanden Relikte von Flusspferden an Rhein und Themse aus dem letzten Zwischenglazial. In 90 % der gesamten letzten halben Million Jahre war es somit viel kälter als heute. Die skandinavischen Gletscher und die der Alpen waren in den Temperaturminima der Eiszeiten weit ins heutige Deutschland eingedrungen. Der durch die extreme Kälte erzwungene Rückzug europäischer Menschen in Höhlen wie der von Lascaux mit ihren berühmten 25 000 Jahre alten Felsenmalereien, lässt vermuten, dass nur noch wenige Tausend Menschen im eisigen Europa existierten. Diese beeindruckenden Kunstwerke waren bis 1962 noch im Original zu sehen, danach wurde die Höhle wegen Schimmelbildung infolge steigender Besucherzahlen für immer geschlossen und in der Nähe eine Nachbildung gebaut. Die letzte Eiszeit endete vor 9000 Jahren, und die nächste Eiszeit steht unmittelbar vor der Tür. Da es sehr langsam bis zum Temperaturtiefpunkt bergab geht, hat die moderne Menschheit wenigstens genug Vorsorgezeit.

 

Was ist der Wissenschaft über Klimaänderungen und ihre Ursachen bekannt?

Kennt man die Ursachen der vier Eiszeiten? Ja, sogar recht gut. Der serbische Forscher Milutin Milankovich veröffentlichte seine Theorie dazu bereits 1920. Der nach sind sie geprägt durch drei separate Zyklen von jeweils Tausenden von Jahren. Zuerst ist es der Neigungswinkel der Erdachse, dann ihre Präzession als Wanderung der Erdachse um die Senkrechte auf der Erdbahnebene und schließlich die Radiusänderung der elliptischen Erdumlaufbahn um die Sonne. Die Milankovitch-Theorie ist auf dem heutigen Stand der Wissenschaft, aber immer noch Anlass von Fachpublikationen, weil insbesondere das extrem schnelle Auftauchen in die Zwischenglaziale noch Rätsel aufgibt. Der CO2-Gehalt der Luft folgte stets mit grob 800 Jahren Zeitabstand den Ozeantemperaturen, weil kälteres Wasser CO2 aufnimmt und wärmeres Wasser CO2 entgast. 800 Jahre benötigt ein Weltmeer, um sich komplett umzuwälzen. Das CO2 spielte also auch während der vier letzten Eiszeiten keine treibende sondern nur eine getriebene Rolle.

Zu Beginn des Holozäns, also vor 9000 Jahren waren im Erdnorden die Temperaturen bis zu 2 °C höher als heute. Danach gab es in unseren Breiten nur noch Temperaturschwankungen von etwa ± 1,5 °C. Obwohl diese Temperaturänderungen vergleichsweise geringfügig waren, entschieden sie dennoch über Wohl und Wehe der jüngeren Menschheit. Die über 1000 Jahre anhaltende Warmperiode vor 4500 Jahren war der Auslöser der modernen Zivilisationen. In dieser Zeit wurde das Rad, die Schrift, der Pflug, die Sonnenuhr sowie weitere Errungenschaften erfunden. Warmperioden waren immer kulturelle Höhepunkte der Menschheit. Klimalange Kälte in gemäßigten Breiten oder zu lang ausbleibender Regen in Tropen und Subtropen zogen dagegen stets Missernten, Seuchen, Völkerwanderungen oder sogar völliges Verschwinden von Völkern nach sich. Höhere Temperaturen waren für die Menschen stets günstiger als tiefe Temperaturen. Die Abstimmung mit den Füßen in unseren Breiten beim Urlaub wärmere Länder zu bevorzugen, spricht für sich. Die weltweite Zahl der Kältetoten übersteigt um etwa das Zehnfache die Anzahl an Hitzetoten (hier).

Das zivilisatorische Aufblühen in der römischen und der mittelalterlichen Warmzeit ist gut bekannt, ebenso die schädlichen Folgen der als „kleine Eiszeit“ bezeichneten Kältephase von etwa 1480 bis 1850. In dieser Kaltperiode war die Ostsee mehrere Jahre in Folge zugefroren, und der schwedische König Karl 12 zog damals über das Ostsee-Eis mit schweren Packwagen und Kanonen gegen Polen. Auf der zugefrorenen Themse gab es Wochenmärkte. Die berühmten Winterbilder holländischer Maler wie Breughels Heimkehr der Jäger zeugen von der Kälte. 400 Hungersnöte in Europa sind dokumentiert. Eine etwa gleich kalte Periode in der davor liegenden Bronzezeit wird inzwischen – unterstützt durch Ausgrabungsfunde – als Ursache des Verschwindens ganzer Völker angenommen. Insbesondere der deutsch-französische Sender ARTE hat in mehreren Folgen über dieses Thema in spannenden Wissenschaftssendungen berichtet und dabei die zunehmende Zusammenarbeit von Archäologie und Klimawissenschaft mit Klima-Proxies betont.

Die Zeitspanne nach Ende der kleinen Eiszeit um 1850 bis heute ist durch eine natürliche Wiedererwärmung geprägt, wobei auch diese wiederum Abkühlungs- und Erwärmungsphasen enthält. Die Fachliteratur bestätigt ausreichend oft, dass die Erwärmungsperiode nach 1850 schwächer war als viele ähnlichen Erwärmungszeiten im Holozän vor 1850. Das Gleiche gilt auch für Temperaturänderungen, die man mit Regressionsgeraden ermittelt. Die mittelenglische Thermometer-Messreihe, die 1659, also weit vor 1850 begann und bis heute lückenlos fortgesetzt wurde, erlaubt einen direkten Vergleich. Sie zeigt vor 1850 den stärksten 50-jährigen Temperaturanstieg von 1,85 °C zwischen 1687 bis 1737. Nach 1850 beträgt der stärkste 50-jährige Anstieg dann nur noch 1,32 °C von 1961 bis 2011. Die Behauptung von klimahistorisch einmalig hohen Temperaturen oder einmalig schnellen Temperaturänderungen nach 1850 ist falsch.

Die jüngste Abkühlung von 1944-1975 erzeugte damals einen Mediensturm der Angst vor einem globalen Winter. Sogar die National Science Foundation der USA warnte davor. Die jüngsten medialen Übertreibungen zur letzten Erwärmung ab 1975 können heute in jeder Sendung der öffentlich- rechtlichen Anstalten verfolgt werden. Nur diese letzte Erwärmung weist überhaupt eine gute Korrelation mit dem angestiegenen CO2 der Luft auf. Ein sicherer Beleg für eine maßgebende Erwärmungswirkung des anthropogenen CO2 ist dies nicht, weil zumindest schon die ehemals so gefürchtete Abkühlung direkt davor von 1944 bis 1975 andere Ursachen gehabt hatte.

Dies führt nun zur Frage nach gesichertem Wissen über die Ursachen von Klimawandel im Holozän, also in den jüngsten 9000 Jahren. Die relativ geringfügigen Klimaveränderungen in dieser Zeitspanne waren zwar günstig für die Menschen, aber nicht für die heutige Klimaforschung, denn die enttäuschende Antwort ist: „Die Klimawissenschaft kennt die Ursachen der Klimaänderungen im Holozän so gut wie nicht“. Ein typischer Beleg für diesen Mangel ist bereits das bekannte Klimaphänomen des El Nino, einer Erwärmung des Pazifiks, die in einem unregelmäßigen 4 Jahres-Takt das Wetter der ganzen Welt durcheinanderwirbelt. Aus Messungen sind inzwischen die Änderungen von Meeresströmungen und Wassertemperaturen, die zum El Nino führen, recht gut bekannt. Was ihn aber jedes Mal auslöst, ist nach wie vor ein Rätsel.

Es gibt leider kaum Ausnahmen von diesem allgemeinen Kenntnismangel, einige kommen hier noch zur Sprache. Es sind tatsächlich die schwachen Klimaschwankungen des Holozäns gegenüber den starken Änderungen in den Eiszeiten, die in der Forschung ungelöste Fragen aufwerfen. Die vermuteten Ursachen von schwachen Klimaänderungen sind zu zahlreich und zu komplex: Sonneneinstrahlung, Sonnenwind, Sonnenmagnetfeld, Wolken, atmosphärische Wärmebilanz, Atmosphärenchemie, Aerosole, Zirkulationsströme der Ozeane durch Passatwinde, Ozeanzyklen, Gletscherveränderungen und noch mehr – sie sind in ihrer Gesamtwirkung kaum erfassbar. Allein die Wolken (nicht zu verwechseln mit Wasserdampf) haben es in sich. Ihre Modellierung ist kaum möglich, weil sie von mikroskopisch kleinen Tröpfchen bis hin zu Wetterfronten von hunderten Kilometern reichen. Auf niedriger Höhe kühlen sie ab, auf großer Höhe wirken sie dagegen erwärmend. Sie sind ein entscheidender Faktor der Strahlungsbilanz und damit auch von Klimaveränderungen.

Nun wird auch verständlich, warum globalweite Zirkulationsmodelle, kurz Klimamodelle, nicht funktionieren – ausgenommen allereinfachste Modelle für Detailfragen. Selbst die Mathematik ist zu den Modellierern nicht freundlich. Klimamodelle wie ihre verwandten Wettermodelle benötigen partielle Differentialgleichungen mit der unvermeidbaren Eigenschaft, dass sich im Laufe der Systemzeit beliebig kleine Änderungen der Eingangsdaten zu chaotischen Ergebnissen aufschaukeln, populär auch als Schmetterlingseffekt bekannt. Wettermodelle müssen daher nach etwa 10 Tagen passen. Da die Lösung der Differentialgleichungen nur über Differenzengleichungen möglich ist, entsteht mit jeder neuen Differenz das Problem eines wieder neuen Klimamodells.

 

Klimaforschung, auch einmal nicht ganz im Mainstream

Diesem Kenntnismangel versuchen einzelne Zweige der Klimaforschung abzuhelfen. Sie beschäftigen sich zum Beispiel mit dem Klima-Einfluss der Sonne oder mit dem Einfluss von natürlichen Zyklen wie den Ozeanzyklen. Der Klimaeinfluss der Sonne ist nicht mehr wegzudiskutieren. Es sind heute 6 Aktivitätszyklen der Sonne bekannt, die von 11 bis über 2000 Jahre Periodenlänge reichen und sich in Sonnenflecken und kosmogenen Isotopen wie 14C und 10Be bemerkbar machen. Der Astronom Wilhelm Herschel berichtete schon Anfang des 19. Jahrhunderts vom terrestrischen Einfluss der Sonnenflecken. Im Temperaturtiefpunkt der Kleinen Eiszeit waren die Sonnenflecken fast verschwunden. Wissenschaftler des deutschen Geoforschungszentrums wiesen im Fachjournal Climate of the Past der European Geoscience Union in den Sedimenten des Ammersee-Flusses am Seeausgang die zyklisch variierende Sonnenaktivität nach aus dem kosmogenen 14C und bis 5500 Jahre zurück (hier). Der Klimaeinfluss der Sonne erfolgt aber auch über ihr stark schwankendes Magnetfeld. Hierzu gibt es bereits eine ganze Reihe von Fachveröffentlichungen, die die Wirkungskette erforschen von kosmischer Strahlung, über das diese Strahlung ablenkende Sonnenmagnetfeld, bis hin zur Wolkenkeimbildung (hier). Die Mechanismen, mit denen die Sonne das Klima steuert, stehen aber erst am Anfang ihrer Aufklärung.

Nun zu den Ozeanzyklen. Diese sind regelmäßig sich ändernde Temperaturen von Meeresoberflächen wie beispielsweise die Atlantische multidekadische Oszillation, kurz AMO, deren stabile Existenz aus See-Sedimenten über Tausende Jahre zurück gesichert ist. Die Ursachen solcher Zyklen sind unbekannt, nicht aber ihre spannende Eigenschaft, Temperaturen und Niederschläge über tausende Kilometer Entfernung mit zum Teil Verzögerungen von mehreren Jahren zu beeinflussen oder gar zu steuern. Der Fachbegriff dafür ist „teleconnection“. Einige Forschungsergebnisse liefern sogar schon konkrete Anwendungen. So wies eine Fachstudie von 2024 in Scientific Reports der Fachzeitschrift Nature die Steuerung der wolkenabhängigen Sonnenscheindauer in Mitteleuropa durch die AMO nach und erstellte daraus eine verlässliche Vorhersage der Sonnenscheindauer in den nächsten Jahrzehnten (hier).

 

Erste Antwort auf die Frage, ob anthropogenes CO2 maßgeblich das Klima verändert

Als Zwischenfazit ist jetzt festzuhalten, dass CO2 vor Beginn der Industrialisierung um 1850 keine maßgebliche Rolle bei Klimaänderungen spielte. Nach 1850 hätte sich dies ändern können, denn die CO2-Konzentration der Luft stieg menschverursacht von 0,02 % bis heute auf 0,04 % an. Die Preisfrage lautet daher: „Prägte ab 1850 das anthropogene CO2 maßgeblich den Klimawandel?“ Man kennt die Antwort nicht. Es gibt keinen zwingenden Beweis für pro, aber auch keinen für contra. Immerhin ist die globale Erwärmungswirkung durch anthropogenes CO2 infolge seiner gut bekannten Spektralwirkung, die mit Einzelmessungen bestätigt ist, als signifikant, das heißt als überzufällig gesichert. Leider sagt uns die unbarmherzige Statistik, dass dies wegen des folgenden Grunds kein Beweis ist für eine maßgebliche Erwärmungswirkung des anthropogenen CO2: Vor und nach 1850 gab und gibt es natürliche, aber leider unbekannte Ursachen des Klimawandels. Diese natürlichen Klimatreiber haben ihren Einfluss nach 1850 keineswegs beendet, nur weil die Menschheit begann Kohle zu verbrennen. Die Klimawissenschaft kennt weder die Ursachen dieser natürlichen Klimaänderungen noch ihre Stärken. Obwohl die Wirkung des CO2 überzufällig ist, weiß man daher nicht, ob ihr Anteil an der globalen Erwärmung groß oder unmaßgeblich klein im Vergleich mit den natürlichen Klimatreibern ist. Zumindest wurde bereits entlastend für CO2 erwähnt, dass sowohl   Temperaturen als auch ihre Änderungen vor der Industrialisierung um 1850 beliebig oft die entsprechenden Werte nach 1850 überstiegen. Bevor hier nun noch einmal eine hypothetisch maßgebende Verantwortung des Menschen am Klimawandel nach 1850 aufgegriffen wird, muss zuerst geklärt werden, wo verlässliche Klima-Aussagen überhaupt zu finden sind. Danach geht die Vorlesung auf den wichtigen Intergovernmental Panel on Climate Change, kurz IPCC, näher ein.

 

Der Intergovernmental Panel on Climate Change (IPCC)

Die korrekte Antwort auf die Frage nach der Quelle verlässlichster Klimaaussagen ist: „In begutachteten wissenschaftlichen Fachpublikationen anerkannter Fachverlage, wobei die Angabe der Autoren und ihre Zugehörigkeit – meist einer Universität oder einer Forschungsinstitution – verpflichtend ist.“ Dies gilt generell für alle Naturwissenschaften. Nichts steht darüber. Die wissenschaftliche Wahrheit setzt sich aber nur im wissenschaftlichen Streit durch. Konsens ist das genaue Gegenteil von echter Wissenschaft, was leider zu wenig bekannt ist. Damit bleibt nur das eigene Urteil über Fachveröffentlichungen unterschiedlicher Ergebnisse übrig, so dass Laien, Politiker und Journalisten wieder im Regen stehen.

Vielleicht auch wegen dieses Mangels wurde 1988 der IPCC gegründet, der eine auf dem aktuellen Stand stehende Klimaaufklärung der Weltöffentlichkeit in Form einer geeigneten Auswahl von begutachteten wissenschaftlichen Fachveröffentlichungen anbieten sollte. Der IPCC gehört zu den Vereinten Nationen und kommuniziert nur über englischsprachige Assessment Reports, im Folgenden hier kurz AR, mit der Öffentlichkeit. Die AR, heute AR4, AR5 und AR6, stehen frei im Internet und sind weitgehend wissenschaftlich in Ordnung. Sie werden von freiwillig mitarbeitenden anerkannten Klimaforschern erstellt, die dazu ausschließlich die vorhandene Fachliteratur auswerten.

Also alles gut? Leider nicht, denn die AR werden wegen ihrer riesigen Umfänge kaum gelesen. Dies hat extrem abträgliche Folgen in Gestalt von Kurzformen der AR als „IPCC-Berichte für Politiker (kurz SPM)“. Sie sind auch in Deutsch erhältlich, und nur sie werden der Öffentlichkeit als IPCC-Publikationen suggeriert. Die SPM sind völlig indiskutabel, weil unwissenschaftlich Regierungsvertreter und sogar NGOs bei ihrer Erstellung involviert sind. In den SPM werden Null-Befunde bewusst verfälscht. Wenn beispielsweise der AR5 aussagt, es gebe global seit 1950 „keinen signifikanten Trend“ bei Dürren oder Wirbelstürmen, dann ist das eine wissenschaftliche Entwarnung für diesen Zeitraum. Wenn der deutsche SPM daraus dann „geringes Vertrauen in eine Zunahme“ macht, ist das eine Fälschung. Es wird ein Risiko suggeriert, obwohl die Datenlage ein „Nicht vorhanden“ aussagt. Um eine politische Botschaft zu erhalten, werden in den tagelangen SPM-Sitzungen mit Regierungsvertretern die AR-Entwarnungen so lange weichgespült, bis daraus in den SPM Dringlichkeiten geworden sind.

Wer dagegen die AR liest, stellt fest, dass es in ihnen keine „Klimakatastrophen“ und auch keinen „Klimanotstand“ gibt. Ferner ist keine Stelle in den AR aufzufinden, in der eine „maßgebliche menschgemachte Klima-Beeinflussung“ nachgewiesen wird. Aber auch die AR haben noch eine leichte unwissenschaftliche Schlagseite, weil die UN einen anthropogenen Klimawandel beweisen möchte. Das widerspricht der Ergebnisoffenheit ordentlicher Forschung. Fachpublikationen, die die Wirkung des anthropogen CO2 in Frage stellen, werden in den AR weniger zitiert oder als umstritten abgestempelt. Damit kann man aber leben, und trotz dieser Caveats basiert diese Vorlesung auf begutachteten Fachpublikationen und den AR des IPCC.

 

Der sogenannte Treibhauseffekt

Es ist nun an der Zeit den Treibhauseffekt zu erklären. Eine grobe Analogie ist ein Auto in praller Sonne mit einer stets geöffneten Seitenscheibe. Die Seitenscheibe vertritt das CO2 der Luft. Wird sie etwas zugedreht, nimmt analog das CO2 zu, und im Auto bzw. auf der Erde wird es wärmer. Umgekehrt wird es kühler. Das Entscheidende dabei ist: Die Temperatur im Auto sowie der Erde bleiben grundsätzlich begrenzt. Wegen der offenen Seitenscheiben kann das Auto nicht in Flammen aufgehen und die Erde wegen der Wiederabstrahlung der Sonnenenergie ins Weltall nicht verglühen. „Treibhauseffekt“ ist eigentlich unpassend, weil er auf verhindertem Luftaustausch basiert, bei der nach oben offenen Atmosphäre finden dagegen spektrale Vorgänge statt.

Nach Einflussstärke sind die drei wichtigsten Treibhausgase zuerst der nicht mit Wolken zu verwechselnde Wasserdampf, dann das CO2 und schließlich das Methan. Die bodennahe Atmosphäre wäre ohne Treibhausgase über Jahreszeiten gemittelt theoretisch 33 °C kälter und die Erde unbewohnbar. Die kurzwellige Sonneneinstrahlung wird zu etwa 30 % direkt wieder ins Weltall reflektiert. 70 % erwärmen das Wasser der Ozeane, die etwa 2 Drittel der Erdoberfläche bedecken, sowie den Erdboden. Die Erdoberfläche überträgt ihre Wärme durch Kontaktleitung an die Atmosphäre und strahlt Wärme als Infrarot ab. Die Treibhausgase in der Atmosphäre absorbieren zu Teilen das Infrarot der Erdoberfläche, strahlen es in spezifischen Linienspektren wieder ab und geben es als Stoßenergie an Luftmoleküle weiter. Der messbare zum Erdboden gerichtete Teil dieser Abstrahlung wird als „Gegenstrahlung“ bezeichnet. Näher Interessierten werden hier die Grafiken empfohlen, die man nach googeln von „Strahlungsbilanz der Atmosphäre“ erhält.

Die Erwärmungswirkung von Treibhausgasen wird mit Physik besser verständlich. Die Erde bleibt auf einer konstanten Gleichgewichtstemperatur, weil die aufgenommene Sonnenenergie wieder in alle Raumrichtungen des Weltalls abgestrahlt wird. Die Sonne als Punktstrahler liefert Photonen hoher Energie. Jedes wieder abgestrahlte Photon hat dagegen eine weit geringere Energie. Diese Photonen sind aber zahlreicher, und das Energie- sowie Temperaturgleichgewicht der Erde bleiben erhalten. Der springende Punkt ist nun, dass das Gleichgewicht von Zu- und Abstrahlung keineswegs bei Erwärmung der Troposphäre durch zunehmendes CO2 verändert wird, weil sich als Ausgleich zur Erwärmung die untere Stratosphäre abkühlt. Der Mechanismus findet sich in mehreren Fachpublikationen im Detail beschrieben (z.B. hier).

 

Haben sich Extremwetter, Gletscher und Meeresspiegel maßgeblich verändert?

Im Weiteren soll nun die Frage mit den wohl stärksten Befürchtungen beantwortet werden: Haben Tornados, Dürren, Überschwemmungen, kurz alle Wetterextreme in den letzten 75 Jahren zugenommen, steigen Meeresspiegel unnatürlich an, verschwinden weltweit die Gletscher, kurz trifft die Katastrophen-Erzählung von Klima-Aktivisten und der unvermeidbaren öffentlich-rechtlichen Anstalten zu? Die eindeutige Antwort darauf gibt 2013 der IPCC in seinem AR5. Die Basis dabei sind die ab 1950 stark angestiegenen Messungen von Wetter-Parametern und die daraus erstellten Klima-Statistiken. Bereits zu den Atlantischen Hurrikans sagt der AR5, im WG1, Kap. 2.6 “Es gibt keine robusten Trends von tropischen Stürmen und Hurrikans über die letzten 100 Jahre im Nord-Atlantik.” Analoge Entwarnungen gibt er zu globalweiten Dürren, Überflutungen, Starkregen, Hagel, Gewitter u.s.f. Zusammengefasst sagt schließlich der AR5 aus, dass seit Mitte des 20-ten Jahrhunderts keine Zunahme von Wetterextremen aufzufinden war. Auch Waldbrände haben bisher nicht zugenommen, wie Fachveröffentlichungen zeigen. Sie tauchen heute nur mehr in den Medien auf als früher. Es wurde hier bereits erwähnt, dass diese Entwarnungen in den SPM des IPCC für Politiker fehlen, im öffentlich- rechtlichen Rundfunk erfährt man sie schon gar nicht.

Weiter nun zu Überschwemmungen: Das Googeln von beispielsweise „Historische Hochwassermarken real-planet.eu“ (hier) zeigt unzählige historische Flusspegel Europas. Die stärksten Überschwemmungen gab es vor 1850 in der kleinen Eiszeit – damals war es kälter, es gab mehr Schnee, mehr Schmelzwasser auf noch gefrorenen Böden und höhere Überschwemmungen“.

Zu Meeresspiegeln: Sie haben sich infolge der Gletscherschmelze nach Ende der letzten Eiszeit bis heute um etwa 130 m erhöht. Heute zeigen Pegelmessungen insgesamt einen unbedenklich gewordenen Restanstieg von rund 0,4 bis 1,1 mm pro Jahr an. Weil es keinen globalen Meeresspiegel gibt, ist hier von Meeresspiegeln im Plural die Rede. Die Erde ist nämlich keine perfekte Kugel, und zahlreiche lokale Einflüsse beeinflussen zudem noch die Pegelwerte. So zeigen nur 7% aller weltweiten Pegelmessungen einen Anstieg, 4 % ein Absinken, und 89 % überhaupt keine einheitliche Tendenz (hier). Das Versinken der Malediven gehört zu den Medien-Märchen. Googeln von PSMSL.org führt auf die offizielle Webseite aller weltweiten Pegelmessungen, die schon ein aufgeweckter Gymnasiast versteht, den öffentlich-rechtlichen Anstalten aber anscheinend unbegreiflich sind. Die ab etwa 1993 zugänglichen und weltweiten Satellitenmessungen des TOPEX/Poseidon-Programms sind ungenauer, passen aber grob zu den Pegelmessungen. Beide Messmethoden ergänzen sich.

Weiter zu Gletschern: 90% der globalen Gletschermasse liegen in der Antarktis, ihr Eis nimmt geringfügig zu. Der Grönlandgletscher mit einem Volumen von 2,9 Millionen Kubikkilometern macht 8 % der weltweiten Gletschermasse aus. Er nimmt ab. Von maßgeblichem Abschmelzen kann aber keine Rede sein. Auch das letzte Zwischenglazial über 10 000 Jahre hat den Grönlandgletscher nicht wesentlich verkleinert. Die restlichen 2 % weltweiter Gletscher über Asien, Kaukasus und so fort bis hin zu Neuseeland verhalten sich uneinheitlich. Alpengletscher nehmen seit Mitte des 19. Jahrhunderts ab. Allerdings waren sie wie schon erwähnt während 2/3 des Holozäns kleiner als heute. Eine maßgebliche Veränderung der weltweiten Gesamtgletschermasse jüngerer Zeit ist nicht bekannt. Arktisches Meereis schließlich hat nichts mit Gletschern zu tun, es ist Wetter. Seine jedes Mal im Winter entstehende Fläche von bis zum 30-fachen der Fläche Deutschlands verschwindet wieder in jedem Sommer.

Natürlich gibt es auch Ausnahmen von diesem Bild, die aber keine maßgebenden Bedrohungen sind: Gegenüber dem 10 Jahre älteren AR5 berichtet der AR6 2023 von zunehmenden Überschwemmungen und Extremtemperaturen. Beide Phänomene dürften zutreffen. Die Ursachen von Überschwemmungen sind infolge weltweit zunehmender Bodenversiegelung und Bebauung sogar menschgemacht, mit anthropogenem CO2 haben sie aber nichts zu tun. Für zunehmende Extremtemperaturen werden die Ursachen auch im Urban Heat Island Effekt vermutet, das ist die Erwärmung durch immer größere Städte. Aber auch die aus Kostengründen vorgenommenen Verlagerungen von Messtationen in dichterbesiedelte Gebiete könnten mitverantwortlich sein. Eine Fachpublikation von Frontiers in Earth Science kommt sogar zum Ergebnis, dass die unvermeidbaren Fehler der bisher gemessenen Temperaturen so groß sind, dass sie keine verlässlichen Rückschlüsse auf eine anthropogene Erwärmung erlauben (hier).

 

Ein näherer Blick auf das CO2 und seine Konzentrationszunahme in der Atmosphäre

Weiter soll es nun zuerst um die noch nicht behandelten Eigenschaften des CO2 gehen und im Anschluss daran die wohl wichtigsten beiden Fragen aufgegriffen werden: Wie stark ist konkret die globale Erwärmung infolge zunehmenden CO2 in der Atmosphäre? Und zweitens, wie steht es um die immer höheren CO2-Konzentrationen in der Atmosphäre, falls die Verbrennung fossiler Brennstoffe nicht aufhört?

Zuerst die CO2-Eigenschaften: CO2 ist schwerer als Luft, ab 25 % Konzentration wird es lebensgefährlich erstickend. Das afrikanische Lake-Nyos-Unglück, bei dem ein Vulkanausbruch im Seeboden die CO2-Konzentration der Seeumgebung auf zu hohe Werte trieb, tötete unzählige Weidetiere. Konzentrationen bis herauf zu 0,1 % sind unbedenklich. Als Spurengas von nur 0,04 % heute spielt sein höheres spezifisches Gewicht keine Rolle, denn durch Molekülstöße mit anderen Gasen bleibt CO2 bis in die Stratosphäre hinauf gleich verteilt. Konzentrationen mit ungewöhnlich hohen Werten, wie sie in Ballungsgebieten bei Windstille auftreten können, sinken bei starkem Wind wieder auf diejenigen Werte, wie sie offiziell auf hohen Bergen oder isolierten Inseln gemessen werden.

Anthropogenes CO2 aus der Verbrennung von Kohle, Öl und Gas gibt der Erdatmosphäre das CO2 wieder zurück, was sie vor Urzeiten bereits einmal besaß. CO2 als Hauptbestandteil der Photosynthese ist Luftdünger, weil es die meisten Pflanzen, insbesondere Nahrungspflanzen, besser wachsen lässt. Diese inzwischen gut bekannten positiven Folgen des angestiegenen CO2 machen sich im Ergrünen von Wüstenrändern und in weltweit zunehmenden Nahrungsernten bemerkbar, sogar der SPIEGEL berichtete darüber. CO2-Zunahme ist unter diesen Gesichtspunkten zu begrüßen und nicht zu befürchten. Allerdings gibt es im Gegensatz zu diesen, und das sei hier betont, realen Eigenschaften des anthropogenen CO2 auch die noch unbelegte Hypothese von seiner Ursache als einer maßgeblichen und gefährlichen globalen Erwärmung.

Zuerst zu seiner globalen Erwärmungswirkung: Sie hängt nicht linear, sondern logarithmisch von  seiner Konzentration in der Luft ab. Somit hat sie bei jeder Konzentrationsverdoppelung den gleichen Wert. Daher definiert die Equilibrium Climate Sensitivity, die in Deutsch einfach als „Klimasensitivität“ bezeichnet wird, die Erhöhung der Globaltemperatur bei jeder CO2-Verdoppelung, also von 1 auf 2, von 2 auf 4 usw. Weil leicht verständlich und politisch gut brauchbar, wurde die Klimasensitivität zur allein maßgebenden Zahl der globalen CO2-Erwärmung. Die Fachliteratur gibt für die Klimasensitivität den Bereich von 0,6 °C bis 6 °C an, das sind viele Hunderte Prozent Unsicherheit! Die AR des IPCC reduzieren diese Spanne – wohlgemerkt nur schätzend – auf einen Bereich zwischen 1 und 2,4 °C. Das sind immer noch über 100 % Unsicherheit. Die unbequeme Wahrheit ist daher: „Der Wert der Klimasensitivität ist unbekannt!“

Eine Fachpublikation des Klimaforschers François Gervais von 2016 liefert dazu mehr. Gervais trug die Klimasensitivitäts-Werte aus allen verfügbaren Fachpublikationen gegen den Zeitpunkt ihrer Veröffentlichung in eine Grafik ein und legte eine Regressionsgerade durch die Punkte-Wolke (hier). Der Trend dieser Geraden zeigt einen starken Abstieg und endet 2016 bei etwa 1 °C. Er erweiterte seine Grafik bis heute, aber es bleibt bei 1 °C. Diese untere Schranke entspricht dem unteren Schätzwert des IPCC und ist gemäß Fachliteratur unbedenklich. Ob 1 °C zutrifft, ist damit natürlich nicht entschieden. Angesichts dieser Unkenntnis bleibt aber zumindest der gut belegte Trost, dass wärmere Zeiten mit mehr Pflanzenwuchs stets für Mensch und Natur vorteilhaft waren.

Zum Abschluss der Vorlesung nun zur zweiten Frage über einen befürchteten immer weiteren CO2-Anstieg in der Atmosphäre. Vor 1850 befand sich der globale CO2-Kreislauf mit seinen biologischen Senken und Quellen im Gleichgewicht. Das anthropogene CO2 nach 1850 hat dieses Gleichgewicht verändert, und das CO2 der Luft stieg an. Oft wird daher befürchtet, dass es in der Atmosphäre verbleibt und sein Anstieg erst dann endet, wenn sein anthropogener Nachschub komplett aufhört. Das ist in der Fachliteratur widerlegt. Damit das CO2 der Luft einmal nicht weiter ansteigt, reicht es sogar aus, wenn der Mensch beliebig große Jahresmengen von CO2 beliebig viele Jahre weiter emittiert, vorausgesetzt diese Jahresmengen werden irgendwann einmal nicht mehr größer. Das klingt zunächst absurd, denn wo bleibt dann das stets weiter erzeugte CO2? Zur Klärung des Rätsels sind die folgenden Details erforderlich.

Der Ozean besitzt in frei gelöster Form die etwa 40-fache Menge des CO2 in der Luft. Selbst wenn alles anthropogene CO2 vom Ozean aufgenommen würde, änderte sich daher die riesige CO2-Menge des Ozeans nur vernachlässigbar. Hinzu kommt, dass zusätzliches CO2 im Ozean auch zusätzlich von Meereslebewesen zum Aufbau ihrer Kalkskelette verbraucht wird, die nach ihrem Absterben zum Meeresboden absinken und weiter zu Kalkstein werden, so dass dieses CO2 dem globalen Kreislauf für immer entzogen ist. Das zeigen zum Beispiel die Alpen, die zu großen Teilen aus Kalkstein bestehen. Er entstand in ihrer Kinderzeit vor 250 Millionen Jahren, als die Alpen noch ein Meer waren. Worauf es hier ankommt:  Infolge unveränderten CO2-Gehalts des Ozeans bleibt auch sein CO2-Partialdruck unverändert, egal wieviel die Menschheit in die Luft bläst.

Der zweite Faktor ist die extreme Zeitträgheit von Änderungen des CO2-Kreislaufs von mehreren Jahrzehnten. Damit sind die beiden entscheidenden Punkte als „unveränderter CO2-Partialdruck des Ozeans“ und „extreme Systemträgheit“ genannt. Was passiert nun? Anthropogenes CO2 geht in die Luft und lässt ihren CO2-Partialdruck ansteigen. Dadurch müsste das anthropogene CO2 sofort im Ozean und dem Pflanzenwuchs verschwinden. Die Systemträgheit lässt dies aber nicht zu. Das CO2 staut sich an, was seinen Anstieg von 0,02 % um 1850 auf heute 0,04 % erklärt. Die CO2-Partialdruckdifferenz von Luft und Ozean ist heute bereits so groß, dass aktuell von jeder Tonne an anthropogenem CO2 nur noch die Hälfte in der Luft verbleibt, ein Viertel aber bereits in den Ozean und das zweite Viertel ins Pflanzenwachstum gedrückt wird. Das bestätigen die Messungen. Und diese Tendenz setzt sich fort, hin zu immer mehr CO2 in den Ozean und das Pflanzenwachstum. Dies bedeutet aber dauernde Verbrauchs-Zunahme von fossilen Brennstoffen, was auf Dauer unmöglich ist. Blieben hypothetisch die anthropogenen CO2-Emissionen zumindest einmal konstant, würde sich nach mehreren Jahrhunderten folgendes Gleichgewicht einstellen. Das gesamte anthropogene CO2 wird vom Ozean sowie dem Pflanzenwuchs aufgenommen, nichts mehr bleibt für die Luft übrig. Die CO2-Konzentration der Luft bleibt dann konstant und steigt nicht mehr an.

Das für die Menschheit wichtige Ergebnis ist nun: Der anthropogen verursachte Anstieg des atmosphärischen CO2 kann eine obere Grenze nicht überschreiten, weil fossile Brennstoffe zu teuer werden oder im Extremfall ihre Ressourcen für eine immer weitere Verbrauchszunahme nicht mehr ausreichen. Der Höchstwert hängt vom Verbrauchsverhalten der Menschheit ab und liegt vielleicht um 0,07% CO2 in der Luft. Der langfristige Ausbau der Kernenergie wird aber schon lange vor Erreichung eines Maximalwerts die Nutzung fossiler Brennstoffe ersetzt haben. Es gibt daher keinen Grund, einen zukünftig zu hohen CO2-Anstieg in der Atmosphäre durch menschgemachte Aktivitäten zu, befürchten.

 

Zum Abschluss ein nüchternes Fazit

Zum Abschluss der Vorlesung ein Fazit: Die globale Erwärmung, welchen Ursprungs auch immer, ist   vorteilhaft. Infolge des atmosphärischen CO2-Anstiegs nahm der weltweite Pflanzenwuchs zu, und die Erträge der meisten Nahrungspflanzen stiegen an. Extremwetterzunahmen gibt es nicht. Alle Änderungen wie von Temperaturen, Niederschlägen, Meeresspiegeln und Gletschern liegen im natürlichen Bereich der Zeiten vor der Industrialisierung. Die Klimasensitivität als Stärke der erwärmenden Wirkung von CO2 ist unbekannt. Die im Weltvergleich minimalen 1,5 % deutscher CO2-Emissionen sind wirkungslos, ob sie nun durch Dekarbonisierung zum Verschwinden gebracht werden oder nicht. Die einzig sichere Konsequenz von Dekarbonisierung ist die Zerstörung Deutschlands energieintensiver Industrie, so dass Dekarbonisierung keine gute Idee ist. Langfristig wird die CO2-freie Kernenergie ohnehin einmal alle CO2-Befürchtungen beenden.




Welcher Weltuntergang darf es denn sein? – EIKE im Gespräch mit Kontrafunk

Wirtschaft und Gesellschaft: Der große Klimaschwindel

Frank Wahlig im Gespräch mit Axel Robert Göhring

Welcher Weltuntergang darf es denn sein? Die Erde brennt, und die Menschheit fackelt ab. Der Meeresspiegel steigt, und sintflutgleich sterben die Menschen in den Küstenregionen. Das Klima wandelt sich. Das tut es immer schon. Aber stimmen denn die Alarmmeldungen der Klimaaktivisten, stimmen die Computermodelle, die einen menschengemachten Klimawandel belegen wollen? Frank Wahlig spricht mit dem Naturwissenschaftler Dr. Axel Göhring über die Liebe der Deutschen zum Weltuntergang und darüber, welche brillanten Geschäfte sich damit einfädeln lassen.

Kontrafunk ist ein seit einigen Jahren etablierter kritischer Radiosender, der die Arbeit der öffentlich-rechtlichen Sendeanstalten übernommen hat. In der Schweiz und Österreich kann man Kontrafunk sogar im Radio hören (Tipp für unsere A/CH-Leser).




Frankreich: Kernenergie und „Erneuerbare“ vertragen sich schlecht

Verdoppelung der Stromkosten befürchtet

von Edgar L. Gärtner

Auf der Welt gibt es nicht nur menschliche Kulturen, die kaum oder gar nicht miteinander koexistieren können (etwa tribalistischer Kannibalismus mit dem Mordverbot des jüdisch-christlichen Dekalogs), sondern auch Techniken der Elektrizitätsversorgung, die schlecht oder gar nicht miteinander verträglich sind. Das bekannteste historische Beispiel dafür ist die Jahre lange heftige Auseinandersetzung zwischen dem genialen Erfinder Thomas Alva Edison und der fortbestehenden Firma Westinghouse um die Elektrizitätsübertragung mittels Gleich- oder Wechselstromsystemen. Dieser Konflikt erforderte damals eine klare Entscheidung für eine der beiden unterschiedlichen Übertragungstechniken. Nur in besonderen Situationen gelten die beiden Techniken als kompatibel. Auf eine ähnliche weitreichende Entscheidungssituation steuert derzeit unser Nachbarland Frankreich zu.

Mit einem Kernenergie-Anteil von über 70 Prozent und einem Anteil der Wasserkraft um die 20 Prozent gilt die französische Elektrizitätsversorgung, im Unterschied zur deutschen, als eher zukunftsfähig, Probleme bereiten lediglich die hohen Investitionskosten der geplanten neuen sechs großen Kernreaktoren vom Typ EPR2 sowie die Finanzierung der Entwicklung kleiner modularer Kernreaktoren (SMR), die im Unterschied zu den großen eine flexible und verbrauchsnahe Elektrizitätserzeugung ermöglichen. (Gerade steht das von mir bei EIKE vorgestellte Startup Naarea vor dem Konkurs, weil ihm die finanziellen Mittel fehlen, um seinen SMR-Prototypen marktfähig zu machen.)

Der Staat ist pleite, aber für Zufallsenergien ist noch Geld da

Statt für die Entwicklung innovativer und tragfähiger SMR-Konzepte ist aber beim französischen Pleite-Staat und in der europäischen Wirtschaft anscheinend noch immer mehr als genug Kapital für die unkontrollierte Expansion der so genannten erneuerbaren Wind- und Solarenergie vorhanden. Da der französische Staatspräsident Emmanuel Macron und seine Freunde weiterhin auf der Welle des woken Zeitgeistes segeln wollen, setzen sie dem Druck grüner Investoren und politischer Bewegungen keinen Widerstand entgegen. Zwar haben sie ihre Bemühungen, auch in Frankreich (unausgesprochen) einen „Atomausstieg“ nach deutschem Vorbild anzubahnen, nach einem Anflug von Realismus inzwischen aufgeben müssen und in Brüssel erreicht, dass die Kernenergie in der EU-Taxonomie des „Green Deal“ als kohlenstoffarm bzw. „nachhaltig“ durchgeht. Doch stemmt sich Emmanuel Macron im Verein mit Ursula von der Leyen und anderen Spitzenpolitikern der EU mit allen ihnen zur Verfügung stehenden Mitteln gegen die von Donald Trump in Davos verkündete Stunde der Wahrheit über die „Erneuerbaren“.

So setzt die „Macronie“, wie viele Franzosen Macons Regime missbilligend bezeichnen, im letzten Entwurf des noch nicht verabschiedeten dritten französischen Plans für die Entwicklung der Energieversorgung in den kommenden zehn Jahren (Programmation Pluriannuelle de l’Energie, PPE3) auf eine angebliche Komplementarität zwischen steuerbaren und wetterabhängigen Energiequellen, indem sie eine Vervielfältigung der Offshore-Windräder um den Faktor 50 (!), die Verdoppelung der Zahl der landgestützten Windkraft- und eine Verfünffachung der Photovoltaikanlagen vorsieht. Auf Druck der in Paris immer noch präsenten deutschen „Energiewende“-Lobby haben die Macronisten zusammen mit Linksradikalen und Grünen offenbar beschlossen, den Kernreaktoren, die sie ursprünglich abschalten wollten, aber wegen der harten Realität nicht konnten, eine ähnliche Rolle zuzuweisen wie den Gaskraftwerken in Deutschland. Statt ständig und verlässlich die Grundlast der Stromversorgung zu sichern, sollen sie in Zukunft vorwiegend, wenn nicht ausschließlich als „Lückenbüßer“ für die Überbrückung der Nächte und windarmer Wetterlagen dienen. Die „Erneuerbaren“ sollen wie in den deutschen Elektrizitätsnetzen absoluten Vorrang bekommen und die Kernkraftwerke sollen entsprechend der jeweiligen Wetterlage öfters schnell hoch- und runtergefahren werden, nicht selten mehrmals am Tag.

Kernkraftwerke nur noch Lückenbüßer?

Die macronistischen Technokraten verlangen daher in ihren Plänen ex- oder implizit eine große Modulationsfähigkeit der Kernkraftwerke. Doch für diesen wechselnden Einsatz sind die Kernkraftwerke – insbesondere die zwischen 1978 und 1999 erbauten, welche nach der erfolgten offiziellen Laufzeitverlängerung noch lange am Netz bleiben sollen – überhaupt nicht ausgelegt. Die Wellen ihrer Turbinen müssten bei einem längeren Stillstand künstlich weitergedreht werden, damit sie sich nicht mit einem bremsenden Schleier aus Oxidationsprodukten überziehen. Das würde ein Wiederanfahren schwierig machen. Die Ingenieure gehen davon aus, dass die Auslastung der meisten Anlagen gefahrlos nur um etwa 20 Prozent schwanken kann. Größere Schwankungen müssten zu einem vorzeitigen Verschleiß der Anlagen führen.

Das ist den Ingenieuren seit längerem bekannt. Schon Anfang 2023 gab es dazu eine parlamentarische Anhörung. Bis Ende 2025 sollte der staatliche Elektrizitätsversorger EDF einen detaillierten Bericht über die mit der häufigen Modulation der Leistung von Kernkraftwerken verbundenen technischen und gesundheitlichen Risiken vorlegen. Doch Bernard Fontana, seit Mai 2025 neuer Generaldirektor von EDF, ließ Mitte Januar auf dem Schweizer Elektrizitätskongress in Bern durchblicken, dass die Regierung unter Präsident Emmanuel Macron und Premierminister Sébastien Lecornu die Veröffentlichung des Berichts blockiert, um nicht zusätzlich Wasser auf die Mühlen der in Frankreich starken Kritiker des woken Windrad-Wahns zu leiten. Einige Details des offiziell noch geheimen Rapports waren über die Gewerkschaften der Führungskräfte an die Öffentlichkeit gelangt. Fontana beteuerte zwar, EDF habe nach wie vor die Absicht, den kompletten Bericht zu veröffentlichen. Dieser sei aber in der vorliegenden Form „non publiable“.

Doch die Pro-Kernenergie-Initiative „Documentaire et Liberté“ weist in einem Post auf „X“ auf gleichzeitig vom Netzbetreiber RTE veröffentlichte Projektionen hin, aus denen hervorgeht, dass die PPE3 tatsächlich die Umwandlung des Rückgrats der französischen Stromversorgung in einen Lückenbüßer vorsehen. Zwar wird auch heute die Leistung der KKW bereits moduliert, und zwar insgesamt über eine Spanne von 12 Terawattstunden (TWh). Dabei stand aber die wirtschaftliche Optimierung des KKW-Einsatzes im Vordergrund. Würde die PPE3 hingegen buchstabengetreu umgesetzt, wäre bis 2035 mit einer Regulierungs-Spanne von über 100 TWh zu rechnen. Dadurch würde die Kernenergie wahrscheinlich ihre technischen, ökologischen und wirtschaftlichen Vorteile gegenüber anderen Energiequellen verlieren. Die In der PPE3 vorgesehene massive Förderung der „Erneuerbaren“ käme damit lediglich über einen kleinen Umweg zum Ziel „Atomausstieg“.

Verdoppelung des Strompreises durch „Erneuerbare“

Schon bisher führte der wachsende Anteil wetterabhängiger Energiequellen an der französischen Elektrizitätsversorgung neben der Einbindung Frankreichs in das Merit Order Tarifsystem der EU zur allmählichen Verdoppelung der Stromrechnungen französischer Haushalte in den vergangenen 10 Jahren. Allein zwischen 2023 und 2024 stieg der Preis für Haushaltstrom um 18 Prozent. Durch die Umsetzung der PPE3 würde sich der Strompreis bis 2035 noch einmal verdoppeln, rechnet der Ingenieur Fabien Bouglé vor. Dabei sind die Erzeugerpreise in den letzten Jahren relativ konstant geblieben. Explodiert sind Steuern und Zuschläge für die Subvention und die Netzanbindung des dezentral an Land oder Offshore erzeugten Solar- und Windstroms. Nur die völlige Abkehr vom irrsinnigen Ziel der Kohlenstoff-Neutralität durch die Förderung der „Erneuerbaren“ könnte die Franzosen wieder in den Genuss der Vorteile preisgünstigen Atomstroms zurückbringen.




Horst Lüdecke: Kampf gegen die Physik & warum die deutsche Energiewende scheitert – Kontrafunk befragt EIKE

Kontrafunk ist ein seit einigen Jahren etablierter kritischer Radiosender, der die Arbeit der öffentlich-rechtlichen Sendeanstalten übernommen hat. In der Schweiz und Österreich kann man Kontrafunk sogar im Radio hören (Tipp für unsere A/CH-Leser).

Seitdem die Energiewende zu einer der wichtigsten Zielsetzungen deutscher Politik erklärt wurde, sprechen alle von Energie und Strom – aber wissen sie auch, was das ist? Es wird Zeit für Aufklärung. Was ist das physikalische Phänomen, das wir umgangssprachlich als Strom bezeichnen? Wie wird er erzeugt? Welche Besonderheiten der Strom-Erzeugung und -nutzung in Deutschland gibt es? Im Vortrag wird jene Kernfrage unserer Stromversorgung untersucht, die allen technisch besser informierten Zeitgenossen den Schlaf raubt: Wie weit können die bisherigen, mit Kohle und Gas betriebenen Grundlastkraftwerke durch die neuen Methoden ersetzt werden?

EIKE-Pressesprecher Horst-Joachim Lüdecke spricht im Format „Audimax“

Hier auch das pdf der Vorlesung

Kampf gegen die Physik, warum die deutsche Energiewende scheitert

Der moderne Mensch braucht immer mehr Energie. Kostengünstige Energie und insbesondere preiswerte elektrische Energie sind die wichtigsten Aktivposten einer erfolgreichen Industrienation.  Bei zu hohen Energiepreisen verliert ein Industrieland seine Konkurrenzfähigkeit und steigt wirtschaftlich ab. Elektrische Energie ist zumindest in Industrieländern zur weltweit wichtigsten Energieform geworden.

Dies wird einem erst richtig bewusst, wenn elektrische Energie durch einen Blackout plötzlich fehlt. Während etwa Unterbrechungen der Benzinversorgung nur teure Hindernisse für den Verkehr, die Produktion und das Geschäftsleben sind, bricht dagegen bei einem Blackout plötzlich unsere gesamte technische Lebensgrundlage weg. Kassen und Kühlanlagen in Supermärkten, Licht, Telefon, Radio, Fernsehen, Handy, Wasserversorgung, Bahn und Straßenbahn, kurz alle mit Strom betriebene Technik ist nicht mehr nutzbar. Bisherige Erfahrungen zeigen, dass nach wenigen Tagen Blackout die Supermärkte geplündert werden. Die Ordnungskräfte sind ohne Strom machtlos, nach mehr als einer Woche herrscht gefährliches Chaos. Notstromaggregate in Krankenhäusern haben, wenn überhaupt, nur für die gesetzlich vorgeschriebenen vierundzwanzig Stunden Sprit. Schon bei Stromunterbrechung von einem Tag kann eine Fertigungsstrecke mit Flüssigmetall nur noch verschrottet werden, weil das geschmolzene Metall inzwischen abgekühlt ist und fest wurde. Für eine große Aluminium- oder Kupferhütte, bedeutet dies unter Umständen den wirtschaftlichen Zusammenbruch.

Trotz des höchsten Stellenwertes von elektrischer Energie in Industrienationen ist ihr Anteil vergleichsweise klein im Vergleich mit allen anderen genutzten Energieformen wie im Wesentlichen   von Wärme aus Verbrennung von Kohle, Gas und Erdöl. Weltweit machte Strom im Jahr 2024 je nach Datenquelle zwischen 12 und 17 Prozent der weltweit genutzten Energie aus, in Deutschland waren es genau 15 Prozent. Die weit vorwiegenden Energieträger sind sowohl weltweit als auch in Deutschland immer noch Kohle, Gas und Erdöl. Die hierzulande so propagierten Methoden der Windräder und Photovoltaik zur Stromerzeugung machen weltweit nur jeweils 1 Prozent der Gesamtenergie aus und spielen praktisch keine Rolle. Auch der weltweite Anteil der Kernenergie von etwa 4,5 Prozent ist relativ klein. Die deutschen Zahlen für Wind und Sonne sind zwar etwas höher, aber ebenfalls unbedeutend. Wie kann das aber sein, denn die Medien nennen doch beeindruckend hohe Zahlen? Dieser Widerspruch wird hier später noch aufgeklärt. Seit Kurzem kam künstliche Intelligenz in die Schlagzeilen, nicht zuletzt wegen ihres hohen Stromverbrauchs. Falls sich ihr prognostizierter Anstieg bewahrheiten sollte, ist in hochindustrialisierten Ländern mit einem spürbaren Anstieg der Stromerzeugung zu rechnen.

Woher kommt eigentlich die von uns genutzte Energie? Energie kann schließlich weder erzeugt noch vernichtet werden. Sie steckt in natürlichen Quellen und wird aus der Umwelt bezogen wie aus den fossilen Energiequellen Kohle, Erdöl, Erdgas sowie aus Uran ferner aus Sonnenstrahlung, Wind, Wasserkraft und Biomasse. Die aus diesen Quellen insgesamt gewonnene Energie eines Landes ist seine Primärenergie. Endenergie sind die umgewandelten Energie-Träger wie Kraftstoffe, Heizöl, heißes Wasser als Fernwärme und so weiter. Nutzenergie ist das, was vom Verbraucher verwendet wird, hier insbesondere die elektrische Energie.

Die technischen und physikalischen Eigenschaften von elektrischer Energie, ihre Besonderheiten und die Gründe ihres höchsten Stellenwerts sind die Stationen der Vorlesung. So werden insbesondere die Vorteile von elektrischer Energie gegenüber anderen Energieformen behandelt. Weitere Stationen sind „Die Physik und Technik von elektrischer Energie in Erzeugung, Verbrauch und Speicherung“. Die deutsche Energiewende basiert im wesentlichen auf den im großen Maßstab eingesetzten neuen Methoden der Windräder und Photovoltaik, die ausschließlich elektrische Energie erzeugen. Als Folge dieser neuen Energiepolitik hat Deutschland inzwischen weltweit die höchsten Strompreise. Daher behandelt die letzte Vorlesungs-Station „die Besonderheiten der Strom-Erzeugung und -nutzung in Deutschland.“ Es wird dort auch auf die folgende Kernfrage unserer Stromversorgung eingegangen, die allen technisch besser informierten gewissenhaften Zeitgenossen den Schlaf raubt: Wie weit können überhaupt unsere bisherigen Grundlastkraftwerke mit Kohle und Gas durch die neuen Methoden ersetzt werden? Ferner wird auf die Frage eingegangen, ob das komplette Umkrempeln unserer ehemals bestens funktionierenden Stromwirtschaft, das rücksichtslos gegen unsere überlebenswichtige energieintensive Industrie durchgezogen wird, überhaupt noch vernünftig ist und das Prinzip der Verhältnismäßigkeit einhält.

Ihnen ist inzwischen vielleicht aufgefallen, dass sowohl von elektrischer Energie als auch von elektrischem Strom oder kurz Strom die Rede war, so dass vielleicht der Eindruck entstand, Strom sei mit elektrischer Energie identisch. Das ist aber nicht der Fall. Aber welche Bezeichnungen sind dann korrekt? Die physikalischen Begriffe der Elektrotechnik sind zwar eindeutig definiert und unverwechselbar, nur kümmert sich die Umgangssprache oft nicht darum. So sind zum Beispiel die Bezeichnungen Strommenge oder Stromverbrauch physikalisch unsinnig. Natürlich ist mit Strom fast immer die elektrische Energie gemeint. Weil „elektrische Energie“ aber zu sperrig ist, machen Umgangssprache und sogar Stadtwerke auf der Rechnung einfach Strom daraus. Man sollte hier nachsichtig sein. Die korrekte Ausdrucksweise wird in dieser Vorlesung eingehalten, wenn sie für das Verständnis wichtig ist. Ansonsten wird aber auch hier dem üblichen und nicht immer korrekten Sprachgebrauch gefolgt. Außerdem wissen Sie dann schon aus der Vorlesung, was gemeint ist.

Mit den bitte nicht zu verwechselnden physikalischen Größen Energie und Leistung soll der folgende  kurze Überblick beginnen: „Leistung ist Energie-pro-Zeit“, umgekehrt wird daraus „Energie ist Leistung-mal-Zeit“. Dieser grundlegende Zusammenhang wird uns immer wieder begegnen.  Was ist jetzt aber elektrischer Strom oder kurz Strom? Er ist eine Flussgröße und keine Energiegröße. Strom ist fließende elektrische Ladung, meist von negativ geladenen Elektronen durch einen Stromleiter. Der Elektronenfluss wird von einem elektrischen Potentialunterschied angetrieben wie aus einer Batterie oder einem elektrischen Generator. Diese Bewegung von Elektronen kann nur in Stromleitern erfolgen, das sind vorwiegend geeignete Metalle, meistens Kupfer aber auch Silber, Gold und Aluminium, wobei Silber und Gold sogar noch besser als Kupfer leiten können. In metallischen Stromleitern sind die äußeren Elektronen ihrer Atome relativ frei beweglich, so dass sie sich in Richtung eines elektrischen Potentialgefälles bewegen können.

Die Gravitation spielt beim Strom keine Rolle. Es ist daher auch keine zusätzliche Energie aufzuwenden wenn eine elektrische Leitung ansteigt – im Gegensatz etwa zum Energieaufwand beim wiederholten Transport von Kohle von einem tiefgelegenen zu einem höhergelegenen Ort, den man dann als  zusätzlichen Kostenfaktor ansehen könnte. Aber auch Wasser, das Chloride, Sulfate oder Carbonate enthält, leitet Strom. Sich in der Badewanne zu föhnen ist daher keine gute Idee und könnte tödlich enden, selbst wenn die heute vorgeschriebenen Fehlerstrom-Schutzschalter gefährliche Stromschläge im Bad abwenden. Der Schutzschalter erkennt, wenn nicht aller verbrauchter Strom des Badezimmers über den Null-Leiter abfließt, weil ein Teil unzulässig über Erde, also hier über das Badewasser der Wanne abgeht. Er unterbricht dann sehr schnell in etwa 0,3 Sekunden die Stromzufuhr.

Die Strömungsgeschwindigkeit der Elektronen in einem Stromleiter beträgt erstaunlicherweise nur wenige Millimeter pro Sekunde, auch bei höheren Stromstärken, weil dann auch entsprechend größere Leiterdurchschnitte verwendet werden. Im Gegensatz zu den fast kriechenden Elektronen verbreiten sich aber Änderungen wie zum Beispiel das Absperren des Stroms oder ein elektromagnetischer Impuls mit bis 90 Prozent der Lichtgeschwindigkeit von 300.000 km/s im Stromleiter. Strom als fließende Elektronen erzeugt im Leiter stets ein wenig Reibungswärme, so dass es selbst bei günstigsten Höchstspannungs-Gleichstrom-Übertragungen in Freileitungen zu Verlusten von etwa 3-4 Prozent pro 1000 km Länge kommt. Verlustfreie elektrische Leitfähigkeit als sogenannte Supraleitung gibt es zwar, aber nur in speziellen Metall-Legierungen bei ausreichender Kühlung. Der Rekord der Sprungtemperatur liegt heute – nur im Labor und leider noch nicht in der praktischen Anwendung – bei minus 23 Grad Celsius wobei das hochkomplexe Leitermaterial auch noch unter extrem hohen Druck stehen musste.  In der Praxis werden supraleitende Magnetspulen zum Beispiel im Teilchenbeschleuniger der Genfer Großforschungseinrichtung CERN eingesetzt, wobei bis minus 271 Grad Celsius mit superfluidem Helium gekühlt wird. Das sind nur 2 Grad über dem absoluten Temperaturnullpunkt.

Nun zu den physikalischen Einheiten, der uns hier interessierenden elektrischen Größen. In Deutschland ist seit 1960 das kohärente internationale Einheitensystem SI wie système international gültig. Für die Maßeinheiten werden die Namen maßgeblicher Entdecker von physikalischen Gesetzen genommen, der Anfangsbuchstabe ist dann die Kurzbezeichnung der Maßeinheit. So in der Elektrotechnik für den Strom das A für André Ampere, für die elektrische Spannung das V für Alessandro Volta, und für die elektrische Leistung das W für James Watt. Energie hat die Maßeinheit J für James Joule. Die Sekunde ist ein kleines s zur besseren Unterscheidung.

Fangen wir mit Strom als Fluss von elektrischer Ladung an. Alle Flussgrößen sind Quotienten mit der Zeit im Nenner. Mit der Maßeinheit Coulomb für die elektrische Ladung ist Coulomb-pro-Sekunde die Maßeinheit von Stromstärke als das Ampere. Ein Coulomb enthält übrigens satte 6,2 Trillionen Elektronen-Ladungen, das ist eine Eins mit 18 folgenden Nullen. Die Maßeinheit der elektrischen Spannung ist das Volt. Die Leistung Joule-durch-Sekunde ist in der Elektrotechnik kürzer das identische Watt. Und weil Energie Leistung-mal-Zeit ist, wird die elektrische Energie zu Watt-mal-Sekunde oder kurz Wattsekunde, praktischer meist Kilowattstunde. Eine Wattsekunde ist identisch mit einem Joule. Kilowattstunden finden Sie auf Ihrer Stromrechnung. Man zahlt für die verbrauchte Menge elektrischer Energie und nicht oder höchstens nur einmal für die elektrische Leistung, die nur zur Verfügung steht. Beim Autokauf ist es ähnlich. Im Kaufpreis ist die Leistung des Motors enthalten. Nur für die verbrauchte Energie beim Fahren ist jedesmal beim tanken zu zahlen.

Volt, Ampere und Watt sind durch den einfachen Zusammenhang Volt-mal-Ampere ist Watt miteinander verknüpft. Er kommt hier später immer mal wieder vor. Eine erste Begegnung mit diesem Zusammenhang wären vielleicht die dicken Kabel an der Autobatterie, wobei die Frage aufkommen könnte, warum diese Kabel bei mickrigen 12 Volt der Batterie so dick sind. Die Autobatterie muss aber nicht nur beim Starten des Anlassers ordentlich Leistung in Watt aufbringen. Das kann sie aber bei den wenigen 12 Volt wegen „Volt-mal-Ampere gleich Watt“ nur mit ausreichend viel Strom und der braucht eben dicke Kabel.

Noch weitere Eigenschaften von Strom sind interessant: Eine stromdurchflossene Leitung enthält praktisch keine Energie und sei sie noch so groß wie vielleicht eine 600 Kilometer lange 380.000 Volt Freileitung mit 700 Megawatt. Die elektrische Leistung eines Strom-Erzeugers und seine gelieferte Energie entsprechen ferner genau denen des Verbrauchers, von den geringen Wärmeverlusten der Stromleitung abgesehen. Um in großen Stromnetzen dieses Gleichgewicht von jetzt vielen Erzeugern und noch zahlreicheren Verbrauchern bei sich ändernden Verbrauchswerten einzuhalten, sind Erzeuger erforderlich, die sich problemlos den Verbrauchswerten anpassen können. Das war im ehemalig bestens funktionierenden Stromnetz Deutschlands bis etwa zum Ende des zwanzigsten Jahrhunderts auch der Fall. Mit der Energiewende und ihren jetzt bevorzugten Methoden der Stromerzeugung aus Wind und Sonne entstand dagegen eine bis jetzt ungelöste und hochbrisante Problematik bei der Aufrechterhaltung dieses unabdingbaren Gleichgewichts. Darauf wird hier später noch im Detail eingegangen.

Die Geschichte von Strom und Elektrizität begann im antiken Griechenland, als die elektrischen Eigenschaften von Bernstein durch Reibung entdeckt wurden. Die späteren Entdecker-Namen reichen, um nur wenige zu nennen, von William Gilbert über Benjamin Franklin, Alessandro Volta, André Ampere bis hin zu Nicola Tesla. Erst der Schottische Physiker James Clerk Maxwell erreichte einen endgültigen physikalischen Abschluss mit seinen berühmten elektromagnetischen Feldgleichungen, die man später auf vier Grundgleichungen komprimierte. Die Maxwell-Gleichungen beschreiben vollständig alle Phänomene elektromagnetischer Felder in einem System von vier linearen partiellen Differentialgleichungen erster Ordnung. Später kam als Ergänzung die davon unabhängige Lorentzkraft hinzu, die ein geladenes Teilchen in einem elektromagnetischen Feld erfährt. Diese Bewegung von geladenen Teilchen konnte erst nach Maxwell mit Hilfe der speziellen Relativitätstheorie von Albert Einstein genau beschrieben werden.

Die Maxwell-Gleichungen sind nicht aus noch tieferen physikalischen Gesetzen herleitbar. Sie sind vielmehr die geniale Zusammenfassung aller vor Maxwell entdeckten physikalischen Gesetze von Elektrizität und Elektromagnetismus. Solch eine grundsätzlich nicht mehr zu verbessernde Zusammenstellung wird als ein physikalisches Grundsystem bezeichnet. Grundsysteme prägen unser Weltverständnis. In den Maxwell-Gleichungen ist der gesamte Elektromagnetismus sowie alles von Wellenausbreitung, über Antennen, elektrische Schaltkreise, bis hin zu Elektro-Motoren enthalten, einfach alles. Die Maxwell-Gleichungen sind unverändert auch ein wichtiger Baustein der modernsten physikalischen Feldtheorien wie der Quantenelektrodynamik. Ein physikalisches Grundsystem kann etwa so charakterisiert werden: Es wird mit mathematischen Gleichungen der Systemgrößen beschrieben, alle eingehenden Größen sind messbar, und schließlich bestätigen Messungen die rechnerischen Ergebnisse des Grundsystems mit prinzipiell beliebiger Genauigkeit. Der letzte Punkt ist der wichtigste. Weitere physikalische Grundsysteme sind die allgemeine Relativitätstheorie, die Quantenmechanik und die schon erwähnte Quantenelektrodynamik.

Natürlich ist es in der elektrotechnischen Praxis mit den Maxwell-Gleichungen allein noch nicht getan, denn den konkreten Anwendungen sind noch Materialgleichungen hinzuzufügen. So ist zum Beispiel der Widerstandsfaktor im Ohmschen Gesetz vom Material abhängig. Schließlich werden Lösungen der Maxwell-Gleichungen benötigt, wenn beispielsweise der optimale Aufbau eines neu konstruierten Elektromotors berechnet werden soll. Analytische Lösungen sind hier aber nur in einfachsten Spezialfällen möglich. Die Lösungen der Maxwell-Gleichungen zusammen mit allen Materialgleichungen können nur numerisch aber dennoch beliebig genau mit dem Computer berechnet werden. Dabei wird das stetige System der Maxwell-Gleichungen in ein diskretes System umgewandelt. Aus Differentialquotienten werden Differenzenquotienten. Numerisch wird der Raum wie beispielsweise der eines Elektromotors, der optimiert werden soll, in finite Elemente mit Stützstellen und Gittern aufgeteilt. Je kleiner die finiten Elemente, umso genauer wird die Lösung.

Bei der täglichen Nutzung von Strom wird man mit Gleichstrom und Wechselstrom bekannt. Alle mit Batterien betriebenen Geräte wie zum Beispiel Heckenscheren, die ohne lästige Stromkabel auskommen, werden von Gleichstrom-Motoren angetrieben. Im Gegensatz dazu wird bei uns die Geschirrspülmaschine oder der Haarföhn mit 230 Volt Wechselstrommotoren betrieben. Warum gibt es die Trennung in Gleichstrom und Wechselstrom überhaupt?

Ursprung der Trennung war um 1890 ein technisch-wirtschaftlicher Stromkrieg zwischen Thomas Edison und George Westinghouse um die geeignete Technik für Beleuchtung. Dabei ging es um viel Geld von Marktanteilen. Edison war für Gleichstrom, Westinghouse für Wechselstrom. Westinghouse gewann diesen Krieg. Bei Gleichstrom bleibt die Stromrichtung konstant, bei Wechselstrom ändert sie sich periodisch. Weltweit ist die Wechselstromfrequenz 50 Hertz, also 50 Wechsel pro Sekunde. 50 Hertz wurden in Europa und dem größten Teil der Welt als bester Kompromiss für alle Anwendungen von Wechselstrom angesehen. Die ebenfalls noch verwendeten 60 Hertz spielen – außer in den USA – nur noch eine untergeordnete Rolle. Neben einfachem Wechselstrom gibt es auch Dreiphasenwechselstrom, der als Drehstrom bezeichnet wird. Er ist bei viel Leistung von Vorteil wie zum Beispiel bei großen Wasserboilern oder Wärmepumpen und hat drei Anschlüsse im Gegensatz zum Wechselstrom mit zwei Anschlüssen.

Westinghouse setzte sich durch, weil der maßgebende Vorteil von Wechselstrom gegenüber Gleichstrom die Möglichkeit ist, Spannung mit dem relativ einfachen elektrischen Bauelement „Transformator“ auf höhere oder tiefere Spannungen zu transformieren. An der Leistung ändert sich dabei nichts, von Wärmeverlusten abgesehen. Ein Transformator ist im Prinzip ein U-förmiger Eisenkern mit gegenüberliegenden Spulen aus isoliertem Kupferdraht. Damit kann die Spannung von Freileitungen beliebig erhöht werden wie zum Beispiel hierzulande maximal bis auf 380.000 Volt, um die Stromstärken und damit die Kabelquerschnitte für die hohen Leistungen solcher Freileitungen noch wirtschaftlich klein zu halten. Hier begegnet uns wieder die Beziehung Volt-mal-Ampere ist Watt – je höher die Spannung, umso weniger Ampere und Kupfer sind nötig.

Nur bei extrem langen Höchstspannungs-Freileitungen ab 800 Kilometer aufwärts wird auch wieder Gleichstrom eingesetzt, weil dort die Übertragungsverluste trotz der Konverterverluste durch die Spannungserhöhung mit Transformatoren sowie der Verluste bei Umwandlung von Wechselstrom in Gleichstrom und umgekehrt wieder kleiner als bei reiner Wechselspannung werden. Der Transformator und damit das kaufmännische weniger Kupfer bei längeren Stromleitungen war der entscheidende Vorteil, mit dem Westinghouse seinen Punktsieg errang.  Bei Verwendung von Gleichstrom ist es dagegen vorteilhaft, dass es keine störende Blindleistung gibt. Dieser Effekt war Edison und Westinghouse bei ihrem Streit aber noch nicht bekannt. Wegen Abwesenheit von Blindleistung wird Gleichstrom heute meist bei Energieübertragung durch Seekabel verwendet. Die Umwandlung von Wechselstrom oder Drehstrom in Gleichstrom und umgekehrt erfolgt in sogenannten Stromrichterstationen.

Nach diesem Überblick soll nun die Energie behandelt werden, insbesondere die elektrische Energie. Alle Energie, die auf der Erde vorzufinden ist, ist entweder umgewandelte Sonnenenergie, die in fossilen Brennstoffen schlummert oder Kernenergie aus Kernspaltung. Zur Kernenergie und ihren Gegnern sei eine kurze Anmerkung erlaubt: Die Kernenergie ist keine Erfindung des Leibhaftigen, sondern völlig natürlich und wurde vom modernen Menschen nur wiederentdeckt. Im afrikanischen Gabun fand man fünfzehn natürliche Kernreaktoren, die durch eine Verkettung von ganz natürlichen Umständen kritisch wurden, über eine halbe Millionen Jahre aktiv waren, insgesamt einige hundert Terawattstunden Wärme erzeugten und vor bereits 1,5 Milliarden Jahren erloschen sind.  Zurück zu den natürlichen Umgebungsenergien. Zu denen zählt die Strahlungsenergie der Sonne, die ebenfalls aus Kernenergie stammt, hier aber aus Kernfusion. Ferner gibt es noch die Bewegungsenergien von Wind, Meeresströmungen und Gezeiten, die aus der Bewegungsenergie unseres planetarischen Systems Erde und Mond kommen.

Gezeiten, Meeresströmungen und Wind erzeugen Reibungswärme, die letztlich wieder als Strahlung ins Weltall verschwindet. Die Rotationsenergie der Erde wird durch diese Reibungsverluste verringert und als Folge davon wird die Umdrehungsdauer der Erde, also die Tagesdauer, immer länger. Zudem entfernt sich dadurch auch der Mond immer weiter von der Erde und zwar um 3,83 Zentimeter pro Jahr. Die Tageslänge erhöht sich zwar nur um etwa 20 Sekunden über eine Million Jahre, aber das addiert sich mit der Zeit. Seit Aussterben der Dinosaurier vor 65 Millionen Jahren ist unsere Tageslänge immerhin schon 22 Minuten größer geworden. Wenn man es ganz genau will, entziehen auch die unnatürlichen Windräder dem Wind Energie und verstärken damit weiter die Vergrößerung unserer Tagesdauer.

Energie kann weder erzeugt noch vernichtet, sondern nur von einer Energieform in eine andere umgewandelt werden. Dabei entstehen stets Verluste, in aller Regel als Wärme wie zum Beispiel in Maschinen mit bewegten Teilen als Reibungswärme. Wenn allerdings Wärme in eine andere Energieform wie zum Beispiel in elektrische Energie oder mechanische Energie umgewandelt werden soll, geht das in größerem Maßstab nur mit Wärmekraftmaschinen, wobei physikalisch grundsätzliche Verluste unvermeidbar sind. Nur über thermoelektrische Hybridmaterialien können geringe Strommengen direkt erzeugt werden. Der französische Physiker Sadi Carnot hat die physikalische Gesetzmäßigkeit von Wärmekraftmaschinen um 1824 mit seinem berühmten Carnot-Prozess entdeckt und damit ungewollt gleich auch noch die neue physikalische Disziplin Thermodynamik gegründet. Das Prinzip des Carnot-Prozesses ist eine von mehreren Formulierungen des zweiten Hauptsatzes der Wärmelehre und gehört zu einem für die ingenieurtechnische Anwendung wichtigsten Prinzip überhaupt.

Jede Wärmekraftmaschine hat ein Wärmereservoir hoher Temperatur und eines mit tieferer Temperatur. In größeren Anwendungen wird dabei meist Gas oder Wasserdampf genutzt. In einem Gas-und-Dampfkraftwerk, kurz GUD, wird beides kombiniert, wobei übrigens mit dem Begriff Kraftwerk immer die Erzeugung von Strom gemeint ist. Im GUD erzeugen die noch heißen Gase am Ausgang der Gasturbine Dampf für eine parallellaufende Dampfturbine.

Nun zum zweiten Hauptsatz der Thermodynamik: Er besagt, dass in Wärmekraftmaschinen ein theoretischer Bestwirkungsgrad nicht überschritten werden kann. Man erhält seinen Wert, indem man die Temperaturdifferenz der beiden Reservoire durch die Temperatur des wärmeren Reservoirs teilt. Dies zeigt schon, dass für gute Wirkungsgrade die Temperaturdifferenz möglichst hoch sein sollte. Daher vermutet man richtig, dass beispielsweise elektrische Energie aus deutscher Erdwärme dem Verfahren von Kohleverbrennung hoffnungslos unterlegen ist. In Island, wo sich heiße Erdzonen extrem nahe unter der Oberfläche befinden, ist das aber anders. Die elektrische Energie von Island kommt tatsächlich zu 29 Prozent aus Geothermie, die restlichen 71 Prozent aus Wasserkraft – um dieses Geschenk der Natur ist Island zu beneiden.

Zurück zu Carnot. Der Wirkungsgrad eines Benzinmotors ist seine mechanische Antriebsenergie geteilt durch die Verbrennungswärme des Benzins. Er beträgt wegen des Carnot-Prozesses nur ungefähr 0,3 oder 30 Prozent – beim Diesel geht es herauf bis 45 Prozent. Das theoretische Carnot-Prinzip geht über die spezielle Wärmekraftmaschine weit hinaus, denn der zweite Hauptsatz der Thermodynamik besagt auch noch, dass Wärme durch überhaupt keine periodisch arbeitende Maschine vollständig in Arbeit umgesetzt werden kann, und sei sie noch so raffiniert gebaut. Auch wir Menschen unterliegen dem zweiten Hauptsatz der Thermodynamik, denn wenn wir Körperenergie einsetzen, wird es uns warm. Auch unsere Erde muss dem zweiten Hauptsatz gehorchen. Hier ist das warme Reservoir die Sonne und das kalte Reservoir der dunkle Weltraum. Weitere, dem zweiten Hauptsatz unterliegenden Anwendungen sind der Kühlschrank, der aus Strom im Kühlfach Kälte und außen an seiner Rückwand Wärme erzeugt. Die jüngst propagierte Wärmepumpe funktioniert, anschaulich ausgedrückt, wie ein umgekehrt laufender Kühlschrank. Sie ist wesentlich energieeffizienter als die Wärmeerzeugung mit einer simplen elektrischen Widerstandsheizung.

Die Umwandlung von elektrischer Energie in mechanische Energie mittels eines Elektromotors und auch der umgekehrte Vorgang sind dagegen prinzipiell verlustfrei, von unvermeidbaren geringfügigen Reibungsverlusten abgesehen. Elektrische Energie und mechanische Energie zählt man daher zu den wertvollen Energien, weil ihre Umwandlung in andere Energieformen prinzipiell verlustfrei ist. Wärme ist dagegen die am wenigsten wertvolle Energie, weil ihre Umwandlung in andere Energiearten dem grundlegenden Carnot-Verlust unterliegt.

Die Menge an elektrischer Energie, die mit Kohle, Mineralöl oder Erdgas betriebene Kraftwerke weltweit erzeugen, übertrifft bei weitem die aller anderen Methoden. Kernkraftwerke könnte man noch dazuzählen, weil die Kernspaltung Wärmeenergie erzeugt, die dann genauso wie in den fossilen Kraftwerken über Dampfturbinen in elektrische Energie umgewandelt wird. Ferner werden noch Wind, Sonneneinstrahlung und Biomasse zur Stromerzeugung eingesetzt. Wegen der prinzipiellen Carnot-Verluste könnte man annehmen, dass Stromerzeugung aus Wärme generell ungünstiger sei als Strom aus Wind oder Sonne. Dies trifft nicht zu. Es wird sich später noch zeigen, dass die Vorteile fehlender Carnot-Verluste bei der Stromerzeugung aus Wind und Sonne sogar völlig vernachlässigbar sind, wenn man diese Vorteile mit den grundlegenden Nachteilen von Wind und Sonne vergleicht.

Elektrische Energie kann nur in geringen Mengen direkt gespeichert werden. Das erfolgt mit passiven elektrischen Bauelementen wie Kondensatoren. Selbst sogenannte Superkondensatoren können aber nur um 20 Wattstunden Energie pro Kilogramm Kondensatorgewicht speichern. Das reicht für Anwendungen wie die sogenannte Powerbank, die aufgeladen und mit relativ kleinen Abmessungen und geringem Gewicht als nützliches Werkzeug im Fahrzeug mitgenommen wird. Damit kann man auch in einem großen Fahrzeug wieder den Anlasser starten, wenn die Batterie schlapp gemacht hat. Die hohe aber nur sehr kurze von der Powerbank aufrechterhaltene Leistung reicht dafür aus. Hier geht es aber jetzt um elektrische Energie, die um mehrere Größenordnungen größer sein muss als die in Powerbanks. Sie wäre zu speichern, um beispielsweise für die Überbrückung eines längeren Blackouts zu sorgen. Das geht nur durch indirekte Speicherung von Energie mit chemischen, hochgewichtigen und kostspieligen Batterien – heute meist Lithium-Ionen-Batterien. Eine andere Lösung wären Pumpspeicheranlagen, die die Lageenergie von Wasser zwischen einem Berg und dem zugehörigen Tal nutzen.

Die Energiekosten von Lithium-Ionen-Batterien werden unterschiedlich angegeben. Sie liegen aktuell am günstigsten bei etwa 100.000 Euro für eine Megawattstunde. Als Anschauungsbeispiel wollen wir verlangen, dass bei einem längeren bundesweiten Blackout, wenigstens für einen Tag die elektrische Energie Deutschlands durch derartige Batterien überbrückt werden sollte und nach den Kosten fragen. Die Realisierbarkeit dieses Szenarios ist mühelos abzuschätzen: Das Umweltbundesamt nennt im Schnitt etwa 550 Terawattstunden benötigter elektrischer Energie in Deutschland pro Jahr. 550-durch-365 Tage sind 1,5 Terawattstunden, die unsere Batterien an einem einzigen Tag ersetzen müssten. Mit 100.000 Euro für eine Megawattstunde kostet der Ersatz aus Batteriestrom 150 Milliarden Euro. Die zusätzlichen Kosten für die Anschlusstechnik der Batterien, ihre Lagerung, ihr Aufladen etc. sind dabei unberücksichtigt, auch nicht die Kosten von Batterieverschleiß durch allmählichen Verlust der Leistung aufgrund von Alterung. Die dramatische Kapazitätsabnahme von Batterien bei Kälte soll ebenfalls keine Rolle spielen. Unsere elementare Abschätzung reicht bereits aus, um zu belegen, dass die Batterielösung aus wirtschaftlichen Gründen völlig unrealistisch ist.

Es bleiben dann in Deutschland nur noch Pumpspeicherwerke übrig wie das hierzulande größte – Goldisthal in Thüringen –, dessen technische Werte wir verwenden wollen. Große Staudämme haben wir nicht, und alle anderen immer wieder einmal vorgeschlagenen Lösungen sind noch teurer. Pumpspeicherwerke verfügen über ein Wasser-Reservoir im Tal und eines auf dem Berg. Ist für das Pumpspeicherwerk ausreichend Strom aus dem Netz verfügbar, wird von der Tal-Pumpturbine in das obere Reservoir Wasser gepumpt, das Pumpspeicherwerk wird sozusagen geladen. Fehlt Strom, wird das Wasser unter Ausnutzung seiner Lageenergie im oberen Reservoir über die 800 Meter lange Wasserleitung von Goldisthal wieder von der Tal-Pumpturbine in elektrische Energie umgewandelt. Die maximal gespeicherte Energiemenge von Goldisthal beträgt 8,5 Gigawatt-Stunden. Die kürzeste Entleerungsdauer beträgt eine Stunde, dabei ist die Maximalleistung ca. 1 Gigawatt. Für den Ausgleich eines vollen Tages Blackout in Deutschland, bräuchte man unter großzügiger Weglassung der nicht mehr zu vernachlässigenden Reibungsverluste der Wasserleitung mindestens 180 Pumpspeicherwerke mit der Leistung von Goldisthal. Deutschland hat für Pumpspeicherwerke aber nicht einmal die topographischen Voraussetzungen.

Vor dem näheren Eingehen auf die Erzeugungsmethoden von elektrischer Energie in Deutschland ist eine aktuelle Bestandsaufnahme sinnvoll, um eine konkrete Vorstellung über die Größenverhältnisse zu erhalten: Elektrische Energie hat, wie schon erwähnt, hierzulande nur einen Anteil von 15 Prozent an der deutschen Primärenergie, weltweit ist der Wert ähnlich. 80 Prozent der Primärenergie Deutschlands kommen immer noch aus Kohle, Erdöl und Erdgas, weltweit ist dieser Anteil etwa gleich groß. Deutschland unterscheidet sich daher in der Primärenergie mit den beiden Werten 15 Prozent elektrischer Energie und 80 Prozent Energie aus fossilen Brennstoffen kaum von der weltweiten Situation.

Ganz anders sieht es dagegen bei den Methoden zur Erzeugung von elektrischer Energie aus. Hier macht Deutschland zusammen mit wenigen Ländern eine auffällige Ausnahme im weltweiten Vergleich. Im Jahr 2024 wurde die elektrische Energie Deutschlands zu etwa 37 Prozent aus Kohle und Erdgas, aber bereits schon zu 31 Prozent aus Windrädern und zu 14 Prozent aus Photovoltaik erzeugt. Weltweit sind dagegen Kohle und Erdgas mit 47 Prozent deutlich stärker, Wind mit 8 Prozent und Photovoltaik mit 7 Prozent viel schwächer. Deutschland betreibt eine deutliche Verschiebung seiner Erzeugungsmethoden von Strom hin zu mehr Wind und Sonne und weg von Kohle und Gas. Ob dieser Sonderweg technisch und wirtschaftlich sinnvoll ist, und welche Konsequenzen er für die Versorgungssicherheit mit Strom nach sich zieht, wird hier noch näher untersucht.

Bezieht man freilich für Deutschland die Anteile von Wind und Photovoltaik nicht auf die elektrische Energie, sondern auf die Primärenergie, bleibt von den eindrucksvollen Zahlen nichts mehr übrig, nämlich nur 4,5 Prozent Primärenergie-Anteile aus Wind- und 1,8 Prozent aus Photovoltaik. Weltweit ist es noch einmal weniger. Nur 1 Prozent der Primärenergie aus Wind und 1 Prozent aus Photovoltaik wurden schon erwähnt. Die stolzen Erfolgsmeldungen in den öffentlich rechtlichen Sendern über deutsche Windenergie von 31 Prozent, wobei dabei oft gerne vergessen wird zu erwähnen, dass diese Zahl sich nur auf elektrische Energie bezieht, sind korrekt. Die wohl wichtigere Zahl von nur 4,5 Prozent Wind an der Primärenergie war dagegen in den Öffentlichrechtlichen noch nie zu vernehmen. Somit ist der Widerspruch der in den Medien genannten Zahlen mit den realen Verhältnissen geklärt.

Die viel wichtigeren wesentlich kleineren Anteile von Wind- und Sonnenstrom an der Primärenergie werden salopp verschwiegen, weil die langfristige Planung über die jetzige Energiewende hinaus die sogenannte Sektorenkoppelung vorsieht. Dabei soll der Einzelsektor „elektrische Energie“ auf alle Sektoren bis hin zur Wärmedämmung von Gebäuden erweitert werden. Sektorenkoppelung ist im Klartext auch Dekarbonisierung, denn so gut wie alle Primärenergie soll dabei nur noch aus CO2-freiem Strom von Wind und Sonne kommen. Dies bei heute mickrigen 4,5 Prozent Windstromanteil trotz 30.000 Windräder. Der Energieexperte Professor André Thess, Institutsleiter der Universität Stuttgart, hat die Kosten von Dekarbonisierung bis 2045 rechnerisch gut nachvollziehbar zu 10 Billionen Euros geschätzt. Diese Summe belegt, dass den politischen Planern des Abersinns Energiewende und auch noch Sektorenkopplung jede Wirklichkeitsnähe, jedes Verständnis von Physik und Technik und jede Beachtung von Verhältnismäßigkeit abgeht.

Will man nun ganz allgemein die in modernen Batterien gespeicherte elektrische Energie mit der aus fossilen Brennstoffen oder Uran vergleichen, benötigt man die hier schon einmal verwendete Energiedichte als Quotient von Energie pro Gewicht. Ihre Maßeinheit ist die Wattsekunde durch Kilogramm. Lehrreich ist der Vergleich der Energiedichte einer modernen Lithium-Ionen-Batterie von 0,2 Kilowattstunden-pro-Kilogramm, mit der Energiedichte von Dieseltreibstoff von 5,3 Kilowattstunden pro Kilogramm, wobei in dieser Zahl die prinzipiellen Carnot-Verluste des Diesels mitberücksichtigt sind. Wir werden diesen Wert später noch einmal brauchen. Die 5,3 Kilowattstunden des Diesel dividiert durch die 0,2 der Batterie ergeben rund 26. Diesel hat also einen 26-fachen Energievorsprung vor einem E-Auto, beim Benziner ist der Vorsprung nur um etwa 20% kleiner. Oder anders ausgedrückt: Ein Diesel-Auto hat bei gleichem Gewicht im Tank wie ein E-Auto 26 Mal mehr Antriebsenergie zur Verfügung. Die geringe Reichweite von E-Autos wird nun besser verständlich. Hinzu kommt, dass E-Autos bei Temperaturen unter Null Grad Celsius dramatisch an verfügbarer Reichweite verlieren.

Wichtiger und interessanter ist dann allerdings der Vergleich der Energieeffizienz von Wind mit Kohle. Er erfordert den Begriff der Leistungsdichte als Leistung pro Fläche, also Watt-pro-Quadratmeter. Die Art der Fläche hängt von der Anwendung ab, hier wird die „verbrauchte Bodenfläche der jeweiligen Methode“ verwendet. Bei Windrädern ist dabei zu beachten, dass sie aus technischen und Kosten-Gründen in Windparks, oder genauer ausgedrückt, in Windrad-Industriegebieten installiert werden. Dort sind Mindestabstände gegen leistungsmindernde gegenseitige Strömungsbeeinflussung erforderlich. Über das Jahr 2024 und ganz Deutschland Onshore gemittelt betrug die mittlere Wind-Leistungsdichte 3,7 Watt-pro-Quadratmeter Bodenfläche. Für Kohle sind es dagegen um die 8000 Watt-pro-Quadratmeter Bodenfläche. Der Flächenverbrauch eines Windrads ist also mehrtausendfach größer als der von einem Kohlekraftwerk. Die 3,7 Watt pro Quadratmeter werden hier später noch einmal benötigt.

Unterschiedliche Leistungsdichten sind für den realen Nutzen der miteinander verglichenen Methoden absolut ausschlaggebend. Je höher die Leistungsdichte einer Methode zur Erzeugung von elektrischer Energie ist, um so effizienter, naturschonender und materialschonender ist sie. Das erkennt man sofort, wenn man die Definition Leistungsdichte ist Leistung-durch-Fläche umkehrt und als Leistung ist Leistungsdichte-mal-Fläche formuliert. Bei zu geringer Leistungsdichte benötigt man eine sehr große Fläche, damit das Produkt Leistungsdichte-mal-Fläche, also die gewünschte Leistung, noch ausreichend groß wird. Große Systemflächen bedeuten zudem noch großen Materialverbrauch des Systems. Man braucht dabei nur an Windrad-Riesenmonster zu denken, bei denen ausschließlich die zu geringe Leistungsdichte der Grund ist, warum sie so riesig sind. In einem schon älteren Artikel der ZEIT wurden Energien aus Wind und Sonne wegen ihrer Sanftheit dagegen als optimal umweltschonend bezeichnet. Das ist bereits absurd, denn es ist genau umgekehrt. Je sanfter eine Methode der Stromerzeugung ist, um so kleiner ist ihre Leistungsdichte, und um so größer ist ihr Flächenverbrauch, ihr Materialaufwand und ihre Umweltschädigung.

Historisch verlief die bisherige Entwicklung aller technischen Energiemethoden grundsätzlich immer von kleineren zu höheren Leistungsdichten. Das Umgekehrte gab es nie. Das Aufkommen von Windrädern verletzt dieses – man ist versucht zu sagen Naturgesetz – weil es den Weg zurück ins energetische Mittelalter beschreitet. Windräder basieren trotz modernster eingebauter Technik auf der mittelalterlichen Methode der Windmühle. Selbst modernste Technik vermag aber nicht die physikalischen Gesetzmäßigkeiten des mittelalterlichen Windmühlenprinzips auszuhebeln. Man kann aus der Wind-Leistungsdichte von den schon erwähnten 3,7 Watt pro Quadratmeter Bodenfläche nun auch den Flächenverbrauch bei hypothetisch allem Strom Deutschlands aus Onshore-Wind abschätzen. Das Ergebnis nähert sich der Gesamtfläche Thüringens. Bei Sektorenkoppelung wären es 15 Mal Gesamtfläche mehr. Das belegt wieder wie schon betont die meilenweite Entfernung der deutschen Energiepolitik von Wirklichkeit und Verhältnismäßigkeit.

Das hier bisher Geschilderte wird von der begutachteten wissenschaftlichen Fachliteratur vollumfänglich bestätigt. Es handelt sich dabei um eine begutachtete Studie von Weißbach und Mitautoren, die im Fachjournal Energy des renommierten Elsevier-Verlags erschien. Um sie zu lesen, tippe man den Titelbeginn der Studie „Energy intensities, energy returned on invested“ ins Suchfenster von Google Scholar und klicke danach rechts unten auf „alle 17 Versionen“. Dort findet sich ein pdf des papers. Bild 3 auf Seite 219 zeigt die Verhältnisse an gelben Balken mit Schrägstrichen, wobei die Effizienz von acht Methoden von Photovoltaik bis hin zu Kernenergie miteinander verglichen werden. Das Ergebnis ist überdeutlich: Wind, Photovoltaik und Biomasse sind die ungünstigsten Methoden zur Erzeugung von elektrischer Energie überhaupt, sie liegen sogar unter der im Bild 3 eingetragenen ökonomischen Schwelle von OECD-Ländern und kommen daher für die Erzeugung elektrischer Energie großen Maßstabs nicht in Frage. Zu geringe Leistungsdichte bei der Erzeugung von elektrischer Energie mit Wind, Sonne und Biomasse wird hier im Folgenden als ihr „erster Fundamentalmangel“ bezeichnet. Es gibt nun aber noch einen zweiten Fundamentalmangel, der nur Wind- und Sonne betrifft.

Die dringend erforderliche Bekanntheit des ersten Fundamentalmangels von Wind- und Sonnenstrom wird leider durch weitgehende Unkenntnis des Begriffs „Leistungsdichte“ verhindert. Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist dagegen wesentlich anschaulicher und daher besser bekannt. Er hat es schon bis in alle Medien geschafft. Es ist die Wetterabhängigkeit von Wind- und Sonnen-Energie, der die Stromlieferungen dieser beiden Methoden zufällig und zappelig macht.

Zufalls-Strom kann ohne weitere Maßnahmen nicht in das deutsche Wechselstromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund schon für Glättung sorgt, weil irgendwo immer Wind wehen würde, hat eine ausführliche Studie des technischen Fachverbands für Energieanlagenbetreiber VBG widerlegt. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.“ Zitatende. Die Studie steht nach eingeben in Ihrem Browser von „VGB-Studie: Windenergie in Deutschland und Europa“ frei im Internet.

Die erwähnten Backup-Systeme sind heute schnell reagierende Gaskraftwerke, Kohlekraftwerke oder auch alte Ölkraftwerke. Diskussionswürdige Stromspeicherlösungen gibt es nicht, wie es hier bereits belegt wurde. Man muss daher für ausfallenden Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, das die Gesamtkosten der Stromversorgung mit Wind- und Photovoltaikanlagen zumindest verdoppelt. Genau dies ist bereits erfolgt, aber unvollständig. Schaut man sich die Grafiken der stündlichen Energieeinspeisungen von Wind- und Sonnenstrom an, fallen die extremen Fluktuationen auf, bei Wind noch wesentlich stärker als bei Sonne.

Das liegt an folgendem physikalischen Gesetz für alle Strömungsmaschinen, so auch für Windräder. Ihre Leistung ist grob proportional zur dritten Potenz der Windgeschwindigkeit. Nur grob, weil die nur für Windräder gültige Betz-Joukowsky-Grenze noch eine Rolle spielt. Ist die Windgeschwindigkeit nur noch halb so groß, halbiert sich nicht die erbrachte Leistung wie man eigentlich vermuten könnte, sondern wird zu ½ hoch drei gleich 1/8 oder 12 Prozent. Windräder in schwachwindigen Wäldern sind daher besonders unsinnig. Der zweite Fundamentalmangel und das v-hoch-3 Gesetz bewirken, dass Onshore-Windräder über Deutschland und das Jahr gemittelt nur etwa 20% ihrer Nennleistung erbringen, Offshore ist es etwa das Doppelte.

Ein Dieselauto zu betanken reicht bereits aus, um die Schwächen von Windrädern zu veranschaulichen. Durch den Zapfhahn einer Tankstelle fließen etwa 0,7 Liter Diesel pro Sekunde, das sind etwa 2000 Kilogramm pro Stunde unter Berücksichtigung des spezifischen Gewichts von Diesel. Multipliziert man dies mit der schon erwähnten Diesel-Energiedichte von 5,3 Kilowattstunden-pro-Kilogramm, ergibt sich für den strömenden Dieseltreibstoff eine Leistung von 12 Megawatt. Im Zahlenwert 5,3 ist der Carnot-Verlust bereits berücksichtigt. Auf der anderen Seite hat ein modernes Windrad wie zum Beispiel die Enercon E-160 EP5 mit 5 Megawatt Nennleistung nur 20 Prozent Realleistung, gemittelt über ganz Deutschland und ein Jahr. Das sind ein Megawatt. Tanken Sie Diesel, so erfolgt dies demnach mit rund der 10-fachen Realleistung eines großen Windrads. Oder anders ausgedrückt: Ein einziger Diesel-Füllhahn hat die gleiche Leistung wie zusammen 10 große deutsche Windräder. Dies macht der Diesel-Füllhahn aber, ohne die insgesamt 70.000 Tonnen Material der 10 Windräder inklusive der Fundamente und auch ohne die von den 10 Windrädern belegte Bodenfläche von etwa 270 Hektar zu bemühen. Die fast unwahrscheinlich erscheinenden extremen Zahlen dieses Beispiels sind leider zutreffend und belegen die fatalen Konsequenzen der zu geringen Leistungsdichte von Wind.

Die Photovoltaik zeigt als Besonderheit einen deutlichen Leistungshügel mit dem Gipfel im Sommer. Im Winter kommt nur noch wenig Sonnenstrom an, nachts das ganze Jahr überhaupt nichts.

Noch einmal zurück zum zweiten Fundamentalmangel. Infolge der Abschaltung aller deutschen Kernkraftwerke, der Beseitigung von selbst mit modernsten Filtern ausgestatteten Kohlekraftwerke und infolgedessen zunehmenden Wind- und Sonnenstroms, entsteht immer öfter die Situation von Stromunterdeckung oder umgekehrt von Stromüberschuss, der genauso gefährlich ist. Wenn zu viel Wind herrscht und auch noch die Sonne mithilft, muss Strom ans Ausland verkauft oder sogar gegen Aufpreis verschenkt werden. Im Fall von zu wenig Strom müssen die fossilen Ersatzkraftwerke gestartet oder Strom vom Ausland eingekauft werden. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten. Bereits bei höheren Abweichungen als ± 0,2 Hertz droht ein großflächiger Blackout wie er erst jüngst im einem Großbereich von Spanien Portugal und Südfrankreich vorkam. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihren problemlos dem schwankenden Verbrauch anpassbaren Grundlaststrom unbekannt. Wetterabhängiger Zufallsstrom ist ohne Ersatzkraftwerke oder die Mithilfe französischer Kernkraftwerke nicht in der Lage, immer den Strombedarf zu decken. Fossile Ersatzkraftwerke sind aber infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und daher wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben kein Interesse sie zu bauen.

Inzwischen sind zur Aufrechterhaltung sicherer Stromversorgung sogenannte dispatch-Maßnahmen in drei Regelungsstufen erforderlich. Primäre Stufe sind Störungen im Sekundbereich, sekundäre im Bereich mehrerer Minuten und tertiäre ab 15 Minuten aufwärts. Von Hand können meist nur im Tertiärbereich Ersatzstromquellen zugeschaltet oder vom Netz genommen werden. Solche Maßnahmen gab es bis Ende des zwanzigsten Jahrhunderts nur in einstelliger Anzahl pro Jahr. Heute liegt die Anzahl der jährlichen dispatch-Eingriffe – automatisch oder von Hand – bei rund Zwanzigtausend, und ihre jährlichen Kosten gehen in die Milliarden Euro.

Wegen ihrer extrem kurzen Reaktionszeit ist die Primärregelung kritisch und entscheidend. Sie kann weder durch Eingreifen per Hand noch durch automatische dispatch-Regelung erfolgen. Fällt beispielsweise ein großer Umspannungstransformator durch einen Defekt, Terroranschlag, oder Blitzschlag aus, ist dies ein Vorgang im Sekundenbereich. Die inzwischen vorliegenden Fachuntersuchungen der Gründe des jüngsten großen Blackouts in Spanien deuten tatsächlich auf das Fehlen ausreichender Primärregelung. Zu wenige Grundlastkraftwerke liefen und zu viel Sonnenstrom wurde eingespeist.

Die einzige Abhilfe bei Sekundenstörungen vermag nur die Physik zu liefern. Es sind die extrem hohen Rotationsenergien der Dampfturbinen-Rotoren aller Grundlastkraftwerke mit Kohle und ehemals Uran. Plötzliche Leistungsungleichgewichte durch Störungen im Sekundenbereich werden durch Abbremsen oder Beschleunigen dieser riesigen Rotoren verzögerungsfrei ausgeglichen. Ihre Rotorwellen sind bis 40 m lang, können bis 300 Tonnen wiegen und drehen sich mit genau der Netzfrequenz von 50 Hertz oder 3000 Umdrehungen pro Minute. Bei plötzlichem Leistungsabfall infolge einer schnellen Netzstörung springen sie ohne jedwedes Zutun ein und bügeln die Störung ausreichend lang weg bis die Sekundärregelung eingreifen kann. Kurz, die einzige Lösung der Primärregelungsproblematik ist die ausreichende Rotationsenergie aller Stromerzeuger im deutschen Stromnetz. Sie gibt es nur mit ausreichend vielen Grundlastkraftwerken. Kommt der Strom nur noch aus Wind und Sonne, ist das deutsche Wechselstromnetz grundsätzlich instabil und nicht mehr regelbar.

Daraus ergibt sich die dringende Frage wie viele Grundlastkraftwerke unabdingbar vorhanden sein müssen. Exakt ist sie nicht zu beantworten. Die Mindestanzahl an Grundlastkraftwerken hängt von der aktuellen Netzstruktur und davon ab, welches Blackout-Risiko man noch toleriert. Eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW ging dieser überlebenswichtigen Frage in einer Fachstudie nach. Sie ist nach Eingabe des Titels „Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb“ in Ihren Browser als pdf verfügbar. Als Ergebnis wird eine Mindestregelleistung von 20 Gigawatt für den Regelblock Deutschland angegeben, was einem Drittel der mittleren Gesamtleistung von etwa 60 Gigawatt an deutschem Strom entspricht. Mit den momentan noch vorhandenen Rotationsmassen der Grundlastkraftwerke und zusätzlichem Einkauf von Strom im Ausland scheint die erforderliche Sicherheit gegen Blackout vielleicht gerade noch vorhanden zu sein. Man bewegt sich aber auf stark schwankendem Terrain. Tatsächlich trägt die aktuelle Energiewende Deutschlands nicht nur zur maßgeblichen Schädigung seiner Industrie bei. Die Versorgung mit Heizenergie ist in einem wirklich kalten Winter nicht mehr sicher. Und zu all dem wird auch noch durch das weiter geplante Abschalten von Kohlekraftwerken in unverantwortlicher Weise das Blackout-Risiko erhöht. Die bei einem längeren Blackout zu erwartenden Personenschäden werden dabei billigend in Kauf genommen.

 




Profiteure der Klima-Panikindustrie: Die Versicherungswirtschaft

Axel Bojanowski von der Welt berichtete kürzlich vom aktuellen Bericht der Münchener Rückversicherung (Marke: Munich Re), die jährlich eine Auflistung der zu bezahlenden Folgen von Naturkatastrophen liefert. Der Hauptgrund angeblich – von den Massenmedien ungeprüft übernommen: der Klimakollaps!

Eine Rückversicherung („Re“) versichert andere Versicherungsunternehmen, deren direkte Kunden die Bürger und Firmen sind. Die „Münchener Rückversicherungs-Gesellschaft Aktiengesellschaft in München“ ist die größte ihrer Art auf der Welt. Somit verfügt die Münchener Rück über einen der größten Datensätze zu Katastrophenschäden. Nur – ist die Verknüpfung mit dem behaupteten menschlichen Klimawandel Tatsache oder Marketing?

Die großen Massenmedien jedenfalls lassen sich die übliche Katastrophenmeldung natürlich nicht entgehen. So schreibt der Spiegel:

Analyse von Rückversicherer Waldbrände in Los Angeles waren die teuerste Naturkatastrophe im Jahr 2025

Der Deutschlandfunk steht nicht zurück:

Munich Re: Klimawandel treibt Schäden durch Naturkatastrophen nach oben

n-TV mag auch nicht kleckern, sondern klotzt:

Klimawandel als Treiber – Naturkatastrophen verursachen Schäden von 224 Milliarden Dollar

Schlußendlich die Tagesschau:

Wetterextreme in Industrieländern Naturkatastrophen kosten immer mehr Wohlstand

Der Wissenschafts-Journalist Bojanowski ist bekannt für seine erhellenden zeithistorischen Hintergrund-Einsichten, die dem Tagesschau-Seher entgehen. So erinnert er daran, daß die Versicherungswirtschaft schon recht früh das Klimathema als Marketing-Maßnahme entdeckte. 1988 wurde der Weltklimarat ins Leben gerufen, und 1995 fand die erste weltweit beachtete Klimakonferenz in Berlin statt. (Eigentlich gab es schon 1988 in Hamburg eine erste UN-Konferenz dazu, aber eher unbeachtet.)

Bojanowski dazu:

Vor 31 Jahren ging es los. Im März 1995, zwei Tage vor Beginn der ersten UN-Klimaverhandlungen in Berlin, trafen sich Manager großer Versicherungen mit den Vertretern von Banken, Umweltverbänden und Firmen der Solarenergiebranche, um die globale Erwärmung als Geschäftsfeld auszuloten. Sie witterten angesichts der aufgekommenen Klimadebatte ihre Chance.

Die Münchener Rück wurde trotz ihrer relativen Unbekanntheit beim Endverbraucher (Versicherungsnehmer) im Spiegel damals schon als „erstes Opfer des Treibhauseffekts“ bezeichnet. Man sieht – die Profiteurs- und Interessensgruppen aus Medien und Wirtschaft können sehr gut zusammenarbeiten.