Das Menetekel der Desindustrialisierung Deutschlands: Kernkraft-Weltmeister Grohnde geht heute vom Netz

von AR Göhring

Es ist DAS Mentekel für die kommende Desindustrialisierung Deutschlands: Das Kernkraftwerk Grohnde an der Weser, das bis Anfang 2021 die weltweit noch nie erreichte Energiemenge von 400 Milliarden Kilowattstunden pro Block erzeugt hat, trennt sich heute vom Netz und fährt dann langsam herunter.

Eine Angestellte schreibt:


Etwas wehmütige Geschichte: Das Kraftwerk bei dem Dorfe Grohnde (Landkreis Hameln-Pyrmont) wurde ab 1975 gebaut und am 1. September 1984 „kritisch“ – also der Standard-Betriebszustand war hergestellt. Die Synchronisation mit dem Stromnetz erfolgte fünf Monate später. Betreiber sind PreussenElektra und die Stadtwerke Bielefeld. Grohnde hat einen Druckwasserreaktor mit ursprünglich 1.300 Megawatt elektrischer Nettoleistung und wird hauptsächlich mit Uran betrieben.

Interessant ist, daß während der Zeit der Kernkrafthysterie in den 1980er und 90er Jahren nur zwei Meldungen zu Störungen erfolgten. Erst ab den 2010er Jahren traten altersbedingte Verschleißschäden auf, die im Land der gründlichen Ingenieure aber sogleich entdeckt und saniert wurden. Haben Sie etwas davon gehört? Die Medien interessierte es kaum mehr, da die Physikerin Merkel den Ausstieg bereits angeordnet hatte.

Wird das Land Niedersachsen den Abriß von Grohnde alsbald angehen? So dumm kann keiner sein – es dürfte sich herumgesprochen haben, daß der Zappelstrom von Windrad&Co. unzuverlässig ist und weltweit Gasmangel herrscht. Wir dürfen also davon ausgehen, daß ahnungslose Desindustrialisierer nicht so bald die Gelegenheit erhalten werden, wie in Philippsburg der Sprengung eines Kühlturmes beiwohnen zu können. Anfang 2021 wurden bereits gerade „stillgelegte“ Kohlekraftwerke wieder synchronisiert, weil Unterdeckung drohte. Wir haben Winter, es ist dunkel und kalt – und das noch mindestens drei Monate. Ich vermute, die Manager werden den Reaktor nicht einmotten, sondern betriebsfähig halten lassen, um im Notfall binnen einer Woche wieder liefern zu können. Alles andere wäre verantwortungslos.

Was singen Englischsprachige nach 24 Uhr an Silvester? Das wehmütige Auld lang syne.

Passend zu Grohnde die deutsche Version:

Nehmt Abschied Brüder
Ungewiß ist alle Wiederkehr
Die Zukunft liegt in Finsternis
Und macht das Herz uns schwer
Der Himmel wölbt sich übers Land
Ade, Auf Wiedersehn
Das Schicksal liegt in unsrer Hand
Lebt wohl, Auf Wiedersehn



Das Jahr 2022 und die weitere Zukunft – keine rosigen Aussichten

Stefan Kämpfe

Als die sehr bekannte irische New-Wave-Band „The Boomtown Rats“ im Jahre 1978 ihren ersten Erfolgshit „Rat Trap“ (Rattenfalle) landete, war die Welt trotz der Öl- und Wirtschaftskrisen noch voller Optimismus, und mit den 1980er Jahren kehrten ja Wachstum und annähernde Vollbeschäftigung noch einmal zurück. Doch heute scheint die ganze Menschheit in einer Rattenfalle zu sitzen. Das hat wenig mit Corona zu tun, sondern zeichnete sich schon seit den 1990er Jahren ab – speziell in Europa und im Energiesektor. Der Autor dieses Beitrages erwartet zwar keinen baldigen Weltuntergang, hält es aber für notwendig, die immensen Probleme anzusprechen und zur Diskussion zu stellen. Denn ganz hoffnungslos ist die Lage nicht – aber dazu bedarf es einer realitätsnäheren Politik.

1. Trotz scheinbar großer Erfolge und viel Wissenszuwachs – stecken Forschung und Technik in der Sackgasse und gibt es eine Schallmauer für den Erkenntniszuwachs?

Nie gab es mehr Wissen und einen höheren Technisierungsgrad als momentan; das ist unstrittig. Auch der Wissenszuwachs war nie größer, als heute. Doch Flugzeuge, Autos, Raketen, Internet, Smartphones und immer schnellere Großrechner basieren allesamt auf Grundlagenwissen, welches mit überschaubarem Aufwand von meist wenigen, genialen Forschern vor mehreren Jahrzehnten bis Jahrhunderten erarbeitet wurde; diese Ära endete etwa so zwischen 1915 und den späten 1960er Jahren (Einstein, Heisenberg, Higgs).

Ein Paradebeispiel ist die Wetter- und Klimavorhersage. Anfangs gab es dabei enorme Fortschritte, wobei die „Erfindung“ der Wetterkarte (Heinrich Wilhelm Brandes, Leipzig, um 1817), die Telegrafie, das Funk- und Flugwesen, immer leistungsfähigere Großrechner, und die satellitengestützte Beobachtungen (ab den 1960er Jahren) dabei große Entwicklungsschübe auslösten. Doch leider gibt es hierfür Grenzen. Es wird nie gelingen, mit auch noch so viel Aufwand eine auch nur halbwegs exakte Wetterprognose für einen bestimmten Ort für zehn oder gar zwanzig Tage im Voraus zu erstellen; schon für mehr als drei Tage ist das bei sehr vielen Wetterlagen schwierig. So auch an Weihnachten 2021, als es noch am Beginn der Weihnachtswoche unmöglich war, vorherzusagen, wo wann wieviel Schnee bei welchen Temperaturen an den Feiertagen fallen würde. Grund ist der Schmetterlingseffekt (englisch butterfly effect), ein Phänomen der Nichtlinearen Dynamik. Er tritt in nichtlinearen dynamischen, deterministischen Systemen auf und äußert sich dadurch, dass nicht vorhersehbar ist, wie sich beliebig kleine Änderungen der Anfangsbedingungen des Systems langfristig auf die Entwicklung des Systems auswirken.

In der (langfristigen) Klimaprognose kommt die einseitige, politisch-ideologisch motivierte Fixierung auf CO2 hinzu; dabei wird der Einfluss der Wolkenbedeckung (Art und Menge der Wolken), der Sonnenaktivität und der Biosphäre bis heuer unzureichend oder fast gar nicht verstanden. Dementsprechend mangelhaft und fast stets übertrieben fallen die Klimaprognosen aus.

Abbildung 1: Während die meisten Modelle (farbig) für den Zeitraum 1979 bis 2021 eine starke Erwärmung von 0,6 bis 1,4°C berechneten, fiel die reale Erwärmung mit 0,2 bis 0,6°C kaum halb so stark aus, und im Jahr 2021 betrug sie kaum mehr als 0,2°C Bildquelle

Ein anderes Beispiel findet sich in der physikalischen Grundlagenforschung. So hat das CERN, die Europäische Organisation für Kernforschung, momentan etwa 3.400 Mitarbeiter, und über 14.000 Gastwissenschaftler aus 85 Nationen arbeiten an CERN-Experimenten. Das Jahresbudget des CERN belief sich 2014 auf ungefähr 1,11 Milliarden Schweizer Franken (ca. 1 Milliarde Euro). Ja, man fand dort neue Elementarteilchen, unter anderem das Higgs-Teilchen, welches beim tieferen physikalischen Verständnis der Masse aller Materie und Körper eine gewisse Rolle spielt. Aber verglichen mit den fundamentalen Erkenntnissen Einsteins, der erst nach der Veröffentlichung seiner speziellen Relativitätstheorie mit der berühmten Formel E=mc² Professor wurde und auch später nur relativ wenige Mitarbeiter hatte, muten diese Ergebnisse dürftig an; ihr künftiger Nutzen ist zwar nicht ausgeschlossen, aber sehr ungewiss.

Als Beispiel für die Krise der Technik sehen wir uns das Fliegen näher an. Es gibt drei grundlegende Prinzipien, um zu fliegen. Erstens leichter als Luft: Gebrüder Montgolfier (Heißluftballon, 1783) und Physikprofessor Jacques Alexandre César Charles (Wasserstoffballon, 1783). Der berühmte Graf Zeppelin entwickelte diese Technik um 1900 weiter; seine Zeppeline spielten militärisch (Erster Weltkrieg) und in der zivilen Luftfahrt der 1920er bis 1930er Jahre eine wesentliche Rolle. Zweitens schwerer als Luft nach dem Bernoulli-Effekt im weitesten Sinne (Propeller-, Düsen- und Segelflugzeuge, Hubschrauber). Als Erfinder (nicht ganz unstrittig) gelten die Gebrüder Wright (1903; sie waren ursprünglich als Drucker und Fahrradmechaniker tätig).

Und drittens schwerer als Luft, aber als Antrieb das Rückstoßprinzip, dass für den Flugkörper auf die umgebende Luft keine Rücksicht nehmen muss, oder, wie im Falle des Düsentriebwerks, nur den Sauerstoff der Luft aus Effizienzgründen verwendet, . Der revolutionäre Übergang vom Propeller- zum Düsenflugzeug (ab den späten 1930er Jahren) ist den Erfindern Hans Joachim Pabst von Ohain (Deutschland) sowie etwa zeitgleich Frank Whittle (Großbritannien) zu verdanken. Düsentriebwerke setzten sich zunächst beim Militär, ab etwa den 1960er Jahren auch in der zivilen Luftfahrt, durch. Und, daraus fortgeschrieben, das reine Rückstoßprinzip (Raketen).

Das Grundprinzip war ja seit der Erfindung des Schwarzpulvers und der ersten Feuerwerkskörper (China) bekannt. Doch sind Raketen derart schwer beherrschbar und komplex, dass der erste Flugapparat, Wernher von Brauns Aggregat 4, besser bekannt als V2, erst nach massiver Unterstützung durch die Nazis 1942 vermutlich das Weltall tangierte. Im Gegensatz zu den beiden ersten Flugprinzipien, war der Aufwand zur Entwicklung der weltraumfähigen Raketentechnik schon anfangs sehr hoch; doch er gipfelte vermutlich im Apollo-Programm, für welches zeitweise etwa 400.000 Mitarbeiter tätig waren.

Aber wo stehen wir heute?

Das Ballon-Prinzip ist seit der Hindenburg-Katastrophe (Lakehurst, 1937) nur noch eine Nischentechnik (Wetterballone, Rundflüge, mitunter Geofernerkundung und Spezialtechniken). Dem Flugzeug blieb, zumindest in der zivilen Luftfahrt, seit dem tragischen Unfall der Concorde (2000) nur der Unterschallbereich – man fliegt heuer etwa so schnell, wie schon in den 1970er Jahren. Und die nicht erst seit dem 11. September 2001 massiv zunehmende Terrorgefahr verteuerte und verkomplizierte die Fliegerei nicht unwesentlich. Dank der oft überbewerteten Raketentechnik und Weltraumfahrt gelangten bisher gerade mal 12 (!) Menschen auf den uns nächstgelegenen Himmelskörper, den Mond – der letzte 1972. Das Space-Shuttle-Programm wurde wegen ausufernder Kosten und zweier tragischer Unfälle (Challenger, Columbia) nach 2010 eingestellt; ohnehin taugte es nur für den erdnahen Raum. Immerhin bescherte uns die Raumfahrt außer enormen Kosten auch merkliche Fortschritte in der Kommunikationstechnik, Navigation und Erderkundung (Internet, Satellitenfernsehen, GPS, ISS, Erkennung und Erforschung von Umweltschäden, Wetterbeobachtung).

Doch neuerdings ziehen auch über den Satelliten und der ISS dunkle Wolken auf. Man hatte seit den Anfangsjahren der Raumfahrt kein Konzept zur Entfernung ausgedienter Raketen und Raketenstufen, Satelliten und von Restmüll aus dem Erdorbit, welche mit etwa 8 Km/s durch das All rasen und ein enormes Zerstörungspotential haben. Dieser Müll erfordert schon jetzt riskante, teure Ausweichmanöver für Satelliten und die ISS. Nur mit enormen finanziellen und logistischen Aufwendungen ließe sich der Müll entfernen; doch unterlässt man es, könnte der erdnahe Weltraum schon bald zu gefährlich für weitere Missionen werden, und viele Satelliten würden zerstört. Ähnlich, wie bei den Flugzeugen, ist der auf chemischer Energie basierende Raketenantrieb längst ausgereizt, für Reisen zu anderen Planeten zu ineffizient und zu langsam; die Russen fliegen immer noch mit der zwar zuverlässigen, aber total veralteten Sojus-Technik; auch die Amerikaner planen für ihre bevorstehenden Mond- und Marsmission mit dieser Technik.

An neuen Antrieben wird geforscht, aber außer dem Ionenantrieb, der aber nur für Raumsonden oder Satelliten taugt, gibt es keine in technisch machbarer Reichweite befindlichen Verfahren. Ähnliches ließe sich auch über unsere Autos und Züge sagen – seit Jahrzehnten keine oder nur geringe Fortschritte. Es scheint, als folgten Wissenschaft und Technik folgender Gesetzmäßigkeit:

Um heute einen etwa gleich großen quantitativen oder qualitativen Fortschritt (Ertrag im weitesten Sinne) zu erzielen, müssen überproportional steigende Aufwendungen betrieben werden.

Abbildung 2: Überproportional steigende Aufwendungen für denselben Ertrag in Wissenschaft und Technik (schematisch). Für den gleichen Ertrag musste man in der Anfangszeit von Wissenschaft und Technik (links auf der waagerechten Ordinate) viel weniger Ressourcen einsetzen, als heute (rechts).

Es bestehen hier freilich erhebliche Unterschiede zwischen den einzelnen Wissenschafts- und Technikgebieten; trotzdem nähern wir uns immer mehr einer Art Schallmauer: Erkenntnisse sind immer schwerer zu gewinnen und in praxistaugliche Technik umzusetzen. Außerdem spielen gesellschaftliche Gegebenheiten eine wesentliche Rolle. In Deutschland mit seiner überbordenden Bürokratie, seinem komplizierten Steuer- und Rechtssystem und seiner zunehmend technik- und wissenschaftsfeindlichen Bevölkerung (Kern- und Gentechnik!) ist es sicher schwieriger und teurer, bahnbrechende Neuerungen zu entwickeln, als in aufstrebenden Nationen. Und gerade für eine zunehmend überalternde Gesellschaft, wie die deutsche, ist die überproportionale Aufwandsentwicklung ein zunehmendes Problem – jedem neuen Projekt droht zunehmender Personalmangel. Ob Robotik und künstliche Intelligenz hier Abhilfe schaffen können, ist ungewiss. Um Missverständnissen vorzubeugen – Forschung soll nicht in Frage gestellt werden. Aber sie ist zunehmend nur unter einer Voraussetzung möglich: Wohlstand und Produktivität müssen weiter wachsen, um die dafür benötigten Ressourcen zu erwirtschaften – womit wir beim Thema der Energieversorgung wären.

2. Die aktuelle Energiekrise ist hausgemacht und bedroht den allgemeinen Wohlstand

Sowohl bei der Entwicklung der Einwohnerzahlen, aber auch bei der des Pro-Kopf-Einkommens und des allgemeinen Wohlstands, zeigten sich bis ins frühe 19. Jahrhundert nur geringe Zuwächse. Ganz wenigen, reichen Herrschern standen stets nur einige mehr oder weniger wohlhabende Menschen (meist niederer Adel, Ritter, Kaufleute, hohe Beamte, seit der frühen Neuzeit auch einige Unternehmer und Wissenschaftler) gegenüber, aber mehr als 80% der Bevölkerung lebten am Existenzminimum. Als Ursache hierfür wird in der Geschichtsschreibung stets auf die gesellschaftlichen Verhältnisse verwiesen (Sklavenhalterei, Feudalismus und Kapitalismus). Dann hätte es ja in unserer aktuellen Gesellschaftsordnung, immer noch dem Kapitalismus, so weitergehen müssen.

Es hat auch wenig mit Demokratisierung zu tun, denn auch nach der Unabhängigkeit der USA oder der Französischen Revolution gab es zwar mehr Mitspracherechte für Teile der Bevölkerung, aber die Massenarmut blieb, während in manchen Diktaturen (Nazi-Deutschland der 1930er Jahre, DDR) ein, wenn auch sehr bescheidener, Wohlstand für breite Bevölkerungskreise herrschte.

Der wahre Grund ist – Energie. Erst, als die nur aufwendig zu gewinnenden, oft nur begrenzt verfügbaren und energetisch nicht sehr dichten Energieträger Arbeitspferde, Wind, Wasserkraft und Holz durch Energieträger hoher Dichte wie Kohle, Erdöl, Erdgas und Kernkraft ersetzt wurden, stieg die Produktivität; schwere körperliche Arbeit konnte mechanisiert werden; Nahrungsmittel und Waren des täglichen Bedarfs wurden preiswerter, verfügbarer – sie konnten nun mit bezahlbarem Aufwand weltweit geliefert werden, weil Dampf- und Motorschiffe, Eisenbahnen und Lastautos viel mehr Güter je Zeiteinheit bewegen konnten, als es Segelschiffe und Pferdefuhrwerke je vermocht hätten. Diese „Energierevolution“ bewirkte mittels preiswerter Energie sowie Kunstdünger und Mechanisierung der Landwirtschaft eine massive Verbilligung von Grundnahrungsmitteln, was vor allem ärmeren Bevölkerungsschichten zugutekam, weil der Kostenanteil für die Lebenshaltung sank.

Aber seit der Ökologismus ab den späten 1970er Jahren nach und nach an die politische Macht drängte, wurden die Forderungen zu einer Rückkehr der alten Energieträger lauter. Das schien auch logisch, denn die Nutzung der Windenergie wurde im Vergleich zur alten Getreide-Windmühle viel effizienter; zudem stand mit der Solarenergie eine moderne, neue Technik zur Verfügung; und was dann noch an Energie fehlte, sollte Biomasse (der Acker als Bohrloch) liefern. Außerdem könne man ja überschüssige Wind- und Solarenergie speichern – für Flauten und trübe Zeiten. Leider übersah man dabei vier wesentliche Gegebenheiten – die trotz enormer, technischer Verbesserungen viel zu geringe Energiedichte dieser so genannten „Erneuerbaren“ oder „grünen“ Energien, die enormen Energieverluste der Speichertechniken, die Begrenztheit der Windenergie (die Anlagen nehmen sich gegenseitig den Wind) und die Umweltschäden, welche leider auch diese Energiequellen massiv verursachen. Bezüglich der Effizienz sieht das so aus:

Abbildung 3: Der Nutzen der Energieträger im Vergleich zum Aufwand wird oft als „Erntefaktor“ oder EROI (Energy Return on Invest oder energy recovered over invested energy) angegeben. Bildquelle hier

Wie Abbildung 3 zeigt wird die Effizienz der Energieträger oft als „Erntefaktor“ oder EROI (Energy Return on Invest oder energy recovered over invested energy) angegeben. Sie ist das Verhältnis, wie viel Energie benötigt wird, um eine gegebene Energiemenge in eine gewünschte Energieform, etwa Strom, zu wandeln (produzierte zur für die Produktion eingesetzten Energie). Sie hängt nicht unwesentlich von dem potentiellen Energiegehalt des jeweiligen Energieträgers ab (eine gleich große Masse Mais enthält weniger Energie als die gleiche Menge Kohle oder gar Uran). Wind schneidet vergleichsweise schlecht ab, weil er als bewegte Luft (ein Medium mit geringer Dichte) trotz mitunter hoher Windgeschwindigkeiten viel weniger kinetische Energie liefert, als zum Beispiel Wasser, das eine viel höhere Dichte aufweist. Bei der Photovoltaik ist erstens die Bestrahlungsdichte zu gering, um mit vertretbarem Flächenaufwand sehr große Energiemengen zu erzeugen, und zweitens werden auch nur 10 bis 15% der Solarstrahlung in Strom umgewandelt – der „Rest“ von über 80% wird zu Wärme und heizt das Klima auf.

Auch das Umwandlungsverfahren ist wichtig: Weil Kohle, Gas und Kernkraft erst zu Wärme, die dann Dampfturbinen antreibt, umgewandelt wird, kann ihr sehr hoher Energiegehalt nicht besser genutzt werden (bei der sehr günstigen, aber in Europa fast ausgereizten Wasserkraft wird der Strom, ebenso wie bei der Windenergie, direkt aus der Bewegungsenergie gewonnen). Ebenso spielt die Art und Weise der Anlagen eine Rolle (Materialeinsatz, Nutzungsdauer, Logistik, Störanfälligkeit, Betrieb und Wartung). Weil aus Gründen der Netzstabilität Stromproduktion und –verbrauch stets annähernd übereinstimmen müssen, können nur stetig verfügbare Energieträger (Gas, Kohle, Biomasse, Kernkraft), die gleichmäßig Strom erzeugen, das Netz ohne Puffer stabil halten. Alle anderen benötigen hierfür Puffer (oft auch „Backups“ genannt), welche aber, egal ob als Batterie-, Wasserstoff- oder sonstige Speicher, oder als konventionelles Kraftwerk, das im Falle des Mangels einspringt, den Erntefaktor verringern, da sie zusätzlichen Aufwand erfordern (gelbe Säulen). 

Eine andere, in der Abbildung nicht enthaltene „Erneuerbare“ Energiequelle ist die Geothermie. Hier schwanken jedoch die Erntefaktoren je nach Standort der Anlage extrem stark, und diese Technik ist mit großen Risiken verbunden; es kann zu enormen Folgeschäden kommen – siehe hier.

Wer die obige Abbildung 3 aufmerksam studiert, ahnt es schon: Fast alle „Erneuerbaren“ liefern nur dann genügend Strom, wenn dafür riesige Flächen verbraucht werden, der dann über ein noch zu bauendes, umweltschädliches, schwer beherrschbares Leitungs- und Transformationsnetz zum oft weit entfernten Verbraucher unter Verlusten (Widerstand) zu transportieren ist; zudem müssen noch sehr teure, nur umweltschädlich zu gewinnende Materialien (oft „Seltene“ Erden) für ihre Errichtung importiert werden; sie sind extrem ertragsschwankend (Witterung), ihr Verschleiß und der Wartungsaufwand sind, weil sie im Freien stehen müssen, viel höher, als bei konventionellen Kraftwerken. Bis heute gibt es, trotz aller Forschungsmilliarden, kein für Mitteleuropa akzeptables Speichermedium, welches Strom über längere Zeit zu ökonomisch, ökologisch und wirtschaftlich akzeptablen Bedingungen konservieren könnte.

Der von unserer rot-gelb-grünen Ampelregierung favorisierte Wasserstoff wird da auch keine Wunder bewirken. Er wird durch Elektrolyse erzeugt (Strom spaltet Wasser in Sauerstoff und Wasserstoff). Aber dabei gehen etwa 20 bis 40% der eingesetzten Elektroenergie „verloren“ – eine Strommenge von 100 KWh erzeugt eine Wasserstoffmenge, welche nur noch etwa 60 bis 80KWh der eingesetzten Energie enthält. 

Diese geringe Effizienz lässt sich aus physikalischen Gründen (Hauptsätze der Energieerhaltung beziehungsweise der Thermodynamik) auch niemals auf nur annähernd 100% steigern; für alle anderen Speichermedien (Batterien, Pumpspeicherkraftwerke, Druckluftspeicher…) gilt das auch. Aber der Wasserstoff, ein sehr leichtes, gefährliches, hoch entzündliches Gas, muss für Lagerung und Transport stark verdichtet und gekühlt werden; dabei entstehen weitere Energieverluste. Und zum Schluss muss er ja wieder in Strom verwandelt werden – das „kostet“ in Brennstoffzellen erneut 20 bis 40% Energieverlust, bei der Verbrennung in einem Gaskraftwerk sogar 40 bis 50%! Der gesamte Wandlungszyklus Strom-Wasserstoff-Strom lässt also von der ursprünglich eingesetzten Energie meist deutlich weniger als die Hälfte übrig. In der Praxis sind diese Bilanzen meist noch viel schlechter, weil dort, anders als im Forschungslabor, unter anderem Wartung und Verschleiß der Anlagen ertragsmindernd wirken. Details dazu hier.

Der Begriff „Energiewende“ ist übrigens irreführend – er bezieht sich bislang fast ausschließlich auf Strom. Für Heizen, Industrie und Verkehr wird nach wie vor überwiegend konventionelle (fossile) Energie benötigt. Diese soll aber – geht es nach der Politik, ebenfalls aus „Klimaschutzgründen“ durch Strom und/oder Wasserstoff ersetzt werden. Aber was hat das nun alles für Auswirkungen auf uns Verbraucher? Wegen der Unwirtschaftlichkeit der „Erneuerbaren“ wird Energie deutlich teurer. Das zeigte sich bislang beim Strompreis:

Abbildung 4: Seit den frühen 2000er Jahren verteuerte sich Strom in Deutschland viel stärker, als die meisten andern Verbraucherpreise. Hier sind 4.000 KWh Jahresverbrauch zugrunde gelegt.

Im Jahre 2021 verteuerten sich auch andere Energieträger (Öl, Kohle, besonders aber Erdgas) stark. Während die Politik dafür allein geopolitische Ursachen anführt, verschweigt sie, dass auch die Energiewende, welche ja nicht nur in Deutschland vollzogen wird, preistreibend wirkt. Wie wir anhand der Abbildung 3 sahen, ist der Betrieb der „Erneuerbaren“ nur mit Puffern oder Backups möglich, was die Nachfrage nach dafür geeigneten Rohstoffen und Energien stark anheizt (Verteuerung). In Deutschland sind das (noch) die Kernenergie (läuft Ende 2022 aus), Braun- und Steinkohle, zunehmend aber Erdgas. Doch Steinkohle und Erdgas unterliegen den Weltmarktpreisen. Einzig die heimische Braunkohle ist davon unabhängig – aber sie wird bis 2030 nun ebenfalls ausrangiert. Die folgende Grafik lässt erahnen, welche riesigen Stromlücken sich da auftuen werden, zumal dann wenn, wie 2021, der Wind schwächer weht:

Abbildung 5: Verlauf der deutschen Stromproduktion über 4 Juli-Wochen 2021. Trotz enormer Anstrengungen in Sachen „Energiewende“ müssen selbst im sonnenscheinreichen Hochsommer noch 30 bis 70% des Stroms konventionell erzeugt werden; hinzu kommen Produktionslücken, welche schon jetzt durch Stromimporte zu decken sind (weiße Flächen unter der schwarzen Linie (Stromverbrauch), und die praktisch NIE aus erneuerbaren Quellen stammen. Nun stelle man sich einmal den Wegfall der Braunkohle und Kernenergie vor… . Bildquelle: energy-charts.info

Doch Energie verteuert sich nicht nur, sie wird auch schwerer verfügbar, es drohen immer häufiger Stromausfälle; vielfach mussten stromverbrauchsintensive Anlagen in der chemischen und metallverarbeitenden Industrie schon heruntergefahren werden – mit enormen Schäden für die Volkswirtschaft.

Aber wie sähe beispielsweise der Forschungsbetrieb am CERN aus, wenn Energie nicht mehr ständig verfügbar ist? Der Energieverbrauch des LHC und der Detektoren des CERN beträgt ungefähr 120 Megawatt. Dies entspricht in etwa dem Verbrauch aller Haushalte des Kantons Genf mit etwa 500.000 Einwohnern! Bei Flaute und trübem Wetter müssten alle Experimente ausfallen – denn ein Speicher für derart gigantische Energiemengen ist auf Jahrzehnte nicht in Sicht. Weil Energie unser ganzes Leben bestimmt, verteuern sich mit ihr auch alle Produkte und Dienstleistungen – die horrende Inflation des Jahres 2021 lässt grüßen. Künstliche Verknappung des Lebensmittel-Aufkommens durch Bio-Anbau und Bio-Treibstoffe verschärfen diese prekäre Lage weiter, denn sie konkurrieren mit der konventionellen Nahrungsmittelproduktion um die immer knapper werden Anbauflächen (täglich werden in Deutschland noch immer mehr als 50 Hektar Boden, das sind 500.000m², meist Ackerland, für Bebauungsmaßnahmen verloren.

3. Wird uns Energieeinsparung retten?

Von den Befürwortern der Erneuerbaren Energien wird Energieeinsparung als Möglichkeit gesehen, trotz der geringen Energieerträge die Versorgung zu gewährleisten. Doch schon ein Blick auf die Entwicklung des Primärenergieverbrauchs in Deutschland zeigt, wie schwierig das wird. Der Primärenergieverbrauch bezeichnet den Energiegehalt aller im Inland für die gesamte Volkswirtschaft (inklusive Privathaushalte, Staatswesen) eingesetzten Energieträger – kurzum alles, wofür Energie benötigt wird.

Abbildung 6: Entwicklung des jährlichen Primärenergieverbrauchs in Deutschland seit 1990 in Petajoule (1 Petajoule entspricht etwa 278 Millionen Kilowattstunden). Zwar sank dieser seit 2006 leicht, doch wurde dieser Effekt wesentlich durch gehäuft sehr milde Winter (wenig Heizung!) und zum Schluss (2020) auch durch die Corona-Krise (Wirtschaftseinbruch) begünstigt. Die oberen, grünen Säulenteile geben an, was an „Erneuerbaren“ verbraucht wurde – mit etwa 15% nach dreißig Jahren massivster Förderung dieser Quellen ein sehr bescheidenes Ergebnis. Und trotz der äußerst günstigen Rahmenbedingungen 2020 (extrem milder Winter, Lockdowns ab März) wurden die Einsparungsziele der Bundesregierung (rot hinterlegter Wert und Punkt an der Säule) nicht mal ganz erreicht. Bis 2050 soll sich der Primärenergieverbrauch gegenüber 1990 mehr als halbieren – ein illusorisches Ziel. Bildquelle: Umweltbundesamt

Energiesparen ist richtig und wichtig – doch es gibt dafür Grenzen. Diese ergeben sich schon aus den physikalischen Gesetzen. Eine gewisse Energiemenge wird immer benötigt, um einen bestimmten Prozess (Heizen, Kühlen, Fortbewegen, Beleuchten…) zu bewerkstelligen, zusätzlich wird es dabei stets Verluste durch Abwärme, Strahlung, Reibung oder elektrischen Widerstand geben.

Einfacher gesagt: Ein alltagstaugliches Gerät wird immer eine Mindestmenge an Energie verbrauchen müssen – und seien die Einsparbemühungen noch so ausgefeilt. Während in ihren Anfangsjahren Kühlschränke, Radios, Fernseher und Glühbirnen unsere Wohnungen aufheizten, arbeiten sie heuer derart effizient, dass weitere Einsparungen kaum noch möglich sind – die „Schallmauer“ des technischen Fortschritts lässt grüßen. Es kommt aber noch schlimmer: Weil immer neue Techniken und Geräte erfunden werden, erhöhte sich auch der Ausstattungsgrad der gesamten Volkswirtschaft mit Energieverbrauchern stark, was die Einsparungseffekte größtenteils zunichtemacht. Standen in einem durchschnittlichen Haushalt der 1970er Auto, Heizung, Kühlschrank, Herd, Waschmaschine, Staubsauger, Telefon, Radio, Fernseher und einige Küchengeräte sowie der Fön, so kamen bis heuer mindestens Computer, Smartphone, Mikrowelle, Elektrofahrrad und oft eine Klimaanlage hinzu; außerdem wurden oft Zweitwagen und Zweitgeräte angeschafft – man nennt das „Rebound-Effekt“. Rebound (englisch: zurückprallen) bezeichnet in der Energieökonomie das unerwünschte Phänomen, dass Energieeinsparungen durch Effizienzsteigerung nicht wie erwartet eintreten: Die geplante Einsparung wird nur zum Teil oder gar nicht wirksam. Es kann sogar zu einem Mehrverbrauch kommen, weil sich das Verbraucherverhalten ändert oder die Einsparmaßnahmen selbst unsinnig und energieintensiv sind. So wurden die Motoren zwar immer effizienter – aber die Autos auch immer größer und luxuriöser. Ein anderes Beispiel ist das Wärmedämmen. Heizen beansprucht im Privathaushalt etwa zwei Drittel des Gesamtenergieverbrauchs; deshalb wurde ab den 2000er Jahren Wärmedämmen massiv gefördert. Doch die Einspareffekte blieben mit 10 bis 20% bescheiden – dafür kam es oft zu massiven Problemen mit Schimmelbildung. Das Umweltbundesamt merkt dazu etwas gequält an: „Die privaten Haushalte benötigten im Jahr 2018 etwa gleich viel Energie wie im Jahr 1990 und damit gut ein Viertel des gesamten Endenergieverbrauchs in Deutschland.“

Kurzum – Energiesparen kann unsere aktuellen Energieprobleme bestenfalls etwas lindern.

4. Wege aus der Rattenfalle – wie könnten sie aussehen?

Zunächst einmal müssen Wissenschaft, Technik und Energiegewinnungsverfahren endlich wieder ideologiefrei und objektiv beurteilt werden. Bislang gibt es (leider) keine wirklich umweltfreundliche Energienutzung! Es gelang auch praktisch nie, eine bestimmte Technik oder ein Energiegewinnungsverfahren erfolgreich per Dekret von oben zu verordnen! Den Königsweg für alle Nationen und Standorte gibt es nicht. Während in Island die Geothermie und in Norwegen die Wasserkraft dominieren, hat sich in den meisten Staaten ein Energiemix aus verschiedensten Quellen bewährt. Wegen ihrer hohen Energiedichte darf auch die in Deutschland geächtete Kernenergienutzung kein Tabu sein, zumal neue, inhärent sichere Reaktortypen in technischer und finanziell machbarer Reichweite liegen. Auch Methanhydrate könnten eine Option sein, falls sie sich kostengünstig und umweltfreundlich fördern lassen. Wind- und Solarenergie sollten nur dort eine wesentliche Rolle spielen, wo sie reichlich vorhanden sind und nahe am Ort der Erzeugung direkt als Strom verbraucht werden können – wegen ihrer geringen Energiedichte sind lange Transportwege oder die Umwandlung in andere Energieträger wenig sinnvoll. Und es muss an den wirklich potentiellen Energiequellen der Zukunft geforscht werden. Allerdings liegen diese, etwa die Kernfusion, noch in weiter, ungewisser Ferne. Heute arbeiten weltweit mehrere Tausend Mitarbeiter an ITER. Insgesamt 35 Nationen aus Europa, Asien, Russland und den USA sind an diesem Projekt zur Erforschung der Kernfusion beteiligt; Kostenpunkt: mindestens 20 Milliarden Euro. Technisch umsetzbare Ergebnisse lieferte ITER bislang aber nicht.

Die Aufgabe unserer Regierungen besteht nicht darin, ihre Ideologien in der Energiepolitik auszuleben, sondern bezahlbare Energie für alle Menschen zu gewährleisten. Andernfalls werden schon in naher Zukunft zunehmende soziale Spannungen drohen, die sich schnell zu bürgerkriegsähnlichen Zuständen verschärfen können. Des Weiteren bedarf es einschneidender Reformen, um unser sehr ineffizientes Renten- Gesundheits- und Bildungssystem den schwierigen Erfordernissen der Neuzeit anzupassen.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Konferenz-Videos gehen nun einzeln online: Bernd Fleischmann – Die Berechnung absoluter globaler Temperaturen mit dem konvektiv-adiabatischen Modell

Unsere Konferenz-Videos aus Gera sind nun geschnitten und teilweise übersetzt. Sobald eines fertig editiert wird, geht es sogleich online. Nummer neun: Unternehmer Bernd Fleischmann – Die Berechnung absoluter globaler Temperaturen mit dem konvektiv-adiabatischen Modell

 

 




Woher kommt der Strom? Wettbewerb auf dem Energiemarkt reduziert

von Rüdiger Stobbe

Der Präsident des Bundeskartellamts, Mundt, hat sich besorgt geäußert über den Wettbewerb auf dem Energiemarkt. […] … die Zahl der Marktteilnehmer reduziere sich aktuell. Das hänge unter anderem mit dem Ausstieg aus der Kohle und dem Abschalten von Atomkraftwerken zusammen. Der Weg zur Energiewende sei ambitioniert, daher könne es zu Engpässen etwa bei Strom kommen. […] (Abbildung).

Engpässe etwa bei Strom, ist ein feiner Euphemismus für bevorstehende Brownouts (Gesteuerte, großflächige Stromabschaltungen) oder gar für einen unkontrollierten Blackout, der Deutschland, ein Ereignis, das ganz Europa ins Chaos stürzen könnte.

So sieht es ein paar Tage vor dem Abschalten von drei Kernkraftwerken und weiteren Kohlekraftwerken in Deutschland aus. Ob die nachfrageorientierte Stromversorgung auch im Jahr 2022 gewährleistet bleibt, oder ob es zur angebotsorientierten, Grundlast vernachlässigenden Stromzuteilung kommen wird, wie Frau Kotting-Uhl als Vorsitzende des Umweltausschusses im Deutschen Bundestag (Abbildung) darlegte, bleibt abzuwarten. Eins jedoch ist bereits sicher. Der CO2-Ausstoß wird im kommenden Jahr tendenziell ansteigen. Der wegfallende, praktisch CO2-freie Strom aus Kernkraft wird keinesfalls CO2-frei ersetzt werden können. Unter dem Strich ein ´feines` Ergebnis unserer Freunde und Profiteure der Energiewende. Denn Geld wird reichlich verdient mit der „Transformation“ der Stromerzeugung in Deutschland. Dabei wird es nicht bleiben. In den kommenden Jahren müssen die Erneuerbaren ´massiv` ausgebaut werden. Der Begriff ´massiv` erscheint im Koalitionsvertag der Ampel allein im Zusammenhang mit dem Thema Klimaschutz sieben Mal. Was ´massiv` bedeutet, ob der massive Ausbau der Erneuerbaren im Zeitraum bis 2030 überhaupt einen Funken von Realitätsnähe enthält, kann in einem verlinkten Artikel unter Abbildung nachgelesen werden.

Der Begriff „Transformation“ kommt im Koalitionsvertrag genau 42 mal vor. Hieß es früher mal Revolution oder Reformen ist aktuell die Transformation en vogue. Was so harmlos klingt, hat einen Hintergrund, der den kundigen Leser schauern lässt. Bereits im Jahr 2011 hat der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) ein Hauptgutachten vorgelegt, welches offen und ehrlich den Weg in die post-fossile Wirtschaftsweise mit seinen Veränderungen in Politik, Gesellschaft und Wirtschaft darlegt:

Der Beirat erläutert auch, dass die erforderliche Transformation tiefgreifende Änderungen von Infrastrukturen, Produktionsprozessen, Regulierungssystemen und Lebensstilen sowie ein neues Zusammenspiel von Politik, Gesellschaft, Wissenschaft und Wirtschaft umfasst. Es gilt, vielfältige Pfadabhängigkeiten und Blockaden zu überwinden. Die Transformation kann zudem nur dann gelingen, wenn Nationalstaaten ihre kurzfristigen Interessenskalküle zugunsten globaler Kooperationsmechanismen zurückstellen, um vor allem in der Weltwirtschaft eine Trendumkehr zu Klimaverträglichkeit und Nachhaltigkeit zu ermöglichen. Dabei geht es im globalen Rahmen nicht zuletzt um Fragen von Fairness und Gerechtigkeit, auf die Antworten gefunden werden müssen (Quelle S. 1; siehe auch „Der große Reset“ und dessen Kritik im Bundestag).

Was auf den ersten Blick recht harmlos daherkommt, erweist sich als direkter Weg in eine globale Wissenschaftsdiktatur, deren Protagonisten glauben, den einen, den alleinig richtigen Weg zum ´Glück`, zur Rettung der Menschheit gefunden zu haben. Dieser Weg heißt schlicht und einfach „Dekarbonisierung“. Diesem Begriff, diesem Weg in die nicht-fossile Welt wird ein gewaltiges Theoriekonstrukt übergestülpt, welches Sie hier mit seinen vielfältigen Facetten aufrufen können. Am Ende soll, am Ende wird eine wissenschaftshörige Gesellschaft stehen, die nur noch formal- demokratische Gepflogenheiten beinhaltet. Das erinnert an die alte DDR. Da allerdings war der sogenannte wissenschaftliche Marxismus die Maxime, in Zukunft soll es eine Klimawissenschaft mit all ihren neuen gesellschaftlichen, wirtschaftlichen und politischen Vorgaben sein. Der Bürger gehorcht oder er wird kein gutes Leben haben. Vor- und Probelauf für die Quasi-Abschaffung des demokratisch verfassten Staates ist zum Beispiel die politisch-gesellschaftliche Behandlungsweise von Corona-Ungeimpften aktuell. Ohne irgendeine zeitliche Begrenzung werden diese Menschen vom gesellschaftlich-wirtschaftlichen Leben nachhaltig abgekanzelt. Grundlage ist die 2G-Regel. Wird diese von Gerichten gekippt, werden die Richter als „kleine Richterlein“ diffamiert. Welch ein verqueres   Verständnis von Gewaltenteilung und Rechtsstaat steht dahinter. Es passt genau zu dem Ergebnis einer Großen Transformation, des Great Resets.

Bleibt zu hoffen, dass die Stromengpässe mit all ihren Konsequenzen kommen werden, damit die Bürger rechtzeitig hautnah erfahren, auf welchem Weg sich die Energiewende befindet. Es ist der Weg in eine Mangelwirtschaft und der Unterdrückung von Menschen, von Einschränkung der Meinungsfreiheit und vielem mehr. Eben eine Große Transformation.

Die 50. Analysewoche (Abbildung 1) zeichnete sich insgesamt durch schwache regenerative Stromerzeugung aus. Lediglich 30,2 % erzeugten die regenerativen Stromerzeuger. Davon kamen 9,5% von Biomasse und Laufwasser. Bleiben schlappe 20,7% Strom, die praktisch nur per Windkraft (19,6%) erzeugt wurden. Die 1,1% PV-Strom sind nicht mal ein Tropfen auf den heißen Stein (Beleg zu genannten Werten).  Die konventionellen Stromerzeuger (Abbildung 2) konnten oder wollten etliche Strom-Versorgungslücken nicht vermeiden. Der Chart, der die Handelspartner detailliert darstellt (Abbildung 3), belegt offensichtlich im wahrsten Sinn des Wortes, wie der Strom teuer wird, wenn Deutschland diesen netto benötigt. Billiger wird er in dem Moment, wenn überschüssiger Strom von Deutschland exportiert werden muss. Besonders an bedarfsarmen Tagen fällt der Preis massiv. Beispiel diese Woche: Am Sonntag geht der Exportpreis Richtung 20€/MWh (Abbildung 3).

Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart liegen unter Abbildung 4 ab. Es handelt sich um Werte der Nettostromerzeugung, den „Strom, der aus der Steckdose kommt“, wie auf der Website der Energy-Charts ganz unten ausführlich erläutert wird. Der höchst empfehlenswerte virtuelle Energiewende-Rechner (Wie viele Windkraft- und PV-Anlagen braucht es, um Kohle- und/oder Kernkraftstrom zu ersetzen? Zumindest im Jahresdurchschnitt.) ist unter Abbildung 5 zu finden. Ebenso wie der bewährte Energierechner.

Die Charts mit den Jahres- und Wochenexportzahlen liegen unter Abbildung 6 ab. Abbildung 7 beinhaltet die Charts, welche eine angenommene Verdopplung und Verdreifachung der Wind- und Solarstromversorgung visualisieren. Bitte unbedingt anschauen. Vor allem die Verdopplung. Abbildung 8 weist auf einen Artikel hin, der sich mit der regenerativen Stromerzeugung über einen Monatszeitraum befasst. Abbildung 9 zeigt einen Vortrag von Professor Brasseur von der TU Graz. Der Mann folgt nicht der Wissenschaft. Er betreibt Wissenschaft.

Beachten Sie bitte unbedingt die Stromdateninfo-Tagesvergleiche ab 2016 in den Tagesanalysen. Dort finden Sie die Belege für die im Analyse-Text angegebenen Durchschnittswerte und vieles mehr. Der Vergleich beinhaltet einen Schatz an Erkenntnismöglichkeiten. Überhaupt ist das Analysetool stromdaten.info ein sehr mächtiges Instrument, welches nochmals erweitert wurde:

  • Strom-Import/Export: Die Charts
  • Produktion als Anteil der installierten Leistung
  • Anteil der erneuerbaren und konventionellen Erzeugung am Bedarf
  • Niedrigster, höchster und mittlerer Strompreis im ausgewählten Zeitraum

sind Bestandteil der Tools „Stromerzeugung und Bedarf„, „Zeitraumanalyse“ sowie der Im- und ExportanalyseCharts & Tabellen. Schauen Sie mal rein und analysieren Sie mit wenigen Klicks. Die Ergebnisse sind sehr erhellend.

Abbildung 10 bringt einen Artikel aus Genf, der von WELTplus übersetzt wurde, zur Stromlage in Frankreich und der Sorge der Schweizer sowie einen Artikel der Schweizer WELTWOCHE, der sich mit dem Strombedarf der Schweiz befasst. Nach dem Lesen der beiden Artikel versteht man, warum die Schweiz aber auch Frankreich seit etlichen Wochen teuren Strom aus Deutschland importieren. Wir danken der WELTWOCHE und empfehlen sie ausdrücklich.

Tagesanalysen 

Montag, 13.12.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 31,87 Prozent, davon Windstrom 20,59 Prozent, PV-Strom 1,17 Prozent, Strom Biomasse/Wasserkraft 10,11 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Heute: Kaum Windstrom, fast keine Sonne aber eine Stromlücke über die Mittagsspitze. Warum gleichen die Konventionellen nicht aus? Sie nehmen die über 300€/MWh gerne mit, die von 7:00 bis 20:00 Uhr erzielt werden. Der Handelstag. Dänemark erzielt heute über 17 Mio. Euro für den Strom, den es nach Deutschland exportiert.

Dienstag, 14.12.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 28,82 Prozentdavon Windstrom 17,2 Prozent, PV-Strom 1,10 Prozent, Strom Biomasse/Wasserkraft 10,52 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Es tut sich wieder eine große Strom-Versorgungslücke auf. Der Windstrom nimmt ab Mittag weiter ab. Die Konventionellen bullern Richtung 60 GW. Der Strompreis erreicht die 400€/MWh. Norwegen erzielt fast fünf Mio Euro für den Strom, den es Deutschland verkauft. Dänemark wieder über 17 Mio. Euro. Der Handelstag.

Mittwoch, 15.12.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 37,28 Prozent, davon Windstrom 26,38 Prozent, PV-Strom 0,96 Prozent, Strom Biomasse/Wasserkraft 9,95 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Wieder ein ruhiger Windstrom- und PV-Tag. Sie kleine Strom-Versorgungslücke bringt den Konventionellen weit über 300€/MWh. Der Handelstag. Polen kassiert heute 2,71 Mio Euro für seinen nach Deutschland exportierten Kohlestrom. Dänemark wieder über 17 Mio. Euro.

Donnerstag, 16.12.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 27,57 Prozent, davon Windstrom 15,43 Prozent, PV-Strom 1,43 Prozent, Strom Biomasse/Wasserkraft 10,71 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Die Windstromdelle über Mittag wird durch PV-Strom ausgeglichen. Die Konventionellen produzieren, was das Zeug hält. Das Preisniveau ist knackig. Von 7:00 bis 19:00 Uhr werden fast immer über 400€/MWh aufgerufen. Klar, Deutschland muss fehlenden Strom importieren. Polen kassiert 4,79 Mio. Euro, Dänemark knapp 23 Mio Euro. Unter dem Strich zahlt Deutschland netto 17,42 Mio. Euro für den importierten Strom.

Freitag, 17.12.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 25,36 Prozent, davon Windstrom 12,45 Prozent, PV-Strom 1,91 Prozent, Strom Biomasse/Wasserkraft 11,01 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Kaum Windstrom, fast kein PV-Strom, viel Importstrom. Die Konventionellen wollen die Strom-Versorgungslücke nicht schließen. Ist rein wirtschaftlich gesehen wohl kaum sinnvoll.  Das Preisniveau ist hoch. Der mittlere Preis pro MWh liegt bei  338 €. Der Handelstag. Knapp 5 Mio € erzielt Schweden heute. Dänemark gut 20 Mio €. 

Samstag, 18.12.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 36,38 Prozent, davon Windstrom 24,31 Prozent, PV-Strom 1,14 Prozent, Strom Biomasse/Wasserkraft 10,93 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Das Wochenende beginnt, die Windstromerzeugung zieht an. Die konventionelle Stromerzeugung wird gedrosselt. Es gibt keine Strom-Versorgungslücken mehr. Das Preisniveau sinkt. der mittlere Strompreis fällt auf knapp 260 €. Der Handelstag. Dänemark, Schweden, Norwegen, Polen, aber auch Tschechin exportieren Strom. Frankreich, Österreich und die Schweiz sowie Belgien kaufen Strom ein. 

Sonntag, 19.12.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,38 Prozent, davon Windstrom 43,25 Prozent, PV-Strom 1,13 Prozent, Strom Biomasse/Wasserkraft 10,00 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Viel Windstrom, wenig Bedarf, die Preise gehen in den Keller. Nicht weil Windstrom so günstig wäre. Weil er zur Unzeit stark ist und die geringe Nachfrage den Preis drückt. Die Konventionellen drosseln, was möglich ist. Dennoch die Preise gehen in den Keller, es ist zu viel Strom im Markt. Um 6:00 Uhr werden nur noch gut 20€/MWh gezahlt. Der mittlere Preis fällt auf magere 119€/MWh. Der Handelstag. Schauen Sie sich hier an, wer unserer Nachbarn wieviel in KW 50 verdient/gezahlt hat. 

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt seit über fünf Jahren den Politikblog www.mediagnose.de.

 




Ein Mäander durch Sonne und Wind

Willis Eschenbach

Ich bin neulich über eine interessante Studie in einer Fachzeitschrift mit dem Titel „Solar forcing of the semi-annual variation of length-of-day“ [etwa: Solare Einflüsse auf die halbjährliche Variation der Tageslänge] gestolpert:

Durch Sonnenflecken bedingte Schwankungen beeinflussen irgendwie die Geschwindigkeit der „zonalen“ Winde. Dies sind die Komponenten der Winde, die parallel zum Äquator wehen. Ob diese Schwankungen die „meridionalen“ Winde, die Komponente der Winde senkrecht zum Äquator, beeinflussen, wird in der Studie nicht gesagt.

● Diese Schwankungen der zonalen Winde wirken sich dann nicht auf die Tageslänge (LOD) aus, sondern laut der Studie auf die „Amplitude A der halbjährlichen Variation der Tageslänge“.

Diese Wirkungskette erschien mir ziemlich … hmmm … nennen wir es mal „dünn“, also beschloss ich, einen Blick darauf zu werfen. Beginnen möchte ich mit den Gesamtdaten zur Tageslänge (LOD).

Abbildung 1: Anomalie der Tageslänge

Wie man sieht, variiert die Länge des Tages auf verschiedenen Zeitskalen. Aus der Studie:

Die Tageslänge (lod) unterliegt einem breiten Spektrum von Schwankungen.

Die dekadischen Schwankungen (10 bis 30 Jahre) werden hauptsächlich auf den Austausch von Drehimpulsen zwischen dem Kern und dem Mantel des Planeten zurückgeführt [z. B. Lambeck, 1980; Jault und Le Mouël, 1991; Gross, 2007].

Die saisonalen Schwankungen, die halbjährliche, jährliche und zweijährliche Komponenten umfassen, sind fast ausschließlich auf Variationen der atmosphärischen zonalen Windzirkulation zurückzuführen (abgesehen von einer wichtigen Gezeitenkomponente). Die Amplituden der saisonalen Schwankungen sind nicht von Jahr zu Jahr konstant, und es wurden verschiedene Hypothesen vorgeschlagen, um diese Variabilität zu erklären.

Von Interesse für die Studie sind die halbjährlichen Schwankungen. Hier ist eine Überlagerung der jährlichen Anomalien der Tageslänge, wobei die Anomalie um den Mittelwert des jeweiligen Jahres gelegt wurde. Ich habe jedes Jahr wiederholt, damit wir einen Blick auf den Gesamtzyklus werfen können.

Abbildung 2: Anomalie der Tageslänge

Wie die Autoren erörterten, gibt es in der Tat eine starke halbjährliche Schwankung der Tageslänge. Am längsten ist sie im Allgemeinen um den 15. April herum, mit einer zweiten Spitze im November, und am niedrigsten im Juli mit einem zweiten Tiefpunkt im Januar.

Da ich ein einfacher Mensch bin, dachte ich mir, dass man, wenn man an der „Amplitude A der halbjährlichen Schwankung der Tageslänge“ interessiert ist, jedes Jahr vom Höchststand zum Tiefststand messen sollte. Ist das nicht das, was „Amplitude“ bedeutet?

Aber nicht diese guten Leute. Hier ist ihr Verfahren:

Abbildung 3: Das Berechnungsverfahren der Amplitude der Autoren

Ich kann nur staunend den Kopf schütteln. Sie verwenden eine auf vier Jahre zentrierte Fourier-Analyse, um die Amplitude des 6-Monats-Zyklus zu ermitteln … was mir so vorkommt, als würden sie behaupten, dass die Sonnenflecken-bedingten Schwankungen die Zukunft beeinflussen können.

Darüber hinaus gibt es ein großes Problem mit ihrem Verfahren – es gibt keinen tatsächlichen Sechsmonatszyklus. Der Abstand zwischen dem November-Peak und dem April-Peak beträgt fünf Monate, nicht sechs … und folglich könnten wir ein stärkeres Fourier-6-Monats-Ergebnis erhalten, sowohl durch eine Änderung der Amplitude als auch durch eine Änderung des Timings der Peaks.

Aber ich bin gestern geboren, was weiß ich schon?

Auf jeden Fall möchte ich mich nicht auf ein solches Verfahren einlassen, ohne einzelne Jahre zu betrachten. Hier sind einige der besagten Jahre, mit einer LOWESS-Glättung (schwarze/gelbe Linien) und einer Angabe der halbjährlichen Schwankungen (schwarze/rote Linien):

Abbildung 4: Das Berechnungsverfahren der Amplitude der Autoren

Ich bezweifle sehr, dass eine Fourier-Analyse dieser Art von Schwankung etwas aussagen wird. Es ist nicht einmal klar, wie wir die „Amplitude A der halbjährlichen Variation der Tageslänge“ nennen können.

Deshalb habe ich diese Frage beiseite gelassen und mich der Frage der zonalen Winde gewidmet. Leider sind die einzigen langfristigen Informationen dazu die Ergebnisse eines Reanalyse-Computermodells … aber „was sein muss, muss sein“, also habe ich das verwendet. Hier sind die durchschnittlichen zonalen Winde:

Abbildung 5: Mittlerer zonaler Wind, jeweils mit Blick auf Atlantik und Pazifik

Man sieht, was die starken Winde im Südlichen Ozean anrichten, den Breitengraden, die Segler wie ich die „Brüllenden Vierziger“ und die „Heulenden Fünfziger“ nennen.

Beachten Sie, dass der Windwert im Durchschnitt negativ ist, was im Durchschnitt Ostwind bedeutet. Und die Richtung der Erdrotation bedeutet, dass stärkere Ostwinde die Rotation tendenziell verlangsamen und somit die Länge des Tages erhöhen.

Wie sieht nun der Jahreszyklus der zonalen Winde aus? Ich habe einen monatlichen Durchschnitt des zonalen Windmoments und der Tageslänge gebildet. Hier ist der Vergleich.

Abbildung 6: Durchschnittliches monatliches zonales Wind-Drehmoment und monatliche Tageslänge

Wie man sieht, beschleunigen und verlangsamen die zonalen Winde eindeutig die Erdrotation auf jährlicher Basis.

Gibt es also eine Korrelation zwischen Sonnenflecken und zonalen Windgeschwindigkeiten? Um das zu untersuchen, habe ich eine CEEMD-Analyse verwendet, die die zugrunde liegenden Frequenzen der beiden Signale aufschlüsselt. Hier ist ein Vergleich der Periodogramme der CEEMD-Analyse der beiden Datensätze, zonale Winde und Sonnenflecken.

Abbildung 7: PeriodenDiagramme von Sonnenflecken und zonalem Wind von 1948 bis heute

Das erste, was man über die Spektralanalyse wissen muss ist, dass der alte Joe Fourier vor Hunderten von Jahren bewiesen hat, dass JEDE Zeitreihe in einzelne Signale zerlegt werden kann, die, wenn sie addiert werden, die ursprüngliche Zeitreihe wiederherstellen. Das Vorhandensein solcher Einzelsignale bedeutet also nicht unbedingt, dass sie von außen gesteuert werden.

Betrachtet man die verschiedenen Signale in Abbildung 7, so erkennt man, dass die Sonnenflecken (schwarz) ein deutliches 11-Jahres-Signal in den empirischen Modi C6 und C7 aufweisen, mit einem kleineren Signal bei 14 Jahren. Die zonalen Winde (rot) hingegen haben ein Signal von etwa 12 Jahren und ein kleineres Signal von 9 Jahren.

Was dies bedeutet, wird deutlich, wenn wir die beiden tatsächlichen empirischen Signale der Phase 7 auftragen, die in der obigen Abbildung als „C7“ dargestellt sind.

Abbildung 7a: PeriodenDiagramme von Sonnenflecken und zonalem Wind von 1948 bis heute

Wie Sie sehen können, zeigen beide Signale eine ~ 11-jährige Komponente … aber da sie nicht die gleiche Periode haben, beginnen sie in Phase und enden völlig phasenverschoben.

Mit anderen Worten: Obwohl die jährlichen Schwankungen der zonalen Winde eindeutig für einen Teil der jährlichen Schwankungen der LOD verantwortlich sind, finde ich keinen Hinweis darauf, dass sonnenfleckenbedingte Schwankungen der Sonnenenergie die zonalen Winde antreiben.

Abschließend möchte ich sagen, dass mich mein Ausflug in die zonalen und meridionalen Winde dazu gebracht hat, über die durchschnittlichen globalen Windgeschwindigkeiten im Allgemeinen nachzudenken. Die tatsächliche Windgeschwindigkeit ist die Quadratwurzel aus der Summe der Quadrate der zonalen und meridionalen Winde. Hier ist ein globaler Überblick über die langfristige durchschnittliche Windgeschwindigkeit:

Abbildung 8: Mittlere Windgeschwindigkeit von 1948 bis heute, jeweils zentriert auf Atlantik und Pazifik.

Die Windgeschwindigkeit über dem Meer ist größer als über dem Land, und die Windgeschwindigkeit über den Tropen ist größer als die Windgeschwindigkeit über dem Meer. Und hier ist die Veränderung der Windgeschwindigkeit in diesem Zeitraum:

Abbildung 9: Mittlere monatliche Windgeschwindigkeit von 1948 bis heute

Und warum ist der geringe Anstieg der Windgeschwindigkeit um ein paar Prozent so wichtig?

Nun, die Verdunstung variiert grundsätzlich linear mit der Windgeschwindigkeit. Und global gesehen kühlt die Verdunstung die Oberfläche um etwa 80 Watt pro Quadratmeter (W/m²) pro Jahr ab. Ein Anstieg der Windgeschwindigkeit um 4,7% sollte also zu einer zusätzlichen Oberflächenabkühlung von etwa 3,7 W/m² führen … Ich will damit nur sagen, dass in dieser riesigen Wärmemaschine, die wir „Klima“ nennen, eine ganze Reihe von Dingen vor sich geht, die nichts mit CO2 zu tun haben.

Link: https://wattsupwiththat.com/2021/12/27/a-meander-through-sun-and-wind/

Übersetzt von Christian Freuer für das EIKE