Es ist an der Zeit, den Begriff „erneuerbare Energien“ aus der ernsthaften Diskussion und den energiepolitischen Richtlinien zu streichen – Teil III

Planning Engineer     Russ Schussler

„Erneuerbar gut, nicht-erneuerbar schlecht“ ist viel zu einfach und leider einflussreich.

In früheren Beiträgen wurde argumentiert, dass erneuerbar nicht unbedingt grün, nachhaltig oder umweltverträglich bedeutet. Nicht-erneuerbare Energieerzeugung kann grüne Ziele erfüllen, sehr nachhaltig und umweltverträglich sein. Diese Zweiteilung stiftet mehr Verwirrung als Nutzen. Außerdem sind die Netzauswirkungen von Ressourcen, die als erneuerbare Energien zusammengefasst werden, so unterschiedlich, dass es keinen Sinn macht, in diesem Zusammenhang von ihnen als einer Gruppe zu sprechen. In diesem Beitrag wird anhand einiger Beispiele die gefährliche Vorstellung in Frage gestellt und hervorgehoben, dass alle „erneuerbaren“ Ressourcen grundsätzlich „gut“ und alle „nicht-erneuerbaren“ grundsätzlich schlecht sind.

Wollen wir mehr erneuerbare und weniger nicht-erneuerbare Energien?

Die Technologie und unsere Fähigkeit, verschiedene Ressourcen zu nutzen, verändern sich im Laufe der Zeit. Bei wichtigen technologischen Entwicklungen können aus sehr schlechten Optionen sehr gute Optionen werden. Bei umfassender Einführung können gute Optionen zu sehr schlechten werden. Der Versuch, eine Option vor ihrer Zeit einzuführen, ist in der Regel kontraproduktiv. Optionen, die in kleinem Maßstab vorteilhaft sind, können in größerem Maßstab ernsthafte negative Folgen haben. Erneuerbar-gut, nicht-erneuerbar-schlecht ist viel zu simpel.

Biomasseprojekte profitieren möglicherweise zu Unrecht von der Einstufung als erneuerbare Energiequelle. Verschiedene Biomasseprojekte werden häufig über das politische Spektrum hinweg für eine Vielzahl von Umweltproblemen kritisiert. Dennoch erfüllen Biomasseprojekte die gesetzlichen Anforderungen für erneuerbare Energien und werden gegenüber Alternativen bevorzugt, die nach den meisten anderen relevanten Kriterien besser sein könnten.

Die Kernenergie ist ein weiteres Beispiel für eine andere Ressource, die sich nicht mit der Zweiteilung in erneuerbare und nicht erneuerbare Energien vereinbaren lässt. Die Kernenergie minimiert viele der Probleme, die mit der Erzeugung fossiler Brennstoffe verbunden sind. Natürlich kann man Einwände gegen die Kernenergie erheben, aber die Nachhaltigkeit ist derzeit kein großes Problem. Die derzeitigen Bemühungen um einen Ausbau der Kernenergie stehen vor zusätzlichen Herausforderungen, da die Kernkraft nicht als erneuerbare Energiequelle gilt. Die Kernenergie sollte mit den verschiedenen „erneuerbaren“ Energiequellen auf der Grundlage ihrer spezifischen Vorzüge für bestimmte Anwendungen konkurrieren und auf der Grundlage der vorgebrachten Bedenken kritisiert werden. Aber sie sollten nicht wegen der Bezeichnung „erneuerbare Energien“ benachteiligt werden.

Unsere Energiezukunft wird wahrscheinlich von vielen neuen Alternativen beeinflusst werden, die sich noch weniger gut in den Rahmen der erneuerbaren/nicht erneuerbaren Energien einfügen. Vereinfachtes Denken kann dazu beitragen, aufkommende vorteilhafte Technologien zu verdrängen und verdächtigere Technologien voranzutreiben. Wir sollten viele Ziele für unsere zukünftigen Energiequellen haben, aber die Einordnung in die Kategorie der erneuerbaren Energien sollte nicht den Vorrang haben.

Könnte eine nicht erneuerbare, nicht nachhaltige, auf fossilen Brennstoffen basierende Ressource eine gute Option sein?

Ich möchte zwar keine Technologie vor ihrer Zeit fördern, aber ich behaupte, dass wir die Tür für nützliche Erzeugungsoptionen offen halten sollten, die in der Zukunft auftauchen könnten und vielleicht nicht erneuerbar sind. So landen zum Beispiel riesige Mengen an Reifen auf Mülldeponien, wo ihre Zersetzung zu einer Versickerung führen kann, was wiederum verschiedene Umweltprobleme zur Folge hat. Irgendwann könnten wir in der Lage sein, Altreifen in Energie umzuwandeln, was für eine ganze Reihe von Umweltmaßnahmen von Vorteil wäre. Man bedenke, dass mit verbesserter Technologie große Mengen an Altreifen als potenzielle Ressourcen auf der Basis fossiler Brennstoffe und nicht als giftige Müllhalden betrachtet werden könnten.

Derzeit werden erhebliche Anstrengungen unternommen, um Altreifen und ihre Bestandteile zu recyceln. Es gibt verschiedene Technologien. Bei der zirkulierenden Wirbelschichttechnologie wird ein 850 bis 900 °C heißes Aschebett verwendet. Diese flammenlose Verbrennung kann enorme Energie erzeugen und ermöglicht gleichzeitig die Abscheidung von Schadstoffen im Aschebett. Die Pyrolyse, d. h. die Verbrennung unter Ausschluss von Sauerstoff, könnte sich als überlegene Technologie erweisen, um Energie aus Reifen zu gewinnen und gleichzeitig deren Abfallbelastung zu minimieren. Stellen Sie sich vor, Sie könnten giftige Abfalldeponien umwandeln und schließlich beseitigen und gleichzeitig wertvolle synchrone, zuverlässige elektrische Energie gewinnen. Wenn solche Anlagen erfolgreich wären, könnten wir dann alle Deponien beseitigen und die Kapazitäten zukünftiger Altreifen übertreffen? Ja, das könnten wir. Aber wäre es nicht eine großartige Sache, diese Abfälle in einem Prozess zu vernichten, der bekanntermaßen nicht nachhaltig ist?

Solche Ansätze liegen außerhalb der Zweiteilung in erneuerbare und nicht erneuerbare Energien. Aber in vielen Fällen ist das vielleicht der Weg, den wir gehen wollen. Das Konzept der Erneuerbarkeit besagt, dass unsere Ressourcen ewig reichen müssen. Für viele Dinge, auf die wir angewiesen sind, trifft das zu. Aber vergängliche Ressourcen haben in der Vergangenheit große Vorteile gebracht. Wie bereits erwähnt, wen kümmert es schon, wenn wir nicht genug Altreifenhalden haben, um ewig zu leben. Es handelt sich um eine auf fossilen Brennstoffen basierende Ressource, die im Interesse des Umweltschutzes unbedingt abgebaut werden muss.

Lassen Sie sich nicht zu einer enormen Verschwendung verleiten, denn der Energieanteil ist erneuerbar

Erneuerbare Energien haben eine unglaubliche Kraft, um die Einführung vieler marginaler Technologien voranzutreiben. Um dies zu veranschaulichen, möchte ich die Geschichte der Solarstraßen zusammenfassen. Viele waren übermäßig enthusiastisch über das Potenzial von Solarstraßen, als dieses Konzept im Jahr 2014 aufkam. Solar Roadways ist ein bestimmtes Unternehmen, aber auch andere namentlich genannte Unternehmen haben verschiedene Projekte gefördert und durchgeführt, die darauf abzielen, mit Hilfe von Paneelen auf Straßen Strom zu erzeugen. Bei den grundlegenden Ansätzen handelt es sich um ineinander greifende Hightech-Solarpaneele mit vielen anderen zusätzlichen Funktionen. Es gab große Bestrebungen, aus der „reichlich vorhandenen“, „kostenlosen“, „grünen“ Energie durch Solarstraßen Kapital zu schlagen. Zu den potenziellen Vorteilen, die angepriesen wurden, gehörten eine geringere Instandhaltung der Autobahnen, Arbeitsplätze, Warnung vor Hindernissen durch Gewichtssensoren, die Möglichkeit, Fahrzeuge aufzuladen, die die Straßen benutzen, Straßen, die den Schnee schmelzen würden, und eine verbesserte Straßensignalisierung durch eingebaute LED-Technologie.

Viele Menschen waren naiv und ließen sich von den möglichen Vorteilen verführen. Das Geld für die Solar Roadways Incorporated Company kam aus vielen Quellen. Das Verkehrsministerium stellte Mittel für verschiedene Machbarkeitsstudien zur Verfügung. Eine Crowdfunding-Aktion bei Indiegogo, die von Georgie Takei und diesem Video unterstützt wurde, brachte 2,2 Millionen Dollar für Solar Roadways ein. Wie viele andere Videos ist auch dieses nach fast zehn Jahren etwas veraltet, aber es war damals sehr eindrucksvoll und hat die Herzen und Köpfe vieler Menschen erreicht.

Verantwortungsbewusste Menschen fragten mich gelegentlich nach meiner Meinung zu Solarstraßen. Ich habe dann vorsichtig nachgefragt und geantwortet. „Haben Sie zusätzliches Geld, das Sie für etwas ausgeben müssen? Wollen Sie etwas für eine positive PR tun? Wollen Sie altruistisch sein und die Vorlaufforschung unterstützen?“ Das waren nicht ihre wichtigsten Beweggründe, und als sie mir das mitteilten, sagte ich ihnen, dass ich nicht glaube, dass ein früher Einstieg in eine Technologie, die noch so viel Entwicklungsarbeit leisten muss, ihren Verbrauchern oder ihrem Gewinn nützen könnte.

Was hätten vernünftige Menschen damals über das Potenzial von Solarstraßen denken sollen?

„Das wird bestenfalls eine lange Zeit dauern. Nichts wurde bisher auch nur im kleinen Maßstab demonstriert. Es kostet unheimlich viel, Straßen einfach nur mit Asphalt zu bedecken. Wie viel wird es kosten, sie mit Glasgeräten zu bedecken, die komplizierter sind und mehr Funktionen haben als iPhones? Glauben Sie, wir können sie den Elementen aussetzen, wenn Lastwagen und Autos und wer weiß was darüber fahren? Was könnte möglicherweise schief gehen? Was ist mit der Bodenhaftung? Es ist nicht einfach, sie mit Steuerungen zu verbinden und an das Stromnetz oder andere Stromversorgungsstationen anzuschließen. Wie lange könnten einzelne Paneele halten? Die Wartung eines solchen Systems auf der Fahrbahn erscheint gelinde gesagt schwierig. Sind die Solarmodule nicht aus guten Gründen schräg angebracht? Müssten wir nicht erst eine ganze Reihe erfolgreicher Solardächer sehen, bevor man erwarten kann, dass Solarstraßen machbar sind? Gibt es nicht alle möglichen Probleme, an die man noch nicht gedacht hat und die wahrscheinlich auftauchen werden? Ich muss noch viel mehr hören, bevor ich mich von diesem Thema begeistern lasse.“

Aber solche Fragen wurden nicht besonders beachtet. Die Menschen waren größtenteils verzaubert oder abgelenkt von der Aussicht auf kostenlose erneuerbare Energie.

Wie haben sich diese Programme bewährt? Bei einem 3,9 Millionen Dollar teuren Prototyp in Idaho gingen in der ersten Woche 83 % der Paneele kaputt. Hätte er funktioniert, hätte er vielleicht einen Trinkbrunnen und die Beleuchtung einer Toilette betreiben können. Frankreich gab über 5 Millionen Dollar aus, um 2800 Photovoltaikmodule auf einer 1 km langen Straße zu installieren. Trotz des speziellen Silikonharzes, das die Straße vor dem Verkehr von 19 Radfahrern schützen sollte, hielten die Platten nicht. Anfangs erzeugte das Projekt nur die Hälfte der erwarteten Energie, doch schon nach wenigen Jahren waren es nur noch 10 % der ursprünglichen Prognosen. Die Auswirkungen von Unwettern, Laubschimmel und Traktoren waren nicht ausreichend vorhergesehen worden. Die dem Schutz der Paneele dienende Harzbeschichtung verursachte so viel Lärm, dass die Geschwindigkeitsbegrenzung auf 80 km/h herabgesetzt werden musste. China eröffnete 2017 eine 1 km lange Solarstraße. Sie wurde jedoch innerhalb einer Woche aufgrund von Verkehrsschäden und Diebstahl der Paneele geschlossen.

Heute gibt es in den USA eine funktionierende Solarstraße in Peachtree City, Georgia. Daten für dieses kleine, 50 Quadratmeter große Projekt sind schwer zu bekommen, aber die erwartete jährliche Stromproduktion des Projekts könnte für weniger als 200 Dollar bei einem durchschnittlichen Haushaltstarif in Georgia erworben werden. Vielleicht ist diese kleine Anwendung die richtige Größenordnung für ein solches Projekt, ein Jahrzehnt nach den anfänglichen großen Versprechungen und Hoffnungen, und wer weiß, wie lange es dauert, bis sich die Technologie als fruchtbar erweist.

Die Ergebnisse sind schrecklich. Vielleicht schlimmer, als selbst einige der extremsten Skeptiker erwartet hätten. So fragwürdig das große Konzept auch war, so gab es doch eine Fülle kleinerer Teilprobleme, die einen hohen Entwicklungsaufwand erforderten. Trotz einiger ehrlicher Einschätzungen war es schwer, die Begeisterung für diese Projekte zu dämpfen. Begleitet von viel Beifall wurden die solaren Straßenbauprojekte finanziert und in großem Maßstab getestet, obwohl sich die unterstützenden Materialien erst in den primitivsten Stadien der Entwicklung befanden.

Schlussfolgerungen

Die Begriffe „erneuerbar“ und „nicht-erneuerbar“ haben in der Öffentlichkeit und bei politischen Entscheidungsträgern unverdientermaßen viel Macht und Einfluss. Anstatt aufzuklären und zu informieren, dienen sie oft dazu, die Energiepolitik zu verwirren und in die Irre zu führen. Wir brauchen ein differenzierteres Verständnis dafür, was sauber, grün, nachhaltig, umweltverträglich und praktikabel ist. Die Zweiteilung in erneuerbare und nicht erneuerbare Energien schadet unserer Fähigkeit, mit potenziell wertvollen und praktikablen Technologien voranzukommen, und gibt schlecht durchdachtem Schnickschnack zu viel Auftrieb.

Korrektur/Klarstellung: In Teil II dieser Serie und vielleicht noch weiter zurückgehend bezeichne ich die „Laufwasserkraft“ als selten und meist unbedeutend. Diese Serie wurde in einem anderen Forum aufgegriffen, und ein Kommentator wies darauf hin, dass es in den USA viele große Wasserkraftwerke gibt, die als Laufwasserkraftwerke eingestuft werden. Ich hätte mich auf Laufwasserkraftwerke ohne Teiche beziehen sollen. Das Corps of Engineers bezeichnet Staudämme mit umfangreichen Speichermöglichkeiten (saisonal und mehrjährig) als „stored hydro“. Dämme mit begrenzterer Speicherkapazität (Tage, Wochen und möglicherweise Monate) werden als „Teichanlagen“ und nicht als Speicheranlagen bezeichnet. Grundsätzlich können die Betreiber mit Hilfe von Stauseen Wassermengen so lange zurückhalten, bis sie gebraucht werden und nützlich sind. Es handelt sich um eine begrenzte Form der Speicherung. Große Anlagen mit beträchtlicher Stauwassermenge (im Gegensatz zur Langzeitspeicherung) werden von den Bundesbehörden als Flussläufe (oder in einigen Dokumenten als „grundsätzlich Flussläufe“) eingestuft. Auch wenn es sich dabei nicht um eine langfristige Speicherung handelt, so bietet sie doch einen Kapazitätswert und ermöglicht es den Planern, auf diese Anlagen zu zählen, um Nachfragespitzen zu decken. Die Betreiber können diese Anlagen so einsetzen, dass sie der Last folgen und das System bei Bedarf unterstützen. Wasserkraftwerke mit Teichanlagen werden nicht zu Recht als intermittierend bezeichnet, sondern sind vergleichbar mit Wind- oder Solaranlagen, die über ein umfangreiches Batterie-Backup verfügen. Der von mir verwendete Begriff „Flusslauf“ stammte aus der Erfahrung der Modellierung, wo er sich auf Ressourcen bezog, die intermittierend auftraten und unkontrollierbar waren. Wegen der unterschiedlichen Definitionen hätte ich mich hier genauer ausdrücken sollen. Wasserkraftwerke ohne Teichanlagen oder Speicher sind in der Regel klein und unbedeutend.

Link: https://judithcurry.com/2024/02/22/time-to-retire-the-term-renewable-energy-from-serious-discussions-and-policy-directives-part-3/#more-31036

Übersetzt von Christian Freuer für das EIKE

 




Die grüne Bewegung ist gescheitert… Jetzt versuchen sie, die Bürger zu zwingen, sie zu lieben

Pierre Gosselin

Wie ein missbrauchender Ehemann, der seine Frau schlägt, damit sie ihn liebt

Heute scheitert die sozialistisch-grüne Bewegung vor allem in Deutschland kläglich und stürzt in den Umfragen ab – auf Rekordtiefstände. In ihrer Verzweiflung greifen die sozialistisch-grünen Regierungen in Europa nun zu drastischen Maßnahmen, um die Bürger zu zwingen, sie wieder zu „mögen“.

Wachsende Zensur, Verbot der Opposition

So hat die EU gerade den Rechtsakt über digitale Dienste (Verordnung (EU)) erlassen, eine Verordnung über „illegale Inhalte, transparente Werbung und Desinformation“.

Unterdessen drängt Deutschland auf die Verabschiedung eines drakonischen Demokratie-Sicherheitsgesetzes, welches darauf abzielt, die Online-Sprache ernsthaft einzuschränken und die Opposition auszulöschen.

Wird nach hinten losgehen

So gut gemeint diese neuen Gesetze auch sein mögen, sie sollen von den großen Problemen ablenken, die die grüne Bewegung verursacht, und Opposition und freie Meinungsäußerung unterdrücken. Es ist eine missbräuchliche Beziehung, die niemals funktionieren wird.

Wie ein Ehemann, der seine Frau schlägt, werden die Schläge wahrscheinlich nur noch schlimmer, je mehr er von ihr zurückgewiesen wird. So sieht es in Deutschland aus. Die Industrie liegt auf der Intensivstation und die grüne Bewegung scheitert. Es folgen einige Beispiele:

Elektrofahrzeuge werden abgelehnt

Blackout News berichtet, dass der deutsche Softwareriese SAP „in Zukunft keine Elektroautos von Tesla mehr als Firmenwagen einsetzen will“ und „den Elektroautohersteller von seiner Lieferantenliste streicht“.

Auch die Autovermieter Sixt und Hertz wollen Tesla nicht mehr und kündigten an, „den Anteil der Elektrofahrzeuge in ihren großen Flotten deutlich zu reduzieren.“

Kürzungen im deutschen Ford-Werk

In einem weiteren Artikel berichtet Blackout News, dass Ford 3500 von 4500 Arbeitsplätzen in seinem Werk in Saarloius, Deutschland, abbaut und sich dabei auf ein „Restrukturierungsprogramm“ beruft. Die Deindustrialisierung beschleunigt sich in Deutschland.

Produktionsverlangsamung bei Opel

Der deutsche Automobilhersteller Opel hat angekündigt, die Arbeitszeiten in seinem Eisenacher Werk „aufgrund geringer Nachfrage“ zu reduzieren. Dies sei „eine direkte Reaktion auf die sinkende Nachfrage nach dem Opel Grandland SUV, der in verschiedenen Varianten angeboten wird, darunter auch ein innovativer Plug-in-Hybrid.“

Markt für E-Fahrzeuge wird bis 2024 um 14% zurückgehen!

Schließlich berichtet Blackout News, dass das Ziel der deutschen Regierung, bis 2030 15 Millionen Fahrzeuge zu verkaufen, „völlig utopisch“ sei, und zitiert Experten, die in der Tat einen Rückgang des Elektroautomarktes um 14% bis 2024 prognostizieren.

Link: https://notrickszone.com/2024/02/20/green-movement-is-failing-now-theyre-trying-to-force-citizens-to-love-them/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Schon bezeichnend – nichts davon habe ich in den hiesigen MSM gelesen!

 




Zurück in die Zukunft

von Dr. Humpich

Der Bau von Kernkraftwerken (KKW) in den USA und Europa ist eine wirtschaftliche Katastrophe. Absurde Bauzeiten (Olkiluoto 16 Jahre, Vogtle 14 Jahre) bei astronomischen Baukosten (Olkiluoto 8000 USD/kW, Vogtle 15 000 USD/kW) und das Rad dreht sich bisher munter weiter. Gerade ist das hoffnungsvoll erwartete Projekt des Kraftwerks Nuscale UAMPS bestehend aus 6×77 MWel in USA schon vor dem Baubeginn gestorben. Kein Wunder, bei einer spezifischen Investition von über 20 000 USD/kW. Wie konnte es dazu kommen? Wie läßt sich diese Entwicklung wieder umkehren?

Die Anfänge in den 1960er Jahren

Nach einer steilen Lernkurve erreichten KKW in den USA im Zeitraum 1965–1970 ihren bisherigen Tiefpunkt der Investitionskosten mit etwa 1000 bis 2000 USD/kW auf der Preisbasis 2024 (!) als „Overnight Cost“. Gemeint sind damit die reinen Baukosten ohne Finanzierung während der Bauzeit. 1965 bot General Electric Strompreise von 0,0035 USD/kWh an (entsprechend etwa 3,2 Cent in 2024 Dollar). Das waren konkurrenzfähige Kosten zu Strom aus Kohle, sogar ohne Rauchgasreinigung. Zu diesem Zeitraum hatte Kohle ihren Tiefstpreis in der Geschichte. 1970 erwarteten selbst die „Atomkraftgegner“ das kommende „Atomzeitalter“ mit niedrigsten Strompreisen. Man glaubte, daß die elektrische Energie bald so billig würde, daß sich überhaupt keine Abrechnung nach Verbrauch mehr lohnen würde. Doch dann kehrte sich der Trend um und die Investitionskosten gingen ab, wie eine Rakete. Schon 1975 wurden spezifische Investitionen von 10 000 bis 12 000 USD/kW (2024 Dollar) erreicht. Parallel verdreifachte sich die Bauzeiten von 4 Jahren in den 1960er auf über 10 Jahre ab Ende des 1970er Jahrzehntes.

Die Phase der Stagflation

Ausgelöst durch die beiden Ölkrisen 1973 und 1976 und den Vietnamkrieg ergab sich eine enorme Inflation, in deren Folge die Zinsen stark anstiegen. Eine toxische Mischung bei verlängerten Bauzeiten. Nicht nur die steigenden Materialpreise und Löhne verhagelten jede Kalkulation, sondern insbesondere auch die Zinslasten der Finanzierung. 1993 stiegen die Kosten nach Fertigstellung (durch die Finanzierung) auf nahezu das vierfache der „Overnight Costs“. Eine gefährliche Entwicklung, die durch die realen Verhältnisse vernebelt wurde. Der Ölpreis war so hoch geworden, daß sich die Stromerzeugung mit Ölkraftwerken nicht mehr lohnte. Erdgas war noch nicht in ausreichender Menge vorhanden, deshalb wurden den Herstellern die KKW und Kohlekraftwerke aus den Händen gerissen. Eine typische Situation für aus dem Ruder laufende Kosten: Man muß nicht mehr so genau hinschauen, da ja die steigenden Kosten locker an die Kunden weiter gegeben werden können. Bei der Kohle kamen noch stark steigende Kosten beim Brennstoff durch Streikwellen und verschärfte Umweltauflagen (Entstaubung, Entschwefelung, Entstickung) hinzu. Die ersten Opfer der „Umweltschützer“ waren in der Tat die Kohlekraftwerke. Die berechtigte Kritik von Anwohnern wurde von den Medien zum „Waldsterben“ aufgeblasen. Sehr schnell erkannten international die Neo-Marxisten den Wert von Protesten für ihre „Gesellschaftsveränderung“. Das öko-sozialistische Muster für den Kampf war vorgegeben: Immer neue „Umweltprobleme“ vom „Waldsterben“ einst, bis zur „Klimakatastrophe“ heute. Hier fängt die Kritik an der kerntechnischen Industrie an. Man nahm den Protest der sog. „Umweltschützer“ zwar nicht gerade mit Häme gegenüber den Kollegen von der Kohle an, aber mit interessiertem Wohlwollen hin. Bis heute hat man diesbezüglich nichts kapiert, wie die Betonung der „CO2-Freiheit“ als Pseudo-Verkaufsargument immer noch zeigt. Wer das Krokodil füttert, wird als letzter gefressen, war noch nie eine erfolgreiche Strategie.

Der Verlust der Kostenkontrolle ließ die Löhne und Materialkosten steigen. Hinzu kam ein gewisser Verlust der Arbeitsproduktivität durch den Einsatz unerfahrener Arbeiter und längerer Vorlaufzeiten. Ein Phänomen, was sich bei Olkiluoto, Vogtle etc. erschreckend wiederholte und heute in China und Russland wieder erfolgreich umkehrt. Eine Technologie wird während eines Booms nicht schlechter. Es erfordert nicht mehr Material, um die gleiche Arbeit zu erledigen. Es erfordert nicht mehr Konstruktion und Ingenieurwissen pro Einheit. Aber die Materialmengen für die KKW stiegen in den 1970er Jahren dramatisch an: Beton und Stahl für die gleiche Anlage verdoppelte sich. Verkabelung und Laufbahnen für dieselbe Anlage haben sich gar mehr als verdreifacht. Die Arbeitszahlen waren noch vernichtender: Die handwerklichen Arbeitsstunden stiegen um das Vierfache, die für den Papierkram verzehnfachten sich sogar. Ein Vergleich zeigt, daß man 1980 dreimal so viele Arbeitsstunden für den Papierkram benötigte, als Handwerksstunden für den Bau 1967 benötigt wurden. Diese Zahlen sind kaum zu verstehen, wenn man berücksichtigt, wie sich die Technologie in diesem Zeitraum entwickelt hat. Schiffe z. B. sind ebenfalls hoch entwickelte technische Gebilde mit hohen Umwelt- und Sicherheitsanforderungen (z. B. LNG-Tanker), aber koreanische Werften benötigen für Planung und Konstruktion weniger als 25% der Arbeitsstunden auf der Werft.

Der unvermeidliche Crash passierte und die Preise für Öl und Kohle brachen in der ersten Hälfte der 1980er Jahre ein. Ein deutlicher Indikator für das Ende einer Stagflation. Die Überlebenden rauften sich zusammen, und die realen Kosten kehren auf das Niveau vor dem Boom zurück. Das ist mit Kohle passiert – trotz gestiegener Umweltanforderungen – aber nicht so nuklear. Die Kosten in der Kerntechnik haben sich ein wenig abgesenkt, aber sie sind nie gesunken. Etwas anderes geschah.

Das Klinkenrad der Regulierungen

Regulierungen – gemeint sind damit Vorschriften und Dokumentationspflichten – gehen immer nur in eine Richtung. Hat der Staatsdiener erstmal eine Vorschrift in der Hand, kommt er davon nicht mehr runter. Wir kennen das aus dem Bereich der Steuergesetze (Sekt-, Salz-, Kaffeesteuer usw.) oder aktuell aus der „Digitalisierung“. Da gibt es unzählige Formulare trotz Erfindung des Computers. Notfalls wird das Formular digital auf dem Bildschirm nachgebildet, bevor sich mal einer Gedanken über den Sinn und die Arbeitsabläufe macht. Das Klinkenrad an der Kostenschraube kennt daher nur eine Richtung – in steigende Kosten in der Zukunft – wie bei der Unruh einer Turmuhr. Grundsätzlich ist der Bürger aus der Sicht des Staates ein potentieller Krimineller, weshalb die Überwachung und Dokumentation stets erweitert werden muß. Man könnte glauben, alle Politiker hätten ein ersthaftes Sozialdefizit. In Deutschland ist diese Haltung besonders ausgeprägt: Neues birgt immer nur zusätzliche Risiken, niemals Chancen.

Der DEGB als Musterfall

In der Kerntechnik gab von Anfang an immer ein Ping-Pong zwischen „Atomkraftgegnern“ und Regulierungsbehörde: Die „Atomkraftgegnern“ erfanden ein neues Problem und die Regulierer stürzten sich begeistert darauf, eine „Lösung“ zu finden – in Stundenlohnarbeit versteht sich. Hitzige Diskussionen entstehen, unzählige Fachaufsätze werden geschrieben, Forschungsprojekte lanciert usw. Das Musterbeispiel, mit dem der Irrsinn Anfing, ist immer noch der Double Ended Guillotine Break (DEGB). Man warf die akademische Frage in den Raum, was geschieht, wenn eine Hauptkühlmittelleitung bei einem Druckwasserreaktor bricht? Natürlich in der (nur) theoretisch denkbaren Form, daß dies schlagartig geschieht (Guillotine Break) und die Rohrenden sich sofort vollständig offen gegenüberstehen. Der legendäre Kerntechniker Ted Rockwell sagte einst lapidar: „We can’t simulate instantaneous double ended breaks because things don’t break that way“. Die Schlussfolgerung ist ist klar: Wenn sich ein akademisches Gedankenexperiment gar nicht physikalisch realisieren läßt, ist es eine Aufgabe für eine Computersimulation – ganz so, wie man es aus der Klimatologie kennt. Eine endlose Diskussion wird gestartet, die man nicht beenden kann, weil man ja keine Klärung durch ein Experiment schaffen kann. Ideal für jeden Aktivisten.

Ohne hier auf die unzähligen Feinheiten und Konsequenzen des DEGB einzugehen, nur so viel: Er brach 1972 mitten über zahlreiche im Bau befindliche Reaktoren herein. Hat man sich erst einmal ein Szenario ausgedacht, lassen sich daraus unzählige (erdachte) Anforderungen ableiten: Es wurden Rohrunterstützungen für wild schwingende Rohrleitungsenden berechnet und gebaut, Spritzschutz gegen die fiktiven, tosenden Wassermassen im Kraftwerk erdacht, bis hin zu absurden Forderungen für den Start von Notdieseln. Wer nun glaubt, das war ein Einzelfall, der irrt. Es folgte der Core Catcher, auf der Basis eines schlechten Hollywood Schinkens und dann die doppelte Betonhülle gegen den Absturz eines Jumbos und als sich das nicht mehr halten lies, eben gegen den Anschlag von Terroristen…

Schwupp die Wupp, war der EPR von Siemens und Areva als Antwort auf all diese Kopfgeburten erschaffen. Hier wieder eine klarer Vorwurf an die Industrie, die sich nie adäquat zur Wehr gesetzt hat, sondern der es bequemer schien, über jedes hin gehaltene Stöckchen zu springen. Hatte man wohl an das klassische Geschäft zu Lasten Dritter geglaubt. Aber der Stromkunde kann und will nicht mehr jeden geforderten Preis zahlen. Chinesen und Koreaner laufen inzwischen nahezu uneinholbar davon. Sie bauen und exportieren inzwischen KKW ohne Chi Chi, dafür aber mit konkurrenzlos günstigen Stromgestehungskosten.

Gründe über Gründe…

Wie ist es möglich, daß ein deutsches EVU in den Niederlanden ein modernes Steinkohlekraftwerk für unter 2000 USD/kW (1562 USD bei Fertigstellung 2015 pro kW) bauen kann? Spitzentechnik mit einem Wirkungsgrad von 46%. Damals weltweit Bestwert. An den Löhnen kann es nicht liegen, die Niederlande sind ein Hochlohnland. An den Umweltschutzauflagen auch nicht: Alle (strengen) Grenzwerte werden eingehalten. Ganz ähnliches gelang auch in Deutschland mit dem Kohlekraftwerk Moorburg. Allerdings schon etwas teuerer, wegen abstruser nachträglicher Umweltauflagen (zusätzlicher Kühlturm, Kohlelager in einer Halle etc.) während der Bauzeit. Wieso mutieren die – oft genug gleichen – Ingenieure, die bei einem Kohlekraftwerk Spitzenleistungen erbringen, zu Trotteln, wenn sie ein KKW bauen? Auch eher unwahrscheinlich. Es ist schwer zu verstehen, daß Vorschriften und Preise die Kosten um den Faktor fünf und mehr in die Höhe treiben sollen.

Es kommt darauf an, wie gut die Menschen auf die Anreize reagieren, mit denen sie konfrontiert sind. In einem wirklich wettbewerbsorientierten Markt ist der Anreiz, billiger und besser zu bauen oder zu sterben. Im „Beamtensystem“ besteht der Anreiz einzig darin, jedes Problem zu vermeiden, für das der Beamte verantwortlich gemacht werden könnte – beides führt zu völlig verschiedenen Ergebnissen. Es ist beileibe kein Zufall, daß das Kontrollsystem für Reaktoren ursprünglich von der US-Navy stammt. Im gesamten Rüstungsgeschäft trifft man immer wieder auf nicht nachvollziehbare Preise. Man vergleiche einmal Beschaffungs-Preise für Standardbauteile (Batterien, Reifen, Bekleidung usw.) bei der Bundeswehr mit Preisen aus dem Internet.

Wenn ein KKW gebaut wird, wird einem allmächtigen Regulator (Monopol) die alleinige Entscheidungsgewalt über das gesamte Projekt vom ersten Federstrich bis zur Endabnahme übertragen. Die Regulierungsbehörde hat keinen Nutzen aus der Stromproduktion, aber sie teilt alle Gefahren. Um dieser Verantwortung gerecht zu werden, verlässt sie sich auf starre Verfahren und umfangreichen Papierkram, der dokumentiert, daß alle Verfahren akribisch befolgt wurden. Was auch immer passiert, es ist nicht ihre Schuld. Das ist kein Vorwurf. Es soll auch nicht der Erfolg geschmälert werden. Diese „Sicherheitskultur“ hat die Kernenergie zu der Energieform mit den geringsten Toten gemacht. Würde man die gleichen Maßstäbe bei Windmühlen anlegen, müßten diese sofort abgeschaltet werden – allerdings hätte man dann in dieser Branche auch weniger schwere Arbeitsunfälle und (zukünftige) Berufskrankheiten. Allerdings ist das auch nur die eine Seite der Medaille. Durch die Erstickung des technischen Fortschritts, die Vernichtung des Wettbewerbs, die Demoralisierung der Mitarbeiter, die Verwässerung der Verantwortung führt diese perverse Reihe von Anreizen oft zu einer elenden Qualität (Olkiluoto, Flamanville). Die Lösung für die daraus resultierenden Probleme und Fehler sind immer noch starrere Verfahren, detaillierterer Papierkram, zeitaufwändigere Genehmigungen und Prüfungen. Die Abwärtsspirale geht so immer weiter.

Die Kostensteigerungen werden nicht direkt durch die Vorschriften verursacht, vielmehr resultieren sie aus der Interaktion zwischen den Mitarbeitern des Regulierers und der Industrie. Beide bemühen sich die Ziele von „Null-Risiko“ und „Null-Fehler“ in einem feindlichen und stur legalistisch-regulatorischen Umfeld zu erreichen. Das Streben nach „Null-Risiko“ bedeutet, daß letztlich alle Ausfälle die gleiche Bedeutung haben, unabhängig von der Wahrscheinlichkeit des Auftretens. Das Streben nach „Null-Fehlern“ fördert die kontinuierliche Erweiterung der Anzahl der Alternativen, die analysiert werden müssen, und die kontinuierliche Verfeinerungen der Anforderungen. Der rechtliche Bedarf an „Beweisen“ fördert die Entwicklung komplexer Analysen und nicht einfacher „Abschätzungen“. Er verdrängt auch die Tatsache, daß alle technischen Analysen in Wirklichkeit nur Annäherungen an die tatsächlichen Phänomene sind, weil solche subjektiven Positionen vor Gericht schwer zu verteidigen wären. Der Vorteil, den „Präzedenzfälle“ im rechtlichen Umfeld haben, fördert die Annahme unrealistischer und teurer Ansätze, weil es einfacher ist, als die Unsicherheit zu erleiden, die mit dem Versuch verbunden ist, einen neuen Ansatz zu akzeptieren. Die Fortsetzung dieser Situation seit Jahrzehnten hat zu der Tradition geführt, daß eine Methode, die komplexer, schwieriger und zeitaufwendiger ist, sicherer sein muß!

Die klassische Aufteilung von Autorität und Verantwortung zwischen Ingenieur, Hersteller und Konstrukteur wurde durch die Angst verzerrt, eine Entscheidung in einer regulatorischen oder gerichtlichen Anhörung zu verlieren, die einen finanziellen Schaden für das Versorgungsunternehmen zur Folge hat. Folglich gab es eine immer weiter zunehmende Abhängigkeit von akademischen Analysetechniken und nicht von erfahrenem Sachverstand. Von dem Konzept der „guten Ingenieurpraxis“ wird während des Baus abgeraten. Analysten und Designer sowohl von Regulierungs- als auch von Industriemitarbeitern, die in den Realitäten der Hardware- und Baupraktiken unerfahren sind, treffen unpraktische Designentscheidungen, die der Wirtschaft der Nuklearindustrie äußerst schaden.

Das Streben nach den unerreichbaren Zielen von Null-Risiko und dem rechtlichen Nachweis der Perfektion hat eine lähmende Wirkung auf ein effektives Engineering- und Baumanagement gehabt. Ironischerweise verursacht dieses Streben nicht nur die Entwicklung von weniger als befriedigenden Entwurf- und Konstruktionsansätzen, es kann auch die Sicherheitsmargen verschlechtern, sowohl durch die Abkehr der Aufmerksamkeit von wichtigeren Überlegungen als auch durch die Anhäufung von Komplexitäten, die die Fähigkeit von Menschen und Maschine, zuverlässig und effektiv zu arbeiten, gefährden.

Der Beitrag erschien zuerst auf der Website des Autors hier

 




Es ist an der Zeit, den Begriff „erneuerbare Energien“ aus der ernsthaften Diskussion und den energiepolitischen Richtlinien zu streichen – Teil II

Planning Engineer  (Russ Schussler)

„Erneuerbare“: Einige Ressourcen unterstützen ein gesundes Netz, andere stellen es in Frage.

Im ersten Teil dieser Serie [in deutscher Übersetzung hier] wurden einige der Unzulänglichkeiten der Gegenüberstellung von erneuerbaren und nicht-erneuerbaren Energien erörtert. Erneuerbare Energiequellen sind nicht notwendigerweise nachhaltig oder umweltverträglich, während nicht-erneuerbare Optionen sauber und sehr nachhaltig sein können. So gibt es zum Beispiel viele engagierte Umweltschützer, die sich gegen die „erneuerbare“ Biomasseerzeugung aussprechen. In ähnlicher Weise lassen immer mehr Umweltschützer ihre Einwände gegen die „nicht erneuerbare“ Kernenergie fallen. Für diejenigen, denen die Gesundheit des Planeten am Herzen liegt, sowie für diejenigen, die die Erde für das menschliche Wohlergehen nutzen wollen, verliert die Zweiteilung in erneuerbar und nicht erneuerbar an Bedeutung. Der allgemeine Verweis auf „erneuerbare“ und „nicht-erneuerbare“ Ressourcen oder eine Politik, die erneuerbare Energien bevorzugt, schadet mehr als er nützt, wenn wir uns den komplizierten Herausforderungen stellen, die vor uns liegen, wenn wir eine angemessene Stromversorgung auf umweltverträgliche Weise aufrechterhalten wollen.

In diesem Beitrag werden die Auswirkungen verschiedener Erzeugungsalternativen auf das Stromsystem und das Stromnetz untersucht. Erneuerbare Energien haben keine allgemeinen Auswirkungen auf das Stromnetz; die Auswirkungen variieren je nach Art der Ressource. Die verschiedenen, heute zur Verfügung stehenden Alternativen für erneuerbare Energien unterscheiden sich stark in ihren Auswirkungen auf das Stromnetz und sollten nicht in Gruppen zusammengefasst werden. Wasserkraftwerke mit Speicherkapazität zum Beispiel funktionieren gut, um das Stromnetz zu unterstützen. In Anbetracht der unterschiedlichen Erfordernisse der großen Stromnetze könnte dies sogar die beste verfügbare Ressource sein. Anspruchsvolle Lasten, die das System belasten, sind oft am besten in der Nähe von Wasserkraftwerken untergebracht. Andere „erneuerbare“ Ressourcen können in größerem oder geringerem Umfang Herausforderungen für den Betrieb des Netzes und die Netzzuverlässigkeit darstellen. Bei der Beurteilung der Herausforderungen, die sich aus dem Wechsel der Ressourcen ergeben, können Berichte, dass ein bestimmtes Netz mit 80 % erneuerbaren Energien betrieben wird, beeindruckend oder praktisch bedeutungslos sein. Natürlich kann ein Netz gut funktionieren, wenn es zu 80 % aus Wasserkraft oder zu 78 % aus Wasserkraft und zu 2 % aus Wind- und Sonnenenergie gespeist wird. Das ist etwas ganz anderes und eine viel geringere Herausforderung als der Betrieb eines Netzes mit einer Durchdringung von 40 % Wind und Sonne. Schauen wir uns einige der wichtigen Merkmale der Erzeugungsressourcen an und wie sie sich zwischen den Ressourcentypen unterscheiden.

Lastverfolgung/Planung/Versand/Ressourcenverfügbarkeit

Erzeugungsalternativen, insbesondere einige erneuerbare Energien, unterscheiden sich stark darin, wie und wann sie Strom liefern. Die erste Frage lautet: „Ist die bereitgestellte Energie zuverlässig?“ Das folgende Diagramm zeigt die tägliche Leistung einer Solaranlage. Es zeigt die Energie, die an einem typischen sonnigen Tag mit vorbeiziehenden Wolken erzeugt wird. Sie können die Unvorhersehbarkeit erkennen, die durch zufällige Wolken entsteht, welche die vorhersehbare Tageskurve des Laufes der Sonne überlagern. Eine größere Grundfläche oder die Ansammlung mehrerer Anlagen würde die Leistung glätten und die Vorhersagbarkeit erhöhen. Aber selbst bei einer starken Glättung folgt der Energieertrag der Sonne und nicht der Systemlast.

Die Stromerzeugung in Form von Wechselstrom muss der Last auf einer momentanen Basis entsprechen. Es ist wichtig, dass die Gesamterzeugung mit der Last übereinstimmt, wenn diese ansteigt oder sinkt. Ressourcen, die zuverlässig sind und bei Laständerungen hoch- und heruntergefahren werden können, sind sehr wertvoll, da sich die Netzbetreiber auf sie verlassen können. Zu den Kraftwerken mit der besten Planbarkeit gehören Wasserspeicher, Erdgaskraftwerke und Batterien/Speicher. In der Mitte befinden sich Kraftwerke, die zuverlässige Grundlast bereitstellen, sich aber nicht so gut an die Last anpassen können. Diese Kraftwerke reichen von Kohle, Gaskombikraftwerken, Biomasse und Geothermie bis hin zur Kernkraft. Wind- und Solarkraftwerke erschweren in der Regel die Lastverfolgung, da sie nicht zuverlässig sind oder der Last ohne angeschlossene Speicher folgen können. Laufwasserkraftwerke sind selten und können aufgrund ihrer Unvorhersehbarkeit Schwierigkeiten verursachen. Generell von der Dispatchability“erneuerbarer“ Ressourcen zu sprechen, macht wenig Sinn.

Eine Erscheinungsform der Lastfolgeprobleme ist als „Entenkurve“ bekannt. Im Jahr 2014 habe ich hier vor der sich abzeichnenden Entenkurve gewarnt und Fragen der Verfügbarkeit verschiedener Erzeugungsressourcen eingehend erörtert. Seitdem hat sich die Situation erwartungsgemäß erheblich verschlechtert. Das Diagramm zeigt, dass die verbleibenden Ressourcen mit dem Ein- und Ausschalten der Solarenergie sehr schnell hoch- und herunterfahren müssen, was den Systembetrieb erheblich erschwert.

Auch wenn die täglichen Auswirkungen der ein- und auslaufenden Solarenergie eine Herausforderung darstellen, ist die Solarenergie zumindest einigermaßen vorhersehbar. Wind ist an manchen Orten bis zu einem gewissen Grad vorhersehbar, aber an anderen Orten und zu anderen Zeiten kann er sehr variabel sein. Manchmal folgen Wind und Sonne den Laständerungen, manchmal wirken sie den Lastschwankungen entgegen.

Diese Variabilität wirft Probleme auf, die über die Lastverfolgung hinausgehen. Erzeugungsressourcen, auf die man sich nicht verlassen kann, müssen durch Ersatzressourcen ergänzt werden. Wenn Ressourcen verfügbar werden, muss eine verlässliche Erzeugung diese Ressourcen unterstützen. Wie bereits erwähnt, können Wasserkraft und Batterien gut für den Energieausgleich eingesetzt werden, und es ist einfach, sie zu diesem Zweck in Bereitschaft zu halten. Andere Energieträger müssen jedoch auf niedrigeren Erzeugungsniveaus oder, je nach Zeitrahmen, im Standby-Modus betrieben werden. Auch Kohle- und Gaskraftwerke haben Anlaufzeiten, die ihre Verfügbarkeit verzögern können, sowie Mindestabkühlzeiten, in denen sie nicht betrieben werden können.

Ich möchte hier nicht auf die Feinheiten der Planung und Disposition eingehen, sondern vielmehr verdeutlichen, dass die Verfügbarkeit von Stromerzeugungsanlagen zu Problemen führen kann, die in hohem Maße vom verfügbaren Ressourcenmix und den spezifischen Eigenschaften der einzelnen Ressourcen abhängen. Alle einzelnen erneuerbaren und nicht-erneuerbaren Ressourcen haben ihre eigenen einzigartigen Eigenschaften. Wenn wir uns fragen, wie das Netz auf erneuerbare Energien reagieren könnte, müssen wir wissen, welche erneuerbaren Energien in Frage kommen.

VRE und IRES: Das Gute und das Schlechte an diesen Begriffen

Einige von Ihnen möchten mich vielleicht daran erinnern, dass in einigen technischen Arbeiten die erneuerbaren Energien in eine separate Gruppe der variablen erneuerbaren Energien (VRE) oder der intermittierenden erneuerbaren Energiequellen (IRES) unterteilt werden, wenn es um Fragen der Zuverlässigkeit geht. Sicherlich ist es eine Verbesserung, speziell über die Herausforderungen der Integration großer Mengen von VRE oder IRES in das Netz zu sprechen, als über die Herausforderungen allgemeiner, nicht spezifizierter erneuerbarer Ressourcen. Die Bezugnahme auf VRES und IRES kann als ein Schritt in die richtige Richtung gesehen werden, der mit den hier gegebenen Empfehlungen für eine klarere Sprache übereinstimmt, aber wir können es besser machen.

Der Begriff „erneuerbar“ ist sowohl bei IRES als auch bei VRE redundant. Es gibt keine nennenswerten nicht-erneuerbaren Erzeugungsoptionen, die variabel oder intermittierend sind. (In einigen Gebieten gibt es begrenzte Mengen an Laufwasserkraft.) Meine größte Sorge bei diesem Begriff ist jedoch, dass er das größere Problem nicht erkennt, das derzeit mit den meisten intermittierenden erneuerbaren Ressourcen verbunden ist. In der Serie Academics and the Grid (Akademiker und das Stromnetz) habe ich argumentiert, dass es den Anschein hat, als ob absichtlich versucht wird, die wirklichen Herausforderungen einer Netto-Null-Umstellung zu verbergen, indem man sich fast ausschließlich auf die mit der Unterbrechung verbundenen Probleme konzentriert. Diese Bezeichnungen scheinen dem Irrglauben Vorschub zu leisten, dass Variabilität oder Unterbrechung die größte Herausforderung darstellen.

Stellen Sie sich eine Fabrik vor, in der das Problem besteht, dass die Arbeiter zu spät kommen und fast alle von ihnen betrunken sind. Anstatt auf die sehr realen Probleme mit alkoholisierten Mitarbeitern zu reagieren, konzentriert sich die Unternehmensleitung auf die Unpünktlichkeit. Es werden Experten hinzugezogen, die dafür sorgen sollen, dass die Mitarbeiter pünktlich erscheinen, und es wird eine innovative Zeitplanung erstellt, so dass Lücken mit verlängerten Arbeitszeiten geschlossen werden können, sobald die Mitarbeiter erscheinen. In dem Maße, in dem die Maßnahmen das Problem der „unpünktlichen“ Mitarbeiter angehen und sie in der Lage sind, die Stunden abzudecken, werden auch mehr Probleme im Zusammenhang mit Rauschzuständen auftreten. Vielleicht befürchtet das Unternehmen, dass es bei Bekanntwerden des Rauschproblems seine Arbeit verlangsamen, größere Veränderungen vornehmen und vielleicht einige Aufträge verlieren muss. Man kann sich vorstellen, dass ein Unternehmen das Problem des „Rausches“ kurzfristig verbergen möchte, damit es sich nicht auf die kurzfristigen Ziele auswirkt, aber für den langfristigen Erfolg muss es angegangen werden.

Das große Problem der Wind- und Solarenergie scheint in ähnlicher Weise versteckt zu sein. Viele wollen nicht, dass der Marsch in Richtung „erneuerbare Energien“ verlangsamt wird. Es liegt auf der Hand, dass es Probleme mit dem Ausbau der erneuerbaren Energien gibt, aber wenn die meisten Gespräche über die kleineren Probleme und die breite Öffentlichkeit die größeren Probleme ignorieren, ist das vielleicht besser für die derzeitige „Dynamik“ der verfügbaren erneuerbaren Optionen. Die Konzentration auf die Unterbrechung der Stromerzeugung lenkt die relevanten Akteure von den größeren Problemen ab, die vor ihnen liegen. Viel zu viele politische Entscheidungsträger denken, dass Batterien oder andere Lösungen für das Problem der Unterbrechung es uns ermöglichen werden, mit Ressourcen, die dieser Aufgabe derzeit nicht gewachsen sind, in Richtung Netto-Null zu marschieren.

Das große drohende Problem im Zusammenhang mit der Zunahme von Wind, Solar und Batterien

Die größten Herausforderungen im Zusammenhang mit der zunehmenden Verbreitung von Wind- und Solarenergie liegen nicht in den Unterbrechungen, sondern in der Art und Weise, wie die Energie in das Netz eingespeist wird. Die von Wind und Sonne erzeugte elektrische Energie wird von einem Stromrichter mit Wechselrichtern umgewandelt, um sie mit dem schwankenden Netz zu synchronisieren. Im Hinblick auf die Zuverlässigkeit sind Ressourcen, die sich bei der Erzeugung von elektrischer Energie synchron mit dem Netz drehen, für das Netz viel besser als Ressourcen, die eine auf Wechselrichtern basierende Technologie zur direkten Umwandlung für die Netzeinspeisung verwenden. Ressourcen, die sich mit dem System drehen, werden als synchrone Ressourcen bezeichnet, während die inverterbasierte Erzeugung als asynchrone Erzeugung bezeichnet wird. Hinweis: Windturbinen drehen sich zwar, aber mit unterschiedlichen Geschwindigkeiten, so dass sie Gleichstrom erzeugen, der vor der Einspeisung in das Netz in Wechselstrom umgewandelt werden muss.

Synchrone Ressourcen bieten Trägheit und wesentliche Zuverlässigkeitsleistungen, die das Netz unterstützen. Zusätzlich zur Verfügbarkeit sind Wasserkraftwerke wertvoll, weil sie sich synchron mit dem Netz drehen. Sie sind in der Regel groß und haben unter den drehenden Ressourcen hervorragende netzstützende Eigenschaften. Zu den guten Spinning-Ressourcen gehören auch Kernkraft, Kohle, Geothermie, Erdgas, Biomasse, Geothermie und thermische Solarkraftwerke mit geschmolzenem Salz. Wind- und Solarkraftwerke, die auf asynchronen Wechselrichtertechnologien beruhen, stellen in Bezug auf die Netzzuverlässigkeit das andere Extrem dar.

Es ist wichtig, dass wir zwischen umrichterbasierter Technologie und rotierenden Maschinen unterscheiden, denn es gibt ein großes Potenzial zur Verbesserung der umrichterbasierten Technologie. Bis zu einem gewissen Grad können Stromrichter mit zusätzlichen Merkmalen bereits jetzt einige Verhaltensweisen rotierender Maschinen nachahmen und dazu beitragen, wichtige Zuverlässigkeitsfunktionen für das Netz bereitzustellen. Es besteht die Hoffnung, dass umrichterbasierte Erzeugungsressourcen in den kommenden Jahren besser in der Lage sein werden, sich der drehenden Erzeugung anzunähern. Das National Renewable Energy Laboratory (NREL) ist sich dessen bewusst:

Das Management der Stabilität von Stromnetzen basiert auf jahrzehntelanger Erfahrung mit großen Synchrongeneratoren. Heutige Stromnetze verfügen über eine wachsende Zahl nicht-traditioneller Quellen wie Wind- und Solarenergie sowie über Energiespeicher wie Batterien. Zusätzlich zu der variablen Natur einiger erneuerbarer Energiequellen sind viele dieser Ressourcen über elektronische Wechselrichter an das Stromnetz angeschlossen.

Der Betrieb künftiger Stromversorgungssysteme muss auf den physikalischen Eigenschaften und dem Regelverhalten traditioneller großer, synchroner Turbinengeneratoren sowie umrichterbasierter Ressourcen basieren. Für den Betrieb hybrider Stromversorgungssysteme mit bedeutenden umrichterbasierten Ressourcen in der Größenordnung der heutigen großen Verbundnetze gibt es jedoch keine gesicherten Erfahrungen. Für den Betrieb solcher Systeme müssen die Annahmen, die der Auslegung und Steuerung der Stromerzeugung zugrunde liegen, überprüft und modifiziert – oder sogar neu definiert – werden, um den Herausforderungen und Möglichkeiten Rechnung zu tragen, die sich durch die umrichterbasierte Stromerzeugung ergeben.

Die meisten heutigen Wechselrichterregler sind netzgetreu und basieren auf der Annahme, dass Netzspannung und -frequenz durch Trägheitsquellen geregelt werden. Solche Regelungsansätze können die Systemstabilität in einem trägheitsarmen Umfeld nicht gewährleisten und sind für eine von Wechselrichtern dominierte Infrastruktur nicht geeignet. Diese Einschränkung hat zu einer Untersuchung von netzbildenden Regelungsmethoden für leistungselektronische Wechselrichter geführt, die Funktionen bieten, die traditionell von Synchronmaschinen bereitgestellt werden.

Sicherlich können Fortschritte erzielt werden. Die Eastern Interconnection in den Vereinigten Staaten ist jedoch die größte und komplizierteste Anlage in der Geschichte der Welt. Die Herausforderung, erhebliche Mengen an asynchroner, umrichterbasierter Stromerzeugung hinzuzufügen, erhöht die Komplexität enorm. Ich habe hier, hier, hier, hier und hier ausführlich über die Herausforderungen bei der Erhöhung des Anteils asynchroner Erzeugungsquellen geschrieben. Ich glaube, dass der Betrieb eines großen, komplexen Netzes ohne Unterstützung durch große Rotationsmaschinen innerhalb der Planungszeiträume nahezu unmöglich ist. Ich sehe die Herausforderung, eine hohe Durchdringung mit asynchronen, umrichterbasierten Ressourcen zu ermöglichen, als schwieriger an als Raketenwissenschaft oder Gehirnchirurgie. Eine solche Leistung würde über die Mondlandung, die Sequenzierung des menschlichen Genoms, die Atombombe oder die Heilung einer Erkältung hinausgehen.

Viele Einrichtungen, darunter das National Renewables Energy Laboratory, die FERC und die NERC, arbeiten intensiv an der Verbesserung der Funktionalität der auf asynchronen Wechselrichtern basierenden Technologie. Es ist durchaus möglich, dass sie ihre Ziele erreichen und in den nächsten fünf bis zehn Jahren eine bessere Netzunterstützung durch diese Ressourcen ermöglichen. Eine bessere Unterstützung ist möglich. Aber das ist noch ein weiter Weg, um die Abhängigkeit des Netzes von rotierenden Maschinen zu beseitigen.

Diejenigen, die die Entwicklung solcher Technologien optimistischer einschätzen, könnten am Ende Recht behalten. Ich hoffe es. Es könnte sein, dass wir noch zu Lebzeiten einiger unserer Leser funktionierende große Netze haben, die von Wind, Sonne und Batterien angetrieben werden. Aber um dorthin zu gelangen, müssen wir die Schwierigkeiten erkennen und anerkennen, die mit einem solchen Wandel verbunden sind. Diejenigen, die davon ausgehen oder so tun, als gäbe es kein Problem, sind entweder erschreckend unwissend oder ignorieren das sich abzeichnende Problem zugunsten kurzfristiger Ziele. Leider werden die Herausforderungen der asynchronen, umrichtergestützten Stromerzeugung nicht angemessen angegangen oder jemals gelöst werden, wenn sie verborgen werden.

Schlussfolgerung

Wenn man allgemein über die Auswirkungen erneuerbarer Energien auf das Netz spricht oder darüber, was erneuerbare Energien leisten können, entsteht mehr Verwirrung als Klarheit. Stromnetzingenieure wissen, dass es einfacher ist, Wind- und Solarenergie sowie Batterien hinzuzufügen, wenn es bereits große Wasserkraftressourcen gibt, die das Netz unterstützen. Es ist schwieriger, Wind, Sonne und Batterien hinzuzufügen, wenn die anderen Ressourcen nicht so stark sind. Ein Vergleich des Anteils der erneuerbaren Energien an der Stromerzeugung in verschiedenen Gebieten mit sehr unterschiedlichem Anteil an Wasserkraft kann irreführend sein, insbesondere wenn Wasserkraft in die Kategorie der erneuerbaren Energien fällt. Wird nicht zwischen den Möglichkeiten der Wasserkraft, der Windkraft und der Solarenergie unterschieden, kann dies zu einer unrealistischen Auswahl für Gebiete mit geringer Wasserkraft führen. Falsche Vorstellungen über die Leistungsfähigkeit sind besonders besorgniserregend, da die vorhandenen Wasserkraftressourcen zunehmend in Frage gestellt werden.

Große Netze können durchaus zuverlässig ohne fossile Brennstoffe betrieben werden. Große Netze können mit 100 % „erneuerbarer“ Energie betrieben werden. Die Zuverlässigkeit hängt nicht von der Quelle der in das Netz eingespeisten Energie ab, sondern vielmehr davon, wie diese Energie in das Netz eingespeist wird. Wenn Solarenergie einen Generator synchron mit dem Netz dreht (vielleicht durch den Einsatz von geschmolzenem Salz), wird die Zuverlässigkeit besser unterstützt. Wenn Windturbinen so eingestellt werden könnten, dass sie sich nur synchron mit dem Netz drehen, würde dies die Zuverlässigkeit erhöhen. Wenn die Energie aus Wasserkraftwerken mit variablen Gleichstrommotoren aufgefangen und mit Wechselrichtern in das Netz eingespeist würde, würde die Zuverlässigkeit zunehmen. Da sich das Netz verändert und wir uns mit der Zuverlässigkeit befassen, ist es so viel einfacher, direkter und ehrlicher, von synchroner und inverterbasierter Erzeugung zu sprechen. Die Auswirkungen der „erneuerbaren Energien“ auf die Zuverlässigkeit sind zu vage, um sinnvoll zu sein. Obwohl dies der Fall ist, wird häufig auf den Prozentsatz der erneuerbaren Energien verwiesen, ohne zwischen den eingesetzten Ressourcen zu unterscheiden. Diese Zahlen werden von denjenigen genannt, die eine bestimmte Sichtweise durchsetzen wollen, und sie beeinflussen die politischen Entscheidungsträger.

Wir stehen nicht vor der Herausforderung, große Mengen an erneuerbaren Energiequellen in das Netz zu integrieren. Wir stehen vor betrieblichen Herausforderungen durch intermittierende Ressourcen. Die Integration großer Mengen asynchroner, durch Wechselrichter gestützter Stromerzeugung in das Netz stellt uns vor große Herausforderungen hinsichtlich der Zuverlässigkeit. Je besser das Problem verstanden wird, desto besser kann es angegangen werden. Über den Umfang und das Ausmaß der Probleme, die durch intermittierende und asynchrone Wechselrichterstromerzeugung verursacht werden, kann man geteilter Meinung sein. Aber seien Sie versichert, dass die Bewältigung der sich abzeichnenden Probleme umso reibungsloser vonstatten gehen wird, je genauer die Probleme und Erfolge ermittelt und definiert werden.

Link: https://wattsupwiththat.com/2024/02/17/time-to-retire-the-term-renewable-energy-from-serious-discussions-and-policy-directives-part-ii/

Übersetzt von Christian Freuer für das EIKE

 




Kältereport Nr. 8 / 2024

Christian Freuer

Vorbemerkung: Auch diese Woche liegt der Schwerpunkt der Meldungen in Asien, vor allem China.

Hier zunächst ein Nachtrag zu einer Meldung auf dem Alarmisten-Blog wetteronline.de (!) vom 17. Februar, der Cap Allon entgangen ist: Schnee in Saudi-Arabien.

Meldungen vom 19. Februar 2024:

Skandinaviens extremer Frost lässt „Seidenschwänze“ in den Süden ziehen

Da die globalen Temperaturdaten unzuverlässig sind, geben die Bewegungen der Natur vielleicht den besten Aufschluss über die Abkühlung des Klimas.

In Skandinavien war es den ganzen Winter über ungewöhnlich kalt, was in den -44,3 °C auf dem finnischen Flughafen Enontekiö gipfelte (der niedrigste Wert in Fennoskandien in diesem Jahrhundert). Infolgedessen hat UK einen seltenen „Seidenschwänze-Winter“ erlebt.

Ein Paar Seidenschwänze auf einem gefrorenen Beerenzweig.

Aufgrund der extremen Kälte im Norden sind in dieser Saison viele Tausend Seidenschwänze mehr als sonst in den Süden geflogen. Berichte über diese Vögel, die für ihr unverwechselbares glattes Gefieder bekannt sind, kommen von den gesamten britischen Inseln, sogar aus dem Süden Londons.

Der rekordverdächtige Frost im Januar hat zweifellos zum Südzug der Vögel beigetragen, aber es scheint, dass die meisten Seidenschwänze schon vorher in diesem ebenfalls außergewöhnlich kalten Herbst angekommen sind.

Im Oktober und November 2023 sanken die Temperaturen in ganz Skandinavien deutlich unter den saisonalen Durchschnitt. In Norwegen war der Oktober der kälteste Monat seit 2009, und in weiten Teilen Schwedens war der November der kälteste seit 14 Jahren.

Die Vögel spürten, dass kältere Zeiten bevorstanden, und zogen anscheinend vorsorglich weiter nach Süden als sonst.

—————————————-

China: Tausende stranden in historischer Kälte

Die örtlichen Behörden haben rund 43 000 Reisende gerettet, die nach einem weiteren starken arktischen Ausbruch auf verschiedenen Autobahnen in der zentral- und nordchinesischen Provinz Gansu gestrandet waren.

Wie bereits Ende Januar und Anfang Februar haben rekordverdächtige Tiefsttemperaturen und Schneefälle Chinas Autobahnen, Eisenbahnen und Flughäfen in die Knie gezwungen, so dass Hotels, Restaurants, öffentliche Einrichtungen und sogar Regierungsstellen für kältegeplagte Reisende geöffnet wurden, um ihnen einen Schlafplatz, warmes Wasser und Essen zu bieten.

Am Samstag lagen die Durchschnittstemperaturen zwischen -39°C und -28°C im Süden Xinjiangs sowie -32°C und -16°C im Norden Xinjiangs.

Am Sonntag sanken die Temperaturen weiter, und es wurden historische Rekorde aufgestellt. Der Höhepunkt dieser Entwicklung trat in Turhong im Kreis Fuyun in Xinjiang auf. Dort wurde ein Tiefstwert von -52,3 °C registriert, der den alten regionalen Rekord von -51,5 °C vom 21. Januar 1960 brach und damit für die niedrigste Temperatur in der meteorologischen Geschichte Xinjiangs sorgte.

Außerdem wurde damit die bisher niedrigste Februartemperatur in China erreicht, die 1969 in der Stadt Mohe, Heilongjiang, gemessen worden war.

Mohe hält übrigens den nationalen Rekordtiefstwert in China, der erst letztes Jahr aufgestellt worden war (-53.0°C, 22. Januar 2023).

Begleitet wurde die Kälte von meterhohem Neuschnee, der zu den historischen Schneemengen vom Anfang des Monats hinzukam.

In Altay Hemu, Xinjiang, hatten sich bis Samstag 210 cm angesammelt.

Es folgt der Ausblick auf immer neue Kaltluftvorstöße bis mindestens Ende Februar.

—————————————-

Eingeschneites Pakistan

Auch für Islamabad, Pakistan, ist nach einem Einbruch von Kaltluft arktischen Ursprungs mit starkem Schneefall zu rechnen.

Das pakistanische Wetteramt rechnet bis Dienstag mit erheblichen Schneemengen in Gilgit-Baltistan, Kaschmir, Khyber-Pakhtunkhwa, der Region Potohar, Islamabad, Punjab und Nord-Belutschistan.

—————————————-

Alta (Utah) meldet über 10 m Schnee

In den letzten Tagen ist im Wasatch-Gebiet meterweise Neuschnee gefallen, so dass das Alta-Skigebiet zum Beispiel die 10-Meter-Marke überschritten hat.

Nach den historischen Schneemengen des letzten Jahres begann die Saison im Dezember trocken und schneearm.

Seitdem haben regelmäßige Stürme das Gebiet – und den Westen der USA im Allgemeinen – heimgesucht, und nach wochenlangen frischen, flauschigen Niederschlägen liegt der Schnee in Alta nun 10,5 m hoch (Stand: Sonntag).

Es ist noch mehr Schnee zu erwarten, auch in Utahs Nachbarstaaten Colorado, Wyoming, Idaho, Nevada und Kalifornien.

—————————————-

Es folgt noch ein Abschnitt zu einem besonders großen Sonnenfleck.

Link: https://electroverse.substack.com/p/scandinavias-extreme-freeze-sees?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Meldungen vom 20. Februar 2024:

Chinas Big Freeze dehnt sich nach Süden aus und erreicht immer mehr Gebiete

Chinas rekordverdächtiger arktischer Ausbruch (-52,3°C) zieht weiter nach Süden und beschert den zentralen und östlichen Provinzen starken Temperaturabfall und heftigen Schneefall.

Nach Angaben des Nationalen Meteorologischen Zentrums (NMC) kam es am Sonntag im Norden zu starkem Wind, weit verbreiteten Sandstürmen, dramatischen Temperaturstürzen und heftigen Schneestürmen, und es wird erwartet, dass sich diese Bedingungen im Laufe der Woche nach Süden und Osten ausbreiten werden.

Am Montag erneuerte und erweiterte das NMC seine orangefarbene Warnmeldung für eine Kältewelle.

Kälte und Schnee werden dann am Mittwoch noch weiter nach Süden ziehen, berichtet chinadaily.com. Zentrale Provinzen wie Shandong, Henan, Jiangsu, Anhui und Hubei werden für den Rest der Woche von starken Schneefällen oder sogar Schneestürmen heimgesucht.

—————————————-

Schnee „so hoch wie Pferde“ in Kirgisistan

Wie schon Mitte Dezember meldet das zentralasiatische Land Kirgisistan erneut meterhohen Neuschnee.

Der Bezirk Kara-Kulja in der Region Osch im Südwesten Kirgisistans wurde von Schneefällen erfasst, die Neuschnee über 130 cm brachten. Wie akipress.com berichtet, „erreichte der Schneefall die Höhe von Pferden“.

—————————————-

Es folgt noch ein Überblick über die Januar-Witterung in den USA, wobei Blogger Cap Allon wieder kräftig gegen die Warm-Hysterie der NOAA austeilt.

Den Abschluss bildet nochmals ein Blick auf die Sonnenaktivität.

Link: https://electroverse.substack.com/p/chinas-big-freeze-expands-south-takes?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Meldungen vom 21. Februar 2024:

Weiterhin hohe Schneedecke in Moskau

Dieser Winter in Moskau wird wegen seiner Fröste und seines Rekordschnees in Erinnerung bleiben.*

[*Man kann wohl davon ausgehen, dass andere Dinge für die Moskowiter noch wichtiger sind].

Am Morgen des 19. Februar betrug die Schneehöhe an der Moskauer Wetterstation VDNKh 67 cm, was mehr als das Doppelte der Norm ist. In Balchug lag die Schneehöhe bei 59 cm, im MSU-Gebiet bei 70 cm und in Konkovo bei 80 cm.

Für Moskau werden Mitte der Woche weitere Schneefälle erwartet, die die Schneehöhen auf ein Rekordniveau bringen könnten (der bisherige Rekord stammt aus dem Jahr 1994).

—————————————-

183 cm Schnee in Nordindien

Trotz der trockenen (aber kalten) Wintersaison in Indien haben Gulmarg und die höher gelegenen Gebiete im Kaschmirtal gerade einen beträchtlichen Schneezuwachs erhalten: Bis Dienstagmorgen hat das Skigebiet allein in den letzten 48 Stunden über 90 cm Schnee erhalten.

Nach offiziellen Berichten des meteorologischen Dienstes fielen in Gulmarg in den letzten beiden 24 Stunden 50 cm bzw. 40 cm, insgesamt also fast ein Meter, während die Temperatur im Skigebiet weit unter dem Durchschnitt lag: -4°C.

Die arktischen Bedingungen haben sich nach Süden in den benachbarten Bundesstaat Himachal Pradesh ausgebreitet, wo 263 Straßen gesperrt wurden, darunter 4 Nationalstraßen wie der berüchtigte Rohtang-Pass, auf dem allein in den letzten 24 Stunden 135 cm Schnee gefallen sind.

—————————————-

Autobahnen und Kommunikation in Pakistan unterbrochen

Auch im benachbarten Pakistan hat der seit drei Tagen anhaltende starke Schneefall die Kommunikationsverbindungen unterbrochen und Straßen blockiert. Zu den betroffenen Gebieten in der Upper Hazara Division gehören Kaghan, Naran, Shogran, Nathiagali, Donga Gali und Thandiani.

In Galyat fielen über 75 cm Schnee, in Kaghan und Naran sogar über 120 cm bei Temperaturen unter dem Gefrierpunkt (C).

—————————————-

China gefriert

Wie vorhergesagt, ist der polare Ausbruch in China weiter nach Süden und Osten vorgedrungen und hat nun auch die Provinz Shandong erfasst.

Chinas Temperaturgefälle zwischen Nord und Süd ist eine Geschichte für sich.
Während die rekordverdächtige polare Luftmasse nach Süden sinkt, verdrängt sie anomale Wärme.

Das sehen wir auch in Japan, wo sich derzeit ein Wechsel von rekordverdächtiger Februarwärme zu bitterer arktischer Kälte vollzieht:

—————————————-

Ausdehnung des arktischen Meereises weiterhin über dem 20-jährigen Mittel

In Richtung Norden liegt die Ausdehnung des arktischen Meereises im Jahr 2024 (ebenso wie lange Zeit im Jahre 2023) über dem multidekadischen Durchschnitt:

Quelle: NSIDC

Die etablierten Medien haben sich in den letzten Monaten weitgehend aus der Berichterstattung über Vorgänge im Polargebiet herausgehalten – ein verräterisches Zeichen. Was für eine Blamage für die Propaganda-Armee der AGW-Partei wie die BBC, die zuversichtlich behauptete, dass die Arktis bis 2013 eisfrei sein würde, ist das Meereis:

Weiter unten im Artikel liest man:

Unabhängigen Forschern wie mir, die behaupten, dass die Sonne der Haupttreiber des Klimas ist, wird die Werbung gestrichen, aber die BBC und andere, die sich jahrzehntelang der Verbreitung erwiesener „Fehlinformationen“ schuldig gemacht haben, bleiben über jeden Vorwurf erhaben, ihr Wort gilt immer noch als Evangelium.

[Dieser Fettdruck vom Übersetzer hinzugefügt]

Information ist Macht. Desinformation ist Machtmissbrauch.“

—————————————-

–58,7°C in der Antarktis

In der Antarktis wurde am 20. Februar in Vostok mit -58,7°C ein neuer saisonaler Tiefstwert gemessen.

Ebenfalls erwähnenswert sind die -55, 6°C am Dome Fuji AWS und die -55,9°C an der Station AGO-4 AWS.

Link: https://electroverse.substack.com/p/deep-snow-persists-in-moscow-6-feet?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Meldungen vom 22. Februar 2024:

Stärkster Schneefall in der Mongolei seit 1975

Dieser Winter hat dem großen ostasiatischen Land Mongolei die stärksten Schneefälle seit 1975 beschert, so die mongolische Regierung in einer kürzlich veröffentlichten Presseerklärung.

Starker Frost und Schneestürme haben zum Tod von etwa 668.000 Tieren geführt. Als Reaktion darauf haben die Behörden Katastrophenhilfsmaßnahmen eingeleitet und stellen ab dem 19. Februar lebenswichtige Hilfsgüter wie Lebensmittel, Brennstoffe und Viehfutter für die betroffenen Gebiete bereit.

Die Winter in der Mongolei haben sich in den letzten Jahren verschärft. Zwischen 1940 und 2015 wurde zweimal pro Jahrzehnt offiziell ein Dzud ausgerufen; in den letzten Jahren haben die Dzuds an Häufigkeit zugenommen und treten nun jährlich auf.

—————————————-

„In Gulmarg sieht es aus wie in der Antarktis“

Der Schnee hat die nördlichen Bundesstaaten Indiens unter sich begraben. Schwere Schneefälle trafen unter anderem Jammu und Kaschmir sowie Himachal Pradesh.

„In Gulmarg sieht es aus wie in der Antarktis“, berichtet pipanews.com, nachdem sich dort „meterhoher Schnee“ angesammelt hat. Die Fotos sehen wirklich atemberaubend aus:

„Kältewellen“ haben in Indien in den letzten Jahrzehnten laut einer IITM-Studie zugenommen.

—————————————-

Es folgt ein Abschnitt zu einem erwarteten Wintereinbruch in Europa, der sich inzwischen als falsch herausgestellt hat. Außerdem erwähnt Allon noch Vorgänge in der Stratosphäre.

Wostok, Antarktis: Abkühlung auf –60,7°C

Am Mittwoch (21. Februar) sank die Temperatur in der Antarktis unter -60°C.

In Wostok war es mit einem Tiefstwert von -60,7°C am kältesten. Dieser Wert ist einer der frühesten jemals in der Antarktis gemessenen Werte unter -60 °C, gleichauf mit dem sehr frühen Wert von -60,1°C, der am 21. Februar 2021 am Dome Fuji erreicht wurde (im Vorfeld des kältesten Winters (April-September) in der Geschichte der Antarktis).

In diesem Jahr herrschen ähnliche Bedingungen, und die Kälte ist genauso stark und anhaltend wie im Jahr 2021 – wenn nicht sogar noch stärker.

Mit einem Durchschnitt von -34,4°C war der Januar 2024 der kälteste Januar in Vostok seit 1989 (-34,6°C). Der Vormonat, der Dezember 2023, war ebenfalls anomal kalt, einer der kältesten in den Aufzeichnungen, und enthielt (bis Anfang Januar) eine beispiellose Serie von Werten unter -40 °C. Und davor war der November 2023 der zweitkälteste aller Zeiten, nur übertroffen vom November 1983, und zwar um gerade einmal 0,1 °C.

Insgesamt ist dieser Sommer mit einem Durchschnitt von -34,3 °C der zweitkälteste in den Büchern seit den 1950er Jahren.

Link: https://electroverse.substack.com/p/mongolias-largest-snowfall-since?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Meldungen vom 23. Februar 2024:

China: 117 Tiefsttemperatur-Rekorde gebrochen (Dienstag)

China hat in den vergangenen zwei Tagen Kälte-, Hitze- und Niederschlagsrekorde (Regen und Schnee) gebrochen.

Während im äußersten Süden anomale Wärme herrschte, ist es im größten Teil des 9,597 Millionen km² großen Landes kälter als im Durchschnitt, was sich in den Aufzeichnungen widerspiegelt.

Nach dem historischen Tiefstwert von -52,3 °C in Turhong (Chinas niedrigste jemals aufgezeichnete Februartemperatur) verzeichneten am Donnerstag (22. Februar) weitere 117 Wetterstationen ihre kältesten Februartage.

Wie bei den arktischen Ausbrüchen Ende Januar und Anfang Februar erweist sich diese jüngste Runde polarer Kälte als ebenso verheerend.

Zusätzlich zu den Kälterekorden wurden am Donnerstag auch 17 monatliche Schneehöhenrekorde gebrochen.

Der Schnee fiel ungewöhnlich weit im Süden, etwa in den Provinzen Zhejiang, Jiangxi und Fujian, während im Norden, unter anderem in Xinjiang, stärkere Niederschläge auftraten.

—————————————-

Weitere aktuelle Meldungen folgen nicht, wohl aber eine längere Betrachtung zu einer La Nina-Vorhersage der NOAA (wird separat übersetzt), ein Abschnitt „Kältewellen in den USA sind Folge der globalen Erwärmung“ und einer zu Vorgängen auf der Sonne.

Link: https://electroverse.substack.com/p/china-broke-117-low-temperature-records?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Wird fortgesetzt mit Kältereport Nr. 9 / 2024

Redaktionsschluss für diesen Report: 23. Februar 2024

Zusammengestellt und übersetzt von Christian Freuer für das EIKE