Waren die Fluten vom 16. September erste Folgen der CO₂-Vermeidung?

Helmut Kuntz

Auf eine solche Fragestellung kann man kommen, wenn man sich die in Windeseile dazu erstellte Eilanalyse ansieht [1] [2]. Wie nicht anders zu erwarten, kommt diese zu dem unvermeidbaren Schluss: „Einer Schnellanalyse zufolge hatte der Klimawandel wahrscheinlich großen Anteil an der aktuellen Starkregenepisode in Mitteleuropa. Die natürliche Klimavariabilität allein könne die Intensität des beobachteten Ereignisses nicht erklären“.
Allerdings sieht man in der Studie, dass sich die Temperatur im Vergleichszeitraum gegenüber früher verringert hat. Was zu der Frage berechtigt, warum dann gerade dieses Ereignis klimawandelbedingt verstärkt sein soll. Natürlich steht das als Aussage so nicht drin, denn das verklausuliert man mit der Darstellung: „Kein gesichertes Ergebnis. Die Unsicherheit sei bei dieser Schlussfolgerung allerdings recht groß, da es sich um ein ungewöhnliches Ereignis handele.

Wie hat der brave, ordentliche, Ampel-bejahende Bürger die jüngsten Flutereignisse einzuordnen?

Die Redaktion der Nordbayerischen Nachrichten hat inzwischen die Nachfolge der „Alpenprawda“ angetreten und legt anscheinend gesteigerten Wert darauf, wie diese es bereits geschafft hat, auch viele ihrer Leser mit penetranter, GRÜN-Linker Dauerpropaganda zu vergraulen.

Und so sagte sie es ihren Lesern wieder in einem Leitkommentar „Wieder eine Jahrhundertflut? Naturkatastrophen: Viele Politiker schauen weg“ (Zitierungen aus einer lokalen Printausgabe vom 16.Sept.):
Gleich zu Beginn kommt die Kernaussage: „… Starkregen ist das neue Normal“.
Und wenn man schon dabei ist, darf „das Übliche“ nicht fehlen: „ steigende Meerespegel und irgendwelche Atolle im Pazifik, die im Ozean verschwinden können
Und nun die Warnung dazu: „ … Machen wir beim Klimaschutz weiter, wird es bald zu spät sein, eine globale Katastrophe zu verhindern
Selbst der Weltraumschrott muss nun als Menetekel herhalten: „ … Wie der Weltraumschrott, der sich im All ansammelt und uns alle besorgen müsste … offenbar ist es allzu menschlich, die Augen vor Gefahr zu verschließen …
Nun kommt die Erklärung: „ Machen wir beim Klimaschutz so weiter, wird es bald zu spät sein, eine globale Katastrophe zu verhindern … Die Klimawandel-Leugner, eine Ansammlung von Menschen, denen nicht zu helfen ist. Hier lohnt kein Energieeinsatz.

Inzwischen gibt es eine Abstufung der Klimawandel-Leugner die man neu lernen muss, da nun auch Pragmatiker – früher eine positive Notation – nun negativ konnotiert ist: Spannender ist die zweite, immer größer werdende Bewegung, nennen wir sie die politischen Pragmatiker … Es sind Politiker, die wahlweise unter Verdrängung wissenschaftlicher Erkenntnisse, aus Verzweiflung, weil sie radikale Maßnahmen nicht umsetzen wollen, oder aus Angst, ihr Mandat und somit ihre Macht zu verlieren – der Bevölkerung vorgaukeln, dass eine gemäßigte Klimapolitik ausreichen könnte, um das Schlimmste zu verhindern … “
Wie immer unvermeidbar kommt dann ein großes Lob auf die Ampelpolitik und vor allem der GRÜNen: „ Im politischen Alltag findet die Wirkungsmacht dieser über Parteigrenzen vereinten Akteure im Grünen-Bashing Ausdruck … “
Was in der Darstellung über die Leistung der GRÜNen gipfelt: „ …wer den Wählern gegenüber ehrlich bleiben möchte, sollte radikalere, umweltpolitische Ansätze nicht länger durch den Kakao ziehen, sondern als alternativlos anerkennen. Ansonsten droht die Gefahr, dass unsere Kinder und Enkel in einer der nächsten Jahrhundertfluten ertrinken.“

Zu diesem Redaktionskommentar bekam die Redaktion vom Autor eine kritische Gegendarstellung, welche Anlass und Basis dieses Artikels ist. Ob die NN-Redaktion so etwas liest, nachdem der Autor zu dem Typus „bekennender „Klimawandel-Leugner“, dem laut Redaktion ja „nicht zu helfen ist“ gehört, sei dahingestellt. Aber man muss den Nachkommen zeigen, dass es damals auch Bürger gab, denen das Gehirn trotz aller Bemühungen und Drohungen nicht vollkommen GRÜN-Links ausgepustet werden konnte.

Kritik

Es lässt sich anhand der weltweiten Pegelmessungen recht leicht zeigen, dass der Meerespegel überhaupt nicht übernatürlich steigt, wie auch noch kein Atoll wegen dem Klima untergegangen ist, oder auch nur daran denkt, unterzugehen. Selbst eine entsprechende Aussage eines Klimawandel-bedingten Inseluntergangs in einem „Klimafachbuch“ von Herrn Schellnhuber lässt sich als (bisher nicht korrigierte) Falschaussage recherchieren (was der Autor gemacht hat).

Wenn Herr Habeck – laut Redaktion eine der intellektuellsten Personen der Ampel, weil er so gut Märchen erzählen kann – nun sagt (Berliner Morgenpost, 17.09.2024):
Drittens sollten wir uns klar sein, was die Ursache ist: Immer häufigere Hochwasser, Katastrophen wie im Ahrtal, dieses Jahr in Bayern – sie sind eine Folge der Klimakrise. Daher sind unsere Anstrengungen so wichtig, die Klimakrise einzudämmen – der schnellere Ausbau der Erneuerbaren, die Wärmewende, eine klimafreundliche Produktion in der Industrie

Dann sagt er ganz einfach nicht die Wahrheit, neben dem, dass er dazu nichts als den üblichen Unsinn wiederkäut.

Die von Habeck als Klimamenetekel angesprochene Ahrtalflut war, wie es die historische Fluthistorie und die Daten der dazu vom DWD verfassten Attributionsstudie eindeutig belegen, eben nicht ein Ereignis des Klimawandels, sondern eine Offenbarung allerschlimmsten und langen Behördenversagens.

Doch obwohl nun drei vergleichbare Fluten in den letzten 200 Jahren auftraten, wird in einer Atttributionsstudie dank ganz genau rechnender Computer eine mittlere Wiederholwahrscheinlichkeit von 15.000 Jahren errechnet:
[7] The best estimate of the return period of this event is so large, i.e. in the order of 1 in 15000 y – much larger than the length of the time series – that we cannot give a precise value.
Andere Studien kommen auf 500 Jahre. Soweit zur statistischen (Un-)Genauigkeit für solche Ereignisse.

Die Rekonstruktion der Abflussmenge ist eine moderne „Kriminalgeschichte“. Die Messstation wurde 2021 (im Behördenchaos unbemerkt) von der Flut weggerissen, so dass die Abflussmenge rekonstruiert werden muss. Zudem ist nicht eindeutig, welche Angaben Peak- und welche Tagesmittelwerte sind. So ergeben sich eklatant unterschiedliche Flutmengenangaben:

Bild 1 Fluss Ahr im Ahrtal. Abflussmengen seit 1800. Grafik vom Autor zusammengestellt

Und so kommt beispielsweise ein Dr. Thomas Roggenkamp Geographisches Institut Universität Bonn zu dem Schluss:

[9] … Rekonstruktion Historischer Hochwasser zeigt, dass 2021 kein einmaliges Ereignis war.

„Merkel“ hat damals bei einer Besichtigung vor Ort jedoch entschieden, dass es anders sein muss. Seitdem gilt deren Bewertung als unbezweifelbare Aussage.

Zu den jüngsten Fluten von Tschechien bis Niederösterreich

Diese sind (für die Betroffenen) schlimm. Aber sie sind kein Beleg des ominösen Klimawandels. Denn, als es kälter war, gab es sie ebenfalls und oft schlimmer.

Anbei die höchsten Flutpegel der Elbe bei Dresden von 1501 bis einschließlich dem vom 18.09.2024, der den Niederschlag des aktuell schlimm betroffenen Tschechien mit repräsentiert. Wer daran einen schlimmen Einfluss des sich stetig wandelnden Klimas sehen kann, glaubt auch, dass ein Habeck etwas anderes als Märchen erzählen kann (um nicht immer den Zitronenfalter negativ zu zitieren).

Bild 2 Flutpegelverlauf der Elbe bei Dresden von 1501 bis zum 18.09.2024. Grafik vom Autor erstellt

Im ebenfalls schlimm betroffenen Prag (RHEINISCHE POST):

Bild 3

erreicht der Moldaupegel gerade einmal die Meldestufe 2 (Grün, unter 245 cm), während frühere Pegel und die höchste Meldestufe bei 601 cm beginnen.

Bild 4 Pegeldiagramm der Moldau bei Prag beim jüngsten Flutereignis

Das als „Jahrhundertflut“ zu bezeichnen, wie es die RHEINISCHE POST macht, gelingt nur durch bewusstes Weglassen aller historischen Daten:
Die Prager Altstadt wurde seit ihrer Gründung im 14. Jahrhundert des öfteren einer Überflutungsgefahr ausgesetzt. 1342 riss der Fluss die Judith-Brücke hinweg, die an der Stelle der heutigen Karlsbrücke stand. 1496 und 1784 beschädigte das Hochwasser wiederholt u.a. auch die Karlsbrücke. 1845 vernichtete die Moldau Mittelböhmen und Prag – der wilde Fluss erreichte damals unter der Karlsbrücke die Breite von einem Kilometer. Große Flutwellen haben Prag auch 1862 und 1872 heimgesucht.

Die bisher letzte Jahrhundertflut brach im Jahre 1890 nach Prag ein und forderte einige Dutzend Menschenleben. Es stürzten damals sieben Pfeiler der Karlsbrücke ein und das Wasser reichte bis auf den Altstädter Ring.

Die üblichen Fachpersonen, unter anderem unser Minister für Gesundheit, der nicht einmal Temperaturangaben richtig interpretieren kann, sind sich allerdings einig:

Bild 5

Die Schnellanalyse von Climameter

Natürlich gibt es auch Wissenschaftler (die sich durch Liefern „gewünschter“ Studienergebnisse finanzieren).

Und da solche inzwischen immer schneller arbeiten – also simulieren können -, erschien schon am 16.09. von solchen eine „Schnellanalyse“ (am 19.9. modifiziert) zu den aktuellen Flutereignissen mit der unvermeidbaren Aussage:
(dpa, 16.09.2024): Einer Schnellanalyse zufolge hatte der Klimawandel wahrscheinlich großen Anteil an der aktuellen Starkregenepisode in Mitteleuropa. Die natürliche Klimavariabilität allein könne die Intensität des beobachteten Ereignisses nicht erklären, teilte das Forschungskonsortium Climameter mit.

Weil es so schnell gehen musste, ist die Aussage verständlicherweise recht ungenau:
(Schnellanalyse): „Die Unsicherheit sei bei dieser Schlussfolgerung allerdings recht groß, da es sich um ein ungewöhnliches Ereignis handele

Und wohl mangels Zeit konnten auch nur zwei 20jahres-Zeiträume verglichen werden:
(Schnellanalyse): „ nutzt Daten zu ähnlichen Tiefdrucksystemen von Gegenwart (2001-2023) und Vergangenheit (1979-2001) in der Region ...“
Obwohl bei Extremniederschlag selbst 100jahreszeiträume nicht für Trendaussagen ausreichen.

Bild 6 Tagesniederschlag der Messstation Magdeburg seit 1881. Grafik vom Autor erstellt

Bild 7 Verlauf der Main-Flutpegel bei Würzburg. Grafik vom Autor erstellt

Sieht man in die Studie [3], kommt man ins Grübeln.
Einmal werden wieder nur kurze Zeiträume – hier 1979 – 2001/2001 -2023 – verglichen, was bei Distributionsstudien aber üblich ist.
Die einzige dem Autor dazu einfallende Erklärung bleibt und ist die, dass beim Erweitern der Zeiträume das gewünschte Ergebnis nicht erzielt werden kann.

Aber das Besondere in der Studie ist, dass es im beobachteten Großraum der Studie in den Vergleichszeiträumen gar nicht wärmer wurde, wie es Grafiken in der Studie zeigen:

Bild 8 Studie [3] Temperaturveränderungen im Beobachtungszeitraum

Alleine das konterkariert die „Aussage“ der Studie, das zunehmende Wärme – also fortschreitender Klimawandel – alleinige Hauptursache sein kann.

Etwas komisch ist die folgende Darstellung daraus. Derzeit haben wir noch September, sodass der Oktober noch gar nicht wirklich bewertet werden kann.

Und für den September zeigt die Grafik, dass das aktuelle Septemberereignis nicht zu den Schlimmsten gehört. Die Zyklik zeigt eindeutig, dass es sich um nichts wirklich Besonderes handelt, sondern sich gut in die (kurze) Historie einordnet. Mit unerschütterlicher Sturheit wird im Bild „x)“ eine Regressionsgerade zugefügt, obwohl sofort erkennbar ist, dass eine solche bei der offensichtlichen Periodizität unmöglich repräsentativ sein kann:

Bild 9 Studie [3] Ereigniszuordnungen

Zur genaueren Analyse benötigt man allerdings die Scatterdiagramme, welche den Zusammenhang zwischen Extremniederschlag und Temperatur zeigen. Normalerweise sind diese in Attributionsstudien enthalten.

Um für diese Publikation sorgfältiger analysieren zu können, hat der Autor bei ClimaMeter zu diesen fehlenden Diagrammen nachgefragt.
Antwort: solche gibt es nicht, das was in der Studie steht, sei alles an Daten!
Soviel zur Qualität und verhinderter Nachvollziehbarkeit heutiger „Schnellstudien“.

Für Klimahysterie-Gläubige ist das wohl ausreichend. Für den Autor als „Klimaleugner“, ein (weiterer) Beleg, dass eine sorgfältig durchgeführte Analyse wohl ein anderes Ergebnis gebracht hätte, wie es eine andere Studie parallel auch ermittelte [6].

In die Klimavergangenheit darf nicht mehr geschaut werden, weil dann eventuell das gängige Klimahysterie-Narrativ zusammenbricht

Der Autor ist nach wie vor der Überzeugung, dass die (angeblich), ausschließlich nur schlimmen Auswirkungen des ominösen Klimawandels nur im historischen Kontext (Bilder 2; 6; 7 und die Bilder zu Fluthistorien) richtig bewertet werden können.
Das führt gegenüber der „erlaubten“, alleine auf (ungenauen, extrem voneinander abweichenden) Klimasimulationen basierenden Klimazukunft natürlich zu erheblich abweichenden Aussagen.

Wie zu erwarten war, fiel dies auch der (Pseudo-)Klimaforschung auf und so errichtete sie dagegen eine „Begründungsmauer“:
[4] Correctiv, 09. Februar 2024: Faktencheck Hochwasser: Warum diese historischen Pegelstände nicht den Klimawandel widerlegen

Darin wird behauptet, dass historische Pegel nicht als Belege dienen können, sondern nur die modernen Klimasimulationen.
Unsere Öffentlichen übernahmen freudig diese Begründung und verkündeten sie so den Bürgern:
[5] Tagesschau, 03.06.2024, von Julia Kuttner, ARD-Faktenfinder: Kontext Hochwasser und Klimawandel Mehr Wärme, mehr Wolken, mehr Regen
… Schon immer gab es extreme Hochwasserereignisse. Klimaskeptiker argumentieren deshalb, dass der Klimawandel nicht die Ursache sein kann. Doch das ist ein logischer Fehlschluss, sagen Experten.
… „Jedes Hochwasser wird für die Klimalüge instrumentalisiert“, „jämmerliche Lüge – es gab schon immer Hochwasser“, „früher waren die Pegelstände an Saar, Rhein, Mosel, Neckar höher“. So und ähnlich kommentieren derzeit Klimaskeptiker in den sozialen Netzwerken

… Doch das ist ein logischer Fehlschluss, wissen Experten. „Es dürfen nicht einzelne Ereignisse betrachtet werden, sondern deren zunehmende oder abnehmende Häufigkeit. Ähnlich wie eine sehr alte, ungesund lebende Person und eine früh verstorbene, gesund lebende Person kein Beweis dafür sind, dass ein ungesunder Lebensstil die Lebensdauer nicht verringert, muss auch hier die Statistik betrachtet werden“, erläutert Professor Ralf Merz vom Helmholtz-Zentrum für Umweltforschung aus Halle (Saale) gegenüber dem ARD-Faktenfinder.
Natürlich habe es auch in früheren Zeiten immer wieder extreme Hochwasserereignisse wie das Magdalenenhochwasser von 1342 gegeben. „Was die Klimamodelle jedoch vorhersagen und was wir auch im Trend der letzten Jahrzehnte sehen, ist, dass die Auftretenswahrscheinlichkeit von Hochwasserereignissen zunehmen wird beziehungsweise bereits zugenommen hat“, so Merz.
… Die Überschwemmungen hätten ein Ausmaß erreicht, auf das „wir uns gar nicht vorbereiten können“. Das einzige, was man machen könne, um dem wirklich sinnvoll vorzubeugen, sei, extrem schnell Treibhausgasemissionen zu reduzieren und darauf zu drängen, dass die globale Temperatur nicht noch weiter steige. Ereignisse wie das Hochwasser seien keine Wetterkapriolen: „Es ist menschengemachter Klimawandel und den können wir nur mit der Reduktion von Treibhausgasen eindämmen.“

Kritik an dieser Kritik

Die Aussage: „ … was wir auch im Trend der letzten Jahrzehnte sehen, ist, dass die Auftretenswahrscheinlichkeit von Hochwasserereignissen zunehmen wird beziehungsweise bereits zugenommen hat“ … “
muss man als bewusste Datenignoranz, Negierung jeglichen Verständnisses für akkurate Methodik und damit als „nicht die wirkliche Wahrheit“ betrachten. Denn selbst rudimentäre Sichtungen von Fluthistorien belegen gerade auch über die jüngere Historie sofort das Gegenteil und lassen erkennen, wie Gefährlich solche Rückschauen für das aktuelle Narrativ sind.

Alleine das Bild des historischen Verlaufs der Mainfluten bei Würzburg zeigt das offensichtliche Gegenteil einer Klimawandel-bedingten Zunahme von Extremfluten:

Bild 10 Verlauf der Main-Flutpegel bei Würzburg. Grafik vom Autor erstellt

Bild 11 Hochwasser der Pegnitz in Nürnberg 1300 – 2000. Anm.: 1950 war in Nürnberg der Flutüberleiter fertig. Seitdem gibt es rein technisch bedingt keine hohen Flutpegel mehr

Flutpegelbilder selbst sind teils noch anschaulicher und deshalb für die Bürger, welche solche „falsch“ interpretieren könnten „gefährlich“. Man stelle sich eine solche vorindustrielle Flut wie im folgenden Bild heutzutage vor. Die Klimakleber würden wie die Zeugen Jehovas es ab und zu machen, wohl auf einen Hügel steigen und dort das „hereinbrechende Klima-Armageddon“ abwarten:

Bild 12 Hochwassermarken in Marktbreit am Main, Ecke Marktstraße/Schustergasse. Vom Autor fotografiert und ergänzt

Bild 13 Hochwassermarken in Ochsenfurt am Main. Vom Autor fotografiert

Bild 14 Hochwassermarken an der historischen Neckarbrücke von Heidelberg

Bild 15 Hochwassermarken der Donau am Ludwigsplatz, Kehlheim

Wer zusammenfassend nachlesen möchte, wie hoch und wie oft Flusshochwasser früher – als es kälter war – gewütet haben, dem sei die (kostenlos) ladbare Schrift vom Bayerisches Landesamt für Umwelt „Leben mit dem Fluss Hochwasser im Spiegel der Zeit“ empfohlen.
Gerade vor dem Beginn des ominösen Klimawandels war es geradezu entsetzlich: „Zwischen 1831 und 1850 gibt es kaum ein Jahr ohne Hochwassermeldung.“
Anbei historische Verläufe von maximalen Jahresabflusspegeln:

Bild 16 Donaupegel bei Passau. Höchstabflüsse seit 1861

Bild 17 Pegel Würzburg. Höchstabflüsse seit 1826

Völlig klar, dass man solche Vergleiche dem heutigen Bürger nicht mehr „erlauben“ darf, weil es zu massivem Zweifel Anlass gäbe.

Fazit

Weiterhin ist der Autor der festen Überzeugung, dass das was die Tagesschau fordert:
[5] Tagesschau, 03.06.2024: „ Die Überschwemmungen hätten ein Ausmaß erreicht, auf das „wir uns gar nicht vorbereiten können“. Das einzige, was man machen könne, um dem wirklich sinnvoll vorzubeugen, sei, extrem schnell Treibhausgasemissionen zu reduzieren und darauf zu drängen, dass die globale Temperatur nicht noch weiter steige. Ereignisse wie das Hochwasser seien keine Wetterkapriolen: „Es ist menschengemachter Klimawandel und den können wir nur mit der Reduktion von Treibhausgasen eindämmen.“
Der größte Wissenschaftsbetrug Schwachsinn der jüngeren Geschichte ist und bleibt und bezüglich Unsinn und Kosten noch weit vor der ja vom Ausland offiziell so deklarierten Energiewende rangiert.
Was wirklich helfen würde, sind Maßnahmen vor Ort, um die Auswirkungen der unvermeidbaren Extremniederschläge einzudämmen, wie es sich im Ahrtal so langsam als Erkenntnis durchsetzt.
Wenn man schon wieder lesen muss, wie viele Staumauern überlaufen und brechen und Deiche einstürzen, weiß man um die wesentlichen Schadensverursacher, nämlich die mangels Geldmittel (und politischen Willen) zunehmend maroder werdender Infrastruktur.

So lange Maßnahmen – wenn sie von „hinter einer Brandmauer“ oder etwas Ähnlichem – in Dresden waren es die Freien Wähler – bewusst niedergebügelt werden (ein Antrag zum Prüfen der bekannt maroden und dann auch eingestürzten Brücke auf Standfestigkeit) wird sich daran aber nichts ändern. Zudem verdienen mit dem CO₂-Handel inzwischen zu viele eine risikolose, „goldene Nase“(begonnen mit Al Gore). Auch die EU will ihre Bürokratie damit finanzieren, um kritikunabhängiger zu werden, ein weiterer Grund, warum das CO₂-Narrativ und dessen zunehmend steigende Bepreisung nie mehr rückgängig gemacht werden wird.

Nur manchmal gibt es kleine Lichtblicke, wie von einem Behördenleiter zu Sturmfluten:
Amt: Sturmfluten wegen Klimawandel regional nicht häufiger (msn.com)
Im gerade beginnenden Extremwetterkongress in Hamburg wird nämlich wie üblich von den üblichen dazu als Redner eingeladenen Klimahysterie-Protagonisten wieder das Gegenteil vorhergesagt.
Solche Aussagen sind aber selten. Denn ein Beamter riskiert dadurch seinen Job, vielleicht sogar seine Pension.

Anstelle solcher wirklichen Sachkenner finden sich an verantwortlichen, politischen Positionen zunehmend wirklich Nichtfachpersonen:
RP Online, 18.09.2024: Jedes Jahr eine Jahrhundertflut

Darin darf der sozialdemokratische Europaabgeordnete Tiemo Wölken beklagen, „dass am rechten Rand lieber auf göttlichen Beistand gehört als dafür gesorgt werde, die Klimakrise zu beenden. Was die EU auf diesem Gebiet tue, sei noch längst nicht genug: „Sonst werden diese Fluten nicht alle hundert Jahre, nicht alle zehn Jahre, sondern jedes Jahr auftreten“, sagt der SPD-Klimaexperte voraus.“ Und die „amtliche“ Migrantenschlepperin und nun Europaabgeordnete Rackete von den Linken kommt auch zu Wort um: „die „Verbrechen der fossilen Industrie an der Gesellschaft“ zu beklagen und deren Schließung „so schnell wie möglich“ zu verlangen.

Unsere Ursula von den Laien macht es ganz vorbildlich und schaut sich auf Einladung (dann kostet es nichts) fotogene Fluten vor Ort an. Bestimmt hält sie dann noch herrlich frisch „föhnfrisiert“ eine emotional erschütternde Rede, bevor sie sich weiter um ihre Karriere kümmert.

Nur wirkliche und unglaublich effektive Lösungen werden alleine dadurch nicht angestoßen:
Sächsische Zeitung, 18.09.2024: Hochwasser in Tschechien: Die Schäden hätten geringer ausfallen können
… Für Mährisch-Schlesien kam es beim tschechischen Hochwasser am Wochenende ganz dick. Die Opava (Oppa), wichtiger Nebenfluss der Oder, schwoll durch anhaltenden Starkregen dramatisch an und sorgte unter anderem in den Städten Krnov (Jägerndorf) und Opava (Troppau) für extreme Hochwasserstände. 80 Prozent von Krnov standen unter Wasse ….

Landwirtschaftsmister Marek Výborný ereiferte sich nach einer Sitzung der Zentralen Hochwasserkommission: Würde es den lange geplanten Staudamm in Nové Heřminovy an der Opava geben, sähe alles anders aus. „Beide Städte wären jetzt mit einem Fünfjahres-Hochwasser davongekommen und erlebten kein Jahrhundert-Hochwasser.“

Unwirksame und extrem teure CO₂-Vermeidung ist da viel einfacher. Mann muss sich mit Niemandem vor Ort anlegen und den (Misserfolg) bewertet wird frühestens – wenn überhaupt – um 2100.

Quellen

[1] ZDF heute, 17.09.2024: Klimawandel in Deutschland: Hochwasser: Hunderttausende künftig gefährdet
[2] Comdirect, 16.09.2024: Schnellanalyse: Starkregen größtenteils durch Klimawandel
[3] ClimaMeter, Updated 2024/09/17: Heavy Precipitations in Storm Boris exacerbated by both human-driven climate change and natural variability
[4] Correctiv, 09. Februar 2024: Faktencheck Hochwasser: Warum diese historischen Pegelstände nicht den Klimawandel widerlegen
[5] Tagesschau, 03.06.2024: Kontext Hochwasser und Klimawandel Mehr Wärme, mehr Wolken, mehr Regen
[6] SciFi, 17. Sept. 2017: Wieder kein menschengemachter Klimawandel: Historische Kältewelle und viel Feuchtigkeit hat Hochwasser im Schlepptau
[7] world weather attribution: Rapid attribution of heavy rainfall events leading to the severe flooding in Western Europe during July 2021
[8] KIT CEDIM Forensic Disaster Analysis (FDA) Group: Hochwasser Mitteleuropa, Juli 2021 (Deutschland) 21. Juli 2021 – Bericht Nr. 1 „Nordrhein-Westfalen & Rheinland-Pfalz”
[9] Dr. Thomas Roggenkamp Geographisches Institut Universität Bonn: Hochwasser im Ahrtal- Historische Betrachtung und die Flut 2021




Teil 5: Die Bestimmung des globalen Meeresspiegels GMSL (Global Mean Sea Level)

Diese Hinweise von Jevereva et al, wie von einigen anderen, plus die neueren Erkenntnisse von W. Eisenkopf zur „Genauigkeit“ (in Teil 1 hier) von Satellitenmessungen, lassen nur den Schluss zu, dass ausschließlich die Daten, die durch Pegelmessungen vor Ort, über lange Zeiträume von > 50 Jahren durchgeführt, und auch nur die in jüngerer Zeit, wo bspw. die barometrische Kompensation durchgeführt wurde, sich überhaupt eigenen, relative Meeresspiegel (RSL) Messung zu gewinnen, diese zu vergleichen und daraus dann irgendwelche Schlüsse zu ziehen. Sie lassen aber vor allem den Schluss zu, dass der globale Meeresspiegel (GMSL), so wie er sich in den Köpfen von manchen Wissenschaftlern manifestiert hat, nicht existiert. Es gibt ihn nicht, so sehr viele daran festhalten. Was es gibt, sind die lokale RSL Messungen, darunter die, welche – über genügende lange Zeiträume > 50 Jahren erstellt- zulassen, dass daraus bestimmte Schlüsse gezogen werden können. Eine von der mittleren Welttemperatur abhängige Zunahme ist nicht darunter, vielleicht auch deshalb, weil sie in ihrer Wirkung dermaßen gering ist, dass sie im Bereich des Rauschens verschwindet, doch vielleicht auch nicht mal das.

von Michael Limburg

4.9. Schlussfolgerungen zu Arbeitsthese 2-1 und 2-2

4.9.1. Schlussfolgerungen in Bezug auf Arbeitsthese 2-1

  1. Wie gezeigt, ist die Ermittlung des GMSL eine schwierige Angelegenheit. Noch schwieriger ist die definitive Bestimmung des Anstiegs (oder Abfalls) über der Zeit. Viele Autoren kommen auf Basis derselben Datensätze zu völlig verschiedenen Ergebnissen. Deswegen verwundert es nicht, dass führende Spezialisten auf diesem Gebiet wie z.B. Douglas [Douglas, 1994] ausführlich schildert, z.B. Barnett (1984), Emery and Aubry (1991) Pirazzoli (1993) zu der Überzeugung gekommen sind, dass „the determination of a single sea-level curve of global applicability is an illusory task.‘‚ sei. Douglas selbst schließt sich zwar nur bedingt dieser pessimistischen Ansicht an, und hofft auf bessere Forschungsmittel in den kommenden Jahren, die sichere und bessere Ergebnisse bringen würden. Mit den Möglichkeiten der Satellitenaltimetrie sind diese nun vorhanden. Trotzdem zeigt sich, dass nun erst Recht kontroverse Ergebnisse erzielt und keineswegs nur sichere Erkenntnisse gewonnen werden. Mit der Kenntnis der genauen Geoid-Form der Erde, den daraus erkennbaren Bergen und Tälern der Meere, selbst auf offener See, wo in nicht so ferner Nachbarschaft viele Meter Höhenunterschied auf der Meeresoberfläche gemessen werden, kommen neue bisher unbekannte Einflussgrößen hinzu. Diese Erkenntnisse fassen Cazenave et al. [Cazenave, 2004]in die Worte: „…for the past 50 years, sea- level trends caused by change in ocean heat storage also show high regional variability,” ….“..has led to questions about whether the rate of 20th-century sea-level rise, based on poorly distributed historical tide gauges, is really representative of the true global mean.[1]Und konsequent führen sie etwas später aus, dass unabhängig von den vielen neuen Instrumenten und Techniken, die jetzt eingesetzt werden können, um das gesuchte Signal der globalen Erwärmung im im GMSL zu finden: “these tools seem to have raised more questions than they have answered.

Ein Bild, das Diagramm, Reihe enthält. Automatisch generierte Beschreibung

Abbildung 61: kumulierter Anstieg des GMSL von 1904 bis 2003 abgeleitet von Holgate unter Verwendung von 9 ausgesuchten „High-Quality“ Pegelmessstationen. Die eingezeichnete Trendlinie (Quelle NIPCC „Climate Change Reconsidered 2009 p. 187 ) ergibt sich aus der Berechnung Holgates im Text. “Sea level rise was larger in the early part of the last century (2.03 ± 0.35 mm/year 1904-1953), in comparison with the latter part (1.45 ± 0.34 mm/year 19542003).” Dies deckt sich mit den Erkenntnissen von Jevreva et. al. Jedoch nicht mit denen von Rahmstorf, Church und anderen.

Die Abbildung 61 kann nicht den Anspruch erheben, die letzte Wahrheit über den bisherigen Anstieg des GMSL zu zeigen, sie kommt aber, bei Berücksichtigung aller aufgezählten Einflussgrößen, der Wahrheit vielleicht am nächsten. Aus ihr wird deutlich, dass, wie v. Storch et al. [Storch, 2008] für die vergangenen 1000 Jahre nachwies, auch im letzten Jahrhundert, die vom IPCC und anderen postulierte enge Korrelation mit den errechneten Mittelwerten der Globaltemperatur nicht vorhanden war. Man kann sogar erkennen, dass sich der Trend in der letzten Dekade wieder absenkt. Dies steht in deutlichem Widerspruch zu den Berechnungen von z.B. Rahmstorf u.a.

  1. Es konnte gezeigt werden, dass Messungen mit einer Fehlergrenze von wenigen Zehntel Millimetern pro Jahr sowohl für den RSL als auch den GMSL (bis auf allerjüngste Messverfahren) nicht möglich sind. Die allgemein verwendete Darstellung dieser Maßeinheit täuscht daher, den u.a. vom IPCC und vielen Experten öffentlich informierten Medien und Laien eine Genauigkeit vor, die nicht zu erreichen ist. Auch wenn diese Zahlen lediglich durch Mittelwertbestimmungen erreicht werden, lässt sich der Pegel selbst nur auf 1 Zentimeter, häufiger auch nur mehrere Zentimeter genau angeben. Oft nicht mal das. Munk [Munk, 2003] bestätigt dies, wenn er schreibt dazu „the jury is still out on the interpretation of the tide gauge records,“
  2. Fest steht wohl nur, dass das statistische Konstrukt GMSL innerhalb der letzen 120 Jahre um 1 bis 2 mm/Jahr , präziser zwischen 10 und 20 cm/Jahrhundert, gestiegen ist. Während Mörner ihn mehr bei 10 cm/Jahrhundert sieht, geht das IPCC eher von 19 cm/Jahrhundert aus. Eine Zunahme des Trends in den letzten 20 Jahren sieht das IPCC. Andere, wie oben berichtet, schließen das explizit aus.

Am deutlichsten zeigt die unbefriedigend, diffuse Erkenntnislage wohl die folgende Grafik.

 

Ein Bild, das Text, Entwurf, Diagramm, Reihe enthält. Automatisch generierte Beschreibung Abbildung 62: Vergleich der Veränderungen des GMSL nach Mörner [Mörner, 2004]. Sie zeigt die verschiedenen Schätzungen der vergangenen und erwarteten zukünftigen Entwicklungen nach Mörner, IPCC TAR und INQA. Deutlich erkennbar der große Unterschied, besonders der zukünftigen Entwicklung, zwischen IPCC einerseits und Mörner/INQA andrerseits.

  1. Viele systematische Fehler, wie der Einfluss des barometrischen Druckes, der Dichte der Wassersäule, die Genauigkeit der Bestimmung der Bezugspunkte der Pegelmessung, des Einflusses unterschiedlich langer, ggf. kontaminierter, Messreihen wurden in den Berechnungen des GMSL gelegentlich zwar untersucht, deren Quantifizierung und evtl. Korrektur aber nicht zufrieden stellend gelöst. Da diese Fehler, sowohl systematischer Art und überwiegend schleichend und in Größenordnungen des gesuchten Anstieges auftreten, können sie nicht ausgemittelt werden. Glaubhafte Angaben über die erreichbare Genauigkeit sind daher die Ausnahme. Z.B. bei Mörner + 10± 10 cm bis 2100 (bzw. + 5 ± 15 cm) [Mörner, 2004]
  2. Der Versuch des IPCC den gesamten Anstieg des GMSL, durch eine Auflösung in seine Komponenten und deren Addition zu beschreiben, muss, bei aller Vorsicht, als gescheitert angesehen werden. Siehe dazu auch das oben erwähnte Zitat von Cazenave et.al [Cazenave, 2004]. “…for the past 50 years, sea- level trends caused by change in ocean heat storage also show high regional variability,” ….“..has led to questions about whether the rate of 20th-century sea-level rise, based on poorly distributed historical tide gauges, is really representative of the true global mean. Die Schätzungen für die eustatischen und sterischen Komponenten sind mit den Beobachtungsdaten nicht in Übereinstimmung zu bringen. Auch für die Vergangenheit ist dies nicht zu erkennen, wie von Storch et. al [Storch, 2008] nachwiesen.
  3. Prognosen über die zukünftige Entwicklung des GMSL sind auf Grund des geringen Verständnisses der beteiligen Prozesse, sowie der dürftigen Datenlage, reine Spekulationen. Nichts macht dies deutlicher als die große Bandbreite der Schätzungen seitens des IPCC, beteiligter Lead-Autoren mit divergierenden Ansichten (z.B. Rahmstorf) und anderen Fachleuten Jevrejeva, Mörner oder Singer. Siehe dazu Abbildung 62. Während Rahmstorf [Rahmstorf, 2007a] mit einem „semi-empirical Approach“ bis zum Ende des Jahrhunderts max 140 cm für möglich hält, Hansen sogar bis 600 cm, schätzt das IPCC zwischen 14 bis 59 cm (final), Singer nur 18-20 cm, und Mörner gar nur [Mörner, 2004] 10 cm.

Die Arbeitsthese 2-1 wurde damit bestätigt.

4.10. Der aktuelle Stand in Bezug auf Arbeitsthese 2-2

Die Arbeitsthese 2-2 lautet: Die in den letzten Jahrhunderten beobachteten Veränderungen des Meeresspiegels haben weniger mit der Änderung der Globaltemperatur, als mit tektonischen Verschiebungen und ggf. anderen Einflussgrößen zu tun. Beispiele: Mikronesien, ggf. andere.

4.10.1. Schlussfolgerung zu Arbeitsthese 2-2 am Beispiel der Schätzungen des IPCC

Zum besseren Verständnis der vom IPCC postulierten Einflussgrößen sei nochmals die Tabelle 1 gezeigt.

Ein Bild, das Text, Screenshot, Schrift, Zahl enthält. Automatisch generierte Beschreibung

Tabelle 14: Übersicht der verschiedenen Komponenten des „beobachteten“[2] globalen Meeresspiegelanstiegs ausgelöst durch die „Globale Erwärmung“.

  1. Wie zuvor mehrfach gezeigt, ist es trotz erheblicher Anstrengungen nicht gelungen, die gewünschte Bestimmung der oben erwähnten Komponenten mit der angegebenen Genauigkeit durchzuführen. Zudem gibt es viele Veröffentlichungen, tlw. wurden sie zitiert, die keinerlei erkennbare Korrelation zwischen berechneter Erwärmung und dem Verlauf des ebenfalls errechneten GMSL zeigen. Rahmstorf und einige IPCC Autoren glauben zwar diese Korrelation gefunden zu haben, andere widersprechen vehement. Nicht umsonst drückt sich das, sonst eine klare Sprache bevorzugende, IPCC in dieser Hinsicht ungewöhnlich zurückhaltend aus: (AR4 der WG I Observations: Oceanic Climate Change and Sea Level auf S. 410 Chapter 5.5.2.) ….. there is an increasing opinion that the best estimate lies closer to 2 mm yr–1 than to 1 mm yr–1. Eine Meinung kann jedoch Fakten nicht ersetzen.
  2. Durch die Bewegung der einzelnen tektonischen Platten, mit Geschwindigkeiten in der Größenordnung von > 15 cm/Jahr, deren Vertikalkomponenten, sich entscheidend auf das Volumen der darüber befindlichen Ozeane auswirken können, ist mit Sicherheit eine ganz wesentliche Ursache für die beobachteten Veränderungen der RSL und damit GMSL gegeben. Diese Änderungen jedoch quantitativ zu erfassen und zuzuordnen ist bis heute leider nicht möglich gewesen. Weiterer Untersuchungsbedarf ist daher gegeben.

Die überwiegende Menge der Pegelmessstationen zeigt kleinere oder größere Anstiege im Bereich von mm/Jahr, von Stockholm und einigen wenigen anderen Orten im pazifischen Raum, einmal abgesehen. Für alle diese Orte lassen sich – wie oben ausführlich beschrieben- Erklärungen finden, denen entweder natürliche Veränderungen zugrunde liegen (GIA/PGR oder andere tektonische Verschiebungen) oder, ähnlich dem UHI bei der Temperatur, von Menschen verursacht wurden und damit sozio-ökonomische Ursachen haben. Eines Treibhauseffektes bedarf es dafür nicht.

Ergänzung: Diese Hinweise von Jevereva et al, wie von einigen anderen, plus die neueren Erkenntnisse von W. Eisenkopf zur „Genauigkeit“ (in Teil 1 hier) von Satellitenmessungen, lassen nur den Schluss zu, dass ausschließlich die Daten, die durch Pegelmessungen vor Ort, über lange Zeiträume von > 50 Jahren durchgeführt, und auch nur die in jüngerer Zeit, wo bspw. die barometrische Kompensation durchgeführt wurde, sich überhaupt eigenen, relative Meeresspiegel (RSL) Messung zu gewinnen, diese zu vergleichen und daraus dann irgendwelche Schlüsse zu ziehen. Sie lassen aber vor allem den Schluss zu, dass der globale Meeresspiegel (GMSL), so wie er sich in den Köpfen von manchen Wissenschaftlern manifestiert hat, nicht existiert. Es gibt ihn nicht, so sehr viele daran festhalten. Was es gibt, sind die lokale RSL Messungen, darunter die welche – über genügende lange Zeiträume > 50 Jahren erstellt- zulassen, dass daraus bestimmte Schlüsse gezogen werden können. Eine von der mittleren Welttemperatur abhängige Zunahme ist nicht darunter, vielleicht auch deshalb, weil sie in ihrer Wirkung dermaßen gering ist, dass sie im Bereich des Rauschens verschwindet, doch vielleicht auch nicht mal das.

Damit ist auch die Arbeitsthese 2-2 bestätigt.

Dieses ist ein Teil der Dissertation vom Autor, welche die Universität – nach Gerichtsentscheidung vom September 2011 als nicht eingereicht betrachtet hatte. Teil 4 sehen Sie hier

 

 

 

 

 

 

 

 

  1. Hervorhebungen vom Autor
  2. Das Wort „beobachtet“ ist in Paranthese gesetzt, weil wie später gezeigt wird, diese Werte durchgängig nicht beobachtet wurden, sondern mithilfe von Modellen errechnet wurden.

 




Republikanische Abgeordnete fordern Offenlegung der wahren Kosten der Klimapolitik

Nick Pope, Mitwirkender, 13. September 2024

Der republikanische Abgeordnete des US-Bundesstaates Virginia, Bob Good, forderte das Congressional Budget Office (CBO) am Freitag auf, Informationen über die tatsächlichen Kosten einiger der aggressivsten Klimapolitiken der Biden-Harris-Regierung offen zu legen.

Good schrieb an den Direktor des CBO, Phillip Swagel, und forderte sein Büro auf, die fiskalischen Auswirkungen von fünf Maßnahmen der Bundesregierung zu untersuchen, darunter die wichtigen Vorschriften der Environmental Protection Agency (EPA) zu Kraftwerken und Abgasemissionen von Schwerlastfahrzeugen. In seinem Brief erklärte Good, dass die „beispiellose Übergriffigkeit“ der Regierung bei der Gesetzgebung im Umweltbereich die Verbraucher, Unternehmen, die nationale Sicherheit und die Wirtschaft im Großen und Ganzen geschädigt habe, und dass Informationen über die Auswirkungen dieser Maßnahmen den Gesetzgebern dabei helfen könnten, sicherzustellen, dass die Bundespolitik die Belastung der Steuerzahler verringert.

(VERWANDTE THEMEN: EPA-Chef sagt: „Wir haben keine Vorschrift für Elektrofahrzeuge“, Monate nachdem er Vorschriften verabschiedet hat, die mehr Elektrofahrzeuge vorschreiben)

Brief an das CBO zur Gesetzgebung im Energiebereich, hochgeladen von Nick Pope auf Scribd

„Die Auswirkungen der Energiepolitik von Biden und Harris waren für Verbraucher, Unternehmen, unsere Wirtschaft und sogar unsere nationale Sicherheit katastrophal. Tatsächlich sind die finanziellen Auswirkungen auf die Verbraucher offensichtlich: Fast 33 Prozent der Amerikaner gaben an, dass sie auf die Bezahlung von Arzt- oder Lebensmittelrechnungen verzichten müssen, um ihre Energierechnungen zu bezahlen. … Als Mitglieder des Kongresses ist es unser Ziel, sicherzustellen, dass die von der Bundesregierung verabschiedeten Maßnahmen dazu beitragen, die regulatorische und finanzielle Belastung der Steuerzahler zu verringern und die Einmischung des Staates in den privaten Sektor zu verringern. Wir befürchten, dass die beispiellosen Übergriffe der letzten vier Jahre anhalten und das amerikanische Volk weiterhin darunter leiden wird.“

Die Kraftwerksvorschriften der EPA werden wahrscheinlich die vorzeitige Stilllegung von Kohlekraftwerken erzwingen und Investitionen in neue Erdgaskraftwerke verhindern, was die Netzzuverlässigkeit auf lange Sicht gefährden könnte. Denn gleichzeitig verfolgt die Regierung eine Reihe von Maßnahmen, die den Strombedarf in die Höhe treiben werden, wie Stromnetzexperten der Daily Caller News Foundation zuvor erklärten. Die strengen Emissionsstandards der Behörde für schwere Nutzfahrzeuge wurden von Branchenvertretern unterdessen  als „völlig unerreichbar“ kritisiert, da sie praktisch die breite Einführung unerprobter Technologien vorschreiben und Risiken für die Lieferketten bergen.

Neben diesen beiden Regeln forderte Good das CBO auch auf, die Aktualisierung der nationalen Luftqualitätsstandards der EPA für Feinstaub zu analysieren. Hersteller und andere Kritiker warnten, dass diese die industrielle Aktivität im Wesentlichen einschränken und den Bundesstaaten die Möglichkeit nehmen könnten, ihre eigene Wirtschaft zu entwickeln. Good erkundigte sich auch nach den Reformen des Bureau of Land Management (BLM) im Öl- und Gaspachtprozess, die die Entwicklungskosten in die Höhe treiben. Ebenso fragte er nach der Regelung des Energieministeriums (DOE), die die Verwendung von Erdgas ab 2030 in neuen  Bundesgebäuden verbietet.

Good forderte das CBO auf, seine Finanzeinschätzungen zu den Policen bis spätestens 13. Oktober vorzulegen.

Alle von der Daily Caller News Foundation, einem unabhängigen und überparteilichen Nachrichtendienst, erstellten Inhalte stehen jedem seriösen Nachrichtenverlag, der ein großes Publikum erreichen kann, kostenlos zur Verfügung. Alle erneut veröffentlichten Artikel müssen unser Logo, den Namen unseres Reporters und seine DCNF-Zugehörigkeit enthalten. Bei Fragen zu unseren Richtlinien oder einer Partnerschaft mit uns wenden Sie sich bitte an  licensing@dailycallernewsfoundation.org .

https://dailycaller.com/2024/09/13/bob-good-cbo-biden-harris-climate-policy-costs/

Übersetzt durch Andreas Demmig




Generation IV: Neues Reaktordesign macht die stets zuverlässige Kernenergie sicherer als je zuvor

Alle Bilder von https://kairospower.com/media/

Stop These Things

Da Kernenergie rund um die Uhr zuverlässig Strom erzeugt, war sie schon immer sinnvoll – fragen Sie beispielsweise die Franzosen. Vergleicht man sie mit der chaotischen Inkonsistenz von Wind- und Solarenergie und deren Notwendigkeit massiver und endloser Subventionen, ist die Kernenergieerzeugung zweifellos die beste.

Wenn überhaupt, hat die Katastrophe, die sich an Orten abspielt, wo die zunehmende Wind- und Solarkapazität die Stromnetze zerstört und die Strompreise in die Höhe getrieben hat, den Energieexperten geholfen, das Argument für eine stets zuverlässige Atomkraft ohne große Anstrengung durchzusetzen.

Kernenergie ist nicht vom Wetter oder vom Stand der Sonne am Himmel abhängig und ist nicht auf Notstromaggregate und Batterien angewiesen [passive Kühlung bei Stromausfall. Notstrom nur für Infrastruktur und Schaltwarte – der Übersetzer]

Die Menge an Strom, die auf einer Fläche von der Größe eines Häuserblocks erzeugt wird, kann den Bedarf ganzer Länder decken, wohingegen Wind- und Solarenergie … na ja, den Rest kennen Sie ja.

Im folgenden Artikel liefert Leslie Eastman ein Update zur Entwicklung von Reaktoren der vierten Generation und zeigt, wie die Amerikaner versuchen, gegenüber den Chinesen aufzuholen, die ihnen in dieser Hinsicht weit voraus sind.

 

US-Atomaufsichtsbehörde genehmigt ersten Atomreaktor der Generation IV

Legal Insurrection, Leslie Eastman, 2. September 2024

Als wir das letzte Mal die Lage der Energiewirtschaft des Landes überprüften, verbot die Biden-Harris-Regierung die Bohrung nach Gas und Öl auf 28 Millionen Acres Alaskas (und hob damit die von Präsident Donald Trump unterzeichnete Anordnung auf) – [28 106 Acres ~ 113 Tkm² ~1/3 Deutschland].

Es gibt jedoch bessere Nachrichten aus dem Bereich der Kernenergie. Und das ist eine gute Nachricht, denn die Kernenergie ist der einzige Rivale fossiler Brennstoffe in puncto Effizienz und Kosteneffizienz und kann die gesamte Zivilisation mit Energie versorgen.

Die US-Atomaufsichtsbehörde hat den Bau des ersten Kernreaktors der vierten Generation im Land genehmigt.

Laut Interesting Engineering wird der neue Hermes-Reaktor der erste in den USA seit 50 Jahren sein, der nicht mit leichtem Wasser gekühlt wird. Stattdessen wird er ein System aus geschmolzenem Fluoridsalz verwenden, und ein TRISO-Brennstoff-Kugelhaufen-Design (Tri-Structural Isotropic Particle) wird den Generator antreiben.

Geschmolzene Fluoridsalze verfügen laut Bericht über „eine ausgezeichnete chemische Stabilität und eine enorme Wärmeübertragungskapazität“, was bedeutet, dass sie kühler bleiben und Wärme viel schneller ableiten als das leichte Wasser, das seit langem in amerikanischen Reaktoren verwendet wird.

Das Brennstoffbett besteht aus Hunderten millimetergroßer Uranpartikel, die in mehreren Schichten aus Spezialkeramik eingeschlossen sind, wodurch jedes einzelne Brennstoffstück über einen eigenen Behälter und Druckbehälter verfügt, so Ultra Safe Nuclear. Die Keramikummantelung ist stärker und widerstandsfähiger als die typische Zirkoniumlegierung, was bedeutet, dass sie höheren Temperaturen und Neutronenbeschuss über die Versagensgrenze anderer Brennstoffarten hinaus standhalten kann.

Hinzu kommt, dass jedes einzelne Brennstoffteilchen so klein ist, dass im Falle eines Ausfalls die daraus folgende Strahlungswelle deutlich abgeschwächt wäre – und dank des Kühlsystems wäre es weniger wahrscheinlich, dass weiterer Schaden entsteht.

Kernkraftwerke der vierten Generation nutzen ein System aus Brennstofffabriken und Wiederaufbereitungsanlagen, die gemeinsam einige der Mängel der vorherigen Generationen von Kernkraftwerken überwinden.

Um als Generation IV klassifiziert zu werden, muss ein System die folgenden Kriterien erfüllen oder zumindest erfüllen können:

(1) Es ist wesentlich treibstoffeffizienter als derzeitige Anlagen.

(2) sie ist so konzipiert, dass schwere Unfälle nicht möglich sind, das heißt, dass ein Anlagenausfall oder ein äußeres Ereignis (wie etwa ein Erdbeben) nicht zur Freisetzung radioaktiver Stoffe in die Außenwelt führen dürfte;

[3] Der Brennstoffkreislauf ist so ausgelegt, dass Uran und Plutonium nie getrennt („divergiert“), sondern nur in einer Mischung und mit anderen Elementen vorliegen. Dies erschwert die Herstellung von Atomwaffen.

Der Bau des neuen Kernkraftwerks wird in Tennessee realisiert. Kairos Power hat mit dem Bau des Hermes Low-Power Demonstration Reactor in Oak Ridge begonnen, dem ersten Reaktor der vierten Generation, der von der US-amerikanischen Atomaufsichtsbehörde zum Bau freigegeben wurde. Der Hermes-Reaktor verwendet ein fluoridsalzgekühltes Hochtemperaturreaktordesign, das sich von herkömmlichen Leichtwasserreaktoren unterscheidet.

„Die Entwürfe für Kernkraftwerke der vierten Generation sind revolutionär, da sie auf der Verwendung völlig anderer Technologien basieren als die Reaktoren, die wir heute verwenden“, sagte Ross Peel, Professor am Zentrum für Wissenschafts- und Sicherheitsstudien des King’s College London, gegenüber Newsweek.

Leider hinken wir China hinterher, was den Bau angeht. Dort wurde bereits Ende letzten Jahres mit dem Bau eines Reaktors der vierten Generation begonnen.

Das Kernkraftwerk Shidaowan, das über den weltweit ersten Reaktor der vierten Generation verfügt, nahm am 6. Dezember den kommerziellen Betrieb auf, teilte die China National Nuclear Corporation (CNNC), einer der Entwickler des Projekts, mit.

„Chinas unabhängig entwickelter Demonstrator eines gasgekühlten Hochtemperaturreaktors hat den kommerziellen Betrieb aufgenommen“, hieß es in einer Erklärung von CNNC.

„Es bedeutet, dass China das weltweit erste kommerziell betriebsbereite modulare Kernkraftwerk mit Kerntechnologie der vierten Generation fertiggestellt hat und damit den Übergang der Kerntechnologie der vierten Generation vom Experimentierstadium zum kommerziellen Markt einläutet.“

Interessanterweise überdenken immer mehr Länder ihr Atomverbot, wahrscheinlich im Lichte der Realitäten der „grünen Energie“ sowie der Verbesserungen, die in den Systemen der vierten Generation erzielt werden. Die Schweiz plant beispielsweise ihr vollständiges Atomverbot aufzuheben. Energieminister Albert Rösti sagte, die Regierung werde bis Ende 2024 einen Vorschlag zur Änderung der Atomgesetzgebung vorlegen, damit dieses nächstes Jahr im Parlament diskutiert werden könne.

„Neue Atomkraftwerke sind langfristig eine Möglichkeit, unsere Versorgungssicherheit in geopolitisch unsicheren Zeiten zu erhöhen. … Die Nichtbeibehaltung dieser Option könnte von künftigen Generationen als Verrat angesehen werden, argumentierte Rösti.

All dies sind positive Entwicklungen für diejenigen von uns, die die Vorzüge der Zivilisation genießen, wie etwa Licht in der Nacht und Wärme im Winter.

Legal Insurrection

https://stopthesethings.com/2024/09/11/generation-iv-new-reactor-design-makes-ever-reliable-nuclear-safer-than-ever/

Übersetzt durch Andreas Demmig

 




Achtung! Keine Energieberatung – Nichts Neues vom Gebäudeenergiegesetz – aber die Uhr tickt

 

Die große Aufregung über das Heizungsgesetz ist vorbei. Die öffentlichen Diskussionen drehen sich um andere, derzeit wichtigere Themen. In die Heizungskeller und die Köpfe der Hausbesitzer ist Ruhe eingezogen. Vorsicht! Sie ist trügerisch. 

Von Frank Hennig

Der lange Arm grüner Politik greift nicht nur in die Garage und den Kühlschrank, sondern vor allem in den Heizungskeller. Globale Klimarettung durch Heizungsumbau in Deutschland ist das angegebene Ziel. Dahinter steht die Absicht, die Forderung nach mehr „Erneuerbaren“ zu manifestieren, indem die Wärmepumpentechnologie zum wesentlichen Element erhoben wird.

In der Geschichte der bundesrepublikanischen Gesetzgebung nimmt das Gebäudeenergiegesetz (korrekt: „Gesetz zur Einsparung von Energie und zur Nutzung erneuerbarer Energien zur Wärme- und Kälteerzeugung in Gebäuden“ – GEG) einen unrühmlichen Platz ein. Wohl kaum ein anderer Gesetzentwurf ist bis zum Beschluss so kontrovers diskutiert, so oft geändert und dann gegen viele Widerstände durchgesetzt worden. Selten bleibt bei einem Gesetz so viel unklar, ist seine Umsetzung fragwürdig bis unmöglich. Von falschen Voraussetzungen ausgehend wurde auch in keiner Weise die Realisierbarkeit geprüft.

Oberziel ist die „Klimaneutralität“ bis 2045. Auch hier gilt: Je weiter der Termin entfernt ist, desto „ehrgeiziger“ ist das Ziel. Der erste Gesetzentwurf des GEG basierte auf der Studie „Wärmewende 2030“ der Agora-Energiewende von 2017, also aus dem Hause Graichen. Dessen Geist schwebt ungeachtet seiner Demissionierung weiter durch die Flure des Bundesministeriums für Klima und Energie (BMWK). Eine Kompetenz, dieses Elaborat fachlich zu prüfen, gibt es im Ministerium offenbar nicht. Beratung von unabhängiger Seite scheint nicht erwünscht.

Der Gesetzentwurf führte zu vielen Debatten, auch innerhalb der Ampel-Parteien. Wolfgang Kubicki, der Don Krawallo der FDP, feuerte wie hier ganze Breitseiten auf die Grünen ab. Das war gut begründet, aber am Abend vor der Abstimmung hat wohl jemand Herrn Kubicki eine Prise Fraktionsdisziplin in den Wein getan, jedenfalls stimmte er am Ende folgsam zu.

Die immer wieder herangezogene Begründung für dieses Gesetz lautet, dass die Öl- und Gasheizungsbetreiber vor künftig stark steigenden Preisen geschützt werden müssten. Zu den stark steigenden Strompreisen für die Wärmepumpenbetreiber äußert man sich nicht. Als solcher kenne ich den Preisanstieg der Vergangenheit und es gibt keinerlei Hinweis darauf, dass der Strom auch im Wärmepumpentarif nicht deutlich teurer werden wird, zumal künftig mehr Strom aus Gas erzeugt werden muss.

Nun ist das GEG seit dem 1. Januar 2024 in Kraft, dennoch lehnen sich die meisten zurück und meinen, sie seien zumindest vorerst nicht betroffen. Ein kollektiver Attentismus hat das Land erfasst, das ist folgerichtig, aber trügerisch. Für einige tickt die Uhr, ohne dass sie es wissen. Dazu später mehr.

Zunächst scheint positiv, dass das auf der EU-Gebäuderichtlinie basierende GEG drei Vorgängergesetze beziehungsweise Verordnungen ersetzt: das Energieeinspargesetz, die Energieeinsparverordnung und das Erneuerbare-Energien-Wärmegesetz. Das sieht nach Entbürokratisierung aus, doch das Gesetz bringt es auf beachtliche 115 Paragrafen plus 11 Anlagen.

Was steht drin?

Ein Überblick ist schwierig zu gewinnen. Wie zu verfahren ist, geht aus diesem Schema des Umweltbundeamtes (UBA) hervor.

Ein Bild, das Text, Screenshot, parallel, Rechteck enthält. Automatisch generierte Beschreibung

Screenprint: Homepage UBA

Mit dem Verweis darauf könnte ich den Beitrag beenden. Wer sich das Schema aus Gründen tiefergehender Lektüre ausdrucken möchte, dem sei dazu das Format A3 empfohlen. Aber vielleicht sind einige erklärende Hinweise doch sinnvoll. Die linke Hälfte zeigt den Handlungsbedarf. Der entsteht sofort im Bereich der Neubauten. Jedes neue Gebäude muss heizungsmäßig die Anforderung „65-Prozent-Erneuerbar“ erfüllen. Dabei gehen Gebäudeeigenschaften in die Bewertung ein. Im Neubau gibt es zudem eine Unterscheidung zwischen Lückenbebauung und Bauen auf der grünen Wiese.

Auch gelten Stichtage von bereits getätigten Vertragsabschlüssen zu neuen Heizungsanlagen. Wird beispielsweise vor dem 18. Oktober 2024 eine neue Heizungsanlage bestellt, kann sie auch im Neubau noch eingebaut werden. Weiterhin wirken Gebäudestandards, die die Reduzierung des Primärenergiebedarfs im Neubau bezüglich von Referenzgebäuden festlegen.

Wichtig und folgenreich sind die Termine, zu denen die kommunalen Wärmeplanungen fertig sein müssen – zum 30. Juni 2026 in Städten mit mehr als 100.000 Einwohnern, zum 30. Juni 2028 dann in allen Kommunen. Dazu müssen die vorhandenen Strukturen der Wärmeversorgung erfasst und Entscheidungen getroffen werden, wo beispielsweise Anschlüsse an Fernwärmenetze realisiert werden können.

Wer macht das? Die örtlichen Behörden sind damit absehbar überfordert, sie werden Leistungen fremdvergeben müssen. Das kostet Geld, das teilweise vom Staat kommen soll. Erst nach diesen Stichtagen ergibt sich das gesetzliche Ziel von „65-Prozent-Erneuerbar“ für die Heizungsbetreiber. Warum 65 Prozent, nicht 60 oder 70? Keiner weiß es, die Zahl entstammt keiner begründbaren Herleitung. Sie ist ebenso willkürlich gegriffen wie andere Energiewendeziele. Erst wenn klar ist, dass keine Möglichkeit über ein Fern- oder Nahwärmesystem besteht, ergibt sich Handlungsbedarf.

Die rechte Hälfte des Schemas beschreibt die zugelassenen Heizungsarten, die auch in Kombination angewendet werden dürfen, wenn in Summe ein 65-prozentiger „Erneuerbaren“-Anteil entsteht. Zugelassene Heizungsarten sind die Wärmepumpe, Elektroheizung (nur bei sehr guter Gebäudedämmung), auf Wasserstoff umstellbare Gasheizungen, Heizungen, die mit synthetischem Gas oder Öl betrieben werden, Biomethan-Heizungen, Hybridheizungen (zum Beispiel mit Solarwärme), Pelletheizungen, auch Scheitholz bleibt erlaubt.

Leider kann der Staat beim Holz nicht fürs CO2 abkassieren, da dessen Verbrennung als „klimaneutral“ gilt. Aber Geld wird dringend gebraucht. So schätzte das UBA die Holzverbrennung neu ein und startete einen Testballon, indem es diese als „klimaschädlich“ einstufte. Dann könnte man es abgasmäßig bepreisen. Nachdem die öffentliche Empörungswelle hochkochte, ruderte Minister Habeck zurück. Der Ansatz zeigt die völlige Weltfremdheit der Behörde in Dessau. Soll ein Finanzbeamter neben jedem Holzofen- oder Kaminbetreiber stehen und die Scheite zählen?

Keine Entscheidung ohne Beratung

Wer seine Heizung anfassen will oder muss, braucht professionelle Beratung. Wenn man dafür Fördermittel haben möchte, dürfen das nur zugelassene Stellen oder Personen tun. Hier hilft das UBA mit einer Expertenliste. Bevor man den oder die Experten in Anspruch nimmt, sollte ein Antragsformular für die Förderung der Beratung heruntergeladen, eingereicht und bestätigt sein, sonst gibt es keinen Zuschuss zu den Beratungskosten, die maximal 1.300 Euro betragen dürfen. Noch bevor die Breitenwirkung eintritt, wurde schlagartig zum 7. August die Förderhöhe von 80 auf 50 Prozent abgesenkt, „angesichts der haushaltspolitischen Gesamtlage“.

Auch die KfW-55-Förderung wurde damals über Nacht abgeschafft, weil der Topf leer war und die Kaufprämie für E-Mobile endete ebenso abrupt. So viel zur Einschätzung der Verlässlichkeit der versprochenen staatlichen Unterstützungen für die Umsetzung des GEG. Bei der Förderung gilt auch ein „Geschwindigkeitsbonus“, der zu einem schnellen Heizungsumbau anreizen soll. Die neue Heizungsanlage soll zu 30 Prozent gefördert werden. Liegt das zu versteuernde Haushaltseinkommen unter 40.000 Euro, gibt es nochmals 30 Prozent dazu. Falls dann noch Geld da ist.

Der Fördertopf für Wärmepumpen wurde bereits verkleinert mit der Begründung, er werde ohnehin nicht ausgeschöpft. Ob er bei einer Trendwende beim Wärmepumpenabsatz wieder vergrößert wird, ist fraglich angesichts des ohnehin überforderten Staatshaushalts. Oft wird ein Vertrauensverlust in die Politik beklagt, Vertrauen ist aber schlicht nicht vorhanden und wäre auch unbegründet.

Es gibt Sonderregelungen, zum Beispiel bei Defekten an einer noch zugelassenen Heizung. Dann darf, nur für fünf Jahre, ein Ersatzgerät eingebaut werden.

Wer hat Handlungsbedarf? Die Städte und Kommunen jedenfalls mit der Aufgabe der kommunalen Wärmeplanung. Die Zeit dafür ist knapper, als man denkt. Handeln müssen auch die Besitzer von Etagen-Gasheizungen. Nach Paragraf 71n GEG müssen sie bis zum 31. Dezember 2024 vom bevollmächtigten Bezirksschornsteinfeger die Daten aus dem Kehrbuch abfordern, damit Entscheidungen für den Umbau getroffen werden können. Gefragt sind Daten zur Art der Anlage, dem Alter, der Funktionstüchtigkeit und der Nennwärmeleistung. Diese Daten sind dann bis zum 30. September 2025 für die kommunale Wärmeplanung zur Verfügung zu stellen.

Nichts tun hilft nicht

Was passiert eigentlich, wenn sich Heizungsbesitzer künftig einfach totstellen, wie es einige bei der Erfassung der Daten zur neuen Grundsteuer auch taten? Dann drohen drakonische Strafen von bis zu 50.000 Euro. Die Zahlung befreit auch nicht vom Zwang der „65-Prozent-Erneuerbar“. Die Strafe kann wiederholt erhoben werden, bis die Heizung gesetzeskonform umgebaut oder erneuert wird. Jedenfalls theoretisch.

Wer kontrolliert den Zustand der Heizung? Die Schornsteinfeger sollen zur Heizungspolizei werden, das trifft zwar auf deren Widerstand, aber sichert die Arbeitsplätze, wenn künftig immer weniger Verbrennungsvorgänge eine Kontrolle des Abgassystems nötig machen. Die schwarzen Männer und Frauen haben schon heute das Zutrittsrecht. Sie sollen Verstöße gegen das GEG melden und die Einstellung der Wärmepumpen kontrollieren, zusätzlich zum Service durch die Heizungsfirmen. Wer das bezahlen soll, kann man sich denken.

Was kostet das, was bringt das?

Die Höhe der Aufwendungen zur Umsetzung des GEG, sowohl staatliche wie auch private, wird vom Habeck-Ministerium auf 130 Milliarden Euro bis 2030 geschätzt, vom mitregierenden FDP-Energiepolitiker Michael Kruse auf 620 Milliarden. Auch hier gibt es keine nachvollziehbaren Kalkulationen, es wird aus der Hüfte geschossen.

Wenn es so viel kostet, muss es doch eine erhebliche „Klimawirkung“ haben? Nach Angaben des BMWK wird die Ersparnis an CO2 bei 54 Millionen Tonnen liegen – bis 2030. Das sind zehn Prozent der jährlich emittierten Menge. Der Weiterbetrieb der zuletzt stillgelegten drei deutschen Kernkraftwerke hätte 20 bis 30 Millionen Tonnen gespart – jährlich. Zum Vergleich noch eine Zahl aus dem UBA: Ein Tempolimit 130 würde im Jahr 6,7 Millionen Tonnen vermeiden.

Dabei ist die Wärmepumpentechnologie durchaus empfehlenswert, aber sie ist auch Hochtechnologie. Das heißt, die Anlagen müssen für das jeweilige Haus korrekt projektiert, montiert und eingestellt werden, sonst werden sie schnell zum Stromfresser. Im Neubau mit geringen Wärmedurchgangswerten und Niedertemperaturheizung ist die Wärmepumpe eine gute Lösung. Aber auch hier liegt das Problem im Detail. Die oft beworbene und preiswerteste Variante ist die Luftwärmepumpe. Sie ist bei den Betriebskosten im Winter aber die teuerste und angesichts unkalkulierbar steigender Strompreise im Nachteil gegenüber einer Wasser- oder Sole-Anlage. Die erfordern natürlich eine wesentlich höhere Investition.

Entscheidend für die Effizienz und am Ende die Kosten einer Wärmepumpe ist der „Coefficient of Peformance“ (COP), der angibt, aus welcher Strommenge welche Wärmemenge produziert werden kann. Ein COP von vier bedeutet, dass aus einer eingesetzten Strommenge von einer Kilowattstunde Strom vier Kilowattstunden Wärme entstehen. Bei winterlichen Temperaturen kann der COP einer Luft-Wärmepumpe auf unter zwei absinken, vor allem, wenn im Haus keine Niedertemperaturheizung vorhanden ist und Vorlauftemperaturen von 50 Grad und mehr erreicht werden müssen. Dann braucht es einen rein elektrischen betriebenen Heizstab, auch muss die Luft-Wärmepumpe im kalten Winter zeitweise wegen Eisbildung außer Betrieb gehen. Das wird teuer und auch die Emissionen sind am Ende höher.

Eine moderne Gasbrennwertheizung emittiert etwa 180 Gramm CO2 pro Kilowattstunde Wärme. Der Strommix im Winter übersteigt den Jahresdurchschnittswert der Emissionen von 370 Gramm deutlich, da die PV-Anlagen kaum produzieren und die höchsten Wärmelasten morgens und abends bei Dunkelheit auftreten. Luftwärmepumpen verursachen im Winter in der Gesamtbilanz mehr CO2 als eine moderne Gasheizung.

Dem Morgengrün entgegen

Nachdem nun das GEG das Land aufgeheizt hat und es jetzt wieder durch Vergessen abkühlt, geht der Blick in die Glaskugel zwecks möglicher Entwicklung der Umstände.

Die Bevölkerung wartet nicht nur beim Heizungswechsel ab, sondern auch beim Auto- und Möbelkauf, und bildet Rücklagen für schlechte Zeiten. Sie wird zunehmend störrisch, spätestens seit Minister Habeck öffentlich zugab, das GEG sei auch ein „Test“ gewesen, wie weit man mit den Zumutungen gehen kann. Die Leute im Land als Habecks Laborratten, um die Umsetzung seiner grünen Allmachtsfantasien auszutesten?

Es gibt Leute, von denen man sagt, was sie anfassen, wird zu Gold. Bei Minister Habeck verfestigt sich der Eindruck: Egal, was er anfasst, es misslingt. Nicht nur der E-Auto-Absatz bricht ein, auch der Wärmepumpenabsatz halbierte sich im ersten Halbjahr 2024. Die Baukonjunktur lahmt, aber gerade in Neubauten kommen verstärkt Wärmepumpen zum Einsatz. Auch die energetische Gebäudesanierung lahmt. Der Deportationsplan von Bauministerin Geywitz, die Städter aufs Land zu verfrachten, findet ebenfalls kein Echo.

Die abwartende Haltung der Bevölkerung ist auch durch die anstehenden Bundestagswahlen im September 2025 begründet. Man hofft auf die Korrektur des grünen Wegs. CDU-Chef Merz kündigte nach Verabschiedung des Gesetzes an, es nach einer Regierungsübernahme sofort rückgängig zu machen. Später ruderte er zurück und erwärmte sich für die „Wärmewende“. Er wird die Grünen brauchen und auch in der eigenen Partei scharren die Grünen der Klimaunion mit den Füßen.

Im Hintergrund arbeitet die EU an weiterer Bürokratisierung und will den „Gebäuderessourcenpass“ einführen, der den Energieausweis ablösen soll. In diesem Pass sollen spezifisch für jedes Gebäude die wesentlichen Informationen zu Ressourcennutzung, „Klimawirkung“ und Kreislauffähigkeit der verbauten Materialien angegeben werden. Deutschland wird eine solche Verordnung in bewährter Weise korrekt umsetzen und wahrscheinlich auch verschärfen.

Was wird also passieren? Das GEG wird bleiben, aber vor allem hinsichtlich der Termine geändert werden müssen. Die Bedrohungslage für die Bevölkerung wird bestehen bleiben. War die selbstbewohnte Immobilie früher eine Form der Sicherheit fürs Alter, ist sie heute ein Risiko fürs Alter. Viele betagte Menschen werden sich einen Heizungsumbau, bei älteren Häusern meist verbunden mit energetischer Sanierung, nicht leisten können und wollen. Sie müssen ihre Immobilie dann mit hohem Abschlag verkaufen, denn die zwangsläufig anfallenden Kosten gehen auf den Käufer über.

Weitgehend ungeklärt ist die zukünftige Beheizung öffentlicher Gebäude, die nicht an einem Wärmenetz hängen. Sicherlich wird es für Staatsimmobilien umfangreiche Ausnahmeregelungen geben.

Guter Rat ist schwierig

Kann man in dieser Situation tatsächlich guten Gewissens Ratschläge geben? Von mehreren Energieberatern habe ich die Empfehlung vernommen, die vorhandene Heizung täglich zu streicheln und auf ein gutes Verhältnis zum Schornsteinfeger zu achten. Prinzipiell sei Abwarten zunächst keine falsche Entscheidung.

Das GEG gilt in vorliegender Form und die Uhr tickt weiter. Nichts deutet darauf hin, dass sich der lange Arm grüner Politik aus dem Heizungskeller zurückzieht.

PS: Alle Angaben nach bestem Wissen und Gewissen, aber ohne Gewähr.

Der Beitrag erschien zuerst bei TE hier