Der Kahlschlag bei EVs von Ford geht weiter

Robert Bryce

Die Verluste nehmen kein Ende. Wie ich im Februar an dieser Stelle berichtet habe, hat Ford Motor Co. im Jahr 2023 4,7 Milliarden Dollar mit seinem EV-Geschäft verloren, das sind etwa 64.731 Dollar für jedes verkaufte EV. Heute meldete das Unternehmen, dass es in den ersten beiden Quartalen fast 2,5 Milliarden Dollar im Model-e-Segment verloren hat, was bedeutet, dass Fords EV-Verluste sich im Jahr 2024 auf 5 Milliarden Dollar belaufen werden. Die Verluste des Unternehmens pro Fahrzeug sind im zweiten Quartal zwar etwas zurückgegangen, aber sie sind immer noch beeindruckend. Schauen wir uns die Ergebnisse einmal kurz an.

Am 3. Juli veröffentlichte das Unternehmen seine Verkaufszahlen für das zweite Quartal. Die EV-Verkäufe beliefen sich auf insgesamt 23.957 Einheiten, ein Plus von 61 % gegenüber dem gleichen Zeitraum im Jahr 2023.

Doch heute wurden die Zahlen veröffentlicht, und die sind ernüchternd. Ja, das Unternehmen hat in diesem Quartal 23.957 Elektroautos verkauft, dabei aber 1,14 Milliarden Dollar verloren, das entspricht einem Verlust von 47.585 Dollar für jedes verkaufte Elektrofahrzeug. In einer Pressemitteilung teilte das Unternehmen mit, dass der Verlust „aufgrund des anhaltenden branchenweiten Preisdrucks bei Elektrofahrzeugen der ersten Generation und des geringeren Großhandelsvolumens“ entstanden sei. Diese Faktoren haben die Kostensenkungen im Segment in Höhe von etwa 400 Millionen Dollar im Vergleich zum Vorjahr mehr als ausgeglichen“.

Im Klartext: Das Unternehmen sagt, dass seine Bemühungen um Kostensenkungen nicht ausreichen, um die Preissenkungen auszugleichen, zu denen es gezwungen ist, um Käufer anzuziehen. Um den Verlust von 47.585 Dollar pro Elektrofahrzeug in die richtige Perspektive zu rücken, hat ein Ford-Händler in Austin derzeit mehr als 20 Mustang Mach-E-Fahrzeuge auf Lager, die für weniger als 47.000 Dollar verkauft werden.

Ein wenig mehr Hintergrundinformationen über die Verkaufszahlen des Unternehmens verdeutlichen das Ausmaß des schwächelnden EV-Geschäfts von Ford. Im zweiten Quartal verkaufte Ford 199.463 Lkw der F-Serie. Außerdem verkaufte das Unternehmen mehr als eine halbe Million Fahrzeuge mit Verbrennungsmotor (Internal Combustion Engine Vehicles, ICEVs). Wie oben zu sehen ist, verkaufte der in Dearborn ansässige Autogigant also 21 Mal mehr ICEVs als EVs.

Das anhaltende Desaster bei den Elektroautos hat die Verantwortlichen von Ford (endlich) aus ihrem Geld-verlieren-Stupor geweckt. Letzten Donnerstag gab das Unternehmen bekannt, dass es 3 Milliarden Dollar ausgeben wird, um die Produktionskapazitäten für seine superprofitable F-Serie zu erweitern. In einer Pressemitteilung vom 18. Juli hieß es, um die „Kundennachfrage nach einem der beliebtesten und profitabelsten Fahrzeuge“ zu befriedigen, werde man die „anfängliche Kapazität für 100.000 Lkw der F-Series Super Duty, einschließlich der künftigen Multi-Energie-Technologie, im Oakville Assembly Complex in Ontario, Kanada“ erweitern. Die Pressemitteilung enthält auch einige aufschlussreiche Worte des COO des Unternehmens, Kumar Galhotra:

Diese Investition wird Ford, unseren Mitarbeitern in Kanada und den USA sowie vor allem unseren Kunden zugute kommen, die den Super Duty für ihr Leben und ihren Lebensunterhalt benötigen… Sie steht in vollem Einklang mit unserem Ford+ Plan für profitables Wachstum, da wir Schritte unternehmen, um unsere globale Produktionspräsenz zu maximieren, und unsere Investitionen werden sich schnell amortisieren. (Hervorhebung hinzugefügt [vom Autor])

Mit anderen Worten: Ford hat beschlossen, dass Profitabilität wichtig ist. Anstatt weiterhin Geld in sein Geld verbrennendes EV-Geschäft zu stecken, wird das Unternehmen die Produktion von Fahrzeugen ausweiten, die die Lichter am Leuchten halten, was bedeutet, dass mehr F-150s und andere Fahrzeuge produziert werden, die Fossiles verbrennen.

Ein letzter Hinweis, der zeigt, dass die Begeisterung für Elektroautos langsam nachlässt: Am Dienstag erklärte Mary Barra, CEO von General Motors, gegenüber Analysten an der Wall Street, dass ihr Unternehmen Investitionen in E-Fahrzeuge aufschiebt, um sicherzustellen, wie das Wall Street Journal es ausdrückte, „dass das Unternehmen der Nachfrage nicht voraus ist“.

Link: https://wattsupwiththat.com/2024/07/26/fords-ev-bloodbath-continues/

Übersetzt von Christian Freuer für das EIKE

 




22 anstatt 500.000 Atombomben: Wie man eine existenzielle Gefahr für den Klimawahn beseitigt

von Uli Weber

Der Startbildschirm von MS EDGE poppte am 5. Juli 2024 mit einer interessanten Meldung von StarsInsider hoch, die dort bereits vom 31. Jan. 2024 datiert. In der MSN-Überschrift heißt es, „Wie 22 Atombomben: Der Asteroid, der auf der Erde einschlagen wird, heißt Bennu“:

Abbildung: Screenschot der MS EDGE-Meldung vom 5. Juli 2024

Nun stolpert der physikalisch vorbelastete Betrachter aber sofort über die dort angegebene Einschlagenergie von 22 Atombomben für einen extraterrestrischen Körper, der sich ja mit Geschwindigkeiten im Bereich von 10-er Kilometern pro Sekunde fortzubewegen pflegt. So soll beispielsweise vor 66 Millionen Jahren ein etwa 14 km großer Kumpel von Bennu die Dino-Familie ausgelöscht haben. Zwar hat Bennu nur einen mittleren Durchmesser von einem halben Kilometer, aber trotzdem erscheint eine niedrige 2-stellige Anzahl von Atombomben, die üblicherweise in Hiroshima-Stärke ausgedrückt werden, für den Einschlag eines extraterrestrischen Körpers auf der Erde extrem mickerig.

Also schaunmermalgenauerhin:

Die Energie der Hiroshima-Bombe wird mit 56 Terajoule angegeben, 22 davon haben dann also 1.232 Terrajoule.

Laut Wikipedia hat Bennu eine mittlere Geschwindigkeit V von 27,75 Kilometern pro Sekunde und ein Gewicht M von etwa 70 Millionen Tonnen.

Die Physik liefert die Formel für die Energie: E = (M/2) * und das Ergebnis lautet dann auf eine Energie von 27.000.000 Terrajoule.

Und 27.000.000 TJ geteilt durch 1.232 TJ ergibt dann mal eben das 21.916-fache der Energie von den 22 Atombomben in der Überschrift.

Im Ergebnis hatten sich die dort zitierten „F_orscher“ nur mal eben um einen Multiplikator von 22×103 verrechnet, denn Bennus Einschlagenergie entspricht vielmehr 22.000 x 22 Hiroshimabomben. Auf der anderen Seite spielen in unseren MINT-fernen postwissenschaftlich-hochemotionalen Zeiten drei Zehnerpotenzen auch nicht mehr die gleiche Rolle wie noch zu alten D-Mark-Zeiten. So wird heute beispielsweise ausgabentechnisch der Unterschied zwischen Millionen und Milliarden nur noch als marginal empfunden – jedenfalls solange es sich dabei „nur“ um unsere Steuergelder handelt. Nennen wir solche Steuerleute unter Beibehaltung der obigen Schreibweise also einfach mal „P_olitiker“, um auch diese Art von Potenzschwäche einmal klar und deutlich hervorzuheben…

Man könnte diesen Text jetzt mit ein paar lustigen Worten beenden, beispielsweise: Der berechnete Multiplikator von 22×103 gilt für 22 Atombomben von Hiroshimastärke, was am Ende bedeutet, dass wir bei Bennu mit einer Einschlagenergie von etwa 500.000 Hiroshima-Bomben zu rechnen haben – was immer sich die oben zitierten MINT-fernen „F_orscher“ auch zusammengerechnet haben mö­gen; vielleicht waren es ja 22 „F_orscher“ , dann bekommt immerhin jeder von denen seine eigene…

Allerdings haben dieselben „F_orscher“ dazu auch noch das genaue Einschlagdatum ermittelt, Zitat:

Die Wissenschaftler glauben jedoch, dass der 24. September 2182 das Datum sein könnte, an dem ein echtes Risiko einer Kollision zwischen der Erde und dem Asteroiden besteht.

Kann es vielleicht sein, dass die besagten Wissenschaftler Bennus mögliches Einschlagdatum richtig und seine Einschlagenergie falsch berechnet haben? – Wohl eher nicht!

Aber noch vor Bennus Einschlagdatum liegt ein epochaler zwangsgesteuerter Umbruch in der Menschheitsgeschichte, nämlich die Dekarbonisierung der ganzen Welt bis zum Jahre 2100. Erstmalig in der Geschichte der Menschheit wird der freie Wettbewerb der landwirtschaftlich-technischen und der zivilisatorisch-kulturellen Entwicklung vorsätzlich über menschengemachte Gesetze zurückentwickelt, im Grunde von zuverlässiger industrieller Bereitstellung einer pro Kopf Energiemenge vom 90-fachen des menschlichen Grundbedarfs, vergleichbar mit einem römischen Kaiser, hin zu einer volatilen Energieversorgung mit dem spätmittelalterlichen 30-fachen des menschlichen Grundbedarfs. Der Grund dafür ist die panische Angst vor einer Selbstverbrennung unserer Erde durch den industriellen CO2-Ausstoß bei der Nutzung fossiler Energiequellen. Und diesem hehren Ziel darf nach einer grenzdebilen Zieldefinition nichts, aber auch gar nichts entgegenstehen; denn heute ist man ja bereits im irrealen Endstadium des festen Glaubens, in landschaftlichen Schutzgebieten die Natur schützen und dort gleichzeitig klimafreundliche Energie aus Sonne und Wind erzeugen zu können. Es interessiert auch keinen Menschen mehr, dass alle Beweise für die sogenannte Klimakatastrophe menschengemacht sind. Nicht nur, dass man den Klimawahn von seinen physikalischen Grundlagen her auch ganz anders sehen kann, selbst die vorgeblichen Beweise halten einer wissenschaftlichen Überprüfung nicht stand. Und die vorgeblich beweis­trächtigen Temperaturreihen sind schlecht gemachte Manipulationen unzureichender Daten von Glaubenseiferern, denen längst abgebaute Temperaturstationen bis heute Temperaturwerte zuliefern, die dann in solche Berechnungen eingehen. Kluge Klimarealisten lehnen es daher grundsätzlich ab, überhaupt auf die sogenannte „globale Durchschnittstemperatur“ einzugehen. Das hilft nur leider gar nix, denn hunderte Millionen Menschen werden ständig mittels dieser herbeiphantasierten Kunstgröße in Angst und Schrecken versetzt, und deshalb muss deren Sinnfälligkeit nun einmal für alle nachvollziehbar in Frage gestellt werden.

Ein Exkurs zur „globalen Durchschnittstemperatur“:

Abbildung: Vergleich der globalen Temperaturstationen zum Ende des 19. Jahrhunderts und heute

Wenn wir einmal die beiden Abbildungen für die globalen Temperaturstationen „1861-1890“ und „2023“ vergleichen, so hat sich in den vergangenen 130 Jahren also nicht wirklich viel verändert. Wo im 19. Jahrhundert bereits kontinuierliche Temperaturaufzeichnungen durchgeführt worden waren, ist deren Dichte noch weiter angewachsen. In der restlichen Welt ist ein dünnes Stationsnetz entstanden und auf den Ozeanen schwimmen jetzt zusätzlich noch ein paar tausend Argo-Bojen herum, das war’s auch schon. Noch immer geht es nicht um den direkt berechneten Mittelwert aus Temperaturmessungen, die zur selben Weltzeit über Tag&Nacht, Sommer&Winter, Frühling&Herbst auf der Nord- und Südhalbkugel gemessen werden. Nein, es geht immer noch darum, mit statistischen Computerprogrammen aus einem sporadisch verteilten globalen Stationsnetz mit Riesenlücken ein globales Temperaturgrid zu interpolieren, wobei den individuellen geografischen Gegebenheiten der jeweiligen Ortslagen eine ganz wesentliche Rolle zukommen dürfte. Erst aus dieser Kunstfigur lässt sich dann wiederum die sogenannte Globaltemperatur herleiten. Gegenüber den eigentlichen Temperaturmessungen spielen also die eingesetzten statistischen Verfahren die entscheidende Rolle für diese Berechnung und man kann sich leicht vorstellen, dass der Wechsel von Gridgröße und statistischer Rechenmethode einen wesentlich größeren Einfluss auf die sogenannte „Globaltemperatur“ ausüben dürfte als ein kapitaler Vulkanausbruch.

Die eigentlichen Beweise für die befürchtete Klimakatastrophe werden also lediglich mit High-Tech-Computerspielen hergestellt, bei denen CO2 als fest vorgegebener „Klimakiller“ einprogrammiert ist. Solche High-Tech-Computer erfordern für ihren Betrieb wiederum eine zuverlässige Energieversorgung, wie wir sie im Moment ja meist noch haben, und auch alle arbeitsteiligen Prozesse unserer Hochtech­nologie hängen davon ab. Denn keine Einzelperson, kein Unternehmen und kein Firmenkonglomerat ist heute noch in der Lage, ohne die Zulieferung von Fremdunternehmen mit Rohstoffen definierter Reinheit und/oder Halbfertig- und Fertigprodukten von definierter Qualität noch irgendein Hochtechnologieprodukt allein aus eigener Kraft herzustellen. Erinnern Sie Sich vielleicht noch an die Corona-Lockdowns, in denen auch die nationalen und internationalen Lieferketten auseinander gerissen worden waren und wichtige Zulieferer einfach aufgehört hatten zu produzieren? Es heißt dem Hörensagen nach, führen­de Regierungspolitiker seien höchst pikiert darüber gewesen, dass Letztere nach den Lockdowns nicht einfach dort weiterproduziert hatten, wo sie noch vor Corona wirtschaftlich gestanden hatten – so kann’s den nassforschen Adepten der Klimareligion bei fehlender Wirtschaftskompetenz halt schon mal gehen.

Und das Ende der fossilen Energieerzeugung im Jahre 2100 bedeutet dann natürlich auch das Ende unserer High-Tech-Industrie.

Im Jahr 2100 ist dann also auch die Hochtechnologie der Industrienationen Geschichte, während der Asteroid Bennu unseren Nachkommen schon sehr viel näher auf die Pelle gerückt ist, denn es verbleiben dann nur noch 82 Jahre bis zum möglichen großen Knall – aber das nötige Geld für Gegenmaßnahmen ist ja dann zusammen mit der erforderlichen Hochtechnologie bereits für den Klimawahn verbrannt worden. Und was machen unsere Nachfahren im Jahr 2100? – Sie leben in einer spätmittelalterlich-ökologischen Zwei-Erden-Agrarlandschaft* mit volatiler Energieerzeugung, essen ihr Brot im Schweiße Ihres Angesichts und beten zur fröhlichen Mutter Gaia.

Ist da noch irgendwas zu retten? – Wohl eher nicht, denn dazu leben inzwischen viel zu viele Menschen und Organisationen von den Brosamen klimawahnbedingter Steuern in Saus und Braus. Und jede neue menschengemachte Katastrophe, sei es aus Dummheit, Ignoranz oder Absicht, bringt weitere Scharen von Flachmänner:innen gegen den Klimawandel in Lohn und Brot. Der Klimawahn ist viel zu weit fortgeschritten, viele zu viele Menschen verdienen damit heute ihren Lebensunterhalt, und Regier­ungen gründen darauf Macht und Einfluss. Man stelle sich nur einmal vor, man würde wegen Bennu weltweit plötz­lich hundert­tausende von Kernphysikern und Raketeningenieuren benötigen, was würde dann wohl mit den MINT-fernen Klima-Mietmäulern aus den brotlosen Geschwätzkünsten geschehen?

Kann also vor dem Hintergrund höchst pekuniärer CO2-Interessen von UN, EU, Regierungen, Klimareligion sowie deren NGO-Adep­ten und Mietmäulern irgendjemand ernsthaft die mainstream-mediale Schlagzeile erwarten: „Am 24. September 2182 könnte der Asteroid Bennu mit der Kraft von 500.000 Atombomben auf unserer Erde einschlagen“? – Nein, das geht doch nun wirklich nicht!

*) Zwei-Erden-Agrarlandschaft: Der Bioanbau von Lebensmitteln führt zu deutlich verringerten Flächenerträgen, sodass die aktuelle Weltbevölkerung die Anbaufläche von zwei Erden für eine bioalimentierte Ernährung benötigen würde. Wenn wir jetzt einmal die weltweite Anbaufläche für Nahrungsmittel und die gegenwärtige Weltbevölkerung auf eine einzige Erde herunterrechnen, erhalten wir einen sehr nachhaltigen Einblick in die unterlegte hinterhältig-elitäre Zielsetzung…

 




Der Elefant im Raum

Von Dr. Klaus-Dieter Humpich

Wenn unsere Regierung von der „Energiewende“ spricht, erzählt sie gern von ihren „Erfolgen“ bei der Installation von Windmühlen und Sonnenkollektoren. Inzwischen sollen über 40% der elektrischen Energie damit erzeugt werden. Das ist schon mal die halbe Lüge: Erzeugung ist nicht zu verwechseln mit der notwendigen Produktion für den jeweiligen Verbrauch. Während jeder Dunkelflaute muß der Strom durch konventionelle Kraftwerke bzw. Import bereitgestellt werden (Verbrauch). Weht der Wind bzw. scheint die Sonne in verbrauchsschwachen Zeiten, muß der „Erneuerbare Strom“ teuer entsorgt werden (negative Strompreise bei Überproduktion). Die Physik läßt sich nicht überlisten. In jedem Augenblick müssen sich Verbrauch und Erzeugung genau die Waage halten.

Vollends sinnlos wird die Investition von über 500 Milliarden Euro (500000000000€) für die „Energiewende“ aber, wenn man den Endenergieverbrauch in Deutschland betrachtet: 50,4% Wärme und Kälte, 25,4% Verkehr (ohne Strom und int. Luftverkehr) und lediglich 24% Stromverbrauch im Jahr 2022. Der Elefant im Raum – über den kein „Grüner“ gern reden mag – ist der Wärmeverbrauch. Davon spielt sich der größte Teil wiederum als sog. Niedertemperaturwärme für die Gebäudeheizung und Warmwasser ab (über 3400 Petajoule jährlich). Das ist rund das Fünffache der gesamten derzeitigen Wind- und Sonnenproduktion. Wie soll das gehen? Da helfen auch keine elektrischen Wärmepumpen. Die Heizung läuft nur im Winterhalbjahr, wo kaum die Sonne scheint und aller Strom vorher (Langzeitspeicherung) durch die Windmühlen produziert werden müßte. Selbst, wenn das technisch möglich wäre, wäre es wirtschaftlicher Irrsinn.

Der finnische Ansatz

In Finnland dauert der Winter noch länger und ist meist auch kälter als in Deutschland. Will man fossile Energieträger verbannen – warum auch immer – muß man sich auf die Gebäudeheizung konzentrieren. Für die Art der Wärmeversorgung ist die Bebauungsdichte pro Grundstücksfläche das entscheidende Kriterium: Gibt es viele m2 Wohnfläche pro km2 Siedlungsfläche, bietet sich Fernwärme an. Schon frühzeitig erkannte man den Nachteil von Einzelfeuerstätten (Luftverschmutzung). In Finnland gibt es 160 lokale Netze.

Fernwärmenetze erfordern hohe Investitionen. Die Rohrleitungen müssen isoliert werden und (zumeist) in der Erde verlegt werden, wo sie mit anderen Medien (Strom, Internet, Wasser, Abwasser etc.) um den knappen Raum konkurrieren. Damit sind wir bei dem Thema Betriebstemperatur. International hat sich eine Vorlauftemperatur zwischen 120°C bis 150°C etabliert. Physikalisch hängt die transportierte Wärmeleistung von der Temperaturdifferenz zwischen Vor- und Rücklauf ab. Je größer die Temperaturdifferenz, desto kleiner die Rohrdurchmesser, die Wärmeübertrager und Pumpen und damit die notwendigen Investitionen. Es gibt aber noch eine hygienische Mindesttemperatur von 60°C (Legionellen usw.) bei der Brauchwassererwärmung. Will man auch noch Klimaanlagen bzw. Absorptionskälteanlagen (Sommerbetrieb) versorgen, liegt die Mindesttemperatur bei 120°C. Schon diese beiden Temperaturen entlarven den Sachverstand unserer derzeitigen Regierung: Die Einspeisung von Abwärme – wenn möglich – ist durchaus sinnvoll, wenn sie genug Temperatur hat. Unsere Bürokraten wollen aber nun die Grenze bei 20°C installieren. Wärme mit 20°C ist faktisch Abfall.

Wie nun die Wärme bereitgestellt wird, ist eine wirtschaftliche Frage – neuerdings aber auch ein Glaubensbekenntnis. Klassisch sind fossil befeuerte Kessel. Möglich – wenngleich fragwürdig – sind Wärmepumpen. Die Leistungszahl (Verhältnis von gewonnener Wärme zur eingesetzten Arbeit) ist abhängig von der Temperatur der Wärmequelle und der Temperatur im Netz. Man benötigt daher eine Quelle mit möglichst hoher Temperatur und großem Volumen (z. B. einen See) in der Nähe. Ein immer wieder auftauchender Klassiker – oder sollte man besser sagen Blödsinn – ist die Nutzung der Kanalisation. Kühlt man die Abwässer ab, geht der ohnehin geringere Wirkungsgrad der Kläranlagen im Winter drastisch runter. Bakterien mögen es halt warm. Schon im 19. Jahrhundert hat man Dampf aus Kraftwerken ausgekoppelt. Allerdings büßt man dadurch Stromproduktion ein. Im 20. Jahrhundert kamen die Blockheizkraftwerke hinzu. Wirtschaftlich fragwürdig, da man den zwangsweise produzierten Strom günstig verkaufen muß und andererseits im Sommer kaum Wärme benötigt. Solche Anlagen werden in der Branche gern als „rotierende Öfen“ bezeichnet, vergleicht man die Investitionen mit einfachen Gaskesseln. Wirtschaftlich sind BHKW nur in speziellen Anwendungsfällen. Es verwundert daher nicht, wenn getrennte Kesselanlagen für die Wärme und Kraftwerke zur reinen Stromgewinnung dominieren.

LDR-50 Fernwärme- Kleinreaktor

Der Reaktor ist eine Entwicklung des VTT Technical Research Centre of Finland. Inzwischen ist daraus das Startup Steady Energy hervorgegangen. Der Reaktor soll eine maximale Heizleistung von 50 MWth haben. Das reicht für die Versorgung einer Kleinstadt aus. Der Reaktor soll eine Betriebstemperatur von etwa 150°C haben und bei einem Druck von nur 10 bar betrieben werden. Daraus ergibt sich ein enormer Kostenvorteil gegenüber einem konventionellen Druckwasserreaktor (176 bar, 362 °C). Die erforderliche Wandstärke des Druckbehälters kann nur wenige Zentimeter betragen. Der Reaktor funktioniert im Naturumlauf: Das heiße Wasser steigt aus dem Reaktorkern nach oben, kühlt sich an den Wärmeübertragern ab und strömt infolge seiner höheren Dichte wieder unten in den Kern ein. Es werden deshalb keine Kühlmittelpumpen benötigt. Was man nicht hat, kann auch nicht kaputt gehen.

Zwischen dem Reaktor (Primärkreislauf) und dem Fernwärmenetz (Tertiärkreislauf) befindet sich ein Sekundärkreislauf. Das Verschleppen jedweder Radioaktivität in das Fernwärmenetz ist damit ausgeschlossen. Dies läßt sich sehr einfach und sicher überwachen. Hinzu kommt, (große) Fernwärmenetze werden mit Drücken zwischen 16 und 25 bar betrieben. Es läßt sich daher einfach ein Druckgefälle in Richtung Reaktor aufbauen: Bei einer Leckage würde Wasser vom Netz in Richtung Reaktor strömen und nicht umgekehrt.

Eine aktive Notkühlung gibt es auch nicht. Der Reaktordruckbehälter ist von einem Sicherheitsbehälter umgeben. Der Zwischenraum ist teilweise mit Wasser gefüllt. Kann der Reaktor – aus welchen Gründen auch immer – seine Wärme nicht mehr los werden, fängt dieses Wasser irgendwann an zu verdampfen (Dampfdruck bei 150°C beträgt 4,8 bar). Dieser Wasserdampf kann in einem Kühlwasserbecken niedergeschlagen werden und strömt dann wieder zurück. Dieses Konzept hat sich bei zahlreichen Reaktoren bereits bewährt.

Der skandinavische Pragmatismus

Der LDR-50 befindet sich seit 2020 beim VTT Technical Research Centre of Finland in der Entwicklung. Von Anfang an hat man die technische und politischen Rahmenbedingungen im Auge behalten. Im Februar 2024 konnte der entscheidende politische Durchbruch erzielt werden: Die finnische Behörde für Strahlung und nukleare Sicherheit hob die entfernungsbasierten Sicherheitszonen für neue Kernkraftwerke auf. Diese Änderung ermöglicht es, Kleinreaktoren in der Nähe von Wohngebieten zu bauen und betreiben. Im Mai-Juni führte das Forschungsunternehmen Aula Research per E-Mail und Telefoninterview eine Umfrage bei insgesamt 184 kommunalen Entscheidungsträgern durch. Die Zustimmung für einen Reaktor ergab in Tampere (94%), Espoo (93%), Lahti (94%), Turku (91%) und Helsinki (89%). Wichtiger noch als die Zustimmung, ist dabei die frühzeitige Einbeziehung und Diskussion in den Gemeinden – nicht gegen, sondern mit und für die Bevölkerung.

2025 beginnt der Bau einer Pilotanlage. Dabei handelt es sich um einen vollständigen Reaktor mit elektrischen Heizstäben anstelle von einem nuklearen Kern. Man gewinnt so Zeit für das notwendige Genehmigungsverfahren. Man schiebt nicht nur einfach Papier hin und her, sondern kann alle Komponenten bereits unter realen Betriebsbedingungen testen und betreiben. Dies ist auch für den Aufbau kompletter Lieferketten nötig. Später soll diese Anlage dann für Schulungs- und Ausbildungszwecke dienen. 2028 will man dann mit dem Bau des ersten Reaktors beginnen (alle nötigen Genehmigungen vorausgesetzt), der 2030 seinen Betrieb aufnehmen soll. Bisher gibt es Vorverträge für 15 Heizreaktoren (5 mit Kuopion Energia in Ostfinnland und 10 mit Helen) in Finnland. Inzwischen ist auch die schwedische Kärnfull Next eine Partnerschaft mit den Finnen eingegangen. Laut den Partnern beträgt Schwedens Fernwärmeverbrauch insgesamt etwa 50 TWh pro Jahr, von denen zwei Drittel aus Biomasse stammen. Die Brennstoffkosten sind in den letzten Jahren stark gestiegen. Im Allgemeinen wird die Zukunft der Biomasse in der Fernwärme diskutiert, nicht zuletzt, da sie wertvollere alternative Verwendungen hat. Darüber hinaus führt die Verbrennung von Biomasse zu Emissionen und erheblicher Verkehrsbelastung. „Die Heizung einer großen Stadt mit Biomasse erfordert jeden Tag einen Haufen Baumstämme von der Größe eines Fußballfeldes, mit einem konstanten Strom von Lastwagen rund um die Uhr“, sagte Tommy Nyman, CEO von Steady Energy. „Es ist höchste Zeit, daß unsere Gesellschaften das Verbrennen von Holz einschränkt um damit unsere Häuser zu heizen.“ Ob das wohl unser Habeck gehört hat?

Die Lage in Europa

In Europa gibt es ungefähr 3500 Fernwärmenetze, die 60 Millionen Menschen versorgen. Die finnische Idee könnte deshalb schnell zu einem Exportschlager werden. Für die ersten 15 Reaktoren (Vorverträge) geht man von Investitionen deutlich unter 70 Millionen EUR pro Stück aus. Die Auslegungslebensdauer beträgt 60 Jahre – die tatsächliche noch viel länger. Nicht nur, weil die Belastung durch Druck und Temperatur sehr viel geringer als in einem konventionellen Kernkraftwerk sind. Auch die Brennstoffkosten sind geringer. Technisch gesehen, kann es sich um konventionelle Brennelemente handeln. Es wird aber nur schwach angereichertes Uran (geplant 2%, vielleicht sogar abgenutzter Brennstoff aus KKW?) benötigt, was die ohnehin geringen Brennstoffkosten noch einmal mildert.

Ein weiterer Punkt ist die hohe Energiedichte des Uran. Man kann mehrere Jahre einen solchen Reaktor betreiben, ohne frischen Brennstoff zu benötigen. Dies sorgt auch für langfristig kalkulierbare Heizkosten ohne Angst vor Ölpreis- und Gaspreisschwankungen. In Finnland kommt noch die Erfahrung mit dem Krieg in der Ukraine hinzu. Da solche Reaktoren sehr klein sind, ist es kein Problem sie unterirdisch in Felskavernen zu installieren.

Der Elefant im Raum

 




Interview mit Will Happer und Holger Thuß

16. Internationale EIKE-Klima- und Energiekonferenz, IKEK-16, 14.-15. Juni 2024, Wien.
Strahlungsübertragung in Wolken

William Happer ist emeritierter Professor der Ivy-League-Universität Princeton/Neu Jersey/USA. Er ist Spezialist für Atom- und Strahlenphysik, Optik und Spektroskopie. Er diente als Seniordirektor im Nationalen Sicherheitsrat unter Trump.
Holger Thuß spricht mit Prof. Happer über seine Sichtweise zur Entwicklung von Pseudowissenschaft und Wissenschaft, der Physik des CO2.

Hier zunächst die englische Version, die Sie auch mit Youtube-Übersetzung jetzt schon auf Deutsch sehen können (Zahnrad rechts unten im Videofenster). Unsere Übersetzung folgt!




Konferenz-Vortragsdateien nun erhältlich! 16. Internationale EIKE Klima- und Energiekonferenz, Juni 2024 in Wien

Grüne und Linke in ihre Schranken verweisen – und die Debatte gewinnen
Link zum Vortragsvideo

Präsentation zum Herunterladen
Craig Rucker
Executive Director, Committee For A Constructive Tomorrow (CFACT)

Was Klimaalarmisten Ihnen verheimlichen
Link zum Vortragsvideo
James Taylor
Präsident, The Heartland Institute  

Die Great Reset/Klima Agenda
Link zum Vortragsvideo

Marc Morano
Herausgeber von ClimateDepot.org von CFACT

Experimentelle Überprüfungen von „Klima-katastrophen Experimente“ und CO2-Sensitivitäts-Feld-Messungen durch ICR (Independent Climate Research)
Link zum Vortragsvideo
Präsentation zum Herunterladen
Dr. Martin Steiner
MSc Sprecher ICR, Energie – Klima – Umwelt

Müssen wir die Klimakriege vor Gericht gewinnen? Eine Antwort auf aktivistische Klimaprozesse
Link zum Vortragsvideo

Marcel Crok
Wissenschaftsjournalist und Mitgründer von CLINTEL

Die „Kunst“ die gesamte Sonneneinstrahlung (TSI) seit 1700 zu berechnen
Link zum Vortragsvideo
Präsentation zum Herunterladen
 Dr. Willie Soon
Harvard-Smithsonian Center for Astrophysics

Empirische Bewertung der Rolle der Sonne im Klimawandel anhand ausgewogener Multiproxy-Sonnenaufzeichnungen
Link zum Vortragsvideo
Präsentation zum Herunterladen
Prof. Dr. Nicola Scafetta
Università di Napoli Federico II, Dipartimento di Scienze della Terra

Wie viel? Was ist wieviel? – Über die Notwendigkeit quantitativer Studien in der Klima- und Energiewissenschaft
Link zum Vortragsvideo
Präsentation zum Herunterladen
Prof. Dr. László Csaba Szarka
Geophysiker, Mitglied der Ungarischen Akademie der Wissenschaften

Ein Wolkenthermostat steuert das Klima der Erde, nicht die Treibhausgase! und
Der Klimawandel ist ein Mythos
Präsentation zum Herunterladen
Dr. John F. Clauser
Experimentalphysiker, Physik-Nobelpreisträger

Klimapropaganda in Österreich – Wir geben Kontra
Juristische Verfahren, alternative Medien, Politik, Aufklärung der Bevölkerung
Link zum Vortragsvideo
Präsentation zum Herunterladen
Dr. Bernhard Strehl
Physiker und Unternehmer

Mit dem Energiewende-Narrenschiff mit voller Fahrt aufs Riff
Link zum Vortragsvideo
Präsentation zum Herunterladen
Manfred Haferburg
Kernenergetiker und Publizist, ehemaliger Schichtleiter im KKW Greifswald

Auswirkungen und Risiken „realistischer“ Projektionen der globalen Erwärmung für das 21. Jahrhundert
Link zum Vortragsvideo
Präsentation zum Herunterladen
Prof. Dr. Nicola Scafetta
Università di Napoli Federico II, Dipartimento di Scienze della Terra

Strahlungsübertragung in Wolken
Link zum Vortragsvideo
Präsentation zum Herunterladen
Prof. Dr. William Happer
Department of Physics, Princeton University

Verständnis des Zusammenhangs zwischen kosmischer Strahlung und Klima anhand experimenteller und empirischer Daten
Link zum Vortragsvideo
Prof. Dr. Nir Shaviv
Racah Institute of Physics – The Hebrew University of Jerusalem

Quantifizierung der Rolle, die die Sonne beim Klimawandel spielt. Warum glauben wir, daß es sich um kosmische Strahlung handelt, und was bedeutet das?
Link zum Vortragsvideo

Prof. Dr. Henrik Svensmark
Centre for Sun-Climate Research des Danish National Space Centre

Wie extrem entwickelt sich die globale Durchschnitttemperatur?
Link zum Vortragsvideo
Präsentation zum Herunterladen
Dr. Roy Spencer (via Zoom)
Forschungsleiter an der Universität Alabama in Huntsville und Leiter des US-Wissenschaftlerteams für das Advanced Microwave Scanning Radiometer 

Wie erneuerbare Energien die Reduzierung der CO2-Emissionen behindern
Link zum Vortragsvideo
Präsentation zum Herunterladen
Douglas Pollock
Industrial Civil Engineering, University of Chile

Der Versuch der Klimaalarmisten, eine einfache Nutzen-Kosten-Analyse zu vermeiden
Link zum Vortragsvideo
Präsentation zum Herunterladen

Dr. Benjamin Zycher
Economist and Senior Fellow, American Enterprise Institute