Wärmeinsel-Effekte im sommerlichen Kanada: Einige Ergebnisse aus Alberta

Roy W. Spencer

Summary

Der Vergleich zwischen ländlichen und städtischen Temperaturmessungen in ganz Kanada während der Sommer 1978-2022 zeigt die erwartete durchschnittliche nächtliche Erwärmung in städtischen Gebieten mit einem schwächeren Effekt während des Tages. Bei der Anwendung der auf Landsat-Bildern basierenden Diagnose der zunehmenden Verstädterung im Laufe der Zeit wird festgestellt, dass 20 % der Temperaturtrends in einer kleinen Region, die Calgary und Edmonton umfasst, auf die zunehmende Verstädterung zurückzuführen sind. Calgary führt die Liste der kanadischen Städte mit zunehmender Verstädterung an, wobei schätzungsweise 50 % der nächtlichen Erwärmungstrends in 10 kanadischen Ballungsräumen auf die zunehmende Verstädterung zurückzuführen sind, und 20 % der Erwärmungstrends am Tag.

Introduction

Dies ist Teil meiner fortlaufenden Untersuchung des Ausmaßes, in dem landgestützte Temperaturdatensätze Erwärmungstrends erzeugen, die durch die zunehmende Verstädterung übertrieben werden (der städtische Wärmeinseleffekt, UHI). Die derzeitigen Homogenisierungs -Verfahren zur Anpassung von Thermometerdaten versuchen nicht ausdrücklich, städtische Trends zu korrigieren, um sie an ländliche Trends anzupassen, obwohl ich davon ausgehe, dass sie diese Funktion erfüllen, wenn die meisten Stationen ländlich sind. Stattdessen laufen sie auf statistische „Konsensbildungs“-Übungen hinaus, bei denen die Mehrheit gewinnt. Wenn also die meisten Stationen in unterschiedlichem Ausmaß von zunehmenden UHI-Effekten betroffen sind, werden diese nicht zwangsläufig an die ländlichen Stationen angepasst. Das Gegenteil ist der Fall. In den USA hat beispielsweise die Analyse der Stationsdaten durch Watts et al. gezeigt, dass der homogenisierte US-Datensatz (USHCN) Temperaturtrends erzeugt, die genauso groß sind wie die der Stationen mit den schlechtesten Standorten in Bezug auf falsche Wärmequellen. Sie stellten ferner fest, dass die Verwendung von Thermometern nur an gut gelegenen Standorten zu einer erheblichen Verringerung der Temperaturtrends im Vergleich zu dem weithin verwendeten homogenisierten Datensatz führt.

Ich halte die Homogenisierung für einen Black-Box-Ansatz, der die falsche Erwärmung in den Thermometer-Aufzeichnungen, welche aus der weit verbreiteten Verstädterung im Laufe der Zeit resultiert, nicht berücksichtigt. Mein Ansatz war ein anderer: Ich dokumentiere die absoluten Temperaturunterschiede zwischen Stationspaaren und setze sie in Beziehung zu einem unabhängigen Maß für den Urbanisierungsunterschied. Der auf Landsat basierende globale Datensatz von „bebauten“ Gebieten (die ich im Folgenden grob als Maß für die Verstädterung bezeichnen werde) bietet die Möglichkeit, die Verstädterung in Thermometerdaten zu korrigieren, die bis in die 1970er Jahre zurückreichen (als die Landsat-Satellitenserie begann).

Ich habe mich zunächst auf den Südosten der USA konzentriert, auch weil mein Mitforscher John Christy Klimatologe des Bundesstaates Alabama ist und ich zum Teil von diesem Amt finanziert werde. Aber ich untersuche auch andere Regionen. Bislang habe ich einige vorläufige Analysen für das Vereinigte Königreich, Frankreich, Australien, China und Kanada durchgeführt. Hier werde ich einige erste Ergebnisse für Kanada vorstellen.

Der erste Schritt besteht darin, anhand von eng beieinander liegenden Stationen den Unterschied der monatlichen Durchschnittstemperaturen zwischen eher städtischen und eher ländlichen Gebieten zu quantifizieren. Der Temperaturdatensatz, den ich verwende, ist die Global Hourly Integrated Surface Database (ISD), die kontinuierlich bei NOAA/NCEI archiviert wird. Die Daten werden von stündlichen (oder dreistündlichen) Beobachtungen dominiert, die zur Unterstützung der Luftfahrt auf Flughäfen in der ganzen Welt gemacht werden. Sie sind größtenteils (aber nicht vollständig) unabhängig von den Maximal- und Minimalmessungen (Tmax und Tmin), aus denen andere weit verbreitete und homogenisierte globale Temperaturdatensätze bestehen. Der Vorteil des ISD-Datensatzes ist die stündliche Zeitauflösung, die eine gründlichere Untersuchung von Tag- und Nachteffekten sowie eine bessere Instrumentierung und Wartung zur Unterstützung der Flugsicherheit ermöglicht. Ein Nachteil ist, dass der Datensatz im Vergleich zu den Tmax/Tmin-Datensätzen nicht so viele Stationen enthält.

Wie ich in meinem letzten Beitrag zu diesem Thema dargelegt habe, ist eine entscheidende Komponente meines Verfahrens der relativ neue, hochauflösende (1 km) globale Datensatz zur Urbanisierung, der seit 1975 im Rahmen des EU-Projekts Global Human Settlement (GHS) von den Landsat-Satelliten abgeleitet wurde. Dadurch kann ich benachbarte Stationen vergleichen, um zu quantifizieren, wie viel städtische Wärme mit Unterschieden in der Verstädterung zusammenhängt, die anhand von Landsat-Bildern von „bebauten“ Strukturen diagnostiziert werden.

Städtische vs. ländliche Sommertemperaturen in Kanada

Kanada ist ein überwiegend ländliches Land, in dem die Temperatur-Messstationen weit verstreut sind. Der größte Teil der Bevölkerung (wo sich die meisten Thermometer befinden) konzentriert sich entlang der Küsten und vor allem an der Grenze zu den USA. Im Vergleich zur Größe des Landes gibt es relativ wenige Flughäfen, was die Anzahl der Vergleiche zwischen ländlichen und städtischen Gebieten einschränkt, die ich vornehmen kann.

Für einen maximalen Abstand von 150 km zwischen den Stationspaaren sowie einige andere Tests für die Einbeziehung (z. B. weniger als 300 m Höhenunterschied zwischen den Stationen) zeigt Abb. 1 die Unterschiede bei der Durchschnittstemperatur und den flächenbezogenen Durchschnittswerten der Landsat-basierten Urbanisierung für (a) 09 UTC (späte Nacht) und (b) 21 UTC (Nachmittag). Diese Zeiten wurden so gewählt, dass sie ungefähr den Zeiten der Mindest- und Höchsttemperaturen (Tmin und Tmax) entsprechen, die in anderen globalen Temperaturdatensätzen enthalten sind, so dass ich einen Vergleich mit ihnen anstellen kann.

Abb. 1 Vergleich der Temperaturunterschiede zwischen nahe beieinander liegenden kanadischen Stationen und Landsat-basierten Urbanisierungsschätzungen für (a) die Nacht und (b) den Tag. Bei den Daten handelt es sich um monatliche Durchschnittstemperaturen für Juni, Juli und August in den Jahren 1988-1992, 1998-2002 und 2012-2016, die den Landsat-Datensätzen der Jahre 1990, 2000 und 2014 entsprechen. Im ISD-Archiv waren nicht genügend Thermometerdaten vorhanden, um sie mit den Landsat-Urbanisierungsschätzungen von 1975 zu verwenden. Die flächengemittelte Zone 3 ist ~21×21 km groß, zentriert auf jede Station.

Wie andere Studien gezeigt haben, ist der UHI-Effekt auf die Temperatur nachts größer, wenn die vom Boden absorbierte Sonnenenergie (die im Vergleich zum Boden oder zur Vegetation eine hohe Wärmeleitfähigkeit hat) in die Luft abgegeben wird und durch die Stabilität der nächtlichen Grenzschicht und die im Vergleich zum Tag schwächeren Winde über der Stadt gefangen wird. Für diesen begrenzten Satz kanadischer Stationspaare beträgt die UHI-Wärmeverzerrung 0,21 deg. C pro 10 % Verstädterung während des Tages und 0,35 deg. C pro 10 % in der Nacht.

Wenn wir diese Beziehungen auf die monatlichen Temperatur- und Verstädterungsdaten von ca. 70 über ganz Kanada verteilten Stationen anwenden, erhalten wir eine Vorstellung davon, wie stark die zunehmende Verstädterung die Temperaturtrends beeinflusst hat. (HINWEIS: Die Beziehungen in Abb. 1 gelten nur für den Durchschnitt, daher ist nicht bekannt, wie gut sie auf die einzelnen Stationen in den folgenden Tabellen zutreffen).

Von den etwa 70 kanadischen Stationen sind im Folgenden die 10 Stationen mit den größten diagnostizierten falschen Erwärmungstrends (1978-2022) aufgeführt. Man beachte, dass die rohen Trends beträchtliche Schwankungen aufweisen, von denen einige wahrscheinlich nicht wetter- oder klimabedingt sind (Änderungen in der Instrumentierung, Standortwahl usw.). Tabelle 1 enthält die Ergebnisse für die Nachtzeit, Tabelle 2 für die Tageszeit.

Calgary, Ottawa, Windsor, Montreal und Edmonton sind die fünf Stationen mit der größten Verstädterungsrate seit den 1970er Jahren, wie sie von Landsat gemessen wurde, und daher auch mit der größten Rate an unechter Erwärmung seit 1978 (dem frühesten Zeitpunkt, für den mir vollständige stündliche Temperaturdaten vorliegen). Im Durchschnitt der 10 Orte mit dem höchsten Wachstum sind schätzungsweise 48 % des durchschnittlichen Erwärmungstrends allein auf die Verstädterung zurückzuführen.

Tabelle 2 zeigt die entsprechenden Ergebnisse für die sommerlichen Nachmittagstemperaturen, von denen wir aus Abb. 1 wissen, dass sie schwächere UHI-Effekte haben als die nächtlichen Temperaturen:

Für die 10 am stärksten verstädterten Stationen in Tabelle 2 beträgt die durchschnittliche Verringerung der beobachteten Erwärmungstrends am Nachmittag 20 %, verglichen mit 48 % für die Trends in der Nacht.

Vergleich mit den CRUTem5-Daten in Süd-Alberta

Wie wirken sich die Ergebnisse in Tabelle 1 auf die weithin berichteten Erwärmungstrends im Durchschnitt von ganz Kanada aus? In Anbetracht der Tatsache, dass Kanada überwiegend ländlich geprägt ist und nur spärliche Messungen vorliegen, lässt sich dies anhand der verfügbaren Daten nur schwer feststellen. Es steht jedoch außer Frage, dass das Bewusstsein der Öffentlichkeit in Bezug auf Fragen des Klimawandels stark von den Bedingungen an ihrem Wohnort beeinflusst wird, und die meisten Menschen leben in städtischen Gebieten.

Um zu prüfen, ob diese meist flughafenbasierten Temperaturmessungen für die Klimaüberwachung geeignet sind, habe ich die Region im Südosten Albertas untersucht, die durch die Breiten-/Längengrade 50-55N und 110-115W begrenzt wird und Calgary und Edmonton umfasst. Das Vergleichsgebiet wird durch den vom IPCC genehmigten CRUTem5-Temperaturdatensatz bestimmt, der Durchschnittsdaten auf einem 5-Grad-Raster für Breiten- und Längengrade enthält.

Mein Datensatz enthält vier Stationen in dieser Region, und die Mittelung der Rohtemperaturdaten der vier Stationen ergibt einen Trend (Abb. 2), der im Wesentlichen mit dem des CRUTem5-Datensatzes identisch ist, der über umfangreiche Homogenisierungsmethoden und (vermutlich) über viel mehr Stationen verfügt (deren Aufzeichnungszeiträume oft begrenzt sind und die daher zusammengefügt werden müssen). Dieses hohe Maß an Übereinstimmung ist zumindest teilweise zufällig.

Abb. 2. Monatliche Durchschnittstemperaturen im Sommer (Juni-Juli-August), 1978-2022, für Südost-Alberta, aus dem CRUTem5-Datensatz des IPCC (grün), Rohtemperaturen von 4 Stationen (rot) und de-urbanisierte Durchschnittstemperaturen von 4 Stationen (blau). Auf die CRUTem5-Anomalien wird ein Temperatur-Offset angewandt, so dass sich die Trendlinien im Jahr 1978 schneiden.

Die Anwendung der Urbanisierungskorrekturen aus Abb. 1 (groß für Calgary und Edmonton, winzig für Cold Lake und Red Deer) führt zu einer durchschnittlichen Verringerung des Trends der Gebietsdurchschnittstemperatur um 20 %. Dies untermauert meine Behauptung, dass die auf die globalen Tmax/Tmin-Datensätze angewandten Homogenisierungsverfahren die städtischen Trends nicht an die ländlichen Trends angepasst haben, sondern stattdessen eine „wählerische“ Anpassung darstellen, bei der ein Datensatz, der von Stationen mit zunehmender Verstädterung dominiert wird, die Trendcharakteristiken der UHI-kontaminierten Standorte weitgehend beibehält.

Conclusions

Kanadische Städte weisen im Sommer einen beträchtlichen städtischen Wärmeinseleffekt auf, insbesondere nachts, und auf Landsat basierende Schätzungen der zunehmenden Verstädterung deuten darauf hin, dass dies eine falsche Erwärmungskomponente der gemeldeten Temperaturtrends verursacht hat, zumindest für Orte mit zunehmender Verstädterung. Ein begrenzter Vergleich in Alberta deutet darauf hin, dass der CRUTem5-Datensatz nach wie vor eine Verzerrung der Erwärmung in Städten aufweist, was mit meinen früheren Beiträgen zu diesem Thema und der Arbeit anderer übereinstimmt.

Das Thema ist wichtig, weil eine rationale Energiepolitik auf der Realität und nicht auf der Wahrnehmung basieren sollte. In dem Maße, in dem die Schätzungen der globalen Erwärmung übertrieben sind, werden auch die energiepolitischen Entscheidungen übertrieben sein. Schon jetzt gibt es Anzeichen dafür (z. B. hier), dass die Klimamodelle, die als Richtschnur für die Politik dienen, eine stärkere Erwärmung ergeben als beobachtet, vor allem im Sommer, wenn die übermäßige Hitze ein Problem darstellt. Wenn die beobachtete Erwärmung noch geringer ist als angegeben, dann werden die Klimamodelle für energiepolitische Entscheidungen zunehmend irrelevant.

This piece originally appeared at Drroyspencer.com and has been republished here with permission.

Link: https://cornwallalliance.org/2022/11/canadian-summer-urban-heat-island-effects-some-results-in-alberta/

Übersetzt von Christian Freuer für das EIKE

 




Die Studie des Manhattan Contrarian zur Speicherung von Energie liegt endlich vor!

Francis Menton, MANHATTAN CONTRARIAN

Heute wurde meine lang erwartete Studie zur Energiespeicherung offiziell auf der Website der Global Warming Policy Foundation veröffentlicht. Hier ist ein Link. Die Studie ist in der veröffentlichten Form 22 Seiten lang, plus ein paar weitere Seiten für eine Zusammenfassung und ein Inhaltsverzeichnis. Sie trägt den Titel „The Energy Storage Conundrum“.

Die meisten Punkte der Studie wurden in diesem Blog bereits in der einen oder anderen Form behandelt. Es gibt jedoch eine ganze Reihe zusätzlicher Details in der Studie, die hier noch nie erschienen sind. Ich werde heute ein Beispiel dafür anführen und in den kommenden Tagen noch mehr davon.

In der Studie geht es vor allem darum, dass ein hauptsächlich von intermittierenden Erzeugern wie Wind und Sonne gespeistes Stromnetz eine vollständige Absicherung aus irgendeiner Quelle benötigt; und wenn es sich bei dieser Quelle um gespeicherte Energie handelt, sind die erforderlichen Speichermengen wirklich atemberaubend. Wenn man den Speicherbedarf und die wahrscheinlichen Kosten berechnet, wird klar, dass das gesamte Projekt völlig unpraktisch und unbezahlbar ist. Die Aktivisten und Politiker, die uns zu diesem neuen Energiesystem aus Wind/Solar/Speicherung drängen, sind entweder absichtlich irreführend oder völlig inkompetent.

Falls man die Nachrichten zu diesem Thema auf allgemeiner Ebene verfolgt, könnte diese Schlussfolgerung überraschen. Schließlich gibt es immer wieder Ankündigungen, dass dieses oder jenes Land einen Vertrag über den Kauf einer scheinbar großen Menge von Batterien für die Speicherung im Netz abgeschlossen hat. Der Bericht zitiert Daten des Beratungsunternehmens Wood Mackenzie zu angekündigten Plänen oder Verträgen für den Erwerb von Speicherkapazitäten in allen wichtigen europäischen Ländern und verweist auf andere Berichte zu angekündigten Plänen aus Kalifornien und New York in den USA. Der Titel der Wood Mackenzie-Studie über Europa vom April 2022 vermittelt sicherlich den Eindruck, dass diese Leute die Situation im Griff haben und wissen, was sie tun: „Europe’s Grid-scale Energy Storage Capacity Will Expand 20-fold by 2031“. [Speicher-Kapazität in Europa wird sich bis zum Jahr 2031 verzwanzigfachen]. Beeindruckend!

Dies ist jedoch eines der Themen, bei denen man sich die tatsächlichen Zahlen ansehen muss, um beurteilen zu können, ob die Pläne überhaupt Sinn machen. In diesem Fall muss man die Menge an Energiespeichern, die für eine vollständige Absicherung eines fast ausschließlich aus Wind- und Sonnenenergie bestehenden Netzes (ohne fossile Brennstoffe) erforderlich wäre, mit der tatsächlichen Menge an Energiespeichern im Netz vergleichen, die derzeit angeschafft werden.

Nehmen wir den Fall Deutschland, das Land, das auf dem Weg zur Energiewende weltweit am weitesten fortgeschritten ist. In meinem Bericht werden zwei verschiedene Berechnungen des Energiespeicherbedarfs für Deutschland in einer Welt mit einem Wind-/Solarnetz und dem Verzicht auf fossile Brennstoffe vorgestellt (beide Berechnungen wurden bereits in diesem Blog behandelt). Eine der Berechnungen von einem Mann namens Roger Andrews kam auf einen Bedarf von etwa 25.000 GWh; die andere, von zwei Autoren namens Ruhnau und Qvist, kam auf eine höhere Zahl von 56.000 GWh. Beide verwenden eine ähnliche, aber nicht identische Methodik und etwas unterschiedliche Annahmen. Natürlich gibt es einen großen Unsicherheitsbereich, was den tatsächlichen Bedarf angeht, aber die beiden genannten Berechnungen geben eine vernünftige Spanne für den Umfang des Problems an.

Um eine Vorstellung davon zu geben, wie viel Energiespeicherung 25.000 (oder 56.000) GWh sind, findet sich hier eine Darstellung (ebenfalls aus meinem Bericht) einer Batteriespeicheranlage im Netzmaßstab, die derzeit in Queensland, Australien, von Vena Energy gebaut wird. Die Anlage auf dem Rendering soll eine Speicherkapazität von 150 MWh bieten:

Zur Erinnerung: 150 MWh sind nur 0,15 GWh. Mit anderen Worten, man bräuchte etwa 167.000 dieser Anlagen, um 25.000 GWh zu speichern, und etwa 373.000 davon, um die 56.000 GWh der größeren Schätzung zu erreichen.

Und wie sehen die deutschen Pläne für den „20-fachen Ausbau“ bis 2031 angesichts eines prognostizierten Speicherbedarfs in der Größenordnung von mehreren zehntausend GWh aus? Aus meinem Bericht:

Im Falle Deutschlands gibt Wood Mackenzie an, dass die geplante Energie-Speicherkapazität für 2031 nach dem 20-fachen Ausbau 8,81 GWh beträgt.

Das sind nicht Zehntausende von GWh, sondern eine einstellige Zahl. Wie verhält sich das prozentual zum prognostizierten Bedarf?

Mit anderen Worten: Die Menge an Energiespeichern, die Deutschland für 2031 plant, liegt zwischen 0,016 % und 0,036 % dessen, was es tatsächlich benötigen würde. Das ist kein ernsthaftes Bemühen um ein System, das funktionieren könnte.

In den anderen Ländern, die in dem Bericht behandelt werden, ist die Situation ähnlich. Und nicht vergessen, dass dies die Länder sind, die sich selbst als Vorreiter und Vorhut beim Übergang zu erneuerbaren Energien betrachten. Das Fachmagazin Utility Dive berichtet beispielsweise, dass New York mit einem geschätzten Speicherbedarf für ein Netz, das hauptsächlich aus erneuerbaren Energien besteht, von 10.000 bis 15.000 GWh mit Plänen zur Beschaffung von etwa 6 GW an Netzspeichern (was vermutlich etwa 24 GWh entspricht) „vorprescht“. Das entspräche etwa 0,2 % des Bedarfs. Es sei denn, New York treibt gleichzeitig seine Pläne zur Verdreifachung der Netznachfrage durch die Elektrifizierung aller Kraftfahrzeuge und Hausheizungen voran; in diesem Fall würden die 24 GWh auf weniger als 0,1 % des Speicherbedarfs zurückgehen.

Kalifornien? In dem Bericht wird ein weiterer Artikel von Utility Dive zitiert, in dem es heißt, dass die kalifornische Kommission für öffentliche Versorgungsbetriebe die Stromversorger des Staates angewiesen hat, bis 2026 gemeinsam etwa 10,5 GW (oder 42,0 GWh) an Lithium-Ionen-Batterien für die netzweite Speicherung zu beschaffen:

Mit den zusätzlichen 10,5 GW an Lithium-Ionen-Speicherkapazität, die höchstens 42 GWh entsprechen, würde Kalifornien nur etwa 0,17 % der Energiespeicherkapazität erreichen, die es zur vollständigen Unterstützung eines Wind-/Solarenergiesystems benötigen würde.

So schlimm diese Lage auch sein mag, sie ist noch schlimmer. Bin ich der einzige Mensch, der diese einfachen Berechnungen jemals angestellt hat? Ich habe sie jedenfalls noch nirgendwo anders gesehen.

Ich würde mich sehr freuen, wenn ich in allen Punkten eines Besseren belehrt werde. Ich sage nur, dass die Befürworter dieser wundersamen Energiezukunft es uns allen schuldig sind, ein funktionierendes Demonstrationsprojekt zu bauen, bevor sie uns alle zwingen, ihr utopisches System zu ruinösen Kosten zu übernehmen, nur um herauszufinden, dass es nicht funktionieren wird und nicht funktionieren kann.

Das sagt alles, was man wissen muss: Es gibt nicht nur nirgendwo auf der Welt ein funktionierendes Demonstrationsprojekt für ein Wind-/Solar-/Speicher-Energiesystem, sondern es ist auch keines im Bau und nicht einmal geplant. Stattdessen haben die Befürworter die Idee, dass Ihr ganzer Staat oder Ihr Land das Versuchskaninchen für ihre Träume sein soll.

Der ganze Beitrag steht hier!

For the full article click here.

Link: https://wattsupwiththat.com/2022/12/03/the-manhattan-contrarian-energy-storage-paper-has-arrived/

Übersetzt von Christian Freuer für das EIKE

 




Markus Kerber – Der verdrängte Energienotstand. Regulierte Preisbildung, Preisdeckel, …

… zentraler EU-Einkauf – Deutschland und die EU auf vertragssprengenden Pfaden

15. Internationale EIKE Klima- und Energiekonferenz, IKEK-15, am 25. und 26. November 2022, Pfännerhall Braunsbedra bei Merseburg.

Markus Kerber erklärt, wie Energiepreise heutzutage zustandekommen (z.B. Merit order) und stellt die Frage nach dem wirtschaftlichen Sinn.




Wir waren schon immer so..

Von Michael Limburg

Ja, ich gebe es zu. Ich habe in meiner Jugend bzw. jungem Erwachsenendasein nicht alle Klassiker gelesen, die sich zu lesen lohnt. Aber beim einen oder anderen habe ich das in meinen späten Jahren nachgeholt. So las, bzw. lese ich in diesem Jahr den wundervollen Roman, ich sollte besser das wundervolle Epos sagen, „Krieg und Frieden“ von Leo Tolstoi in der Ausgabe Anaconda aus dem Russischen von Hermann Röhl. Und ich bin auch noch nicht ganz durch, was bei 1531 Seiten in 10 Punkt Schrift auch nicht so verwunderlich ist.

Das Buch erschien 1869 nachdem Tolstoi 6 Jahre daran geschrieben und umgeschrieben hatte und gehört seitdem zur Weltliteratur. Und das ist auch berechtigt! Immer noch! Denn es ist mehr als ein Roman, es ist ein historischer Roman, ein detailliertes Psychogramm der handelnden Personen (WIKIPEDIA zählt davon 58 namentlich auf, nennt aber nicht alle), ein Sittengemälde der Zeit, eine kluge Analyse militärischer Aktionen und ihrer nur gelegentlichen Vorhersehbarkeit, ein unendlich scheinendes Geflecht der Beziehungen, Vor- und Abneigungen der Personen, eine sehr nachvollbeziehbare Beschreibung der russischen Feudalgesellschaft zum Anfang des 19. Jahrhunderts und eine erstaunlich scharfsichtige Betrachtung der Nationalcharaktere der beteiligten Personen aus ihren jeweiligen Nationen und noch viel viel mehr.

Nachdem ich mich mit den vielen Personen angefreundet hatte, ja sogar begann sie nach längeren Lesepausen wieder zu erkennen, machte mir das Lesen eine Riesenfreude. Nicht nur wegen der gepflegten deutschen Sprache, in die der Übersetzer Hermann Röhl das damals zeitgenössische Russisch übertragen hatte, sondern auch wegen der vielen präzisen Beobachtungen über Charaktere, Landschaften, Beziehungen zwischen den Menschen etc. die Tolstoi dort erzählt, immer glaubhaft erzählt, und die beim Leser fast immer Zustimmung, sei es aus eigner, sei es aus fremder Erfahrung erlangen. Es ist für mich unglaublich, wie ein einzelner Kopf diese vielen Zusammenhänge, Personen, Situationen und, und und defacto im Kopf haben und trotzdem stringent in sich stimmig erzählen konnte. Aber das ist ein anderes Thema.

Mein Thema ist jetzt und hier der von Tolstoi, aus meiner Sicht, so treffend beschriebene Nationalcharakter, niedergeschrieben am Beispiel von einigen der handelnden Personen. In diesem Falle und insbesondere des deutschen Majors Ernst on Pfuel, der im Generalstab des russischen Zaren zeitweise eine bedeutende Rolle[1] spielte.

Und er beschreibt ihn so (S. 835 ff, Hervorhebungen von mir) :

….Offenbar war Pfuel, der auch sonst stets zu gereizten, ironischen Äußerungen neigte, an diesem Tag besonders erregt, weil man gewagt hatte ohne ihn hinzuzuziehen, sein Lager zu besichtigen und zu kritisieren. Fürst Andrei konnte sich, dank seinen Austerlitzer Erinnerungen, schon aufgrund dieser einen kurzen Begegnung mit Pfuel ein klares Bild von dem Charakter dieses Mannes machen. Pfuel war von einem unerschütterlichen, unheilbaren, geradezu fanatischen Selbstbewußtsein, wie es eben nur bei den Deutschen vorkommt, und zwar besonders, weil nur die Deutschen aufgrund einer abstrakten Idee selbstbe­wußt sind, aufgrund der Wissenschaft, d. h. einer vermeintlichen Kennt­nis der vollkommenen Wahrheit. Der Franzose ist selbstbewußt, weil er meint, daß seine Persönlichkeit sowohl durch geistige als durch körper­liche Vorzüge auf Männer und Frauen unwiderstehlich bezaubernd wirkt. Der Engländer ist selbstbewußt aufgrund der Tatsache, daß er ein Bürger des besteingerichteten Staates der Welt ist, und weil er als Englän­der, immer weiß, was er zu tun hat, und weiß, daß alles, was er als Eng­länder tut, zweifellos das Richtige ist. Der Italiener ist selbstbewußt, weil er ein aufgeregter Mensch ist und leicht sich und andere vergißt. Der Russe. ist besonders deswegen selbstbewußt, weil er nichts weiß und auch nichts wissen will, da er nicht an die Möglichkeit glaubt, daß man etwas wisssen könne. Aber bei dem Deutschen ist das Selbstbewußtsein schlimmer, hartnäckiger und widerwärtiger als bei allen andern, weil er sich einbildet, die Wahrheit zu kennen, nämlich die Wissenschaft, die er sich selbst ausgedacht hat, die aber für ihn die absolute Wahrheit ist.“

Peng, das hat gesessen. So jedenfalls mein Eindruck. Schon damals. Besonders aber, wenn man diese Beschreibung des deutschen Nationalcharakters auf die heutigen Bewohner dieses Landes überträgt. Man findet auch heute noch all das wieder, was das Verhalten der Mehrheit der veröffentlichten Meinung, der Politik und der sie tragenden Parteien und Gremien und NGO´s, kurz der Elite diese Landes ausmacht. Und das nicht nur bei der Anbetung des Klimagötzens, da aber besonders ausgeprägt, besonders heftig, besonders selbstgefällig, und .. besonders zerstörerisch.

Wer sich nun also fragt, wie es dazu kommen konnte, dem kann man nur antworten

…wir waren schon immer so!

  1. Siehe Ernst von Pfuel bei WIKIPEDIA hier https://de.wikipedia.org/wiki/Ernst_von_Pfuel

 




Die Hoffnung stirbt zuletzt – der ITER

von Hans Hofmann-Reinecke

Projekte zum Thema kontrollierte Kernfusion werden von viel PR und großer Hoffnung begleitet. Sollten Politiker diese Energiequelle in ihre Planungen konkret einbeziehen? Nehmen wir dazu den Champion unter den Kandidaten einmal unter die Lupe. Schauen wir uns ITER mit seinen Chancen und Risiken an.

Ein Donut voll Plasma

Unter den verschiedenen Anstrengungen, um auf Erden eine kleine Sonne zu bauen, die durch Fusion von Atomkernen endlose und ziemlich saubere Energie liefert, ist das Projekt ITER der teuerste Kandidat. Ist ITER auch der Champion? Wird er als erster das Ziel erreichen? Wird er es überhaupt jemals erreichen?

Um das zu beurteilen müssen wir kurz in die Technik einsteigen. Die Achse des Guten (wie auch EIKE) hat hier, hier und hier schon darüber berichtet, aber Sie verstehen die Sache auch so. Es geht darum, Atomkerne einander sehr nahe zu bringen, sodass sie miteinander verschmelzen. Dazu müssen sie zunächst eine starke Abstoßung überwinden. Wenn man die Kerne aber auf 150 Millionen °C erhitzt, dann haben sie ausreichend Schwung, so um die 1000 km/sec, um den Widerstand zu bezwingen und sie können schließlich zu einander finden.

Der Behälter, in dem das stattfinden soll, ist ein Donut-förmiges Rohr, ein Torus, mit einem sehr starken Magnetfeld, welches die Mischung aus Atomkernen und Elektronen, genannt Plasma, daran hindern soll, an die Wandungen zu rasen. Eine Reihe unterschiedlicher Vorrichtungen sorgt dafür, dass Energie in das System gepumpt wird, um es aufzuheizen. Nennen wie diese Energie E1, und die Energie, die bei der nun folgenden Fusion entsteht ist E2. Damit das Ganze eine Energiequelle wird muss offensichtlich E2 > E1 sein, anders ausgedrückt, der Quotient Q = E2/E1 sollte >1 sein.

Der Weltrekord von 1997

Und? Sind das alles nur Zahlenspielereien auf dem Papier? Gibt es das auch in echt? Hat man schon einmal so ein verdammtes Q > 1 gemessen?

Der Weltrekord wurde 1997 aufgestellt mit Q = 0,67, und zwar im „Joint European Torus“ – seine Freunde nennen ihn JET. Der hat einen Durchmesser von 6 Metern und liegt eine gute Autostunde westlich von London. Das alleine beeindruckt Sie vielleicht nicht, aber mit all dem Drum und Dran wird dann doch eine recht imposante Anlage daraus. Das oben erwähnte Magnetfeld beispielsweise wird von 32 Kupferspulen erzeugt, von denen jede 12 Tonnen auf die Waage bringt.

Ist dieses Q = 0,67 nun alles? Ist es das Ende der Fahnenstange? Antwort: Jein. Vom JET kann man kaum mehr erwarten, aber die Methode gibt Hoffnung. Man müsste so ein Ding größer machen, dann würde es funktionieren. Und zwar aus folgendem Grund: Die Energie geht bei solch einem Torus irgendwie durch die Wandungen verloren, erzeugt wird sie aber in seinem Inneren. Machen wir den Donut also doppelt so groß, geben wir ihm 12 Meter Durchmesser statt 6, dann wird seine Oberfläche 2 x 2 = 4 mal so groß, aber sein Volumen 2 x 2 x 2 = 8 mal so groß.

Die große Wärmflasche

Jetzt hält die Energie In dem zur Oberfläche verhältnismäßig größeren Volumen besser zusammen – so wie auch eine große Wärmflasche länger warm hält als eine kleine (vielleicht ein ganz nützlicher Hinweis für den Winter, damit sich das Frieren für den Frieden in Grenzen hält).

Der Torus von ITER, dem gigantischen internationalen Fusionsexperiment im Süden Frankreichs, hat 12,4 m Durchmesser statt der 6 m seines kleinen und älteren Bruders JET, und er bietet dem Plasma ein Volumen von 840 m3 statt nur 100 m3. Aber auch andere Dinge sind „nichtlinear“ in die Höhe geschnellt. So wird der Torus aus neun Segmenten zusammengesetzt, ähnlich dem oben abgebildeten Gugelhupf. Jedes dieser Segmente hat nach Adam Riese einen Winkel von 360° / 9 = 40° und wiegt 500 Tonnen – pro Stück. Das ist auch das maximale Abfluggewicht eines A380 Superjumbos.

Für die Magnetspulen wird eine Legierung des Elements Niob verwendet, welche im Gegensatz zu Kupfer keinen elektrischen Widerstand hat, was die Stromrechnung niedriger hält. Allerdings müssen diese Spulen, so wie alle Supraleiter und alle Supraleiterinnen, auf extrem niedrige Temperatur gekühlt werden. Und das kommt nicht zum Nulltarif.

Die Komplexität und die elefantösen Ausmaße dieser Maschine machen sie derzeit vermutlich zur anspruchsvollsten Vorrichtung weltweit. Das stellt nicht nur die Wissenschaft auf die Probe, sondern auch die Industrie, welche völlig neuartige Komponenten liefern soll, in deren Fertigung sie wenig Erfahrung hat. Und so hat man kürzlich an den erwähnten Torus-Segmenten feine Riss festgestellt, welche die Montage des Torus erst einmal bremsen. Das tut weh!

Wie geht’s weiter?

Der nächste wichtige Meilenstein ist “First Plasma”. Zu diesem Zeitpunkt wäre die Anlage fertig montiert und man hätte zum ersten Mal Plasma im Torus erzeugt. Die unzähligen Systeme wie etwa Kältetechnik, Stromversorgung, Vakuum etc. etc. hätten ihre Funktion bewiesen. Als Datum für diesen Meilenstein ist auf ITERs Website Dezember 2025 angegeben, allerding mit diesem Caveat:

*Das Datum dieses Meilensteins kann sich ändern. Aufgrund der Auswirkungen von Covid-19 auf die ITER-Fertigung ist das Projekt dabei, einige technische Meilensteine neu zu bewerten. Änderungen am Baseline-Zeitplan von ITER können nur vom ITER-Council vorgenommen werden.

Ich möchte nicht in den Schuhen von Pietro Barabaschi stecken, ITERs neuem Director General, von dem demnächst ein neuer Zeitplan erwartet wird.

Und noch etwas: „First Plasma“ ist noch sehr weit weg von der Kernfusion, dem eigentlichen Ziel. Der Beginn der Experimente, bei denen dann erstmals ein Plasma aus Tritium und Deuterium, dem eigentlichen „Brennstoff“ verwendet würde, war für 2035 vorgesehen. Aber auch falls dann ein paar Jahre später das gesteckte Ziel erreicht wird, nämlich ein Q>10 für einige Minuten, wenn ITER also seine Schuldigkeit getan hätte, auch dann wäre es noch ein sehr langer Weg zu einem Fusionskraftwerk, das uns mit Strom versorgen könnte.

Fazit

  • ITERs Schwierigkeiten könnte zur Annahme führen, dass Energieversorgung durch kontrollierte Kernfusion zu kompliziert, zu teuer, oder schlicht unmöglich ist. Allerdings war auch das Manhattan Projekt zur Entwicklung der US Atombomben unendlich kompliziert und teuer, aber es hat schließlich den Weg zu den heutigen, durchaus nützlichen Kernreaktoren geebnet.

  • Ein Problem für ITER ist sicherlich die Balance zwischen Wissenschaft und Technik einerseits, und Politik und PR andererseits. Zur weiteren Finanzierung des Projekts muss nach außen strammer Optimismus kommuniziert werden, es wäre aber gefährlich, wenn auch die eigenen Techniker und Wissenschaftler begännen an ITERs externe PR zu glauben.

  • Für ITER oder die anderen, vergleichsweise kleineren Projekte ist das Geld der Steuerzahler wesentlich besser investiert, als für Windmühlen oder Genderforschung. Egal ob wir jemals Fusionskraftwerke haben werden oder nicht, die Arbeit daran ist ein Beitrag zur Rettung westlicher Wissenschaft und Intelligenz vor dem totalen Verfall.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.