Sind 100 % NIE (Neue Instabile Energien) zur Stromversorgung eines Industrielandes sinnvoll machbar?

Wir stehen bei der Energiewende  vor folgenden Problemen:

1. Grundsätzliches

2. Absolut notwendig  Sicherheitsreserve von ca. 28.000MW durch konventionelle Kraftwerke

3. Abhängigkeit des Stromes aus Wind und PV vom Freiheitsgrad  10^30 des Wetters. (1)

4. Phasenschieber in Polen und Tschechien – kein Strom mehr in Richtung Süddeutschland.

1. Grundsätzliches

Der Wunschtraum von 100 % NIE (Neue Instabile Energien) wird uns nun seit mehr als 10 Jahren jeden Tag von den Politikern und den Medien, vertreten durch die sogenannten Experten von der grünen Heilsfront, in den tollsten Versionen eingehämmert. Über diese ideologischen Umspülungen des „BETREUTEN DENKENS“, soll der Umbau der Gesellschaft  zur "GROSSEN TRANSFORMATION"  erreicht werden.

Ob in der Süddeutschen Zeitung, in der Hannoverschen Allgemeinen Zeitung oder in unserem gleichgeschalteten Kreisblättchen der Schaumburger Zeitung, überall werden von uns Bürgern Opfer abverlangt: Es gehe ja um die Vermeidung einer Klimakatastrophe, sonst steht  der Weltuntergang bevor.

Mit dieser medial erzeugten Angst wird an unser gutes Gewissen appeliert,  auf die sogenannten erneuerbaren Energien (EE) wie  Wasser, Geothermie, Wind, Sonne und Biomassen in vollem Umfang umzusteigen. Kosten dürfen hierbei  keine Rolle spielen. Hauptsache der Planet wird gerettet und einige wenige Schmarotzer unseres korrupten politischen und wissenschaftlichen  Systems machen mehr als nur Kasse.

Natürlich bezahlen wir freudestrahlend auch noch die EEG-Steuern und, wenn gewünscht, auch die mehr als wichtigen CO2-„Verschmutzungsrechte“ oder „-Zertifikate“. 

Wenn in einer Zeit, wie zB. vom 19.Okt. bis 07.Dez..2013 von allen 92 Windenergieanlagen (WEA) -Offshore nur noch 10 Strom produzieren, sind wir natürlich gern bereit, für die ausgefallenen Erträge der armen WEA-Besitzer unser weiteres Scherflein auch dort noch zu entrichten. Auch wenn wir über die Weihnachtstage 2012 mehr als 100 Mill.€ von allen Haushalten für PV- und Windstrom an unsere Nachbarn in den Niederlanden verschenkt haben, sind wir nun weihnachtlich glücklich gestimmt und zahlen immer weiter, immer mehr !!!

Die direkten Kosten für unsere deutsche Volkswirtschaft liegen entsprechend dem EEG-Gesetz von 2000 bei ca. 123 Mrd. € bis Ende 2013. Das wird natürlich durch die Medien nicht verbreitet, aber es sind die Kosten, die wir alle privat und in den Betrieben zusätzlich für Waren und Dienstleistungen noch darüber hinaus zu bezahlen haben. Hier sind nach vorsichtigen Schätzungen Summen von ca. 450 – 500Mrd.€ im Gespräch.

Dann hören wir wieder vom Club of Rome, wie damals 1972, dass die Reserven von Öl und Gas und auch der anderen Ressourcen nun bis 2052 endgültig verbraucht seien. Leider haben die „Wissenschaftlern“ des  Club of Rome die Kreativität  des Menschen in ihrer Analyse außen vor gelassen. Auch haben diese selbst ernannten Vordenker noch nie was von physischer Ökonomie gehört. Durch technische Weiterentwicklungen zB. im Bereich der neuen Bohrtechniken konnten neue, sehr große Lagerstätten fossiler Energieträger bereits heute erschlossen werden.

Lt.  eines Berichtes der internationalen Energieagentur vom Juni 2013 haben die zur Zeit produzierenden Ölquellen eine Reichweite von ca. 53 Jahre plus ca. 120 Jahre aus den seit 2009 gefundenen neuen Vorräten. Erdgas und Methanhydrat reichen einige 1.000 Jahre (Japan fördert bereits als erstes Land seit Jan. 2013 Methanhydrat = Reserven vor der Küste ca. für  > 400Jahre ), Braunkohle hat eine Reichweite von ca. 3.000 Jahren, Steinkohle ca. 2000 Jahre etc..

Kernkraftwerke (KKWs) der 4. Generation bringen dank Thoriumnutzung eine Reichweite von > 1.000Jahren ( deren Vorteil: Sie sind –intrinsic- eigensicher , d.h. kein GAU mehr möglich, der radioaktive Abfall ist sehr gering !

Und ab Ende 2014 oder Anfang 2015 beginnt vermutlich in Deutschland das Fusionszeitalter – mit dem Fusionsreaktor Wendelstein 7X. Ich hoffe, wir können die NI-Energie-Anlagen NEUEN INSTABILEN ENERGIEN dann nach 2035-40 endlich verschrotten  ( viele Schwermetalle und Chemie dürfen wir dann beseitigen. ) Wasserstoff-Energiereserven nun ca. 40Mill. Jahre = Abfall sehr sehr sehr gering.

2. Absolute Sicherheitsreserve von ca. 28.000MW durch die Strom-Dinosaurier

In der deutschen Stromerzeugung wird eine absolute nicht unterschreitbare Sicherheitsreserve von ca. 28.000MW benötigt, die für einen möglichen schlagartigen Ausfall immer innerhalb einer SEKUNDE bereitgestellt werden muss, da sonst die Netz-Frequenz zusammenbricht. Dieses wird über die riesigen Schwungmassen aller Großgeneratoren gewährleistet, die technisch dafür sorgen, dass innerhalb der ersten Sekunde die Sicherheitsventile aller über das automatische IT-Netzwerk gesteuerten Großkraftwerke sich öffnen, um dann die Kraftwerke über die zweite Frequenz-Verteidigungsstufe mit mehr komprimiertem Dampf zu versorgen!

Die NIE sind dazu nicht in der Lage , denn sie halten weder nennenswerte Rotationsenergie vor, noch lassen sich Sonne und Wind gezielt und schlagartig herauf- oder herunter regeln. Vor diesem Hintergrund sind Behauptungen, eine 60-80-100 prozentige Stromversorgung aus erneuerbaren Energien sei ohne  konventionelle Kraftwerke machbar, barer Unsinn!!!

Diese  unmstößlichen Fakten wurden mir am 23.11.2013 von Hern Peter Franke, Vizepräsident der BUNDESNETZAGENTUR, eindeutig, klar und persönlich bestätigt, sowie auch von Herrn Prof. Dr.-Ing. Alt ( für Netze und Kraftwerke ) FH-Aachen und durch Herrn Dipl.-Ing. F. Müller Schweiz, technischer Energie-Redakteur!

3. Abhängigkeit des Stromes aus Wind und PV vom  10 32 Freiheitsgrade des Wetters.

Zum besseren allgemeineren Verständnis  hier einen Überblick über die verwendeten technischen Begriffe in Bezug auf Stromherstellung, Lieferung und Verbrauch:

Nicht, dass es uns so geht wie manchen Politikern, die über die Energiewende Kompetenz vortäuschend und schwadronierend, die Begriffe  kW und kWh nicht unterscheiden können.

1.Elektrische Leistung wird in W(Watt) bzw. kW (Kilowatt) oder Megawatt (MW)

   angegeben,  

   Hat ein Kohlekraftwerk eine Leistung von 980 MW, so sind das 980.000kW. Produziert 

   diese Anlage 1Stunde lang Strom, so ergibt das 980.000 kWh Energie bzw. Arbeit..

2. Diese Kilowattstunden (kWh) sind  die elektrische Energie oder die geleistete Arbeit, die

    wir alle jeden Monat in Cent/kWh beziehen und bezahlen müssen.

3. PV Strom = Bezeichnung für Strom aus Photovoltaik-Anlagen.

4. Wind Onshore ( Windenergieanlagen an Land ) und Offshore ( Windenergieanlagen auf  

See ).

5. Laststrom:  Strom, den wir zB. in Deutschland pro Stunde beziehen („verbrauchen“).

6. Strom-Jahresbemessungszeitraum 8.760 Std./a = max. Arbeitszeit pro Jahr für ein konv. Kraftwerk. Im Normalfall, ohne Revisionszeit ca. 7.800 bis 8.000Std/a.

 

Abb. 1. Hier wird die gerechnete Leistungsabgabe der NIE in 33 Monaten um das Jahr 2050 gezeigt. Sie wurde berechnet unter Verwendung der realen Daten von 33 Monaten zwischen 2009 und 2013. Großformatig herunter ladbar als Datei im Anhang

Das Bundesumweltamt, bei dem sich EIKE seit ca. zwei Jahren bemüht bisher ohne Erfolg, einen klaren eindeutigen technischen und physikalischen Beweis zu erhalten, dass wir – verursacht durch das CO2-  schon jetzt in einer die Vorboten einer künftigen angeblichen Klimakatastrophe erleben, behauptete im Jahre 2010, dass unsere gesamte Volkswirtschaft bis " 2040-50 zu 100% ausschließlich mit sogenannten erneuerbaren „Energien " versorgt werden kann. Als notwendige Stromerzeugungsleistung wurde für eine 100% Versorgung überwiegend aus die PV- und Wind- installierte Leistungen von 380.000 MW angegeben. Diese Leistungen sind, bezogen auf das Jahr 2012 im Jahre 2040-50 ca. 6x grösser als heute!

Diesem Hinweis sind wir nun nachgegangen. Im Prinzip ist die Aussage, wie in der Technik immer, leicht zu beweisen oder zu widerlegen. Dazu müssen wir di Daten einige Jahre, ( zur Zeit ca. 4 1/2 Jahre ) NI-Energien im Stundentakt erfassen. Die offiziellen Stellen haben es leider und vielleicht bewusst versäumt, dese Stundendaten den interessierten Bürgern zur Verfügung zu stellen. Also haben wir für jeden Tag über 24 Stunden die Strommengen für PV- und Windstrom ermittelt. Das sind heute mehr als 300.000 Datenreihen für nun ca. 5 Jahre.

Nach diesem Erfassungszeitraum wurde aus den 41/2 Jahren für 33 Monaten die PV- und Windmengen für jede einzelne Stunde zusammengerechnet. Danach konnten wir für jede Stunde der 33 Monate die verhältnismäßige Mehrstrommenge für PV und Wind bezogen auf die 380.000MW mit dem Sicherheitsfaktor von 0,9 bestimmen  ( Faktor ca. 6 x 0,9 ). Somit haben wir nun für jede Stunde des Jahres ( 8.760Std./a ) die hochgerechnete Strommenge aus PV und Wind für die Jahre 2050 – 51 – 52 also bei dieser unserer Betrachtung von ca. 33 Monaten vorliegen.

Für die gesamten Berechnungen und für die Erstellung der Grafiken wurde eine optimierte Datenbank erstellt. Nun konnten wir auf die für Deutschland festgestellten 8.760 Strom-Laststunden die PV und Wind-Stunden projizieren. Man kann sehr klar erkennen, es gibt keine einheitlichen flächenmäßigen Überdeckungen. Aus diesem Grunde sind wir auf den Gedanken gekommen von den Strom-Laststunden die Strom PV-und Wind-Stunden abzuziehen und eine neue +/- Grafik dafür zu erzeugen.Nun erkennt man sehr einfach und schnell, es gibt einen Strom PV- und Wind-Überschuß und eine über das ganz Jahr verteilte Strom-Unterdeckung. Die Stundenunterdeckung liegt bei ca. 6.500 Std./a. Sie kann zB. bei nur -5% liegen oder aber auch bei -100% Unterdeckung. 

Ein sehr großes Problem ist im Bereich des Strom-Überschusses zu erkennen. Hier erreichen die Stunden-Spitzenwerten die gigantische Größe von ca. 160.000 MWh.

Lt. Aussage von Netzwerkern in den Ringvorlesungen der UNI-Hannover vom Sommer 2013, sind diese Strommengen auch nicht mit den noch zu bauenden neuen Stromleitungen zu transportieren.

Daraus folgt zwangsweise, dass eine Energieversorgung durch die "sogenannten erneuerbaren Energien" von mehr als max. 40-50% technisch und physikalisch nicht möglich ist, wenn man den Strom-Supergau von 6-14 Tage keinen Strom für Deutschland vermeiden möchte. 

( lt. Herrn Unger, Präsident des Bundesamts für Katastrophenhilfe )!

Eine Energiewende von 2030 – 50 ohne Kohle , Gas, Atom mit erneuerbaren Energien von 60 – 80 – oder 100 % ist nicht möglich!

Sehen Sie unten die Grafik: Szenario Umweltbundesamt mit 380.000MW.

Hierbei sollten wir bedenken, dass sich in ca. 26 bis 36 Jahren der technische und physikalische Fortschritt erheblich weiter entwickeln wird. Strom-Speicher aber in diesen riesigen Dimensionen sind auch dann nur schwer vorstellbar. Die Industrie wird über die 4. industrielle Revolution den IT und Automationsgrad in diesem Zeitraum gewaltig ausweiten. Sie rechnen mit einem Mehrbedarf in der Stromleistung von ca. 20.000MW im Jahr lt. Hannovermesse von 2011-13.

4. Phasenschieber in Polen und Tschechien – kein Strom mehr in Richtung Süddeutschland

Die Firmen Tennet und auch 50hertz haben für das Jahr 2012 zusammen mehr als ca. 1250 Frequenzgefährdungen gemeldet, füher lagen diese Werte bei ca.3-5 Fällen in Deutschland pro Jahr. Eine Verschärfung des Problems liegt bezogen auf die neuen Phasenschieber auf der Hand, zumal die beteiligten Staaten bis heute keine Klärung anstreben. Die Phasenschieber sollen Anfang 2014 einsatzbereit sein, was dann?

Ein großes Dankeschön geht an Herrn Rolf Schuster, der in einem nicht zu beschreibenden Zeitaufwand diese Strom-PV- und Windmengen erfasst hat und die dafür notwendig Datenbank mit Grafik entwickelte. Auch einen herzlichen Dank an Herrn Dr. Theo Eichten und Herrn Limburg.

Hartmuth Huene EIKE

Hinweis. Das Bild ist eine sehr fein aufgelöste pdf Datei. Sie finden sie im Anhang. Der Autor empfiehlt diese so groß wie möglich auszudrucken.

Weiter Ausführungen dazu:

1. Vortrag von Herrn Prof. Dr. Werner Kirstein, 3. Internationale Energie- und Klimakonferenz 2010: Klimawandel zwischen Modellen, Statistik und Ersatzreligion ( DVD3 – 1.07.58 )

2. Auf grundlegende Beschreibungen zu diesen Ausführung möchte ich auf die Arbeit von Herrn DIpl-Physiker Karl Linnenfelser verweisen: http://www.eike-klima-energie.eu/climategate-anzeige/lastganglinien-als-erfolgskontrolle-der-energiewende-mit-windenergie-und-fotovoltaik-anlagen/

3. Auch weitere Arbeiten zu diesen Themenfeld wurden von Herrn Prof. Dr.-Ing. Alt FH-Aachen schon seit Jahren mehrfach veröffentlich: http://www.alt.fh-aachen.de/downloads//Allgemeines/Merkel%20EEG%20Frequenz-Leistungsregelung.pdf

4. Das gleiche gilt für Herrn Dipl.-Ing. Fred. F. Mueller-Schweiz zum Thema Strom-Sicherheitsreserven: http://www.eike-klima-energie.eu/climategate-anzeige/stromnetze-am-limit-das-risiko-waechst-mit-jedem-windrad-nehmen-die-probleme-zu/

5. Informationen von Herrn Dipl-Ing. Limburg zur Sicherheitsreserve und den sogenannten erneuerbaren Energien unter: http://www.eike-klima-energie.eu/news-cache/kombikraftwerke-fuer-100-erneuerbare-teil-1-ein-projekt-von-tagtraeumern-oder-huetchenspielern/

Weiter Szenarien wurden gerechnet zB. Bundesland Niedersachsen – Laststrom zum PV-Wind von gesamt Deutschland – 461.000MW Bruttoleistung Frauenhofer-ISE-Studie usw.

Related Files




2013- das zweitkälteste Jahr des 21. Jahrhunderts in Deutschlands – Seit 17 Jahren fallen die Temperaturen in Deutschland –

Auch wenn der Dezember 2013 gar nicht winterlich war, hatte dies auf den Gesamtwert von 2013 keinen erheblichen Einfluss. Mit einem Deutschland-Mittel von 8,7°C war 2013 nur geringfügig wärmer, als es dem Mittelwert der „alten“, meist noch verwendeten Klimanormalperiode von 1961 bis 1990 entspricht (Deutschland 8,3°C). Diese „alte“ Klimanormalperiode umfasst die relativ kühle Phase der 1960er bis 1980er Jahre und ist deshalb als Vergleichszeitraum nur bedingt geeignet. Betrachtet man nämlich die dem Jahr 2013 unmittelbar vorangegangenen 30 Jahre von 1983 bis 2012 (Deutschlandschnitt 9,0°C), so war es etwas zu kalt. Die folgenden 3 Abbildungen zeigen, wie unterschiedlich sich der Temperaturverlauf darstellt, wenn man verschieden lange Zeiträume betrachtet. Um den Vergleich mit einer anderen europäischen Region zu ermöglichen, haben wir die Werte der CET (Central England Temperature Records)  mit abgebildet, wobei zu beachten ist, dass es im Herzen Englands insgesamt etwas wärmer ist, was hauptsächlich auf die dort milderen Spätherbst- und Wintermonate zurückzuführen ist.

Abb. 1: Hier ist die AMO, eine mehrzehnjährige Schwankung der Wassertemperaturen im Nordatlantik (grün), schematisch mit abgebildet. Man erkennt ein Wellenmuster, wobei England- (blau) und Deutschlandtemperaturen (grau)  dem Verlauf der AMO um einige Jahre vorauseilen, so dass man vermuten kann, dass dem Temperaturrückgang des frühen 21. Jahrhunderts auch bald ein Rückgang der Wassertemperaturen im Nordatlantik folgen wird (Ende der aktuellen AMO- Positivphase). Bei genauerer Betrachtung fällt auf, dass sich die Deutschlandkurve der Englandkurve zu nähern scheint. Ob das auf systematische Messfehler oder eine stärkere Erwärmungswirkung von Großwetterlagen, Sonnenscheindauer und WI- Effekten in Deutschland zurückzuführen ist, bedarf noch einer weiteren Untersuchung.

  

Abb. 2: Hier ist der Temperaturverlauf der letzten 50 Jahre, schon mit 2013, dargestellt. Einer relativ kühlen Phase bis Mitte der 1980er Jahre folgte der deutliche Temperaturanstieg bis zur Jahrtausendwende mit nachfolgender Abkühlung. Allerdings sind die Temperaturen nicht WI-bereinigt, und in den letzten 50 Jahren war die Bebauung und Umgestaltung der einstigen Landschaften enorm. So gefriert u.a. der Kocher im Ostalbkreis aufgrund des hohen Wärmeeintrages der Umgebung nicht mehr zu, obwohl die Winter kälter geworden sind.

     Abb. 3: Die letzten 30 Jahre (mit 2013) zeigen einen Anstieg bis etwa zur Jahrtausendwende und die nachfolgende Abkühlung. Das tiefe Temperaturniveau der mittleren 1980er Jahre ist aber noch nicht erreicht; hierzu müsste die Abkühlung noch einige Jahre andauern.

Nun muss noch geklärt werden, warum das Jahr 2013 trotz des schönen, heißen Sommers relativ kühl ausfiel. Eine mögliche Ursache ist die Häufung von Großwetterlagen mit nördlichem Strömungsanteil, welche zwischen Januar und Juli, aber auch im relativ kühlen September, gehäuft aufgetreten sind. Im Langjährigen Mittel 1881 bis 2012 treten Großwetterlagen mit Nordanteil (Großwettertypen NW, N sowie die Großwetterlagen NEA und NEZ)  an 28% aller Tage auf; 2013 waren es etwa 45%. Nur Im Hochsommer (Ende Juni bis Ende August) wirken diese nördlichen Lagen dann nicht kühlend, wenn eine überdurchschnittliche Sonnenscheindauer die kühle Nordluft stark erwärmt (Juli 2013). Und damit sind wir gleich bei einer weiteren Ursache für die insgesamt kühle Jahreswitterung 2013- die Jahressumme der Sonnenscheindauer war nämlich in den meisten Regionen Deutschlands unterdurchschnittlich; in Erfurt „fehlten“ fast 250 Sonnenstunden. Die folgende Abbildung 4 zeigt am Beispiel Potsdams, dass ein gewisser Zusammenhang zwischen Sonnenscheindauer und Jahresmitteltemperatur besteht (sonnenscheinreiche Jahre sind meist etwas wärmer, als sonnenscheinarme): 

 

Abb. 4: Sonnenscheinreiche Jahre sind meist wärmer als sonnenscheinarme, wobei der Einfluss der Sonnenscheindauer auf die Lufttemperaturen zwischen April und September sogar dominant ist, während im Winterhalbjahr ein nur geringer Zusammenhang besteht.

Am Beispiel Potsdams sehen wir in der Abbildung 5, wie sich Sonnenscheindauer, Jahresmitteltemperatur, die AMO und die Häufigkeit der im Jahresmittel am stärksten erwärmend wirkenden Südwestlagen zwischen 1893 und 2012 entwickelt haben:

Abb. 5: Die Häufigkeit der sehr warmen Südwestlagen (orange) nahm deutlich zu- eine mögliche Ursache hierfür sind die heute etwas höheren Wassertemperaturen im Nordatlantik (AMO). Auch die Sonnenscheindauer (gelb) ist heuer etwas höher, als zu Beginn des 20. Jahrhunderts, während die Jahresmitteltemperaturen den AMO- Werten etwas vorauseilen.

Der jüngste Klimawandel in Deutschland heißt Abkühlung. Seit 17 Jahren haben wir eine fallende Trendlinie.

Am Ende des Jahres 2013 hat der Deutsche Wetterdienst (DWD) in Offenbach die Jahrestemperatur veröffentlicht. Sie betrug diesmal 8,7 C. Es gab zwar in den Medien keine Warnungen vor einer unmittelbar bevorstehenden Wärmekatastrophe, aber auch keine realistische Darstellung. Alles wurde so erklärt, dass leichtgläubige Menschen darunter eine Fortsetzung der Erwärmung, die ab etwa 1975 einsetzte, verstehen konnten. Mit keinem Wort wurde vom DWD erwähnt, dass wir seit 1997 einen fallenden Temperaturtrend haben. Das bedeutet: Es wird allmählich wieder kälter in Deutschland und nicht wärmer. Mit dem neuen Jahreswert für 2013 von 8,7C sieht die Temperaturkurve Deutschlands in den letzten 17 Jahren so aus:

 Abb. 6: Die Grafik, gezeichnet nach den Daten des Deutschen Wetterdienstes zeigt  eine leichte Abkühlung in den letzten 17 Jahren und keine Erwärmung. 1997 betrug die Jahrestemperatur 8,9 C und 2013 8,7C, also geringfügig weniger. 1998, dem weltweit wärmsten Jahr hatten wir 9,1C in Deutschland. Am wärmsten war in Deutschland das Jahr 2000 mit 9,9 Grad.

Insbesondere in Deutschland werden wir seit über 20 Jahren über die drohenden Gefahren eines sich immer weiter verstärkenden Klimawandels geängstigt. Vor allem die Kinder und Jugendlichen in den Schulen werden in nahezu allen Fächern inzwischen über die bedrohende Erwärmung eingenebelt. Hiobsbotschaften von selbst ernannten „Klimaexperten“ und teuer bezahlten Klimawissenschaftlern überschlagen sich von Jahr zu Jahr. Städte und Gemeinden werden aufgefordert, gegen die bereits begonnene und sich angeblich unaufhaltsam verstärkende Erderwärmung anzukämpfen. Anderenfalls würde in naher Zukunft der Klimakollaps drohen und Holland sieben Meter unter Wasser liegen.  „Kampf dem Klimawandel“ heißt die Parole, unter der dann gegen den vermeintlichen Feind, das vom Menschen erzeugte Kohlendioxid, schon kriegsmäßig vorgegangen wird.

Die Realität ist aber eine andere. In der Natur und bei den Temperaturen lässt sich der  gebetsmühlenartig wiederholte, angeblich stark erwärmende Treibhauseffekt infolge des vom Menschen erzeugten CO2 nicht erkennen. Das Klima geht seine eigenen Wege, wie schon immer. Interessant ist, dass die Kinder in den Schulen nur die Abkühlung mit einigen schneereichen, teilweise sehr langen Wintern (2005/2006, 2008/2009, 2009/2010, 2010/2011 und 2012/2013) erlebt haben – obwohl es doch nach den Kassandrarufen der meisten Klimapropheten gar keine richtigen Winter mehr geben sollte.

Die realistische Temperaturgrafik ohne jede Erwärmungskosmetik zeigt deutlich: Die Temperaturen sind in Deutschland in den letzten 17 Jahren gesunken und dies sogar noch stärker als gezeigt, wenn man sie auch noch um den Wärmeinseleffekt bereinigen würde, denn die freie Fläche Deutschlands wird täglich weiterhin mit 110 ha überbaut, trockengelegt und wärmewirksam verändert. Vor durch die Ausuferung der Städte in den letzten 25 Jahren wurden die Frischluftschneisen abgeriegelt, weshalb die Innenstädte vor allem im Sommer nicht mehr gekühlt werden können und die DWD-Messstationen neue Temperaturrekorde für die Städte messen. Das ist natürlich keine globale Erwärmung aufgrund der CO2-Zunahme, sondern eine Kleinklimaänderung aufgrund von lokalen menschlichen Einflüssen, in der Literatur ist diese Tatsache als eine Vergrößerung der Wärmeinseln beschrieben. Allein in Deutschland werden täglich etwa 110 ha überbaut.

Dass vom Menschen erzeugtes Kohlendioxid keinen oder kaum einen Einfluss auf die Temperaturen erkennen lässt, zeigt noch deutlicher die folgende Grafik über die letzten 25 Jahreswerte in Deutschland. Fast alle Lehrer unserer Schulen, aber insbesondere die Medienvertreter machen sich nicht die Mühe, die Temperaturen der letzten Jahre zu vergleichen. Schickt man Ihnen diese Grafiken zu, dann äußern sie sich meist gar nicht dazu oder sie zweifeln den Temperaturverlauf an mit den Worten,  aber die Ozeane werden doch wärmer, der Nordpol und die Gletscher schmelzen doch. Und bei nächster Gelegenheit behaupten sie wieder, die Klimaerwärmung sei in den letzten Jahren besonders heftig gewesen.

Abb7.  Die Grafik zeigt, dass die Zunahme von Kohlendioxid keinen oder kaum einen Einfluss auf die Temperaturen hat. Die CO2-Werte (kleine eingeblendete Grafik) steigen seit 25 Jahren, die Temperaturen sind gleich geblieben, allerdings mit der fallenden Tendenz am Schluss.

Es wird endlich Zeit, dass wieder Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden und nicht das Geschäftsmodell Klimaschutz. Schließlich sind die Schmetterlinge in Deutschland nicht wegen einer nicht existierenden Erwärmung vom Aussterben bedroht, sondern wegen der Umgestaltung ihrer natürlichen Lebensräume.

Wir kommen somit zum Ergebnis:

1)    Seit 17 Jahren fallen die Temperaturen in Deutschland

2)    Seit 25 Jahren haben wir einen ausgeglichenen Temperaturverlauf

3)    In dem ganzen Zeitraum ist der CO2-gehalt der Luft weiter gestiegen.

Der steigende Kohlendioxidgehalt in der Atmosphäre hat auf den Temperaturverlauf keinen oder kaum einen Einfluss. Für die Vegetation ist er sogar begrüßenswert, da CO2 ein notwendiger Dünger für die Nahrungspflanzen ist, womit man dem Hunger in der Welt entgegenwirken kann.

Stefan Kämpfe, Weimar                                                                                                                         Josef Kowatsch, Hüttlingen




Nachhaltigkeit – Was ist das?

Ist schon der ursprüngliche Begriff unscharf, wird er auch noch maßlos überfrachtet:

Mit der Arbeit der Brundlandt-Kommission der UN und der darauf folgenden UN Konferenz für Umwelt und Entwicklung 1992 wurde ein Begriffsverständnis von “Nachhaltigkeit” salonfähig, das verschiedene politische Interessen vereinen sollte; dabei sollten umweltpolitische Ziele den ökonomischen und sozialen Entwicklungszielen gleichgestellt werden. Der Begriff Nachhaltigkeit wird hier als Zielbündel verwendet: dauerhaft stabile Gesellschaften seien zu erreichen, indem ökologische, ökonomische und soziale Ziele nicht gegeneinander ausgespielt, sondern gleichrangig angestrebt würden. Dieses Begriffsverständnis von Nachhaltigkeit enthält den Anspruch, dass diese Ziele für alle Länder der Welt (globale Gerechtigkeit) und für künftige Generationen (Generationengerechtigkeit) gelten. Dieser Ansatz wurde von der Enquete-Kommission des Deutschen Bundestages weiter ausgearbeitet, bei ihr setzt sich der Begriff der Nachhaltigkeit aus drei Komponenten zusammen, einer ökologischen, ökonomischen und sozialen Nachhaltigkeit, die auch als Drei-Säulen-Modell der Nachhaltigkeit bezeichnet werden. Wiki

Das ist nichts weniger als Utopia, die perfekte Welt, in der alle für alle Zeit glücklich sind. Ein Traum, aber keine Vision, denn es ist schlicht unmöglich, auch nur annähernd solche paradiesischen Zustände zu verwirklichen und es besteht im Gegenteil die Gefahr, dass die Propagierung solcher unerfüllbarer Hoffnungen zu Enttäuschung, Unzufriedenheit, Unruhe und Unfreiheit führt – Historische Beispiele dafür gibt es genug!
Beachtlich ist, dass der Begriff nicht nur bis zur Unkenntlichkeit verschwimmt, sondern eine sehr starke ‘kommunistische’ Färbung annimmt – Was hat eigentlich soziale Gerechtigkeit mit sparsamem Umgang mit Ressourcen zu tun? Ist es nicht im Gegenteil so, dass eine soziale Welt gerade möglichst viel Konsum für möglichst viele Menschen bieten sollte?

Ist es etwa besonders gerecht, wenn möglichst alle gleich arm und knapp gehalten werden?

Oder ist der Ökologismus nur ein Neuaufguss des Kommunismus, der Wolf im Schafspelz? Die Vermutung ist sehr naheliegend.
Ein Beispiel dafür:
Auf Grundlage des Berichts der Brundland-Komission der UN wurde eine “Weltdekade der Vereinten Nationen: Bildung für nachhaltige Entwicklung” ausgerufen, die die Ziele der ‘Nachhaltigkeit’ nach UN-Verständnis propagieren und verankern soll.

Wie sieht das praktisch aus?

Da gibt es zum Beispiel den Verein ‘Creating Sustainability e.V.‘ , der von der UN gefördert wird.
Er betreibt die Webseite ‘Zukundo.de‘  zwecks Indoktrination von Kindern und da hier die ‘Nachhaltigkeits’-Ziele ohne hochtrabendes Geschwurbel ganz praktisch an die Zielgruppe gebracht werden müssen, lohnt sich ein Blick darauf.

Erst einmal: Was ‘Nachhaltigkeit’ ist, erfährt man dort nicht. Die wissen es selbst nicht, sondern lassen raten. Aber sie lenken in eine ganz bestimmte Richtung. Bezeichnend das  Filmchen “Lass dir erklären, worum es hier geht!”

Die zentrale Botschaft:”…und ohne Ausbeutung!”

Es ist sozusagen das Manifest. Und von ökologischen Zielen, Umweltschutz, Ressourcenschonung ist kaum die Rede. Statt dessen “Aber Spaß auf Kosten der anderen? Das muss dann doch nicht sein!”
Und schuld sind?

Natürlich die Kapitalisten!

Alter Wein in neuen Schläuchen, Agitprop nach bekanntem Muster, nur aussen dünn mit grüner Farbe angestrichen.

Doch zurück zu den – buchstäblichen – Wurzeln:

DIE WELT ALS WALD

‘Nachhaltig’ ist ursprünglich ein Begriff aus der Biologie bzw. Forstkultur und bezeichnet das Prinzip ‘Entnehme nicht mehr als nachwächst’.
Mit einiger Berechtigung lässt sich der Begriff auch auf die Gewinnung von Energie ausweiten, wenn die beständigen natürlichen Energieflüsse als ‘nachwachsend’ verstanden werden und ‘geerntet’ werden.

Aber für die dritte menschliche Bezugsquelle, die Bodenschätze, kann der Begriff keinesfalls aptiert werden, denn diese sind grundsätzlich in Zeiträumen der menschlichen Existenz nicht ‘nachwachsend’ sondern begrenzt und absehbar erschöpflich. Jede Entnahme ist daher Raubbau und zwangsläufig un-nachhaltig. Es gehört zu den festen Glaubensartikeln des Ökologismus, dass es dafür keinen Ausweg gibt und dass dieses Ende der Welt unmittelbar bevorsteht; ‘Peak Oil’ ist dafür nur der Vorbote und letztendlich sollen alle Bodenschätze ihrem nahen Ende entgegensehen.
Dieses Dilemma soll durch ‘Sparsamkeit’ gelöst werden, was aber nur bedeutet, dass das unabwendbare Ende zeitlich hinausgezögert wird. Der Widerspruch wird nicht aufgelöst, sondern verdrängt.
Damit entlarvt sich der umfassende Anspruch des Begriffs ‘Nachhaltigkeit’ als diffuse emotionale Formel die eher eine Weltflucht als eine Weltgestaltung ist. Durch eine Art Magie soll die ‘richtige’ Lebenshaltung, die Unterwerfung unter natürliche Kreisläufe, irgendwie die Lösung für alles erbringen.

Dies wird übrigens noch klarer, wenn man sieht, dass der Ökologismus sogar im ursprünglichen, biologischen Sinn das Ziel verfehlt, denn die ‘Bio’-Landwirtschaft ist grundsätzlich un-nachhaltig, sie nimmt dem Boden seine knappen Mineralien und laugt ihn aus, er wird unfruchtbar, weil der Erosions-Bergbau nicht mehr mit der Entnahme mithalten kann. Erst die moderne technologische Agrarwirtschaft konnte diesen Raubbau durch Einführung der Mineraldüngung kompensieren und eine nachhaltig optimierte Fruchtbarkeit gewährleisten.

“SCHWUND IST IMMER!”

Da ein völliger Verzicht auf Bodenschätze unmöglich ist, sollen gemäss dem Nachhaltigkeitsdogma die begrenzten und endlichen Vorräte dafür eingesetzt werden, eine regenerative Zivilisation aufzubauen, die von begrenzten Ressourcen möglichst unabhängig ist und sie idealerweise analog zur Biosphäre in einem beständigen Kreislauf recycelt.

Leider funktioniert das aber nicht, nicht mal in der Natur.
Die Biosphäre betreibt nämlich ebenfalls ‘Bergbau’ und ist zumindest an Land zwingend auf die Erschliessung immer neuer Bodenschätze angewiesen:

Flußdelta: Eine Abraumhalde des Biosphären – ‘Bergbaus’

Pflanzen (und damit auch die von den Pflanzen lebende Tierwelt) benötigen unbedingt Mineralien, neben dem Wasser insbesonders die drei chemischen Elemente Stickstoff, Phosphor und Kalium.
Während es den Pflanzen gelang, einen rudimentären Kreislauf für Stickstoff-Verbindungen in Gang zu setzen, indem einige Organismen die Fähigkeit gewannen, Stickstoff aus der Luft zu binden, sind Phosphor und Kalium nur durch fortschreitenden Abbau zugänglich. Fels wird durch Erosion zerlegt, wobei die Pflanzen mit Durchwurzelung des Bodens und Ausscheidung von Säuren kräftig mithelfen, und die darin enthaltenen Mineralstoffe werden in löslicher Form freigesetzt. Zum Teil werden sie dann von den Pflanzen ein- oder auch mehrfach genutzt, aber letztendlich landen alle löslichen Minerale und der ‘Abraum’ dieses natürlichen Bergbaus im Meer und müssen durch beständigen neuen Aufschluß (‘Verwitterung’) von Urgestein ersetzt werden. Das ist mehr oder minder eine Einwegstrasse und das ganze funktioniert nur, weil sich die Pflanzenwelt sehr beschränkt und weit von der optimalen Versorgung entfernt eine Mangelwirtschaft betreibt und weil sehr, sehr viel Urgestein und Fels zur Verfügung steht.

Eine technologische Nachahmung kommt also ebenfalls nicht ohne Bergbau aus, man kann keinesfalls alles ’100% recyceln’, nicht mal die Natur kann das.
Technologie ist aber sowohl quantitativ als auch qualitativ auf weitaus mehr Bodenschätze angewiesen als Pflanzen und so lange sich eine Gesellschaft nicht auf primitivste Wirtschaft auf Steinzeitniveau beschränkt, ist sie auf grosse Mengen relativ seltener Elemente wie Eisen, Kupfer, Aluminium, Zink, Stahlveredler (Mangan, Chrom, Nickel etc), Seltenen Erden, Schwefel, Phosphor etc. in abbauwürdigen, ‘reichen’ Vorkommen angewiesen.

ZAUBERLEHRLINGE

Trotz dieses Dilemmas wird versucht, das Idealbild praktisch zu verwirklichen. Vor allem auf dem Energiesektor, der stellvertretend für das Ganze gesehen wird

Dabei wird jedoch ausgerechnet die schlechteste aller Wirtschaftsmethoden, die Planwirtschaft, als Allheilmittel angesehen. Die dadurch entstehenden Probleme und Widersprüche sind geradezu grotesk:
Man will ‘Ressourcen sparen’, aber die wirkungsvollste Sparmethode, der Einsatz der Kernkraft, wird geächtet, obwohl diese in geradezu idealer Weise ‘Nachhaltigkeit’ verspricht. Statt dessen baut man Windräder:

Die modernere E 126, die eine Gesamthöhe von fast 200 Metern erreicht, benötigt ein Fundament von 1.500 Kubikmetern Beton, der mit 180 Tonnen Stahl armiert ist. Auf dem runden Fundament, das 3.500 Tonnen wiegt, steht der Turm aus konischen Stahlbeton – Segmenten, der 2.800 Tonnen auf die Waage bringt. Das auf dem Turm sitzende Maschinenhaus mit Generator wiegt 340 Tonnen, die Nabe mit den Rotorflügeln aus glasfaserverstärktem Kunststoff noch einmal 320 Tonnen

Gigantische Dimensionen, enormer Materialverbrauch

Dieses Modell hat eine Nennleistung von 7.5 MW und erzeugt nach Werksangabe praktisch 15 Millionen kWh jährlich. So imposant sich das anhören mag: Es braucht rund 680 dieser Super-Windräder, um auch nur ein einziges konventionelles Kraftwerk mit 1300 MW Nennleistung zu ersetzen. Also:

– 4,3 Millionen Tonnen Beton
– 246.000 Tonnen Stahl
– 82.000 Tonnen Maschinenhaus-Werkstoffe
– 150.000 Tonnen Generator( Stahl, Kupfer etc.)
– 219.000 Tonnen Rotor (GFK-Kunststoff etc)

Ein konventionelles Kraftwerk braucht kaum 10% dieser ungeheuren Massen. Doch beim Windrad kommt noch der Mehraufwand für zusätzliche Hochspannungsleitungen und Speichersysteme dazu.

Und diese Windräder müssen alle 20 Jahre erneuert werden, denn länger halten sie nicht. Es ist also keineswegs damit getan, etwas aufzubauen und dann geruhsam die materiellen und energetischen Zinsen der Investition zu kassieren oder gar noch zu vererben, sondern da entstehen gigantische ‘Ewigkeitskosten’, das genaue Gegenteil von gefühlter ‘Nachhaltigkeit’.

Wer aber glaubt, ‘Nachhaltigkeit’ sei eine neue, viel bessere Philosophie für den Umgang mit Natur und Mensch, der sei an die maßlosen Zerstörungen erinnert, die durch den Raubbau der Seltenen Erden in China entstehen: Eine fast beispiellose Verseuchung ganzer Landstriche mit giftigen Rückständen im Namen der Ökologie, denn inzwischen ist die Nachhaltigkeits-Industrie für den grössten Teil der boomenden Nachfrage nach den Metallen Neodym, Lanthan etc. verantwortlich.

Neodym-Bergbau in China, für ‘saubere und nachhaltige Energie’ in Deutschland.

Wie verträgt sich diese skrupellose Ausbeutung mit den hehren Zielen der UN, mit der ökologischen, ökonomischen und sozialen Gerechtigkeit für jetzt und in Zukunft?

 Zukünftige Generationen sollen dieselben Chancen auf ein erfülltes Leben haben wie wir. Gleichzeitig müssen Chancen für alle Menschen auf der Erde fairer verteilt werden. Es geht zum einen um Gerechtigkeit zwischen den Generationen und zum anderen um Gerechtigkeit zwischen den verschiedenen Weltregionen, Nationen und Kulturen.

Ist es ökologisch, rücksichtslos giftige Abfälle zu verbreiten?

Ist es ökonomisch, mit ineffizienten, aber billigen und menschenverachtenden Methoden nur an den jetzigen Boom und seine schnelle Nutzung zu denken?

ist es sozial, chinesische Bauern und Arbeiter auszubeuten und gesundheitlich zugrunde zu richten und zukünftigen Generationen eine vergiftete Landschaft zu hinterlassen?
Nein, keines von allem.

Wie sich die Bilder doch gleichen: Die Giftgrube ‘Silbersee’ in der DDR, bei Bitterfeld, der ehemals ‘schmutzigsten Stadt Europas’

Es ist der altbekannte real existierende Sozialismus: Der grösstmögliche Widerspruch zwischen pathetischen, grössenwahnsinnigen Zielen und einer bitteren Realität der rücksichtslosen Ausbeutung, Unterdrückung und Zerstörung.

BERGBAU IM WANDEL

Man kann Bergbau sicher, ökonomisch und ‘nachhaltig’ betreiben.

In den entwickelten Industrieländern hat der einst gefahrvolle Beruf des Bergmanns ebenso sein Gesicht gewandelt wie die Bergbaufolgen.

Unter sozialistschem Regime wurden Bergleute in der DDR regelrecht ‘verheizt’; mit billigem Schnaps ruhiggestellt und mit Sonderzuteilungen geködert, liess man sie in den Zechen der Wismut AG verrecken, um Uran für die Bombenproduktion aus der Erde zu kratzen. Bewetterung und Arbeitsschutz wurden ignoriert und in der Folge grassierte Silikose und die Schneeberger Krankheit, der Lungenkrebs durch radioaktive Strahlung.

Halden wurden nicht gesichert, Uranstaub verbreitet sich und es kostete nach dem Zusammenbruch des Regimes viele Milliarden, die Altlasten zu sanieren.

Die wilden Jahre bei der “Wismut”

Im ‘ausbeuterischen’ Westen waren Bergleute dagegen wesentlich besser geschützt, Uranbergbau ist mit modernem Arbeits- und Umweltschutz kein Problem und stellt kein besonderes Risiko dar.
Das gilt nicht nur für Uran. Aus Braunkohle-Tagebaulöchern werden vielfältige, schöne Landschaften mit hohem Nutzwert für Mensch und Natur, statt dutzender oder gar hunderter Bohrlöcher genügt heute für die Öl- und Erdgasgewinnung ein Turm, der dank neuer Horizontalbohrverfahren und hydraulic fracturing nicht nur die alte Technik ersetzt, sondern gigantische neue Vorkommen erschliessen kann.

Und die Erde ist reich! Erst 1975 wurde die Lagerstätte ‘Olympic Dam‘ in Südaustralien gefunden, die alle bisherigen Dimensionen sprengt, Eisen, Kupfer und Gold können dort gemeinsam gefördert werden und obwohl die Mine auch das grösste bekannte Uranlager der Welt ist, ist dieses Uran nur ein nebensächliches Beiprodukt der Gesamtproduktion.
In dieser australischen Mine schuften keine Sklaven, sondern selbstbewusste, von strengen Gesetzen und starken Gewerkschaften geschütze Bergleute, niemand muss unnötig sterben, Staub wird aus der Abluft gefiltert, das Wasser geklärt, selbst die Lärmemissionen werden sorgfältig überwacht und begrenzt.

 DER AUSWEG: ROCHADE

Ich bin der Geist, der stets verneint! Und das mit Recht;
denn alles, was entsteht, ist wert, dass es zugrunde geht

Trotz allen Reichtums kann der Bergbau jedoch niemals ‘Nachhaltig’ im utopischen Sinn des Ökologismus werden. Damit sind die Bedingungen dieses Sektors die zwangsläufige und fundamentale Bankrotterklärung dieser Ideologie.
Der grundlegende Fehler ist die Überzeugung von einer statischen Gesellschaft. Heutige Maßstäbe, heutiges Wissen werden als das Nonplusultra und Ideal angesehen und die Aussicht auf grundlegenden Fortschritt verneint.
In der jetzigen dynamischsten und fortschrittlichsten Phase, in die die Menschheit je eintrat, ist das jedoch geradezu absurd. Alles deutet darauf hin, dass die technologische Revolution gerade erst begonnen hat und dass das meiste, was wir bisher auch an negativen Begleiterscheinungen kennen lernten, nur heilbare Kinderkrankheiten sind.

Um mit endlichen, nicht regenerierbaren Ressourcen ‘nachhaltig’ zu wirtschaften, gibt es nur einen Weg: Man muss Ersatz finden!
Das geschieht grundsätzlich auf zweierlei Arten:

 1. Neue Fundorte aufsuchen und neue Technologien einsetzen

Diese Methode war und ist äusserst erfolgreich, wie der ‘ewige’ Peak Oil zeigt, der zwar schon seit Beginn der Ölforderung am Horizont droht, doch trotz riesenhaft gesteigertem Verbrauch bis heute immer weiter zurück weicht.
Dagegen spricht auch nicht, dass die Förderung auf immer schwerer zugängliche und weniger konzentrierte Vorkommen zugreifen muss.
Wichtig ist, dass wir das dank neuer Technologien können! In der Regel erweist es sich dabei sogar, dass die Kosten real, also inflationsbereinigt, keineswegs wirklich steigen, sondern oft sogar trotz des grösseren Aufwands effektiv sinken, wie es beispielsweise beim US-Shalegas der Fall ist.

 2. Durch neue Werkstoffe und Energiequellen Abhängigkeiten beenden

Auch dieser Weg ist von enormen Erfolgen begleitet. Die Steinzeit ging nicht durch einen Mangel an Steinen zu ende, sondern durch Fortschritt!
Auf dem Energiesektor erleben wir gerade den Beginn der Ablösung des Öls als Brenn- und Treibstoff durch Erdgas. Mit der Kernspaltung fanden wir eine ganz und gar revolutionäre Energiequelle und die Schwester der Spaltung, die Kernfusion, ist in Reichweite.
Auf dem Werkstoffsektor haben die die Plaste und Elaste (Die heissen wirklich so, ganz offiziell) eine ähnliche Revolution bewirkt; eine völlig neue Klasse von synthetischen Materialien, die eine nahezu unglaubliche Bandbreite von Anwendungen abdecken und die jetzt, kaum 100 Jahre nach den ersten Versuchen, geradezu als Leitfossil unserer Zivilisation erscheinen.

Wenig im Fokus ist dagegen die Keramikforschung, die jedoch im Verborgenen stetige Fortschritte macht und eines nicht allzu fernen Tages ultraharte und verschleißfeste, hochtemperatur- und korrosionsbeständige und besonders leichte Werkstoffe liefern kann, die Metalle in vielen Anwendungen nicht nur ersetzen, sondern weit übertreffen, z.B. bei Gasturbinen, die bei Weißglut noch fest bleiben und mit unerhörten Drehzahlen und Drücken laufen, wodurch der Brennstoff-Wirkungsgrad enorm verbessert werden kann. Keramiken haben darüber hinaus auch noch den Vorteil, dass ihre Grundstoffe auf der Erde ausserordentlich reichlich vorhanden sind.
Was Keramik heute schon kann, zeigt dieser Test eindrücklich: Hochleistungskeramik im Hammerschlagtest – mit dem guten alten Porzellan hat das schon nichts mehr zu tun.

Nachhaltigkeit kann niemals statisch sein, sie hat als einzige Konstante die beständige Forschung und Innovation, den ständigen Wandel oder kurz:

Wahre Nachhaltigkeit ist ganz einfach Fortschritt!

Der Beitrag erschien zuerst bei ScienceSceptical




Licht wärmt, im Schatten wird es kühl, doch was ist „Temperatur“?

Das Temperament führte die Ärzte zur Temperatur

Auch die Ärzte des Altertums wussten dies nicht, aber sie waren wohl die ersten, die bemerkten, dass die Gesundheit des Menschen irgendwie mit der Körperwärme zusammenhing. Den Arzneien wurde je nach Befund eine kühlende oder wärmende Wirkung zugeschrieben. Die Stärke dieser Wirkung wurde mit Graden bestimmt. Grad leitet sich vom lateinischen Wort ‚gradus‘ gleich Stufe ab. Ein großer Arzt des Altertums, Galenos von Pergamon (121-199), er war auch Sportarzt bei den Olympischen Spielen, teilte die Wirkung der Arzneien mit einer Achtgradskala ein, je vier Grade für Wärme und für Kälte. Das Menschentemperament käme durch eine Vermischung von vier Flüssigkeiten zustande. Deren Vermischung in einem ganz bestimmten Verhältnis wird im Lateinischen „Temperatur“ genannt. Erst im 17. Jahrhundert begann man, das Wort Temperatur auf die uns heute geläufige Weise zu benutzen, nachdem man gelernt hatte, die Erwärmung eines Körpers ihrer Stärke nach zu messen.

Doch selbst noch Galileo Galilei (1564-1641), der 1597 das erste Thermometer konstruierte, wusste nicht, was er eigentlich maß. Immer, wenn er die Kugel mit der Hand berührte, stieg das Wasserniveau in der Glasröhre. Es hob und senkte sich aber auch ohne Berührung. Erst seinem Schüler Evangelista Torricelli (1608-1647) gelang es, den Zusammenhang zwischen der Höhe der Quecksilbersäule und dem Luftdruck zu erkennen. Zur Zeit Galileis schien selbst die Idee, dass die Luft auf die Erde drücken konnte, unannehmbar. Sein Instrument bestätigte, dass sich Körper bei Erwärmung ausdehnen und bei Abkühlung zusammenziehen. Es bestätigte auch, dass Wärme immer von einem heißen Körper zu einem kalten übergeht. Ein heißer Teekessel kühlt sich im Zimmer von selbst ab, aber er kann sich nicht von selbst erwärmen. Es ist möglich, ein Zimmer mit einem Ofen zu heizen, aber es ist absolut unmöglich, nur auf Kosten einer Zimmerkühlung einen Ofen zu erwärmen.

Galileo Galilei war der „Vater der Experimentalphysik“. Von ihm stammt der weise Spruch: „Die Natur ist unerbittlich und unveränderlich, und es ist ihr gleichgültig, ob die verborgenen Gründe und Arten ihres Handelns dem Menschen verständlich sind oder nicht.“ Wer weiß das besser als ein in der Wetteranalyse und Wettervorhersage tätiger Meteorologe?

Die Vertreibung aus dem Paradies – ein doppelter Verlust an „Wärme“!

Im Paradies hatten Adam und Eva offensichtlich keine Probleme mit dem Wetter, auch keinen Mangel an Wärme, obgleich sie nackt waren. Das lässt den Schluss zu, dass der „Garten Eden“ sich in den feuchtwarmen Tropen mit Temperaturen kaum unter 28 °C befand. Selbst nach dem Sündenfall störte sie die Nacktheit nicht. Aber als Gott sie aus dem Paradies vertrieb, wäre die Nacktheit ein ernstes Überlebensproblem geworden. Gott wusste dies und daher heißt es in der Schöpfungsgeschichte (Gen 3,21), dass Gott Adam und Eva beim Rausschmiss aus dem Paradies „Röcke aus Fellen“ machte und sie damit bekleidete. Er garantierte damit ihr Überleben, denn ohne Kleidung hätten sie nackt kaum die starken Temperaturschwankungen mit glühender Hitze am Tage und empfindlicher Abkühlung in der Nacht, besonders bei klarem Himmel, überleben können.

Adam und Eva hatten zwar verbotenerweise vom „Baum der Erkenntnis“ gegessen, aber ihnen fehlte mangels Erfahrung jegliches Gefühl dafür, welche physiologischen Wirkungen Nacktheit auf sie haben könnte. Sie kannten zwar die Felle der Tiere und das Federkleid der Vögel, aber es war ihnen nicht bewusst, welche lebensnotwendige Funktion diese natürliche „Bekleidung“ hat. Das Geheimnis besteht darin, dass unter dem Federkleid und im Fell Luft ruhig gestellt wird. Trockene Luft hat in der Natur die geringste Wärmeleitfähigkeit. Sie beträgt 0,0262 W/m• K. Luft hat von allen Stoffen die höchste Isolierfähigkeit, doch nur unter der Bedingung, dass sie absolut ruhig gestellt und jedwede Konvektion unterbunden wird. Zudem dürfen die Daunen unter dem Federkleid nicht nass werden. Wasser hat mit 0,56 W/m• K eine 21 Mal höhere Wärmeleitfähigkeit als Luft. Daher sind Enten ständig beschäftigt, ihr Federkleid einzufetten, damit kein Wasser durch das Gefieder dringt und die Daunen durchnässt.

Da ein Stillstellen von Luft unter freiem Himmel völlig unmöglich ist, nutzen Tiere ihr Feder- oder Fellkleid, um sich vor lebensgefährlicher Ab- und Unterkühlung zu schützen. Dasselbe macht der Mensch mit seiner Kleidung, die er stets den Außentemperaturen anpasst. Je größer die Differenz von Körper- und Umgebungstemperatur ist, desto dichter muss die Kleidung sein. Sie schützt uns vor Hitze und Kälte, vor Regen, Sonne und Wind. Die Herstellung von Kleidung war der erste eigenständige Kulturakt des Menschen. Die Natur war dabei Lehrmeisterin. Man muss sie nur genauestens beobachten. Eine Beobachtung war, dass beim Rupfen der Gänse unter dem Gefieder flauschige Daunen zum Vorschein kamen. Enten- und Gänsedaunen nutzt der Mensch zur Herstellung von Kopfkissen und Bettdecken. Zwischen den winzigen Daunen ist Luft eingeschlossen und kann sich nicht bewegen. Begibt sich der Mensch zur Nachtruhe ins kalte Bett, dann wärmt er mit seiner Körperwärme die Bettdecke auf und erzeugt ein dem Schlaf bekömmliches Bettklima. Die Bettdecke wärmt nicht, ebenso wenig wie ein Mantel.

Das Bekleiden von Adam und Eva mit „Fellen“ war ein lebensnotwendiger Gnadenakt, der es dem Menschen ermöglichte, die ganze Welt zu besiedeln und sich dem jeweiligen Temperatur-Milieu anzupassen. Besonders in den polaren Klimazonen waren „Felle“ unverzichtbar. Pelze, vor allem die aus Winterfellen, sind wegen des hohen Wärmeschutzes beliebt. Die Inuit aus Grönland nutzen Robben- und Seehundfelle, in Lappland sind es Rentierfelle, in Sibirien Felle von Polarfuchs, Schneehase. Sibirische Tiger sind vor Kälte bis -45 °C geschützt. Eisiger Kälte angepasst haben sich auch die Hanuman-Languren, eine in Nepal lebende Affenspezies.

Der Mensch ist ein Kraftwerk, eine Verbrennungsmaschine

Der Mensch ist wie alle Säugetiere vergleichbar mit einem „Ofen“, der allerdings immer beheizt werden muss, allein um die Betriebstemperatur zu wahren und den ständigen Wärmeverlust durch Strahlung, Leitung wie Konvektion auszugleichen. Hört mit dem Tode die Verbrennung auf, dann kühlt der Körper ab, bis auf die jeweilige Umgebungstemperatur. Wird in einem Raum ein toter gefunden, dann berechnet man den Todeszeitpunkt mit Hilfe des Newton’schen Abkühlungsgesetzes.  

Beheizt wird der „Ofen“ mit Sonnenenergie, die über die grünen Pflanzen bei der Fotosynthese in die Nahrungskette eingespeist wird. Die Pflanzen liefern auch gleichzeitig den Sauerstoff, ohne den wir die Nahrung nicht im Körper verbrennen könnten. Eine Energieeinsparung ist unmöglich, weil jeder Körper in Abhängigkeit von seiner Temperatur Wärme abstrahlt. Dies betrifft ausnahmslos alle festen und flüssigen Körper auf der Erde. Jeder Stein, jede Pflanze, alles sendet Wärmestrahlung aus und kühlt sich ab. Die Körper werden nicht abgekühlt durch das Weltall, nein sie selbst sind die Objekte, welche in die Umgebung Wärme ausstrahlen. Die Erde dreht sich vor der Sonne, damit „Licht“ immer wieder die Abkühlung unterbrechen, der Erde frische Energie zuführen und sie dadurch erwärmen kann. Ein davon unabhängiger Vorgang ist die Abkühlung oder Erwärmung über den Wind, durch die Advektion kalter oder warmer Luftmassen. Insbesondere die Schwankungen der Tagestemperaturen gehen auf Änderungen der Windrichtung zurück, wobei heute Tropikluft und morgen Polarluft herantransportiert werden kann.

Die von den Körpern je nach deren Temperatur ausgehende Wärmestrahlung ist in der Regel unsichtbar. Sichtbar werden Wärmestrahlen erst, wenn die Herdplatte beginnt rot zu glühen. Strahlen größerer Wellenlänge sind für das menschliche Auge unsichtbar; sie liegen jenseits des roten Lichts. Deswegen spricht man auch von infraroter Strahlung. Hat man entsprechende Infrarot-Kameras, so kann man diese unsichtbare Wärmestrahlung erfassen und somit selbst bei tiefster Finsternis jeden Körper fotografieren und sichtbar machen. Dies kann ein Mensch, ein Wild, ein Baum, ein Haus oder ein getarnter Panzer sein. Die Wärmestrahlung verrät alles! Die Wärmestrahlung erniedrigt die Temperatur des strahlenden Objektes und erhöht die Temperatur des empfangenden Objektes, wenn dieses mehr Wärme empfängt als es selbst ausstrahlt.

Die Erdoberfläche empfängt extrem unterschiedliche Wärmemengen von der Sonne, weil sie eine rotierende „Kugel“ ist und keine senkrecht zur Sonne stehende „Scheibe“. Da die Erdachse nicht senkrecht auf der Sonnenumlaufbahn steht, sondern um 23,5 Grad geneigt ist, haben wie die vier Jahreszeiten Frühling, Sommer, Herbst und Winter. Hat die Sonne bei 23,5 °S den südlichen Wendekreis am 21. Dezember erreicht, dann beginnt der Winter. Dann haben wir in 50 °N die längste Nacht (16 h) und den kürzesten Tag (8 h), bei einer Sonnenhöhe von 16,5 Grad über dem Horizont. Wir sehen es an der Länge unserer Schatten. Die Beleuchtungsstärke der Sonnenstrahlen und ihre Wärmewirkung auf der Haut sind spürbar geringer als am 21. Juni zur Sommersonnenwende am 21. Juni. An diesem Tag steht die Sonne 63,5 Grad über dem Horizont, sind die Tage 16 Stunden lang und die Nächte 8 Stunden kurz. Die höheren Temperaturen im Sommer sind einzig Folge der höheren Beleuchtungsstärke und der längeren Beleuchtungszeiten, der Sonnenscheindauer.

Seit Nikolaus Kopernikus (1473-1543) das heliozentrische Weltbild schuf und Johannes Keppler (1571-1630) die Planetengesetze formuliert hatte, gibt es eine völlig natürliche Begründung sowohl für den Tagesgang der Temperaturen wie deren Jahresgang. Dieser natürlichen Rhythmik hat sich alles Leben auf der Erde angepasst. Es ist einzig und allein die Kraft der Sonne, die das Leben in seiner Vielfalt bestimmt. Die Sonne versorgt im Frühjahr die Natur mit der notwendigen Lebensenergie und entzieht ihr diese Energie im Herbst wieder. Dies zeigt sich an der Vegetationsperiode, vom zarten Grün der Bäume im Frühling bis zum Laubabwurf im Herbst. Bei aller wetterbedingten Veränderlichkeit der täglichen Temperaturen, die jährliche Temperaturkurve folgt eindeutig dem Stand der Sonne wie der Länge von Tag und Nacht. Das Spurengas CO2 mit einem Luftanteil von 0,04 Prozent hat keinen messbaren Einfluss auf die Körpertemperaturen wie die Lufttemperaturen. CO2 dient den Pflanzen als Nahrung zum Aufbau von Nahrung für Mensch und Tier.

Was nun ist Temperatur?

Wärme ist immer an stoffliche Masse gebunden. Je mehr Masse man hat, desto mehr Wärme kann man speichern. Mit 5000 Litern heißem Wasser kann man mehr heizen als mit fünf Litern gleicher Temperatur. Es war ein sehr langwieriger Prozess, die Begriffe „Temperatur“ und „Wärme“, zumal man Wärme und Kälte für verschiedene Substanzen und die Luft für eine unsichtbare Flüssigkeit hielt. Der Begriff Kalorie weist noch auf die Vorstellung von  Wärme als „Kalorikum“ hin. Bei der Wettervorhersage werden immer die Luftströmungen mit Hilfe von hydrodynamischen Bewegungsgleichungen berechnet. 

Im 17. Jahrhundert begannen Naturforscher wie Robert Boyle (1627-1691), Robert Hooke (1635-1703) und Isaac Newton (1642-1726) die Meinung zu vertreten, dass Wärme mit mechanischen Bewegungen zusammenhänge. Vor ihnen hatten schon Philosophen wie Francis Bacon (1561-1626), Thomas Hobbes (1588-1679) und John Locke (1623-1704) diese Ansicht vertreten. Erste quantitative Formulierungen gehen auf Leonhard Euler (1707-1783) und Daniel Bernoulli (1700-1782) zurück. Euler schätzte die Geschwindigkeit der Gasteilchen auf 477 m/s. Bei O °C liegt die mittlere Geschwindigkeit der Luftmoleküle bei 400 m/s (1440 km/h), bei 20 °C sind es 500 m/s (1800 km/h). Die Schallgeschwindigkeit bei 15 °C beträgt nur 340 m/s (1224 km/h).  Also lange vor James Maxwell (1831-1879) wurde der Grundstein für die kinetische Gastheorie gelegt. Als Geburtsjahr für die Theorie der „Bewegung durch Wärme“ gilt 1824, in dem Sadi Carnot (1796-1832) seine „Gedanken über die bewegende Kraft des Feuers und über Maschinen, die diese Kraft ausnutzen können“ vorlegte. Er begründete damit zwar einen neuen Zweig der Physik, die Thermodynamik, fand aber Zeit Lebens keinen Widerhall. 1834 arbeitete Benoit Clapeyron (1799-1864) die Arbeit von Carnot um und verschaffte der Thermodynamik zum Durchbruch. Robert Julius Mayer (1814-1878) bestimmte den Wert des mechanischen Wärmeäquivalents. Er wies auch nach, dass sich Bewegungsenergie vollständig in Wärme umwandeln lässt und verkündete 1845 den Energieerhaltungssatz. Aber Mayer wurde die Anerkennung verweigert, er sah sich gehässigen Angriffen ausgesetzt und verbrachte zehn Jahre im Irrenhaus. Er wurde auch verlacht ob der Erklärung seiner Beobachtung, dass sich bei einem Sturm das Wasser erwärmt.

Es war damals schwierig zu verstehen, dass Energie nicht verschwinden kann. Das Paradoxon wurde erst aufgelöst, als man verstand, dass Wärme mit der ungeordneten Bewegung von Molekülen verbunden ist und dass sich die „verschwundene Energie“ in der Energie dieser Molekülbewegungen wiederfindet. Es war auch sehr schwierig zu verstehen, dass man aus dem Endzustand eines Systems auf keine Weise schließen kann, woher das System seine Energie bekam: auf Kosten von Wärme oder von Arbeit. Arbeit und Wärme sind Prozessgrößen, keine Zustandsgrößen wie Druck, Temperatur, Volumen, innere Energie. Es wuchs auch die Erkenntnis, dass, wenn zwei Körper die gleiche Temperatur hatten, nicht daraus folgte, dass sie dieselbe Energie besaßen. Wärme ist nicht gleich Temperatur, auch wenn gesagt wird, dass es 20 Grad warm ist!

Es war dann William Thomson (1824-1907) oder „Lord Kelvin“, der die thermodynamische Temperaturskala entdeckte. Wurden früher zwei Punkte – der Schmelzpunkt des Eises und der Siedepunkt des Wassers –  gewählt, und deren Abstand wie bei der Celsius-Skala in 100 Teile geteilt, so geht man heute vom Tripelpunkt des Wassers aus, wo die drei Phasen Dampf, Wasser und Eis miteinander koexistieren. Seine Temperatur in Kelvin beträgt exakt 273,16 K oder exakt 0,01 °C. Der Übergang zur neuen Skala mit dem Tripelpunkt des Wassers als einzigem Fixpunkt geschah fast unbemerkt. Diese Übereinkunft wurde im Jahre 1954 getroffen. Dass beide Temperaturskalen, ob in Celsius-Grad oder Kelvin, exakt übereinstimmen wurde 1990 international festgelegt.

Über die Beantwortung der Frage, wie die Molekülgeschwindigkeiten den Gasdruck und wie die Molekülenergien die Temperatur bestimmen und die Gleichung m/2 v2 = 3/2 kT ergibt sich, dass die Temperatur ein Maß für die kinetische Energie der Moleküle ist. Falls man irgendein Molekül lange genug verfolgen könnte, würde man sehen, dass es mal schneller, mal langsamer fliegt, wobei aber das Quadrat der Geschwindigkeit im Mittel gleichbleibt. Wenn sich ein Teekessel in einem Zimmer abkühlt und die Luft erwärmt, kann man später nicht feststellen, warum sich die Luft erwärmt hat. In Gasen herrscht hat „Chaos“. Anders ist es mit elektromagnetischen Feldern. Licht transportiert Informationen von der Fläche! Einen Teekessel oder ein Haus kann man als Foto mit Hilfe einer Infrarotkamera „sehen“. Die Infrarotstrahlung besteht aus gerichteten elektromagnetischen Wellen, die sich nicht im „thermischen Gleichgewicht mit der Luft“ befinden. Sie werden von den Atomen nicht gestreut, „behalten“ darum die Gestalt des Teekessels und können sie übertragen. Die chaotische Molekularbewegung kann keine „Bilder“ übertragen und abbilden!

Der Prozess des Temperaturausgleichs ist irreversibel, unumkehrbar. Er ist immer mit einer Zunahme von Entropie verbunden. Die Entropie wurde von Rudolf Clausius (1822-1888) theoretisch entdeckt. Sie ist eine zur Temperatur zusammenhängende Größe, deren Zunahme, multipliziert mit der Temperatur, die von einem Körper reversibel aufgenommene Wärme-energie bestimmt. Die Gasentropie lässt sich in Tabellen finden, aber es gibt kein Gerät, ähnlich einem Barometer oder Thermometer, das den Entropiewert anzeigt. Konsequenz ist: Es gibt keinen Prozess, dessen einziges Ergebnis die Kühlung eines Körpers und das Verrichten von mechanischer Arbeit wäre. Diffusion, Reibung, Wärmeleitung, Zähigkeit, joulsche Wärme, das sind einige der Hauptmechanismen, die die Entropie erhöhen. Das Prinzip des Entropiezuwachses ist eine Eigenschaft unserer Welt, in der alle makroskopischen Systeme aus unvorstellbar vielen Teilchen (1023 = 100 Trilliarden) bestehen. Die Entropiezunahme definiert die Zeitrichtung, bestimmt den „Zeitpfeil“.

Die Temperatur ist noch viel, sehr viel komplizierter!

Die Wärmelehre entwickelte sich zu einem Teilgebiet der Physik, als klar war, dass die Wärme eine Form von Energie und die Temperatur ein Maß für die Energie der Wärmebewegung ist. Es ist die von Ludwig Boltzmann (1844-1906) entwickelte Boltzmann-Konstante k, die den tiefen Zusammenhang zwischen Mechanik und Wärmelehre als „Energie-Temperatur-Äquivalent“ widerspiegelt. Hat ein Körper die Temperatur T, dann ist kT ein Maß für die mittlere Energie jedes seiner mikroskopischen Freiheitsgrade.

Der ungefähre Wert des Energie-Temperatur-Umrechnungsfaktors ist k ≈ 1,4 • 10-23 J/K. Damit ist bei 1 J ≈ 6,2 • 10^18 eV äquivalent k ≈ 8,5 • 10^-5 eV/K. 1 J entspricht also etwa 0,72 • 10^23 K und 1 eV entspricht etwa 1,2 • 10^4 K. Kurz als Merkregel: 1 eV entspricht etwa 10.000 K! Das bedeutet, dass man die Angabe der Temperatur eines gesunden Menschen als 36,6 °C auch ausdrücken kann mit 309,8 K oder 4,28 • 10^-21 J oder 27 meV. Diese Angaben sind zwar äquivalent und korrekt, aber unüblich und zu abstrakt. Ich denke, wir werden noch lange an den Celsius-Graden festhalten oder in den USA den Fahrenheit-Graden. 36,6 °C entsprechen 97,9 °F!

Eine Temperatur ist ein Maß für die mittlere kinetische Energie der Luftmoleküle, aber was ist eine Mitteltemperatur? Die Temperatur ist eine Qualitätsgröße wohingegen die Wärme eine Quantitätsgröße ist. Je mehr Masse vorhanden ist, desto mehr Wärme kann man speichern. Flüssige Massen kann man vermischen und aus heißem und kaltem Wasser wohl temperiertes Badewasser herstellen. Dies geht auch mit kalter und warmer Luft. Dabei entstehen Tiefdruck-gebiete, in denen dann durch Vermischung ein Temperaturausgleich erzeugt wird.

Aber was passiert, wenn man Temperaturen mittelt? Nichts! Dies ist ein ganz einfacher Rechenvorgang, der nichts bewirkt. Wenn man Temperaturen von London, Berlin, Madrid und Athen mittelt, dann erhält man eine „Mitteltemperatur“, die ein „Spielwert“ darstellt und im Grunde nichts aussagt. Noch viel schlimmer verhält es sich mit der „Weltmitteltemperatur“, gerne „Globaltemperatur“ genannt. Das ist eine fiktive Temperatur ebenso wie das davon abgeleitete „Globalklima“! Mit Mitteltemperaturen kann man nichts anfangen. Dies beginnt bereits bei der Berechnung der Tagesmitteltemperatur, die nicht einmal einheitlich nach den „Mannheimer Stunden“ erfolgt. Die Tagesmitteltemperatur ist eine einfache Rechengröße, kein physikalischer Wert. Wir spüren und fühlen keine Mitteltemperatur, sondern nur den Gang der realen Temperatur.

Deswegen werden in allen Wetterberichten und bei allen Wettervorhersagen immer zwei Temperaturen angegeben, das morgendliche Minimum wie das mittägliche Maximum. Beide Angaben geben ein Gefühl für den Verlauf des Tagesganges der Temperatur. Die „Natur“ richtet sich, wie auch der Mensch bei der Wahl der Bekleidung, immer nach den wirklichen Temperaturen! 

Wenn Sie sich und ihren Freunden etwas Gutes tun wollen, dann gehört auf den Gabentisch das Buch „Propheten im Kampf um den Klimathron – Wie mit Ängsten um Geld und Macht gekämpft wird“. In diesem Sinne Ihnen allen ein fröhliches und gesegnetes Weihnachtsfest und alles Gute im kommenden Jahr!

 Dipl.-Met. Dr. phil. Wolfgang Thüne




Neue Kern-Reaktorkonzepte in Entwicklung – Small Modular Reactor (SMR) aus energiewirtschaftlicher Sicht. Teil 2 Leichtwasserreaktoren

0 0 1 2969 17791 Management Consult 269 54 20706 14.0 Print 0 2 false false false DE JA X-NONE

http://www.nukeklaus.de/home/smr-teil-2-leichtwasserreaktoren/

SMR Teil 2 — Leichtwasserreaktoren

Veröffentlicht am 17.12.2013

Leichtwasserreaktoren haben in den letzten zwanzig Jahren täglich mehr Energie produziert, als Saudi Arabien Öl fördert. Sie sind die Arbeitspferde der Energieversorger. Kein anders Reaktorkonzept konnte bisher dagegen antreten.

Sieger der ersten Runde des Förderungsprogramm des Department of Energy (DoE) war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Sicherlich kein Zufall, sind doch (fast) alle kommerziellen Reaktoren Leichtwasserreaktoren und B&W ist der Hoflieferant der US-Navy — hat also jahrzehntelange Erfahrung im Bau kleiner Druckwasserreaktoren.

Die Gruppe der kleinen Druckwasserreaktoren

Bei konventionellen Druckwasserreaktoren sind um das "nukleare Herz", dem Reaktordruckgefäß, die Dampferzeuger (2 bis 4 Stück), der Druckhalter und die Hauptkühlmittelpumpen in einer Ebene gruppiert. Diese Baugruppen sind alle mit dem eigentlichen Reaktor durch dicke und kompliziert geformte Rohrleitungen verbunden. Eine solche Konstruktion erfordert langwierige und kostspielige Montagearbeiten unter den erschwerten Bedingungen einer Baustelle. Die vielen Rohrleitungen bleiben für die gesamte Lebensdauer des Kraftwerks "Schwachstellen", die regelmäßig gewartet und geprüft werden müssen. Der gesamte Raum muß in einem Containment (Stahlbehälter aus zentimeterdicken Platten) und einer Stahlbetonhülle (meterdick, z. B. gegen Flugzeugabstürze) eingeschlossen werden.

Bei einem Small Modular Reaktor (SMR) stapelt man alle erforderlichen Komponenten vertikal übereinander und packt sie alle zusammen in einen Druckbehälter. Dadurch entfallen die vielen Rohrleitungen und Ventile zu ihrer Verbindung. Was es gar nicht gibt, kann auch nicht kaputt gehen. Der "größte — im Sinne eines Auslegungskriteriums — anzunehmende Unfall" (GAU, oft zitiert und kaum verstanden), der Verlust des Kühlmittels, wird weniger wahrscheinlich und läßt sich einfacher bekämpfen. Allerdings sind bei dieser "integrierten Bauweise" die Größen der einzelnen Komponenten begrenzt, will man noch eine transportierbare Gesamteinheit haben. Will man ein Kraftwerk mit heute üblicher Leistung bauen, muß man daher mehrere solcher Einheiten "modular" an einem Standort errichten.

Geht man von diesem Konstruktionsprinzip aus, erhält man ein röhrenförmiges (kleiner Durchmesser, große Länge) Gebilde. Die Länge — als Bauhöhe umgesetzt — läßt sich hervorragend für passive Sicherheitskonzepte nutzen. Die schlanke Bauweise erlaubt es, den kompletten Reaktor in eine Grube zu versenken: Durch die unterirdische Bauweise hat man einen hervorragenden Schutz gegen alle Einwirkungen von außen (EVA) gewonnen.

Das Grundprinzip, der Anordnung übereinander, eint diese Gruppe. Gleichwohl, sind im Detail eine Menge Variationen möglich und vielleicht sogar nötig. So meldete allein nuSkale diesen Monat voller Stolz, daß sie über 100 verschiedene Patente in 17 Ländern für ihren Reaktor angemeldet haben. Inzwischen dürften die SMR-Patente in die Tausende gehen. Nach einer sterbenden Industrie, sieht das jedenfalls nicht aus.

Das mPower Konzept

Das "Nuclear Steam Supply System" (NSSS) von Babcock & Wilcox (B&W) ist besonders schlank geraten: Es hat eine Höhe von über 25 m bei einem Durchmesser von 4 m und wiegt 570 (ohne Brennstoff) bzw. 650 to (mit Brennstoff). Damit soll es in den USA noch auf dem Schienenweg transportierbar sein. Seine Wärmeleistung beträgt 530 MW und seine elektrische Leistung 155 MWe (mit Luftkondensator) oder 180 MWe bei Wasserkühlung. Ein komplettes Kraftwerk mit zwei Blöcken und allen erforderlichen Hilfs- und Nebenanlagen (300 – 360 MWe), soll einen Flächenbedarf von etwa 16 ha haben. Damit ist die Hauptstoßrichtung klar: Der Ersatz bestehender, alter Kohlekraftwerke.

Das Core besteht aus 69 Brennelementen mit 2413 mm aktiver Länge in klassischer 17 x 17 Anordnung bei einer Anreicherung von weniger als 5 % U^235. Hierbei zielt man auf die kostengünstige Weiterverwendung handelsüblicher Brennelemente für Druckwasserreaktoren ab. Bei diesem kleinen Reaktor kann man damit Laufzeiten von rund 4 Jahren zwischen den Nachladungen erreichen. Durch die Doppelblockbauweise ergibt sich somit eine extrem hohe Arbeitsausnutzung von (erwartet) über 95%. Das integrierte Brennelementelagerbecken kann Brennelemente aus 20 Betriebsjahren aufnehmen.

Die Turmbauweise erlaubt vollständig passive Sicherheitseinrichtungen, wodurch ein Unglück wie in Fukushima (völliger Stromausfall) von vornherein ausgeschlossen ist. Die Brennelemente sitzen ganz unten im Druckbehälter. Darüber kommt die gesamte Steuereinheit (Regelstäbe und ihre Antriebe) und darüber die Dampferzeuger. Ganz oben sitzen die acht Umwälzpumpen und der Druckhalter. Bei einem Stromausfall würden die Regelstäbe sofort und vollautomatisch durch die Schwerkraft in den Reaktorkern fallen und diesen abschalten. Die — im ersten Moment noch sehr hohe — Nachzerfallswärme erwärmt das Kühlwasser weiter und treibt durch den entstehenden Dichteunterschied das Kühlwasser durch den inneren Kamin nach oben. In den höher gelegenen Dampferzeugern kühlt es sich ab und sinkt im Außenraum des Reaktorbehälters wieder nach unten: Ein Naturumlauf entsteht, der für die sichere und automatische Abfuhr der Restwärme sorgt.

Als "Notstrom" werden nur entsprechende Batterien für die Instrumentierung und Beleuchtung etc. vorgehalten. Große Notstromaggregate mit Schalt- und Hilfsanlagen werden nicht benötigt. Auch hier gilt wieder: Was es gar nicht gibt, kann im Ernstfall auch nicht versagen!

Westinghouse SMR (NextStart Alliance)

Westinghouse hat den ersten Druckwasserreaktor überhaupt entwickelt (Nautilus Atom-U-Boot 1954), das erste kommerzielle Kernkraftwerk (Shippingport 1957) gebaut und ist  bei fast allen (westlichen) Druckwasserreaktoren Lizenzgeber. Es ist also nicht überraschend, wenn der Marktführer auch in diesem Segment dabei ist. Die NextStart SMR Alliance ist ein Zusammenschluss mehrerer Energieversorger und Gemeinden, die bis zu fünf Reaktoren im Ameren Missouri’s Callaway Energy Center errichten will.

Der Westinghouse SMR soll eine Leistung von 800 MWth und mindestens 225 MWe haben. Er unterscheidet sich von seinem Konstruktionsprinzip nicht wesentlich vom vorher beschriebenen B&W "Kleinreaktor". Seine Zykluszeit soll 24 Monate betragen (bei Verwendung der Brennelemente des AP1000). Seine Lastfolgegeschwindigkeit im Bereich von 20 bis 100% Auslegungsleistung beträgt 5% pro Minute. Der Reaktor kann selbstregelnd Lastsprünge von +- 10 % mit einer Rate von 2% pro Minute dauerhaft ausregeln. Das alte Propagandamärchen der "Atomkraftgegner" von den "unflexiblen AKW’s" trifft auch bei diesen Reaktortypen nicht zu. Im Gegenteil, dreht Westinghouse den Spieß werbewirksam um und offeriert diesen Reaktor als (immer notwendiges) Backup für Windkraft- und Solaranlagen zur CO2-freien Stromversorgung.

Westinghouse integriert in das Containment noch einen zusätzlichen Wasservorrat und bekämpft auch noch passiv einen völligen Verlust des Kühlwasserkreislaufes. Damit dieser Störfall eintreten kann, müßte das Druckgefäß des SMR zerstört worden sein.  In diesem Fall könnte das Wasser auslaufen und würde sich im Sumpf des Containment sammeln. Damit jeder Zeit der Kern des Reaktors mit Wasser bedeckt bleibt (und nicht wie in Fukushima und Harrisburg teilweise und zeitweise trocken fallen kann), wird automatisch Wasser aus den Speichern im Containment zusätzlich hinzugefügt. Alle Systeme sind so bemessen, daß sich der Reaktor auch nach einem schweren Unglück selbst in einen sicheren Zustand versetzt und mindestens für die folgenden 7 Tage keines menschlichen Eingriffs bedarf.

Wenn nur der Strom total ausfällt, aber das Reaktordruckgefäß nicht geplatzt ist, funktioniert die passive Notkühlung in drei gestaffelten Ebenen. Solange der normale Kühlkreislauf (Kühlturm oder Kühlwasser) noch Wasser enthält, wird über diesen durch Verdunstung die Nachzerfallswärme abgeführt. Versagt dieser sekundäre Kreislauf des Kraftwerks, tritt die innere Notkühlung in Kraft. Das kalte und borierte Wasser in den Nottanks strömt in den Reaktor. Gleichzeitig kann das heiße Wasser den Reaktor verlassen und in die Notkühlbehälter zurückströmen — es entsteht ein Naturumlauf. Damit das Wasser in den Notkühlbehältern auch weiterhin "kalt" bleibt, besitzt jeder dieser Behälter im oberen Teil einen Wärmeübertrager. Diese Wärmeübertrager sind außerhalb des Containment mit "offenen Schwimmbecken" verbunden, die durch Verdunstung die Energie an die Umwelt abgeben können. Bricht auch dieser Kühlkreislauf in sich zusammen. Kann die Wärme immer noch durch Verdampfung des Wassers im Sumpf des Containment und durch anschließende Kondensation an der Oberfläche des Containment abgeführt werden.

Ausdrücklich wird der Markt für diesen Reaktortyp auch in der Fernwärmeversorgung und zur Meerwasserentsalzung gesehen. Peking hat z. B. viele Kohleheizwerke, die stark zur unerträglichen Luftverschmutzung beitragen. Es ist also kein Zufall, daß bereits Kooperationsverhandlungen laufen.

NuScale

Diese Variante ist aus einem durch das U.S. Department of Energy (USDOE) geförderten Forschungsprojekt am Idaho National Environment & Engineering Laboratory (INEEL) und der Oregon State University (OSU) hervorgegangen. Im Jahre 2008 hat dieses "Startup" einen Genehmigungsantrag bei der US Nuclear Regulatory Commission (USNRC) für einen 45 MWe Reaktor gestellt. Im Jahr 2011 ist das Unternehmen praktisch vollständig von FLUOR übernommen worden. Es besteht zudem eine sehr enge Verbindung mit Rolls-Royce.

Das NuScale Modul hat nur eine thermische Leistung von 160 MWth und eine elektrische Leistung von mindestens 45 MWe. Bei einem Durchmesser von 4,5 m, einer Höhe von 24 m und einem Gewicht von 650 to ist es aber fast genau so groß, wie die beiden schon vorgestellten SMR. Die geringe Energiedichte führt zu einer starken Vereinfachung. Das Unternehmen gibt die spezifischen Investitionskosten mit weniger als 5.000 $/kW an.

Bei dem Konzept handelt es sich um einen Zwitter aus Siedewasser- und Druckwasserreaktor. So etwas ähnliches gab es auch schon in Deutschland, unter der Bezeichnung FDR, als Antrieb der Otto Hahn. Dieses Konzept hat sich schon damals als sehr robust und gutmütig erwiesen. Der NuSkale SMR kommt völlig ohne Umwälzpumpen aus. Man nimmt im Reaktorkern einen etwas höheren (als bei einem reinen Druckwasserreaktor üblichen) Dampfanteil in Kauf, bekommt dafür aber einen großen Dichteunterschied (bezogen auf das "kalte" Eintrittswasser), der hervorragend einen Naturumlauf anregt. Allerdings erzeugt man keinen Dampf, den man direkt auf die Turbine gibt (wie bei einem Siedewasserreaktor), sondern "beheizt" damit nur die zwei in dem Reaktordruckgefäß integrierten Dampferzeuger. Man hat also wie bei einem konventionellen Druckwasserreaktor einen physikalisch voneinander getrennten Primär- (durch den Reaktorkern) und Sekundärkreislauf (über die Turbine).

Das NuScale-Konzept bricht radikal mit einigen Gewohnheiten:

·       Man geht von bis zu zwölf Reaktoren aus, die zu einem Kraftwerk mit dann mindestens 540 MWe zusammengefaßt werden. Sie sollen in zwei Reihen zu sechs Reaktoren in einem "unterirdischen Schwimmbecken" angeordnet werden. Bei einem Ladezyklus von 24 Monaten, könnte somit alle zwei Monate ein Brennelementewechsel erfolgen. Bei einem zusätzlichen "Reservemodul" könnte das Kraftwerk nahezu mit 100 % Arbeitsausnutzung durchlaufen. Die "Auszeit" eines konventionellen Kernkraftwerk entfällt. Ebenso wird die Personalspitze (üblicherweise mehr als 1000 Leute beim Brennelementewechsel) vermieden. Der Brennelementewechsel mit seinen Wiederholungsprüfungen wird zu einem stetigen "Wartungsprozess" umgestaltet. Dies kann zu beträchtlichen Kosteneinsparungen führen.

·       Durch den Verzicht von Umwälzpumpen wird die Konstruktion noch einmal stark vereinfacht.

·       Durch die Aufstellung in einem "großen Schwimmbecken" sind die Reaktoren vor Erdbeben und Druckwellen praktisch vollkommen geschützt. Überflutungen (Fukushima) sind kein Sicherheitsrisiko mehr, da ja die Reaktoren ohnehin ständig im Wasser stehen.

·       Die Reaktoren verzichten vollständig auf Wechselstrom (Fukushima) und benutzen lediglich passive Sicherheits- und Kühlsysteme. Elektrische Energie ist nur für die Instrumentierung und Beleuchtung notwendig. Relativ kleine Batterien sind hierfür ausreichend. Der Batterie- und Kontrollraum befindet sich im unterirdischen Teil des Kraftwerks.

·       Selbst wenn es zu einer Beschädigung des Reaktorkerns kommen würde (Fukushima), würden radioaktive Stoffe im Schwimmbecken und Reaktorgebäude zurückgehalten werden. Außerdem beträgt das radioaktive Inventar in jedem Modul weniger als 5% eines konventionellen Reaktors. Somit ist auch die bei einem Unfall abzuführende Restwärme entsprechend klein.

·       Im Containment herrscht Vakuum. Eine Bildung explosiver Gase (Fukushima) ist somit ausgeschlossen. Es wirkt wie eine Thermosflasche, zusätzliche Isolierungen sind nicht erforderlich. Andererseits würde es bei einer Zerstörung des eigentlichen Druckbehälters, den entweichenden Dampf aufnehmen und eine "Wärmebrücke" zum umgebenden Wasser herstellen.

Die überragende sicherheitstechnische Philosophie dieses Konzeptes ist, daß sich auch nach schwersten Zerstörungen (z. B. Tsunami in Fukushima) der Reaktor ohne menschliche Eingriffe selbsttätig in einen sicheren Zustand überführt und dort ohne jeden (nötigen) Eingriff ewig verbleibt! Dies mag noch einmal an der "Notkühlung" verdeutlicht werden: Wenn die äußere Wärmesenke entfällt (Ausfall der Kühlwasserpumpen in Fukushima durch den Tsunami), alle Stromquellen ausfallen (Zerstörung der Schaltanlagen und Notstromaggregate durch die Flutwelle in Fukushima), dient das "Schwimmbecken" zur Aufnahme der Nachzerfallswärme. Es ist so bemessen, daß sein Wasserinhalt durch Erwärmung und Verdunstung den Reaktorkern sicher kühlt. Selbst, wenn man kein Wasser nachfüllen würde, wäre es erst nach etwa einem Monat leer. Dann aber, ist die Nachzerfallswärme bereits so stark abgeklungen (< 400 kW pro Modul), daß die "Luftkühlung" in dem nun leeren Wasserbecken, sicher ausreichen würde.

Das Brennelementelagerbecken ist zur Aufnahme von 15 Betriebsjahren ausgelegt. Es befindet sich ebenfalls im unterirdischen Teil und kann für mindestens 30 Tage ohne zusätzliches Wasser auskommen (Fukushima). Es besteht aus einem Edelstahlbecken in einer Stahlbetonwanne. Stahlbecken und Betonwanne sind seismisch von einander isoliert, sodaß auch schwerste Erdbeben praktisch wirkungslos für die gelagerten Brennelemente sind.

Die NuScale Konstruktion ist ein schönes Beispiel, wie man Jahrzehnte alte Entwürfe der Leichtwasserreaktoren noch einmal ganz neu durchdenken kann. Es ist der radikalste Ansatz unter den zur Genehmigung eingereichten Konzepten. Die Wahrscheinlichkeit für eine schwere Beschädigung des Reaktorkerns mit teilweiser Kernschmelze — wie in Harrisburg und Fukushima geschehen — verringert sich auf unter ein Ereignis in zehn Millionen Betriebsjahren. Selbst wenn es eintreten würde, wären die Auswirkungen auf die Umwelt noch geringer. Es wird bereits diskutiert, ob bei diesem Reaktortyp überhaupt noch eine "Sicherheitszone", mit potentieller Evakuierung der Anwohner, erforderlich ist. Jedenfalls gibt es in USA bereits ein reges Interesse zahlreicher Gemeinden und Städte zur dezentralen, kostengünstigen, umweltschonenden und krisensicheren (Wirbelstürme, Tornados, etc.) Versorgung mit Strom und Fernwärme.

Holtec international

Einem klassischen Reaktor noch am ähnlichsten, ist das von Holtec im Jahre 2012 eingereichte Konzept des "Holtec Inherently-Safe Modular Reactor" (HI-SMUR) mit einer geplanten Leistung von 145 MWe. Er besteht aus den klassischen drei Baugruppen: Reaktor, Dampferzeuger und Druckhalter. Der Druckbehälter ist ein fast 32 m langes Gebilde, welches in einer brunnenförmigen Grube versenkt ist. Es ist mit den Dampferzeugern entweder durch ein "Rohrstück" (senkrechte Variante) verbunden oder die waagerechten Dampferzeuger sind direkt angeschweißt. Liegende Dampferzeuger sind nur bei russischen Konstruktionen gebräuchlich. Werden stehende Dampferzeuger verwendet, baut dieser Typ oberirdisch noch einmal 28 m hoch.

Der Entwurf ist sehr eigenwillig. Man hat ursprünglich waagerechte Dampferzeuger mit separater Überhitzung vorgesehen. Angeblich kann man durch eine angestrebte Überhitzung auf handelsübliche Industrieturbinen zurückgreifen. Man verzichtet auf Umwälzpumpen, bei gleichzeitig großem Abstand vom Siedezustand. Man ist deshalb auf eine sehr große Temperaturspreizung (T_E = 177 °C und T_A =302 °C bei p = 155 bar) angewiesen. Eine regenerative  Speisewasservorwärmung ist praktisch ausgeschlossen. Das ganze ähnelt eher einer Dampflokomotive, als einem modernen Kraftwerk.

Das Brennstoffkonzept ist auch etwas ungewöhnlich. Es ist keine Borierung zur Kompensation der Überschußreaktivität vorgesehen. Das heißt, es muß alles über abbrennbare Gifte (Gd und Er) geschehen. Der gesamte Brennstoff soll sich in einer Kartusche aus nur 32 Brennelementen befinden. Bei einem so kleinen Core dürfte der Neutronenfluß nur sehr schwer in den Griff zu bekommen sein bzw. jeder Brennstab müßte eine individuelle Anreicherung erhalten. Man will die Kassette nach 100 h (Nachzerfallswärme) in einem Stück auswechseln. Ein Brennelementewechsel soll so weniger als eine Woche dauern. Gleichwohl, soll die Zykluszeit 42 Monate betragen. Wenn sich nicht einige revolutionäre Erfindungen dahinter verbergen, die bisher noch nicht öffentlich zugänglich sind, dürfte eher der Wunsch der Vater sein.

Bisher kooperiert Holtec mit Shaw und Areva. Ein Prototyp wäre auf der Savannah River Site des DoE’s geplant. Die Bauzeit wird mit nur 2 Jahren, bei Kosten von nur 675 Millionen US-Dollar angegeben. Man wird sehen.

Carem

Anfang Dezember 2013 wurde der Auftrag für das Reaktordruckgefäß des "Central Argentina de Elementos Modulares" CAREM-Reaktor erteilt. Es handelt sich dabei um ein 200 to schweres, 11 m hohes Gefäß mit einem Durchmesser von 3,5 m. Es ist für den Prototyp eines argentinischen SMR mit einer Leistung von 25 MWe gedacht. Später soll dieser Reaktor eine Leistung von 100 bis 200 MWe erreichen. Es handelt sich ebenfalls um eine voll integrierte Bauweise, mit ausschließlich passiven Sicherheitseinrichtungen.

Schwimmender SMR aus Russland

Der staatliche russische Hersteller Rosenergoatom baut in Petersburg eine Barge mit zwei Reaktoren, die nach Chukotka in Sibirien geschleppt werden soll, um dort Bergwerke mit Energie zu versorgen. Die Reaktoren sind eine zivile Abwandlung der KLT-40S Baureihe für Eisbrecher, mit einer Leistung von 35 MWe. Vorteil dieses "Kraftwerks" ist, daß es auf einer seit Jahren erprobten Technik basiert. Die russische Eisbrecherflotte versieht zuverlässig ihren Dienst im nördlichen Eismeer. Ein nicht zu unterschätzender Vorteil bei der Versorgung entlegener Gegenden.

Sehr Interessant ist das Geschäftsmodell. Eine solche Barge wird fix und fertig zum Einsatzort geschleppt. Der Kunde braucht nur für den Stromanschluss an Land zu sorgen. Weitere Investitionen oder Unterhaltskosten fallen für ihn nicht an. Nach drei Jahren wird die Barge für einen Brennelementewechsel und notwendige Wiederholungsprüfungen abgeschleppt und durch eine andere Barge ersetzt. Da bei einem Kernkraftwerk die Brennstoffkosten ohnehin eine untergeordnete Rolle spielen, kann der Kunde das Kraftwerk für eine pauschale Jahresgebühr mieten. Ob und wieviel Strom er verbraucht, braucht ihn nicht mehr zu kümmern. Eine feste Kalkulationsgrundlage, die für Öl- und Minengesellschaften höchst verlockend ist. Als einzige Hürde in westlichen Regionen, erscheint lediglich (noch) das "Made in Russia". Jedenfalls hat er keine Vorauszahlungen zu leisten, hat keinerlei Reparaturkosten und braucht sich nicht um die Entsorgung des "Atommülls" zu kümmern. Russland kann seinen "Heimvorteil" des geschlossenen Brennstoffkreislaufs voll ausspielen.

Parallel hat Russland noch ein größeres Modell mit 300 MWe  auf der Basis des VBER-300 PWR Druckwasserreaktors in der Entwicklung.

Abschließender Hinweis

Dieser Artikel kann und soll nur einen Überblick über den Stand der internationalen Entwicklung geben. Wer bis hierhin nicht durch so viel Technik abgeschreckt worden ist, dem empfehle ich, einfach mal die Typen und Hersteller zu googeln. Besonders die Seiten der Hersteller verfügen über zahlreiche Zeichnungen und Animationen. Zwar ausnahmslos in Englisch, aber mit der Grundlage dieses Artikels, lassen sie sich hoffentlich auch für nicht Techniker verstehen

Dr. Ing. Klaus-Dieter Humpich

Dieser Beitrag erschien zuerst bei Nukeklaus