Kernforschungszentrum Jülich 1967:Kernforscher leiten GAU ein. Keiner hat´s bemerkt!

„Technik und künftige Einsatzmöglichkeiten nuklearer Hochtemperaturreaktoren.“

In der Zeitschrift „Fusion“ Heft 1; 2010 ist der hochinteressanten Beitrag aus dem Jahre 1990 von Prof. Dr. Rudolf Schulten „Alte und neue Wege der Kerntechnik“ nochmals abgedruckt worden, und es reizt mich, heute, nach mehr als 20 Jahren einen Vortrag zu halten, in dem ich, ich nehme bewusst das Ergebnis vorneweg, nachweisen kann, dass die Hochtemperaturreaktortechnik heute noch immer aktuell ist, und mit an Sicherheit grenzender Wahrscheinlichkeit bald den Nachweis erbringen wird, dass die Gedanken und Überlegungen, die Prof. Dr. Schulten als junger Ingenieur in den 50iger Jahren hatte, richtig und zukunftweisend sind und sein werden.

Als junger Ingenieur hat mich damals die Aufgabe gereizt, an dem von Prof. Schulten erdachte Reaktorkonzept mit dem AVR-Reaktor in Jülich in leitender Funktion als Hauptabteilungsleiter für die gesamte Technik mitarbeiten zu können, und so den Bau des Reaktors, alle Prüfungen und die Inbetriebnahme bis zur Übergabe an den Kunden verantwortlich zu leiten. Diesen Reiz habe ich bis heute nicht verloren, und daher freut es mich, diesen Vortrag  halten zu können.

Hier zunächst noch einmal die Grundüberlegungen aus Sicht der seinerzeitigen Energiepolitik.

Die Energiepolitik nach dem Kriege,  also zur Zeit des Wiederaufbaus der Deutschen Wirtschaft basierte auf:

1.)  Möglichst preiswerter, also billiger Stromversorgung für Industrie und Haushalten. Teure, überhöhte Strompreise sind unsozial, sie behindern das Wachstum der Volkswirtschaft insgesamt.

2.)  Versorgungssicherheit.

3.)   Energiepolitisch optimaler Einsatz der vorhandenen Brennstoffe und deren Ressourcen bei der Strom-und Energieerzeugung, sowie in Haushalten und Verkehr.

Hierzu standen zur Verfügung:

–       Die festen Brennstoffe, also Stein- und Braunkohle;

–       Die flüssigen Brennstoffe Erdöl und Erdgas.

Alle diese Primärenergien waren und sind geeignet zur Erzeugung elektrischer Energie in Kraftwerken. Für Haushalte und Verkehr  sind auch heute noch  nur die flüssigen Brennstoffe technisch vernünftig und wirtschaftlich einsetzbar.

Daher galt es als Ziel, zur Stromerzeugung primär Stein- und Braunkohlen einzusetzen, die „Edelenergien“ Öl und Gas sollten nur in besonderen Fällen, also falls wirtschaftlich von großem Nutzen, auch in Großkraftwerken eingesetzt werden.

Zur damaligen Zeit war es Stand der „Erkenntnisse“, dass alle diese Brennstoffe nur für einen begrenzten Zeitraum zur Verfügung stehen würden, man rechnete damals bis zur Jahrtausendwende. Dies hat sich als zu pessimistisch herausgestellt. Heute weiß noch niemand, wie lange, vor allem bei dem stetig steigenden Energieverbrauch und der ständig steigenden Weltbevölkerung, diese Energiereserven tatsächlich ausreichen werden. Fakt ist aber weiterhin, dass sie begrenzt sind und dadurch stetig teurer werden. Dies bedarf sicher keiner weiteren Diskussion. Wir in Deutschland sind eines der Öl- und Erdgas ärmsten Länder. Nur die Kohle ist noch vorhanden.

Um  dieser zu erwartenden weltweiten Energieklemme frühzeitig gegenzusteuern und im Endeffekt zu vermeiden, wurden schon ab den 50iger Jahre weltweit Kernkraftwerke entwickelt und gebaut.

Diese Problematik existiert auch heute noch, nur dass neben den Kernkraftwerken die sogenannten „erneuerbaren Energien“, also Windkraft und Solartechnik als Alternativen angesehen werden. Doch dazu später noch einigen Worte.

In dieser Zeit hatte Prof. Dr. Schulten bereits die Idee, Hochtemperaturreaktoren zu bauen, wobei er neben dem U235, das in der Natur relativ begrenzt vorkommt, vor allem auch Thorium als nuklearen Brennstoff zu erbrüten und dann als U233 zu verbrennen.

Seine Überlegungen zur technischen Lösung basierten auf folgenden  verfahrenstechnischen Grundlagen:

–       Kugelförmige Brennelemente wegen ihrer überlegenen Strömungs-und Wärmeübertragungseigenschaften. Sie können während des laufenden Betriebes des Reaktors umgewälzt, ausgewechselt, ihr Abbrand gemessen und abgezogen und gelagert werden;

–       Graphit als Hauptwerkstoff für Brennelemente und die Reaktoreinbauten, das dieser Werkstoff als Moderator der Neutronenstrahlung dient und für besonders hohe Betriebstemperaturen geeignet ist;

–       Helium als Kühlmittel wegen seiner besonders hohen Wärmeübergangszahlen;

–       Ein integriertes, in sich geschlossenes Primärkreis Reaktorkonzept zur Erzielung höchster Sicherheit;

–       Uran 235 und Thorium 232 als Brennstoffe, mit dem Ziel, mit dem Uran 233 neuen Brennstoff zu erbrüten;

–       Hohe Betriebstemperaturen zur Stromerzeugung mit höchsten thermodynamischen Wirkungsgraden zur optimalen Ausnutzung des nuklearen Brennstoffs;

–       Möglichkeit,  mittels Kernbrennstoffen wegen der möglichen hohen Gastemperaturen in verfahrenstechnischen und  chemischen Prozessen durch Vergasung von Kohlen, Braunkohlen, Torf und weiteren Biomassen flüssige Brennstoffe für Haushalte und Verkehr zu produzieren;

–       Der inhärenten Sicherheit des Reaktors, da ein „GAU“ auch bei komplettem Ausfall der Kühlung nicht eintreten kann.

Es waren geradezu visionäre Überlegungen, die zum Erfolg dieser Technik führen, denn alle vorgenannten Überlegungen sind auch heute noch, also nach 60 Jahren, uneingeschränkt gültig. Prof. Schulten war auf seinem Gebiet ein Vordenker, der eigentlich nur mit Wernher von Braun vergleichbar ist. Die in Deutschland durch geführte Entwicklung ist ein großer Erfolg, auch wenn „Umweltschützer“ das nicht anerkennen wollen und Politiker das noch nicht erkannt haben. Ende der 90iger Jahre bei Stilllegung des AVR und des THTR auf politischen Druck, hatte Deutschland in dieser Technik eine weltweit führende Position, ja fast eine Monopol.

An die Ingenieurtechnik stellte die Umsetzung dieser Ideen extreme Anforderungen.  Eines der größten Probleme stellte das He-Gas dar.

He ist ein sehr dünnes und trockenes Gas, das zuvor in diesem Umfang noch nie eingesetzt war.  Alle Komponenten des Reaktors mussten ohne jegliches Vorbild und ohne vorliegende Erfahrungen neu konstruiert  werden. Sie wurden in Versuchsanlagen unter normalen Bedingungen erprobt. Die meisten versagten dann beim Einbau in den Reaktor bei Betrieb unter He-Bedingungen. Dies führt zwangsläufig zu ständigen Terminverzögerungen und Kostenerhöhungen. Als Führungskraft war der Druck enorm. Man hielt mir von oberster Stelle einmal vor:“Sie bauen alles 2x“, meine Antwort war nur kurz, „ja, das ist richtig, aber nichts dreimal“. Erproben und Prüfen bis zur endgültigen Sicherheit, dass alle Probleme erkannt und gelöst seien, ist die entscheidende technische Grundlage für  erfolgreiche Entwicklungen. So habe ich auch einmal unwirsch gesagt, was soll ich denn machen, Kosten vermeiden, Termine einhalten oder eine Anlage bauen, die läuft, beides geht nicht. Ich war noch jung genug, um mich durchsetzen zu können.  Es würde hier zu weit führen, alle technischen Probleme zu erläutern und die Lösungen aufzuzeigen. Dennoch kam uns Ingenieuren eine Entwicklung, man kann fast sagen, die  alles entscheidende, zu Gute. Die fortlaufende Entwicklung der Brennelemente mit den sogenannten „Coated Particles“.

Ohne diese Entwicklung in großartiger internationaler Zusammenarbeit wäre der Erfolg des AVR erheblich schwieriger geworden. Die neuen gepressten Graphitkugeln mit eingelagerten Uran wurden, und das soll besonders erwähnt werden, entwickelt in Zusammenarbeit von

–       Dem AVR in D;

–       Dem parallel laufenden Dragon Projekt in GB;

–       Der Gulf General Atomic in den USA;

–       Der KFA Jülich;

–       Der KFA Grenobel in F;

–       Dem österreichischen Kernforschungszentrum Seibersdorf;

–       Dem Reaktorzentrum Petten in NL;

–       Der UKAEA in GB;

–       Union Carbide Corp. In den USA:

–       Der Nukem zusammen mit der Hobeg;

Diese großartige, wohl einmalige internationale Zusammenarbeit wurde maßgeblich mitfinanziert durch das Bundesforschungsministerium, das einen entscheidenden Beitrag leistete.

Der Erfolg dieser Entwicklung lässt sich am besten darstellen, wenn man die ursprüngliche Auslegung des Kühlkreislaufes, also des Heliums im AVR Reaktor betrachtet. Die Radioaktivität wurde anfänglich mit 10^7 Curie ermittelt.  Die dann tatsächlich später gemessene  Radioaktivität betrug nur noch 360 Curie.

Der AVR erreichte die erste Kritikalität am 28.8.1966. Nach erfolgreicher Durchführung aller Testläufe mit den verschiedenen Komponenten und der erfolgreichen Durchführung aller nuklear-physikalischen Messungen zur Überprüfung der Berechnungen konnte der Reaktor den Betrieb aufnehmen. Am 18.12.1966 wurde die Dampfturbogruppe erstmals aufs Netz geschaltet, mit einer Leistung von 6 MW.

Danach war die Anlage bis zum 31.12.1988 in Betrieb. Die Abschaltung erfolgte allein aus politischen Gründen. Es bestanden weder technische  und schon gar nicht sicherheitstechnischen Bedenken. Auch eine sicherheitstechnische Nachrüstung war nicht erforderliche, da  in den 22 Betriebsjahren keine nicht lösbaren Probleme aufgetreten sind  und/oder nennenswerte technische Verbesserungen nicht erforderlich  waren. Alles war von Anfang an bestens durchdacht.

Ein Ereignis ist aber von herausragender Bedeutung. Wir erprobten den „GAU“, den größten anzunehmenden Unfall, der dann zu erwarten ist, wenn die Brennelemente nicht mehr gekühlt werden und alle Sicherheitsvorrichtungen versagen. Wir erprobten also die von Schulten erdachte inhärente Sicherheit des Reaktorkonzeptes, das den Eintritt eines „GAU“ ausschließt. Dieses spannende Experiment fand unter Ausschluss der Öffentlichkeit statt und wurde kaum beachtet.  Der Reaktor wurde auf volle Betriebsleistung von 15 MWel und der vorgegebenen Betriebstemperatur von 850 °C hochgefahren, dann wurden alle Sicherheitseinrichtungen blockiert, die Kühlgasgebläse abgeschaltet. Wie vorberechnet wurde der Reaktor in einigen Tagen von selbst kalt, durch Abfuhr der Restwärme des Cores nach außen.

Dies war der erste GAU in einem Kernkraftwerk weltweit, niemand hat davon etwas gemerkt, keine Strahlung drang nach außen und das Betriebspersonal konnte unbehelligt in der Warte den Ablauf dieses Experimentes beobachten. Dieser Versuch wurde 1979 wiederholt, diesmal aber mit detaillierten Aufzeichnungen und Messungen des gesamten Ablaufs.

„Tschernobyl“ war später, es war also nicht der erste „GAU“. Die schrecklichen Nachwirkungen    dieser Katastrophe einer völlig anderen Reaktorkonstruktion belasten bis heute die Diskussion zur Sicherheit von Kernkraftwerken.

Der HTR ist bis heute das einzige Reaktorkonzept, bei dem ein solcher Unfall aus nuklear-physikalischen Gründen ausgeschlossen ist. Dass man dies in der Politik und der öffentlichen Meinung praktisch totschweigt, ist jedem Fachmann unverständlich.

Wenn wir von Störungen sprechen, so soll hier eine gravierende Störung erwähnt werden. Der Dampferzeuger galt als kritisches Element, da bei einer Undichtigkeit Wasser in das Helium eindringen konnte, was eine totale Abschaltung des Betriebes erfordert hätte. Mehrere hunderttausend Schweißnähte wurde bei der Erstellung überprüft, alle verfügbaren Prüfverfahren wurden eingesetzt, sogar neu entwickelt, alle Prüfungen und Druckproben verliefen ohne Beanstandung. Selbstverständlich wurden in vielen Berechnungen, Studien und Untersuchungen die Auswirkungen eines solchen Wassereinbruchs in das System berechnet. Alle zeigten, daß eine nuklear bedenkliche Störung nicht eintreten kann. Tatsächlich ist diese Störung dann auch eingetreten.  Ein sicherheitstechnisches Problem bestand nicht. Nach der 7-stufigen Internationalen-Bewertungsskala für Störungen und Störfälle in kerntechnischen Anlagen ist sie in die Kategorie 1“Störung“ einzuordnen. Betrieblich gesehen negativ war die lange Stillstandszeit von mehreren Monaten zur Behebung des Schadens.

Alle anderen Komponenten arbeiteten praktisch einwandfrei. Verschleißteile und kleinere Mängel konnten zum Teil während des laufenden Betriebes durch Einsatz unserer speziell für solche Fälle entwickelten Ausbautechnik behoben werden, ohne dass eine unzulässig hohe Bestrahlung des Personals eintreten konnte,

Der Betrieb des AVR war eine wohl für eine Erstausführung einmalige Erfolgsgeschichte. Es ist kein einziger „Strahlenunfall“ vorgekommen. In 22 Betriebsjahren ist kein Mitarbeiter einer zu hohen Strahlendosis ausgesetzt gewesen. Die Abgabe von radioaktiven Stoffen an die Atmosphäre war gering, in keinem einzigen Fall ist es zu einer Überschreitung der zulässigen Dosen gekommen. Alle, natürlich nicht 100% vermeidbaren Betriebs- „Störungen“, mit Ausnahme der des Dampferzeugers können nach der Bewertungsskale mit „0“ – keine oder sehr geringe sicherheitstechnische Bedeutung- bewertet werden.

Die Zeitausnutzung, also die Zeit in der der Reaktor in 22 Jahren in Betrieb war, lag bei   66,4%. Da es sich um einen Versuchsreaktor handelte, vor allem auch zur Erprobung verschiedener Brennelemente im Rahmen des vorerwähnten Entwicklungsprogramms, ist hierin die Abschaltzeit für diese Arbeiten enthalten. Die höchste Betriebsverfügbarkeit wurde 1976 erreicht, mit einem Wert von 92%. Es wird zwar keine internationale Statistik geführt, aber dies war für eine völlig neu entwickelte Technik sicher ein Weltrekord.

Schon 1966 wurde das Grundkonzept für den Nachfolgereaktor erarbeitet. Die Leistung wurde mit 300 MWel festgelegt. Sicher war es ein enormer Leistungssprung von einem Versuchsreaktor mit einer Leistung von 15 MWel –ohne vorliegende Betriebserfahrungen- gleich  einen Demonstrationsreaktor mit dieser Größe zu bauen. Aber nach Abwägen aller Pro- und Contra- Argumente war diese Entscheidung sehr mutig aber auch heute noch richtig.

Gegenüber der AVR-Technik mussten  wesentliche konstruktive Änderungen durchgeführt werden:

–       Anstelle des Stahldruckbehälters wurde ein Spannbetondruckbehälter vorgesehen. Eine weltweit völlige Neukonstruktion;

–       Auf ein druckfestes Containment konnte wegen der geringen Aktivität des Heliums verzichtet werde. Es wurde nur eine drucklose Stahlummantelung vorgesehen.

–       Das Helium-Kühlgas musste den Reaktor von oben nach unten durchströmen, weil wegen der höheren Leistung die BE sich sonst in der oberen Schicht abgehoben hätten;

–       Bei der BE-Abzugsvorrichtung wurde eine neue Konstruktion eingebaut;

Nachdem dieses Konzept in der Planung bereits weit fortgeschritten war, stellten unsere Reaktorphysiker fest, dass der  Durchmessers des Kugelbettes so groß war, dass es nicht mehr möglich war, die Abschalt-und Regelstäbe im äußeren Graphitreflektor mechanisch praktisch beanspruchungslos zu führen. Dadurch konnte der Reaktor nicht mehr vollständig abgefahren werden. In einer großen Runde mit allen beteiligten Vorständen wurde diese extrem schwierige Situation besprochen. Nachdem sicher war, dass ein Schaden mit Gefährdung des Betriebspersonals und vor allem der Umgebung nicht eintreten konnte, wurde entschieden, die Abschaltstäbe direkt in das Kugelbett einzufahren. Dies führte zu einer sehr schwierigen Konstruktion dieser Stäbe und der Gefahr der Zerstörung der Brennelemente. Es wurde erkannt, dass ein Reaktor dieser Größe gebaut werden musste, um feststellen zu können, ob diese Konstruktion technisch überhaupt realisierbar war. Eine Alternative wäre ein Ringcore gewesen, doch hier erschien, ohne Kenntnis des langjährigen Betriebsverhaltens der Graphiteinbauten im AVR, das konstruktive Risiko noch größer zu sein. Nach Stilllegung des AVR, also 23 Jahre später, hat sich dies als Irrtum erwiesen, denn die Graphiteinbauten waren nach 22 Betriebsjahren praktisch wie neu. Kein einziger Block hatte sich auch nur um 1mm verschoben  Die Entscheidung fiel –leider-  zu Gunsten der Abschaltstäbe mit Einfahren in das Kugelbett aus.  Die Betriebserfahrungen mit dem Demonstrationsreaktor sollten abgewartet werden, um später eine endgültige Entscheidung treffen zu können.

Leider sind dann die befürchteten Schwierigkeiten bei der Inbetriebnahme tatsächlich eingetreten. Die hierdurch bedingten Schwierigkeiten beim Betrieb des Reaktors wurden beherrscht. Der Reaktor war immerhin drei Jahre in Betrieb. Ein Vergleich der Bruchraten zwischen AVR und THTR veranschaulicht die Problematik. Die Bruchrate pro umgewälzten BE lag beim AVR bei 0,0092 %, beim THTR bei 0,6%. Diese war natürlich viel zu hoch. Alleinige Ursachen waren die Abschaltstäbe und die neue Abzugsvorrichtung.

Alle anderen Komponenten arbeiteten einwandfrei. Der THTR war 3 Jahre mit 16.000 h in Betrieb. Diese Betriebszeit war ausreichen,  um alle Erkenntnisse und Erfahrungen zum Bau weiterer Reaktoren zu erhalten. Besonders wichtig war das Ergebnis, dass die Dampferzeugung mit höchsten thermodynamischen Wirkungsgraden einschließlich der Zwischenüberhitzung problemlos funktionierte.  Die  Betriebsergebnisse beim An- und Abfahren der Anlage und im Regelbetrieb waren voll vergleichbar mit denen konventioneller Kraftwerke. Es trat auch, wie beim AVR,  keine einzige sicherheitstechnisch relevante  Störung auf. Das Betriebspersonal wurde trotz der eingetretenen Probleme nicht unzulässig hoch belastet.

Zusammengefasst  nachfolgend  die wesentlichen Ergebnisse und Erfahrungen mit dem THTR-300:

–       HTR-Kraftwerken können im elektrischen Verbundnetz nach Vorgabe der Lastverteilung eingesetzt werden, das Regelverhalten, auch zur Frequenzhaltung, ist einwandfrei;

–       Beim Stillstand, bei Reparaturen selbst am offenen Primärteil wurde das Personal nie unzulässig hoch strahlenbelastet;

–       Durch den eingetretenen Kugelbruch stieg die Aktivität des Primärgase Helium nicht an, die coated particles sind so klein und hart, dass sie nicht zerbrechen können.

–       Alle neu konstruierten Komponenten und die gesamte Anlage, mit Ausnahme der vorbeschriebenen Probleme mit zu hohem Kugelbruch, arbeiteten einwandfrei;

–       Es wurde der zweifelsfreie Nachweis erbracht, dass die Sicherheitstechnik  so weit entwickelt ist, dass keine Gefahr für das Bedienungspersonal und die Bevölkerung besteht. Im schlimmsten überhaupt denkbaren Störfall ist, wegen der sehr geringen radioaktiven Belastung des Heliums  eine Evakuierung der Bevölkerung nicht erforderlich.

Trotz der kurzen Betriebszeit hat der Demonstrationsreaktor alle Erkenntnisse und Erfahrungen erbracht, um neue HTR-Kraftwerke sicher bauen zu können.

In der Öffentlichkeit ist es kaum bekannt, dass der stillgelegte Reaktor den Nachweis erbringt, dass der Spannbetonbehälter das sicherste Endlager für strahlende Komponenten ist. Sicherer geht es ingenieurtechnisch nicht. Außerhalb des Spannbetonbehälters ist keine Strahlung mehr messbar. Ein schönes Restaurant auf dem Dach gebaut, mit herrlichem Blick in das Münsterland, wäre sicher eine prima Endlösung.

Das Ergebnis aus den zusammengefassten Betriebserfahrungen mit dem AVR und dem THTR zeigt, dass es ohne weitere Entwicklungen möglich ist, diese Technik großtechnisch anzuwenden.

Das Ergebnis meiner eigenen konstruktiven Überlegungen möchte ich nachfolgend  kurz erläutern.

Bei einem zukünftigen Hochtemperaturreaktor ist die Maximierung der  Sicherheit das mit Abstand wichtigste aller Kriterien. Weiter soll von Anfang an die Frage der Endlagerung nach Stilllegung einer solchen Anlage mit geplant werden. Ich möchte diese Technologie als integriertes Konzept als eine in sich geschlossene Nukleare Hochtemperaturtechnologie /NHTT/  bezeichnen und verstanden wissen. 

Die  folgenden konstruktiven Grundlagen  sind  Kernstück dieser Technik:

–       Erdbebensicherheit nach Stärke 6, also für unsere Regionen die höchstdenkbare Erdbebensicherheit.

Diese ist zu erreichen durch ein großflächiges, starkes Betonfundamentes. Hierbei entsteht eine große Grundfläche, die den Aufbau eines stabilen, nach außen gasdicht abgeschlossenen Betonunterbaus ermöglicht.  In den Räumen unterhalb des eigentlichen Reaktors sollen alle Tätigkeiten ausgeführt werden, die mit einer Strahlenbelastung verbunden sein könnten. So bspw. Ausführung von Reparaturen an Komponenten, deren Dekontamination und eventueller Endlagerung in abgeschlossenen Räumen. Ferner das Endlager für abgebrannte Brennelemente. Ziel soll es sein, dass kein Bauelement, das einer Bestrahlung ausgesetzt war, das Betriebsgelände verlassen muss.  Daher sind keine „Castor-Transporte“ zu anderen nuklearen Lagern erforderlich. Dass dies problemlos möglich ist, zeigen die Erfahrungen mit dem THTR-300.

–       Ein Kernschmelzen, also ein „GAU“, ist nuklear-physikalisch ausgeschlossen;

–       Die kugelförmigen Brennelemente haben sich als die besten Brennelemente erwiesen. Die Spaltprodukte werden bereits im Kern der „Coated Particles“ mit einem Durchmesser von nur 0,5mm  durch hochgasdichte Hüllen aus PyC und SiC weitgehend zurückgehalten. Diese Hüllen stellen die erste Barriere zur Verhinderung des Austritts von Spaltprodukten in das He-Kühlgas dar. Dadurch wird dieses nur gering belastet. Die kugelförmigen BE haben weiter gegenüber allen anderen Konstruktionen den Vorteil, dass sie sehr kompakt und leicht handhabbar sind. Daher ist der erforderliche Raum zu einer Zwischen- oder Endlagerung auch bei vielen Betriebsjahren sehr gering und kann problemlos im „Betonunterbau“ untergebracht werden.

–       Der Spannbetonbehälter hat sich als berstsicher  erwiesen, er ist damit die wichtige 2. Sicherheitsbarriere gegen Austritt von Radioaktivität.

–       Ein druckloses Containment um die gesamte Anlage stellt die 3. Barriere dar. Das Volumen ist so groß, dass das gesamte He-Primärgas im Kühlkreislauf dort aufgefangen werden könnte, ohne dass etwas nach außen dringen kann.

–       Anstelle eines zentralen Brennelementabzugs mit einem zentralen Kugelhaufencore wird ein Ringcore mit mehreren Abzugsvorrichtungen gebaut. Es ermöglicht bei gleichem Grundkonzept den Bau von Anlagen bis zu den höchsten Leistungen bei optimalem Durchlauf der BE. Die Abschalt- und Regelstäbe werden praktisch beanspruchungslos in die Graphitreflektoren eingebaut.

–       Ein doppelter He/He-Kreislauf verhindert die Übertragung von Spaltprodukten, auch von Graphitstaub, nach außen.  Der Primärteil des Reaktors ist so  auch sicher gegen „Fremdmedieneinbruch“ von außen.

–       Dieses Konzept ermöglicht  eine einfache Kontrolle über den Verbleib des nuklearen Materials.

–       Die 5-6m dicken Wände aus vorgespanntem Beton des Druckbehälters sind sicher gegen jede Art von terroristischer Bedrohung und auch gegen Flugzeugabstürze. Sie halten selbst gezielten Raketenangriffen stand.

Diese sicherheitstechnischen Vorteile können in diesem Umfang von keinem derzeit bekannten Kernkraftwerk erreicht werden und  werden auch nicht zu erreichen sein.

Nun  noch eine zusammenfassende, kurze Beurteilung der Wirtschaftlichkeit der NHT-Technologie:

–       Die kugelförmigen Brennelemente sind die nuklear sichersten, betrieblich am einfachsten zu handhabende und wegen ihres geringen Volumens am sichersten end-zu-lagernden Brennelemente. Sie ermöglichen zudem einen  BE-Wechsel bei laufendem Betrieb, also ohne Abschaltung der Anlage. Dies ist aus wirtschaftlich-betrieblicher Sicht ein enormer Vorteil.

–       Die hohen Primärgastemperaturen ermöglichen höchste thermodynamische Wirkungsgrade, daher beste Ausnutzung des nuklearen Brennstoffs.

–       Die Hochtemperaturwärme kann neben zur Stromerzeugung in den verschiedensten verfahrenstechnischen Prozessen, bspw. zur Erzeugung flüssiger oder gasförmiger Brennstoffen genutzt werden.

–       Der Einsatz von Thorium 232 ermöglicht das „Erbrüten“ des spaltbaren Urans 233 als neuem Brennstoff. Daher reichen die vorhanden Uranreserven aus U235 in Verbindung mit Thorium 232 auf unabsehbare Zeiten aus.

Zum Abschluss aber noch ein Wort zur Frage des CO2 in der Atmosphäre. Ohne CO2 ist der Planet Erde unbewohnbar. Wer  behauptet, CO2  sei ein „Schadgas“ oder „Schmutzgas“ und strebt gar ein „0-CO2 Ziel“ für den Planeten Erde an, zeigt ein unfassbares Maß an minimalsten, elementarsten Schulkenntnissen, er hat einen hohen Mangel an Allgemeinbildung.  Ein wissenschaftlich exakter Nachweis dass CO2 einen Einfluss auf das Klima unseres Planeten Erde hat, existiert nicht, im Gegenteil, das Klima unseres Planeten Erde ändert sich auch ohne den Menschen seit Jahrtausenden. Die Natur, nicht der Mensch, oder auch das Weltall mit Sonne, Mond  und Sternen bestimmen unser Klima. Prof. Dr. S. Fred Singer hat dies umfassend in seinem Buch. „Die Natur, nicht menschliche Aktivität, bestimmt das Klima“ dargestellt. Mit Ausnahme der BRD und einiger EU Staaten handeln alle Staaten weltweit danach, vor allem auch die USA und China. Der für Kraftwerke vorgesehene CO2-Emissioinshandel ist daher völliger Unsinn. Auch die KKW – Betreiber sollten die CO2-Freiheit ihrer Stromerzeugung nicht mehr als Vorteil herausstellen, sondern allein die wirtschaftliche Überlegenheit  dieser Technik. In allen Kernkraftwerken   wird der Strom um den  Faktor 6-30 niedriger erzeugt, als dies in den Anlagen mit „erneuerbaren Energien“ auch auf Dauer möglich ist.  Die Kosten der elektrischen Energie  haben einen entscheidenden Anteil auf die Kostenbelastung der Bevölkerung, hohe Stromkosten sind in höchstem Maße unsozial. Vor allem aber  die energieintensive Industrie, in der heute noch Millionen von sicheren Arbeitsplätzen vorhanden, sind wird gegenüber der ausländischen Konkurrenz entscheidende Nachteile haben. Ihre Schwächung, wenn nicht gar Vernichtung in Deutschland, durch die hohen Kosten der „erneuerbaren Energien“ führt mit Sicherheit zu einer entscheidenden Schwächung unserer Wirtschaft in allen Bereichen und damit zur Unfinanzierbarkeit unserer sozialen Einrichtungen. Nur ein „Energiemix“ aus möglichst billigen Produktionsanlagen ist ein volkswirtschaftlich vernünftiger Energiemix. Dies war, wie eingangs erläutert,  in den Nachkriegsjahren richtig und ist es auch heute noch. Herr Dr. Großmann hat dies in einer Leserzuschrift in der FAZ vom 19.Juli 2010 wie folgt beschrieben: „Es geht um knallharte Industriepolitik“. Wer dies nicht erkennt und danach handelt,  versündigt sich an der Deutschen Wirtschaft.

Wie absurd die Bestrebungen von Regierung und Opposition sind, eine weltweite „Führerschaft“ bei „erneuerbaren Energien“ zur CO2-Vermeidung und damit zum „Klimaschutz“ anzustreben, soll folgende simple Rechnung, die als Leserzuschrift von mir am 14.Januar 2010 in der FAZ erschienen ist, und mir enorme Zustimmung gebracht hat, zeigen. Wenn in der BRD überhaupt kein anthropogenes CO2 mehr erzeugt wird, wenn also Deutschland auf der Welt nicht mehr existieren würde, hat dies einen Einfluss von 0,00004712% auf die Gesamtproduktion von CO2  unseres Planeten. Wer dennoch dieses Ziel verfolgt, muss einem geradezu unglaublichen Größenwahn erlegen sein.

  

Vortrag von Dr.-Ing. Urban Cleve

Nachsatz:

Wer die ausführlichen Begründungen und eine Vertiefung meines vorliegenden Vortrages lesen möchte, kann dies im Internet tun:

1.)  www.buerger-fuer-technik.de; Kerntechnik 2009 und 2010;

2.)  www.eike-klima-energie.eu/news-anzeige/umwelt-klima-energie

3.)  Bei  www.eike-klima-energie.eu  und www.buerger-fuer-technik.de

 findet man weitere umfassende Beiträge zum Thema CO2 von tausenden von Wissenschaftlern aus aller Welt, die leider von deutschen Politikern noch nicht verstanden oder gelesen werden. Es lohnt sich, diese Webseiten einmal aufzurufen.

4.)  Prof. Dr. S. Fred Singer.“ Die Natur, nicht menschliche Aktivität, bestimmt unser Klima”.

     




Der Klima-Schwindel! Wie uns der öko-industrielle Komplex abzockt: Zitat: „Ob C02 oder nicht, ist mir egal, hat mir ein Topmanager gesagt, da will ich dabei sein.“

Die Filmemacher reisten an die Brennpunkte des Geschehens: zur 2. Internationalen Klimakonferenz nach Berlin und zum UN-Klimagipfel nach Kopenhagen. Sie trafen sich mit kritischen Wissenschaftlern und Journalisten, um der allgemeinen Hysterie mit Fakten zu begegnen. Günter Ederer, der mit seinen Enthüllungsreportagen im deutschen Fernsehen schon häufig für Aufsehen sorgte, weist dem selbsternannten Klimapapst Al Gore offensichtliche Propagandalügen nach. Doch wer sind die Hintermänner dieser Kampagne und die Profiteure dieses Milliardengeschäftes? Dr. Wolfgang Thüne, ehemaliger ZDF-Wetterexperte, rehabilitiert den vermeintlichen Klimakiller CO2 und widerlegt die These von der globalen Klimakatastrophe. Dr. Bruno Bandulet, Herausgeber des Informationsdienstes “GOLD & MONEY INTELLIGENCE”, deckt die wahren Absichten der “Klimaretter” auf. Professor S. Fred Singer, renommierter Physiker aus den USA, fordert eine lückenlose Aufklärung des “Climategate”-Skandals. Lord Christopher Monckton, langjähriger Berater der britischen Premierministerin Margaret Thatcher, analysiert die Thesen des UN-Klimarates IPCC bis ins kleinste Detail – und kommt dabei zu verblüffenden Ergebnissen.

Der Journalist Ronald Gläser hat ihn sich angesehen: Wir bringen Auszüge aus seiner Kritik in "Eigentümlich Frei" (Printausgabe S 71). Beziehen können Sie die DVD z.B hier

Der Klimaschwindel; Frei von Gebühren 

Dokumentarfilm auf DVD  von Ronald Gläser 

Das Märchen vom durch den Menschen gemachten Klimawandcl könnte aus Tausendundeiner Nacht stammen, so leicht ist es als wilde Phantasie erkennbar. Inzwischen sind daher auch viele gute Bücher darüber geschrieben worden. Filme im Widerspruch zu Al Gores Machwerk "Eine unbequeme Wahrheit" gibt es dagegen kaum. Mit "Der Klimaschwindcl" liegt nun endlich auch ein Video vor, das die Geschichte "von den aussterbenden Eisbären, den abschmelzenden Polen und dem ansteigenden Meeresspiegel als dreiste Lüge einer kleinen Ökomafia entlarvt. 

Der Wirtschaftsjournalist Günter Ederer fasst deren Motivation so zusammen: "Für die Linken ist die Klimakatastrophe die Möglichkeit vorzuführen., dass die industrialisierte kapitalistische Welt endgültig am Ende angekommenist und abgeschafft gehört." Für große Teile der "Rechten" aber sei es eine Möglichkeit, Subventionen abzugreifen. "Ob C02 oder nicht, ist mir egal, hat mir ein Topmanager gesagt, da will ich dabei sein." ….

…So ist das bei einem Film, der "garantiert nicht aus TVGebühren finanziert ist", wie es in der Eigenwerbung heillt. Es gab bislang noch keine liberalen Untergrundfilmer in Deutschand, die Enthüllungsstreifen im Stile von "Lose Change" produzierten ohne Aussicht auf nennenswerte Umsatzerlöse. Mit "Der Klimaschwindel " ist jetzt ein vielversprechender Anfang gemacht. 




Das Institut für Umweltphysik der Universität Heidelberg (iup) kommentiert ein Interview der Badischen Neuesten Nachrichten (BNN) mit EIKE-Pressesprecher Prof. Horst-Joachim Lüdecke

Ein wenig unglücklich formuliert erscheint uns insbesondere schon der erste Satz der Presseerklärung, in der implizit darüber Klage geführt wird, dass die BNN einem AGW-Gegner eine öffentlich Plattform „gewährt“ habe. Diese Formulierung lässt eine fragwürdige Auffassung von Presse- und Meinungsfreiheit vermuten, wobei wir davon ausgehen, dass dies dem iup nicht einmal auffiel. Die Pressemitteilung ist eine Mischung von Rechtfertigung (vor wem eigentlich?) und unnötiger Distanzierung zum Interview, denn es besteht kein Zusammenhang zwischen dem iup und Prof. Lüdecke. Sie enthält aber auch die altbekannte, übliche Mischung der Verfechter von einer menschgemachten Erwärmungshypothese (AGW), zusammengerührt aus Halbwahrheiten, Falschaussagen und komplettem Ausblenden der mehrheitlichen Gegenstimmen aus dem Lager der Forscher-Kollegen mit anderer Auffassung. 

Der mündige Leser soll sich aber selber informieren und urteilen. Zu diesem Zweck liegt das Interview „Interview_BNN.pdf“, die Presseerklärung des iup „Presseerklärung_iup.pdf“ sowie ein offenes Schreiben von EIKE-Pressesprecher an den Autor der Presseerklärung Prof. Aeschbach-Hertig und den Leiter des iup, Prof. Platt als „Erwiderung_lü.pdf“ bei. Wir wünschen viel Spaß beim lesen.

Michael Limburg EIKE

Related Files




Meereis: beschleunigte Abnahme, oder stabile Verhältnisse am Nordpol?

Die Jahre 2008 und 2009 zeigten in Folge leichte Zuwächse. Das Septemberminimum fiel nicht mehr ganz so niedrig wie im Jahre 2007 aus. Der September 2010 reiht sich dort nahtlos ein. Das Septemberminimum 2010 liegt genau zwischen dem der Jahre 2008 und 2009, weist also “nur” die dritt geringste Ausdehnung seit 1979 auf. Ein beschleunigter Rückgang ist nicht zu erkennen. Hier ein Überblick über die saisonalen Eiszyklen der letzten Jahre (Quelle: IJIS):

Alles im allen also kein Grund zur Sorge. So meint man. Das ZDF-Mittagsmagazin sieht das allerdings anders und berichtete in seiner Sendung vom 13.09. über einen sich beschleunigenden Klimawandel. Zu Wort kamen der Experte Prof. Lars Kaleschke und eine Expertin von Greenpeace. Beide sprechen von Effekten die das Abschmelzen verstärken. Wie z.B. einem verringerten Rückstrahlungsvermögen der Eisoberfläche infolge der Eisschmelze und warmem Wasser, welches von unten am Meereis nagt. Eingeblendet werden kalbende Gletscher und große Gletscherabbrüche in Grönland. Die Situation sei dramatisch. So wird es vermittelt.

Professor Lars Kaleschke vom “Klimacampus” der Universität Hamburg erklärte ebenfalls am Montag bei einer Pressekonferenz des Alfred-Wegener-Institus in Bremerhaven: “Wir haben es mit einer Beschleunigung der Abnahme zu tun. Das finde ich bedenklich.”

Und auch die Tagesschau vom 13.09. stimmt in das Klagelied, in den Abgesang, um das Meereises am Nordpol mit ein. Prof. Kaleschke erklärt: “In diesem Jahr ist das Eis in der Arktis wieder dramatisch zurückgegangen, wir haben jetzt im August (aktuell haben wir allerdings September) den zweit geringsten Wert seit Beginn der Aufzeichnungen zu verzeichnen.”

Wie sieht die Entwicklung der letzten Jahre tatsächlich aus?

Die folgende Abbildung zeigt die Entwicklung des arktischen Meereises seit Sommer 2002. Eingezeichnet sind die Tagesmittelwerte (die schwarze Linie) und ein gleitender Jahresmittelwert (die rote Linie) der Meereisausdehnung.

Zu erkennen ist, seit 2007 hat sich der Abschmelzvorgang flächenmäßig stabilisiert. Der Gleitende Jahresmittelwert liegt seither über 10 Millionen Quadratkilometer. Ein beschleunigter Rückgang ist aktuell nicht in Sicht.

Wie sieht es am Südpol aus?

Um ein zusammenhängendes, sprich globales Bild zu erhalten, lohnt es sich auch einen Blick auf das Meereis am Südpol zu werfen. Das Eis dort zeigt seit dem Beginn der Satellitenaufzeichnungen im Jahr 1979, im Gegensatz zur Arktis, leichte Zuwächse. Entsprechend der vorherigen Abbildung wird hier die Entwicklung des antarktischen Meereises seit Sommer 2002 gezeigt.

Auch dort besteht kein Grund zur Panik. Ganz im Gegenteil. An der Neumayer-Station in der Antarktis wurde erst neulich ein neuer Kälterekord gemessen. Zum ersten Mal seit dem Bestehen der deutschen Antarktisstation Neumayer fiel die Temperatur am 8. Juli 2010 unter die -50°C-Marke und erreichte -50.2°C. Der bisherige Kälterekord vom Juni 2008 wurde somit um 1.4°C unterschritten.

Die Anomalien 
Zuletzt werfen wir noch einen Blick auf die Flächen-Anomalien zum Meereis. (Quelle: UNI Hamburg). Die eingezeichneten Linien zeigen die Abweichungen zum langjährigen, saisonalen Mittelwert in der Arktis und Antarktis. Die Arktis (die rote Linie) zeigt seit dem Negativrekord von 2007 eine leichte “Erholung”. Zeitweise werden sogar positive/ überdurchschnittliche Werte erreicht. Die Antarktis (die blaue Linie) liegt größtenteils im positiven/ überdurchschnittlichen Bereich, bereitet also keinen Grund zur Sorge.

Datenquellen:

Arktis

Antarktis

Gastautor Mike Krüger, zuerst erschienen am 14.9.10 in Readers Edition

Anmerkung der Redaktion:  "Lüge und Betrug sind integrale Bestandteile des Forschens"! Hubert MARKL bei der EXPO am 13. Jul. 1999

Bitte lesen Sie zur Meereisente auch die Anmerkungen von Dr. Hüttner im Anhang

Related Files




Das schwarz-gelbe Energiekonzept: Kernenergie als Brücke ins Nichts!

Als ein wichtiges Mittel, dem Ziel einer zuverlässigen und bezahlbaren Energieversorgung näher zu kommen, gilt die nach hartem Ringen beschlossene Verlängerung der Laufzeit der 17 deutschen Kernkraftwerke um durchschnittlich 12 Jahre. Einige Wirtschaftsverbände zeigten sich darob mehr als befriedigt. Denn darauf kam es ihnen an. Vielleicht war das auch Bundeskanzlerin Angela Merkels Ziel. Das erst später bekannt gewordene „Geheimabkommen“ zwischen der Regierung und den vier deutschen Strom-Oligopolisten, das die Kernkraftwerksbetreiber vor unrentablen technischen Nachrüstungen schützen soll und dem Staat im Falle kräftiger Strompreissteigerungen zusätzliche Einnahmen bescheren würde, deutet ebenfalls in diese Richtung. In diesem Fall könnte man alles, was sonst noch im „Energiekonzept“ steht, durchaus vergessen.

Doch möglicherweise geht es der Bundesregierung tatsächlich um etwas ganz anderes: „Beim Energiemix der Zukunft sollen die erneuerbaren Energien den Hauptanteil übernehmen.“ Das Schwergewicht soll dabei auf riesigen Windrädern auf dem Land und auf hoher See liegen. Auch der Beitrag der Photovoltaik soll kräftig wachsen. Hier enthält das Papier allerdings lediglich Anregungen für eine Senkung der Kosten der mit Abstand teuersten aller „alternativen“ Stromerzeugungsmethoden. Das tatsächliche Leitbild der deutschen Energiepolitik ist danach also nicht die kostengünstige und sichere Bereitstellung von Energie, sondern die Verwirklichung des grünen Traums von einem paradiesischen „Ökozeitalter“. Auf dem Weg dorthin spiele die Kernenergie lediglich die Rolle einer „Brückentechnologie“. Beim Stichwort „Brücke“ fällt mir allerdings unwillkürlich ein Exponat der letzten Kasseler „Documenta“ ein: eine Treppe, die ins Nichts führte.

Im Jahre 2050 sollen Windräder die Hälfte des benötigten Stroms bereitstellen. Die Leistung von Windkraftanlagen (WKA) auf hoher See (Offshore) soll bis zum Jahre 2030 mithilfe von Investitionen in der Größenordnung von 75 Milliarden Euro auf 25 Gigawatt (Milliarden Watt) ausgebaut werden. Diese Investitionen sollen durch staatliche Billigkredite und Garantien abgesichert werden. An Land soll die WKA-Kapazität vornehmlich durch „Repowering“, d.h. den Ersatz bestehender WKA durch weitaus größere erweitert werden. Zu diesem Zweck sollen dem Schutz der Landschaftsästhetik und der Rechte von Privateigentümern dienende bau- und planungsrechtliche Hürden beseitigt werden. Wie kann der von den projektierten riesigen Offshore-Windparks erzeugte Strom zu den energieintensiven Industrien im Süden der Republik transportiert werden, ohne die letzten Naherholungsgebiete in „verspargelte“ Industrielandschaften zu verwandeln? Wieso gelten Windparks als ausbaufähig und zukunftsträchtig, obwohl sie wegen ihrer unsteten Arbeitsweise bislang nachweislich kein einziges konventionelles Kraftwerk überflüssig machen konnten? Und nicht zuletzt: Warum braucht Deutschland überhaupt ein Konzept für einen kostspieligen Totalumbau der Energieversorgung? Genügte es nicht, den vorhandenen Mix verschiedener Energieträger vorsichtig veränderten Marktbedingungen anzupassen?

Die offizielle Antwort auf diese Fragen: Alle Unannehmlichkeiten und Widersprüche müssen in Kauf genommen werden, um „klimaschädliche“ CO2-Emissionen zu vermeiden. Bis zum Jahr 2020 sollen im Vergleich zu 1990 um 40 und bis 2050 mindestens 80 Prozent der so genannten Treibhausgasemissionen eingespart werden. Die Merkel-Regierung hält also stur an der von Sektierern in die Welt gesetzten Fiktion fest, die Entwicklung der (nicht messbaren!) Durchschnittstemperatur der Erde hänge in erster Linie mit dem CO2-Gehalt der Luft zusammen. Dabei stört es Frau Merkel und ihre Minister offenbar nicht, wenn der US-amerikanische Energiewissenschaftler Robert Bryce vorrechnet, dass Windräder unterm Strich keine einzige Tonne CO2 einsparen helfen. Deutschland scheint Dank weitgehend gelungener Selbstgleichschaltung seiner Massenmedien auch das letzte Land der Welt zu sein, dessen politische Klasse noch immer nicht zur Kenntnis nehmen möchte, dass den Warnungen vor einer drohenden „Klimakatastrophe“ seit der skandalträchtigen Aufdeckung von Datenmanipulationen im Umkreis des „Weltklimarates“ IPCC jegliche wissenschaftliche Grundlage abhanden gekommen ist.

Aber um das Klima, was immer auch darunter zu verstehen sein mag, geht es beim Energiekonzept der Bundesregierung wohl ohnehin nur vordergründig. Es lässt sich leicht zeigen, dass es in Wirklichkeit darum geht, die Vorstellungen jener Gruppierungen umzusetzen, die zwanzig Jahre nach dem Zusammenbruch des „Ostblocks“ noch immer an die Überlegenheit der Planwirtschaft glauben. So soll der Primärenergieverbrauch in Deutschland gegenüber dem Jahr 2008 um 20 und bis 2050 gar um 50 Prozent sinken. Das erfordert eine jährliche Steigerung der Energieproduktivität von durchschnittlich zwei bis zweieinhalb Prozent. Solche Steigerungsraten hat es selbst zu Zeiten des deutschen „Wirtschaftswunders“ niemals gegeben. Energiefachleute halten jährliche Produktivitätssteigerungen über ein Prozent kaum für machbar. Ungelöst ist auch das Problem der Stromvorratsspeicherung für die Überbrückung längerer Windflauten. Kein Problem, mögen sich die Autoren des Energiekonzepts gesagt haben, man muss nur fest daran glauben, dass es in Sachen Elektrizitätsspeicherung schon bald technische Durchbrüche gibt, sofern dafür nur ausreichend Forschungsgelder bereit stehen.

Die größten Energieeinsparpotenziale liegen im Wohngebäudebestand, auf den 40 Prozent des Energiebedarfs entfallen. Drei Viertel des Bestandes von 17 Millionen Wohngebäuden seien vor dem Erlass der ersten Wärmeschutzverordnung im Jahre 1979 errichtet worden, stellen die Verfasser des Energiekonzepts fest. Um der politischen Vorgabe eines nahezu „klimaneutralen“ Gebäudebestandes im Jahre 2050 näher zu kommen, müsse die Rate der energetischen Gebäudesanierung von jährlich ein auf zwei Prozent verdoppelt werden. Das aber ist offenbar leichter gesagt als getan. Die Wärmedämmung eines einzigen Ein- oder Zweifamilienhauses gemäß der geltenden Energieeinsparverordnung (EnEV) kann leicht über 100.000 Euro verschlingen. Die dadurch erzielten Energieeinsparungen rechnen sich aber erst nach zwanzig bis fünfzig Jahren. Kein privater Unternehmer, einmal abgesehen von adeligen Waldbesitzern, würde freiwillig solche Investitionen tätigen. Insbesondere älteren Hausbesitzern in ländlichen Gebieten, die wegen der demografischen Entwicklung immer öfter keine Nachnutzer finden und bei potenziellen Geldgebern ohnehin nur selten als kreditwürdig gelten dürften, sind solche Vorgaben nicht zumutbar. Sie hätten wohl auch vor Gericht (noch!) gute Karten, denn nach dem im Maastricht-Vertrag der EU verankerten Prinzip der Verhältnismäßigkeit kann niemand zu Investitionen gezwungen werden, die sich nicht rechnen.

Das würde aber fanatische „Klimaretter“ auf längere Sicht kaum von Zwangsmaßnahmen von der in den „Eckpunkten zum Energiekonzept“ bereits angekündigten ordnungsrechtlichen „umfassenden Sanierungspflicht“ bis zur entschädigungslosen Enteignung abhalten, um ihrem Ziel der „Nullemission“, auf Deutsch: dem Nichts, näher zu kommen. Der in der hessischen Universitätsstadt Marburg von einem grünen Bürgermeister verordnete Solarzwang für Hausbesitzer hat das gezeigt. Dieser wurde lediglich wegen des Einspruchs des zuständigen Giessener Regierungspräsidiums nicht in Kraft gesetzt. Wie lange werden deutsche Richter und Regionalregierungen privaten Eigentumstiteln noch Vorrang vor Öko-Utopien einräumen?

Zu tiefen Konflikten mit privaten Eigentumsrechten dürfte vor allem der Bau von „Stromautobahnen“ zwischen den in Norddeutschland bereits bestehenden und noch geplanten Windparks und großen industriellen Stromverbrauchern beziehungsweise alpinen Pumpspeicher-Kraftwerken im Süden führen. Das gesamte deutsche Stromnetz muss mit Milliarden-Aufwand um- und ausgebaut werden, um die sehr unregelmäßige Stromeinspeisung durch Wind- und Solarparks ausgleichen zu können. Um die Vorgaben der „Klimapolitik“ umzusetzen beziehungsweise den Energieverbrauch an das naturgemäß stark schwankende Angebot „erneuerbarer“ Energien anzupassen, soll das Verhalten der Energieverbraucher mithilfe „intelligenter“ Stromnetze und Stromzähler ferngesteuert werden.

Sofern diese Umbaupläne nicht an Bürgerprotesten scheitern, wird es Deutschland als vertraute Heimat wohl schon in wenigen Jahren nicht mehr geben. Mit einigen Jahrzehnten Verspätung würde Henry M. Morgenthaus Plan einer Deindustrialisierung Deutschlands doch noch verwirklicht. Die heute noch exportstarke Schwerindustrie würde durch hohe Strom- beziehungsweise CO2-Zertifikatpreise aus dem Land vertrieben. An ihrer Stelle entstünde eine bizarre Industrielandschaft mit riesigen Windrädern, die unsteten Strom erzeugen, der an der Börse kaum etwas wert wäre. Es sei denn, die Menschen gewöhnten sich daran, nur noch zu leben und zu arbeiten, wenn der Wind weht. Deutschland würde zur sozialistischen Vogelscheuchen-Republik, deren Obrigkeit ihren durch astronomische Energiepreise und Soziallasten verarmten Untertanen Energiesparen als zentralen Lebenssinn verordnet. Wer da noch solchen altmodischen Werten wie Freiheit anhängt, der wird vom Wahrheitsministerium gnadenlos abgestraft.

 Edgar L. Gärtner EIKE

Ergänzungsbeitrag von Detmar Doering vom Liberalen Institut:

Was erreichen „grüne Investitionen“?


Über 11% der nach Beginn der Finanzkrise in Amerika lancierten Mittel der staatlichen Ankurbelungsprogramme für die Wirtschaft wurden als besonders zukunftsträchtige „grüne Investitionen“ deklariert.

Ob die „grünen Investitionen“ in vielen, vielen Jahren das Weltklima oder gar die Menschheit retten werden, weiß man nicht. Aber man weiß eines mit Bestimmtheit: Die Wirtschaft kurbeln sie nicht an.

Internet

Entwurf BMWi/BMU: Energiekonzept. Neun Punkte für eine umweltschonende, zuverlässige und bezahlbare Energieversorgung http://www.bmwi.de/BMWi/Navigation/Service/publikationen,did=357316.html

Gebäudesanierung: Klimaschutz mit Schlagseite faz

Deutsche Energiewende: Stromstoß für das Öko-Zeitalter http://www.spiegel.de/wirtschaft/soziales/0,1518,716192,00.html

Hausbesitzer fürchten Sanierungszwang http://www.spiegel.de/wirtschaft/soziales/0,1518,716337,00.html