„Erneuerbare“ versauen die Netzfrequenz und verursachen Kurzschlüsse

von Edgar L. Gärtner

Mit der Feststellung, die deutsche „Energiewende“ könne nicht funktionieren, rennt man inzwischen offene Türen ein. Denn solange keine großen Energiespeicher gleich welcher Art zu tragbaren Preisen verfügbar sind, kann der riesige und weiter wachsende Elektrizitätsbedarf eines Industrielandes nicht ausschließlich mithilfe der unsteten Energiequellen Wind und Sonne gedeckt werden. Eine aktuelle Übersicht über die durch das Fehlen von Stromspeichermöglichkeiten erzeugten Probleme vermittelt dieser auf dem Blog „Ruhrbarone“ erschienene Beitrag eines jungen Ingenieurs.

Dabei gerät leider ein anderes schwerwiegendes Problem in den Hintergrund: Wegen des gesetzlichen Einspeisungs-Vorrangs von Solar-, Wind-, Biogas- und KWK-Strom ins Wechselstrom-Netz gelangt immer mehr Elektrizität ins Netz, die mithilfe von Gleich- und Wechselrichtern erst künstlich netztauglich gemacht werden musste. Dabei können neben bzw. über der Norm-Frequenz von 50 Hertz unkontrollierbare Oberschwingungen entstehen, die zu Leistungseinbußen durch Hitzeentwicklung und zu weiteren unerwünschten bis katastrophalen Nebenwirkungen führen können. Zum einen kann die mit der Gegenläufigkeit von Drehstromphasen verbundene „Blindleistung“ die tatsächlich nutzbare Leistung tendenziell auf null drücken und zum andern können auch unkontrollierbare Verstärkereffekte auftreten, die zu Kurzschlüssen und Bränden führen können. Der erfahrene Elektromeister Theodor O. Blum aus dem süddeutschen Bad Krozingen führt bislang unerklärliche Kurzschlüsse, Kabel- und Trafobrände auf solche Belastungen des Stromnetzes durch unkontrollierbare Oberschwingungen zurück.

Zwar erzeugen auch die Windräder, im Unterschied zu Photovoltaik-Anlagen, Wechselstrom. Doch dieser stammt in der Regel von billigen Asynchron-Generatoren. Diese liefern Wechselstrom minderer Qualität, weil mit instabiler Frequenz. Um den Output von Asynchron-Generatoren netztauglich zu machen, wird er deshalb erst durch Gleichrichter und dann durch Wechselrichter geschickt. Anders als die Generatoren von Großkraftwerken erzeugen solche Wechselrichter keine harmonische sinusförmige Spannung, sondern einen rechteckigen Spannungsverlauf. Solange saubere Sinuskurven bei weitem das Netz beherrschen, schaden diese Rechteckschwingungen wenig, die in ihnen enthaltenen Oberwellen werden „weggedämpft“. Das erzeugt zwar an diesen Stellen unkontrollierbare Wärme, aber solange das nicht zur Überhitzung der jeweiligen Komponente führt ist das zwar Energieverschwendung, aber tolerierbar. So verschwinden solche Störungen meistens wieder von selbst. Wegen des gesetzlichen Vorrangs der „Erneuerbaren“ kommt es aber immer öfters vor, dass künstlich scheinbar netztauglich gemachte Spannung im Netz überwiegt.

Auf der Seite der Verbraucher trifft der durch Oberschwingungen verunreinigte Wechselstrom nicht nur auf den Schwingkreis Leitung, denn auch diese stellt mit der Induktivität der Leitung selber und ihrer Kapazität gegen die andere Adern, oder die Erde, auch einen Schwingkreis dar, sondern auch noch auf eine Vielzahl von Geräten mit Spulen (Induktivitäten) und Kondensatoren (Kapazitäten), die zusammen als Parallel-Schwingkreise mit einer Eigenfrequenz fungieren können. Werden solche Schwingkreise mit ihrer Eigenfrequenz angeregt, kommt es innerhalb von Sekundenbruchteilen zur zerstörerischen Resonanz, das heißt zum blitzartigen Spannungsanstieg, der zu Kurzschlüssen und Bränden führen kann. (Das Problem ist auch bei anderen technischen Systemen mit einer Eigenfrequenz bekannt. Schließlich hat zumindest meine Generation noch in der Schule gelernt, warum eine Militärkolonne eine Brücke nicht im Gleichschritt überqueren darf.) Zerstörerische Resonanzen können nur vermieden werden, wenn der Anteil unsauberen Stroms im Netz möglichst klein gehalten wird. In Deutschland werden dagegen die Quellen unsauberen Wechselstroms seit Jahrzehnten systematisch vermehrt, was zu einem Wechselstromchaos führen muss.

Elektromeister Theodor Blum bemerkt dazu in einer zusammen mit seiner Frau erstellten Abhandlung mit dem Titel „Wechselstrom ist nicht gleich Wechselstrom!“: „Elektrische Resonanzen latenter Schwingkreise sind in diesem chaotischen Wechselstromsystem weder voraussehbar noch zu verhindern und im Nachhinein leider nicht rekonstruierbar. Schadereignisse mit nicht erkennbarer Ursache sollten unbedingt auch in Verbindung mit dem zu diesem Zeitpunkt eingespeisten Anteil alternativ-regenerativ erzeugter Wechselstromleistung und der dadurch bedingten Netzbelastung betrachtet werden.“ Deshalb helfe hier nur eine statistische Auswertung. Diese könne aber zeigen, dass „Schadensereignisse ohne erkennbare Ursache“ mit der wachsenden Einspeisung künstlich netztauglich gemachten Stroms zusammenhängen. Auf deren Konto gingen nicht nur beachtliche wirtschaftliche Schäden, sondern immer häufiger auch Todesopfer.

 




Langlebige Radioisotope – sind die gefährlich?

von Dr. Hermann Hinsch

Die Kerntechnik hat sich recht langsam verbreitet, kommt nun aber doch in Gang. Auf der Welt sind 55 Kernkraftwerke im Bau und weitere in der Planung, z. B. in Polen. Der Widerstand bröckelt, nur unsere „Grünen“ bleiben eisern dagegen. Sie behaupten, Argumente zu haben. Kerntechnik sei eine Hochrisikotechnologie. Das ist aus keiner Unfallstatistik zu entnehmen. Fukushima war ein schlimmer Industrieunfall, aber ohne Personenschäden durch Strahlung. Es gibt nur einen zweifelhaften Fall: Ein Arbeiter ist gestorben und wurde als Strahlenopfer anerkannt. Und dann die ungelöste Endlagerfrage. Es wäre so, als ließe man Flugzeuge fliegen, bevor man Landebahnen hat.

Wie beurteilt man die Gefährlichkeit sonst, z. B. die von Löwen, Tigern, Fahrrädern, Autos, Bergwerken? Nach der Anzahl der jährlichen Todesfälle. Wie ist es da mit radioaktiven Abfällen, die es seit über einem halben Jahrhundert in vielen Ländern gibt? Sie stehen meist an der Erdoberfläche und werden hierhin und dorthin transportiert. In allen Ländern und in der ganzen Zeit gab es einen Todesfall, man kann auch sagen zwei. Ein Metalldieb plünderte ein schlecht gesichertes oberirdisches Endlager für mittel- und schwachaktive Abfälle. Eine Quelle mit einer Aktivität im Bereich über 10^12 Becquerel (Bq, nach der alten Einheit um 50 Curie) nahm er aus ihrer Abschirmung und steckte sie sich in die Tasche. Davon wurde er strahlenkrank und starb, wie auch sein Hund (Tammiku, Estland, 1998).

Zwei Todesfälle, in allen Ländern und all den Jahren! Muss man nicht Krebsfälle dazu rechnen? Aus den Daten von Hiroshima ist bekannt: Merkliche Krebsraten traten nur dort auf, wo die Menschen auch gleich strahlenkrank wurden. Viele haben sich von der akuten Strahlenkrankheit erholt, ohne danach jemals Krebs zu bekommen. Tierversuche zeigen das gleiche.

Wie wird da die heutige und vor allem zukünftige Gefährlichkeit beurteilt? „Allerdings können wir Aussagen machen zu einer hochgiftigen Strahlung, die noch über viele hunderttausend Jahre so giftig sein wird, dass sie das Menschenleben und das Leben auf dieser Erde in ihrer Existenz bedroht.“ (Ralf Meister, Landesbischof der ev. luth. Landeskirche Hannover, Loccumer Protokoll 25/12)

„Er (der Atommüll) ist da und stellt für die heutige und zukünftige Gesellschaften eine existenzielle Bedrohung dar.“ Sylvia Kotting-Uhl, Kunsthistorikerin, MdB 2005 – 2021, Vorsitzende des Ausschusses für Umwelt, Naturschutz und nukleare Sicherheit 2018 – 2021; Loccumer Protokoll 25/12).

„Da die hochradioaktiven Abfälle über einen sehr langen Zeitraum ein hohes Gefährdungspotential besitzen, müssen sie durch ein Endlager für eine Million Jahre von der Umwelt abgeschirmt werden.“ (Bundesamt für die Sicherheit der nuklearen Entsorgung BASE)

Bei allem Mitgefühl für den Hund von Tammiku, weniger für den Metalldieb, hat sich in einem halben Jahrhundert erwiesen: Alle radioaktiven Abfälle, die über und unter der Erde stehen und oft weit transportiert werden, sind völlig harmlos. Aber in späteren Jahrtausenden werden sie gefährlich und bedrohen die Menschheit in ihrer Existenz? Mit normaler Logik ist das nicht nachzuvollziehen. Auch gelten langlebige radioaktive Stoffe als besonders problematisch, obwohl es doch andersherum ist: Langlebigkeit bedingt geringe Strahlenintensität. Was lange strahlen will, muss mit seiner Energie sehr sparsam umgehen. Ein Schweizer Experte, W. Rüegg: „Es ist sehr erstaunlich, dass in der Öffentlichkeit das relativ langsame Abklingen als gravierender Nachteil empfunden wird.“

Was macht man mit radioaktiven Stoffen, deren Aktivität so langsam abklingt, dass auch eine Verwahrung für eine Million Jahre viel zu kurz ist? Gibt es solche Stoffe überhaupt? Aber ja. Unlösbares Problem? Betrachten wir ein Beispiel.

Eine Frau, nennen wir sie Anna, sieht bei Ebay das hier abgebildete Armband. Das will sie haben! Ihr Mann ist entsetzt. 6.000 Euro für ein Armband? Wie redet er ihr das nur aus? Im Internet findet er die Lösung: Platin ist radioaktiv! Anna überzeugt sich, so steht es im Internet wirklich. Nun will sie das Armband nicht mehr haben. Ihr Mann freut sich.

Anna erzählt davon ihrer Freundin Sofie. Die ist Physikalisch-Technische Assistentin. Sie redet Anna zu, das Armband doch zu kaufen. Sofie vermutet, dass die Radioaktivität des Armbandes völlig unbedeutend ist.

Unbedeutende Radioaktivität? Da hat Anna anderes gehört und gelesen. Radioaktive Strahlen wären immer schädlich, denn jedes Strahlenteilchen könne Krebs auslösen. “Aber du musst das im Verhältnis zu der natürlichen Radioaktivität in deinem Körper sehen“, sagt Sofie. Radioaktivität in meinem Körper? Das hat Anna noch nie gehört, es wäre ja schrecklich. Soll sie das glauben? Und wenn es tatsächlich so wäre, kann man nichts dagegen tun? „Ein wenig schon“, sagt Sofie. Man hat etwa 100 Becquerel pro kg Körpergewicht. Becquerel (Bq) ist ein Maß für Radioaktivität. 1 Bq bedeutet, dass sich ein Atom pro Sekunde in ein anderes umwandelt und dabei Strahlen aussendet. Sofie sagt, wenn Anna 10 kg abnehmen würde, hätte sie damit 1.000 Bq weniger. Jetzt, schätzt Sofie, läufst du mit etwa 8.000 Bq herum, bei 10 kg weniger wären es 7.000. Obwohl Anna weiterhin an der Radioaktivität im Körper zweifelt, nimmt sie sich doch vor, endlich mit ihrer Diät anzufangen.

Sofie sagt, sie könne nicht alle Daten und Zahlen aus dem Ärmel schütteln, sondern müsse erst einiges recherchieren und berechnen. Morgen könne sie genaue Auskunft geben. Sie würde die Radioaktivität des Armbandes ausrechnen. Am nächsten Tag erklärt Sofie: Es gibt etwa 100 Elemente, jedes hat eine Nummer, und diese Nummer ist die Zahl der Protonen im Atomkern. Die Nummer von Platin ist 78. Im Kern sind noch zusätzlich Neutronen, 112, 114, 116, 117, 118 oder 120. So hat man von natürlichem Platin 6 Varianten, Isotope genannt. Um sie zu kennzeichnen, werden die Zahlen der Protonen und Neutronen zusammengezählt und hinter den Elementnamen gesetzt, also z. B. Platin 190. Nur dieses ist radioaktiv. Es hat in natürlichem Platin einen Anteil von 0,014 %. Das Armband wiegt 35 g, daher enthält es 0,95 . 35 . 0,00014 g = 0,0047 g Platin 190. Das sind 1,49 . 1019 Atome, eine Zahl mit 20 Stellen! So viele Atome in knapp 5 mg? Atome sind eben unglaublich klein. Von diesen wandeln sich einige um in Atome von Osmium, das nicht radioaktiv ist. So eine Umwandlung macht ein Atom nur einmal im Leben und sendet hierbei Strahlen aus. Bei Platin 90 sind das zunächst Alphastrahlen, die sich aber in andere Strahlenarten umwandeln.

Unglaublich lang ist die Halbwertszeit von Platin 190, d. h. die Zeit, in der sich die Hälfte der Atome umgewandelt hat. Es sind 650 Milliarden Jahre! Unsere Erde ist „nur“ 4,5 Milliarden Jahre alt, das Universum etwa 10. Das heißt, seit Beginn der Welt ist der größte Teil von Platin 190 noch vorhanden.

Was kann da in unserer Lebenszeit an Umwandlungen und Strahlung schon sein? Anna schöpft Hoffnung, dass sie das Armband doch tragen kann. Letzte Nacht hat sie davon geträumt. Andererseits ist die Zahl der Atome in der winzigen Menge Platin 190 von 0,0047 g so unvorstellbar groß, dass sich vielleicht doch einige in überschaubareren Zeiten umwandeln. Sofie hat es ausgerechnet. Es sind 0,5 Umwandlungen pro Sekunde, d. h. die Aktivität beträgt 0,5 Bq. Grundrechenarten kann Anna auch. Halbe Teilchen gibt es nicht, aber 0,5 pro s bedeutet eine Umwandlung in 2 s, also 30 in einer Minute, 1800 pro Stunde. Etwa so viele Strahlenteilchen jede Stunde auf der nackten Haut ihres Armes? Sie will das Armband doch nicht.

Ihr Mann atmet auf. Bestärkt wird Anna auch von ihrem Vater. Der ist Bürgermeister und lehnt entschieden ab, dass Schutt aus dem Abriss des inaktiven Teils von kerntechnischen Anlagen in seiner Gemeinde für Auffüllungen verwendet wird, auch wenn so gut wie keine Radioaktivität künstlicher Isotope zu messen ist. Mit allen anderen Bürgermeistern Deutschlands ist er sich darin einig.

Wie wir gesehen haben, ist auch bei winzigen Strahlendosen, gemessen in Bq, die Zahl der Strahlenteilchen pro Sekunde erstaunlich hoch. Die 7.000 – 8.000 Teilchen, mit denen wir pro Sekunde von innen beschossen werden, führen zu der gänzlich unbedenklichen Strahlenexposition von 0,3 Millisievert (mSv) (Eingeatmetes Radon nicht mitgerechnet). Zusammen mit äußerer Strahleneinwirkung ist unsere Jahresdosis im Flachland 2 mSv, im Bergland erheblich mehr. Damit können wir gut leben.

Aber man bleibt dabei: Geringste Strahlendosen sind gefährlich. Diese Strahlenhysterie stützt auch unser Bundesamt für die Sicherheit der nuklearen Entsorgung BASE. Das Amt verlangt für ein Endlager den Nachweis, dass keine Einzelperson irgendwann, irgendwo, irgendwie einer höheren Jahresdosis als 0,1 mSv ausgesetzt wird. Das ist ein Zwanzigstel der natürlichen Strahlenexposition.

Ich fragte einen mit der Endlagerung befassten Geologen, ob diese Vorgabe die Endlagersuche nicht sehr erschweren würde. Keineswegs, antwortete er. Für jeden einigermaßen geeigneten Standort ließe sich dieser Nachweis erbringen.

 

 




Merit Order – oder damit auch das Unsinnigste eine Chance bekommt

Wie setzt man ein untaugliches System durch? Oder anders gefragt: Wie sorgt man dafür, dass massenhaft Windräder gebaut werden, die normalerweise niemand aus freien Stücken in die Landschaft setzen würde. Den liefern die Dinger viel zu selten und vor allem im Binnenlandbereich zu wenig. Da müssen schon kräftige Fördergelder fließen, um zumindest den Bau schmackhaft zu machen.

von Holger Douglas

Etwas Hokuspokus gehört auch dazu, um hinter einem »Merit Order«-Gestrüpp zu verbergen, dass Windräder genauso viel Geld für ihren Strom erhalten wie etwa Gaskraftwerke.

Das Merit Order-Prinzip gibt es schon lange. Es fiel nur nicht auf, weil der Preisunterschied zwischen den verschiedenen Energieformen nicht so krass wie jetzt auftrat, da der Gaspreis dramatisch ansteigt. Deshalb wurde das System nicht öffentlich zu einem großen Thema und diente dazu, jene sogenannte „Energiewende“ am laufen zu halten.

Bei den Auktionen müssen die Stromanbieter ihre Preisofferten auf den Tisch legen. Diese Preise beziehen sich grundsätzlich auf die variablen Kosten einer Stromerzeugung. Nach dieser Milchmädchenrechnung kostet Wind nichts, deshalb wird Strom von Windrädern grundsätzlich bei Null angesetzt. Ihnen werden also die günstigsten Erzeugungskosten zugeschrieben, obwohl das Unsinn ist.

Dann wird in den Angeboten nachgeschaut, welches Kraftwerk den teuersten Strom anbietet. Allerdings kommen nur jene Kraftwerke in die Auswahl, deren Strom tatsächlich für den entsprechenden Zeitraum benötigt wird. Es ist also nicht grundsätzlich der teuerste Anbieter, dessen Preis für alle genommen wird, sondern nur jener, der in die Auswahl der Anbieter genommen wird, die benötigt werden, um den erwarteten Strombedarf zu abzudecken. Der Preis bezieht sich also auf den teuersten Anbieter, der noch zum Zuge kommt. Damit bekommt der Windstromanbieter auch den Preis des Gasstromanbieters.

Der für die Stromversorgung eines Landes äußerst missliche Effekt: Die teuren Kraftwerke haben damit wirtschaftlich kaum noch eine Chance und verschwinden. Darüber jubeln Energiewender, übersehen allerdings, dass dies nun einmal jene Spitzenlastkraftwerke sind, die schnell eingeworfen werden konnten, wenn die Stromnachfrage plötzlich anstieg. Das waren meist Gaskraftwerke; eine Gasturbine mit angeschlossenem Generator fährt innerhalb weniger Minuten hoch und liefert Strom – eine wichtige Voraussetzung, jederzeit Strom zur Verfügung zu haben.

Die sind vor allem bei Flauten und nachts notwendig, wenn die sogenannten »Erneuerbaren« wieder nichts liefern.

Das politische Ziel, von dem der Grüne träumt: Bis 2030 sollen die sogenannten Erneuerbaren verdoppelt werden. Mehr als doppelt so viele Photovoltaik-Anlagen und Windräder wie bisher sollen errichtet werden.

Nur: Die können kein Industrieland gleichmäßig mit Strom versorgen. Deshalb muss hinter jedem Windrad und hinter jeder Photovoltaik-Anlage ein konventionelles Kraftwerk stehen, das liefern kann, wenn kein Wind weht und die Sonne nicht scheint. Das können Kohle- und Kernkraftwerke; doch die sollen vom Netz abgeschaltet werden. Daher gelten Gaskraftwerke plötzlich als die »Guten«, weil sie etwas weniger CO2 ausscheiden als Kohlekraftwerke, aber immer noch mehr als Kernkraftwerke.

Dies bedeutet: 2030 müssen auch die Gaskraftwerke verdoppelt werden. Die müssen bei Flaute und nachts einspringen. Das ist ziemlich häufig. 1800 Stunden produzieren Windräder durchschnittlich Strom pro Jahr mit seinen 8760 Stunden. Gaskraftwerke müssen also die restlichen 6960 Stunden pro Jahr laufen, allein um die stillstehenden Windräder zu ersetzen. Damit steigt auch der Gasverbrauch dramatisch an. Der Gas-Peak wird ebenfalls 2030 erwartet. Zudem verknappt Habecks und der grünen Politik Weigerung, Kernkraftwerke weiterlaufen zu lassen, weiterhin die Energie.

Warum fällt der Effekt gerade jetzt den Energiewendern auf die Füße?

Grundübel ist jene Verknappung der Energie. Die wird damit zur Mangelware, also teuer, das drückt den Preis nach oben.

Zudem wehte der Wind in den vergangenen Jahren deutlich schwächer; die 30.000 Windräder lieferten in den windarmen Jahren eher dürftige Stromerträge.

Zudem haben es die Energiewender geschafft, Deutschland mit seinem gut funktionierenden und leistungsfähigen Kraftwerkspark von einem Stromüberschussland in ein Energiearmenhaus zu verwandeln, das international um Energie betteln muss. Baden-Württemberg zum Beispiel exportierte früher erhebliche Mengen an Strom nach Frankreich. Seitdem der grüne Ministerpräsident Kretschmann das Kernkraftwerk Philipsburg abschaltete, die Kühltürme in die Luft sprengen ließ und damit Milliardenwerte vernichtete, muss das Land Strom importieren. Allerdings herrscht auch in Europa derzeit ein Mangel an Strom.

Kritisch wird die Lage, seitdem Russlands Präsident Putin Energie als Waffe einsetzt und den westlichen Energiewendern zeigt, was eine Harke ist. Der fackelt sein Erdgas lieber ab, als es in die Pipelines zu pumpen. Das sorgt für eine dramatische Knappheit, damit für hohe Preise beim Erdgas und erschüttert westliche Industrienationen bis ins Mark.

Zusätzlich erhöhten rot-schwarz-grüne Politiker die Preise für den Brennstoff für Kohlekraftwerke drastisch. Denn als jene hässlichen Schlagzeilen auftauchten, Deutschland habe seine sogenannten »Klimaziele« nicht erreicht, Frankreich mit seinen Kernkraftwerken und dem Null-CO2-Ausstoss dagegen sehr wohl, machte die rot-schwarze Koalition die Kohle drastisch teurer.

Ab 2016 reformierten die damaligen Minister Gabriel, Altmaier und Staatssekretär Baake das ETS-Zertifikate-System. Ihre fatale Lösung: Sie verknappten die ETS-Zertifikate. Damit begann ein weiteres gigantisches Vernichtungsprogramm der Energieerzeugung. Diese Zertifikate – oder besser Steuern auf einen Bestandteil der Luft – wurden also deutlich teurer gemacht.

Ergebnis: Kurz vor Ukraine-Krieg kostete eine Tonne CO2 etwa 100 Euro, vor dem energiepolitischen Wahnsinns-Trip weniger als fünf Euro.

So würgten Merkel, Gabriel & Co die Kohlekraftwerke ab. Denn die konnten ihren Strom nur noch sehr teuer produzieren. Kein Wunder, dass die Betreiber ihre Kraftwerke stillegen wollten.

Beispiel Moorburg: Das sehr moderne, fünf Jahre alte Kraftwerk rechnete sich nicht mehr und hat als eines der ersten Kohlekraftwerke die Stillegung beantragt.

Gleichzeitig wurde Gas bereits vor dem Ukraine-Krieg deutlich teurer. Ursache: Weltweit steigt der Bedarf an Erdgas – unter anderem übrigens deswegen, weil deutsche Energiewender mit viel Geld zum Beispiel Ägypten überredeten, keine neuen Kohlekraftwerke mehr zu bauen. Siemens hat dafür vom deutschen Steuerzahler bezahlte Gasturbinen hingestellt.

»Wie sich die Produktion und auch die Preise von konventionellem Erdgas, LNG und Schiefergas zukünftig entwickeln werden, bleibt abzuwarten, da neben technologischen Innovationen in der Förderung und dem Transport vor allem auch geopolitische Faktoren maßgeblich sind. Ebenso sind etwaige Rückkopplungseffekte auf die Erdölpreise nur eingeschränkt prognostizierbar«, schrieb bereits die Monopolkommission in einem Sondergutachten „Energiewende“ 2013. Ihr erschien schon damals die Wettbewerbsentwicklung vor allem Bereichen, die im Zuge der Energiewende und der massiven Förderung der erneuerbaren Energien geschaffen und ausgebaut wurden, als problematisch. Unter diesen Bedingungen die Energieversorgung von einer früheren Vielfalt einseitig abhängig zu machen mit Folgen, die jetzt dramatisch zutage treten, zeugt mindestens von grenzenlosem Unverantwortlichkeit.

Merit Order – oder damit auch das Unsinnigste noch eine Chance hat.

 

 

___________________________________

 




Umbruch – Einbruch oder Aufbruch? Teil II

Umbruch ist ein starkes Wort, denn es meint hier: An die Stelle eines alten Systems, soll ein neues treten. Deutet sich etwa ein solcher Umbruch an – in Form eines Aufbruchs zu etwas Besserem?

Von Dr. Helmut Böttiger

Teil II

Wie soll es weitergehen?

Um uns dieser Frage vom Grundsätzlichen her zu nähern, sei eine etwas ausholende Vorbemerkung erlaubt. Der erste zivilisatorische Umbruch, das heißt der Übergang vom Tier zum Menschen gelang einem Teil der Hominiden mit der Überwindung ihrer „tierischen Angst vor dem Feuer“ also mit der bewussten energetischen Nutzung molekularer Bindungskräfte außerhalb ihres biologischen Körpers. Diejenigen Hominiden, die diese Angst nicht überwinden konnten, verblieben im Bereich der Tierwelt.

Der Einsatz des Feuers blieb neben der möglichen Verwendung als Waffe zunächst auf den engen Wohnraum (z.B. Höhlen) beschränkt und half den Menschen ihre biologischen Schwächen (z.B. angesichts eingetretener Eiszeiten) zu überwinden. Daneben gelang dem Menschen im Laufe der zivilisatorischen Entwicklung die Nutzung anderer weniger prinzipiell neuer Energieformen, etwa der Körperkraft von Tieren, der Windstärke und des Strömungsdrucks von Gewässern. Mit Beginn der Industrialisierung lernte man die molekularen Bindungskräfte über Dampfmaschinen und Verbrennungsmotoren direkt in mechanische Arbeitsenergie umzuwandeln. Schließlich erschloss sich der Mensch mit Elektrogeneratoren eine neue Art der Energie, die Elektrizität, die bisher zur Nutzung der Kernenergie aber nur mit Hilfe molekularer Bindungsenergie erschlossen wurde.

Ein ähnlicher zivilisatorischer Umbruch wie durch die Nutzung der molekularen Bindungskräfte außerhalb biologischer Körper, kündigte sich am Ende des 19-Jahrhundert mit der Entdeckung der Kernbindungskräfte in besonderen Forscherkreisen an. Vor die Öffentlichkeit (oder das öffentliche Bewusstsein nein) trat die neue Energieform durch den Abwurf der beiden Atombomben auf Hiroshima und Nagasaki in Japan, die eine „ungeheure“ Vernichtungswirkung zeigten. Die Gefährlichkeit einer Energieanwendung hängt von ihrer Energiedichte ab. Daher ist z.B. bei gleicher Muskelkraft ein scharfer Degen gefährlicher als eine stumpfe Keule. Die Spaltung eines Urankerns setzt rund 50 Millionen Mal mehr Energie frei als die Verbindung eines Kohlenstoffatoms mit zwei Sauerstoffatomen zu CO2. Die dermaßen stärkere Energiedichte bedingt die Gefährlichkeit ihrer Nutzung.

Ist die Nutzung der Kernbindungsenergie zu gefährlich?

Die friedliche Nutzung der Kernbindungskräfte, der „Atomenergie“ brachte ein wesentlich neues Moment in die Geschichte der Nachkriegszeit. Sie trat mit der ungeheuren Schrecklichkeit der neuen Waffe in Erscheinung, die alle „normalen“ Menschen fürchterlich verstören und beunruhigen musste. Gegen ihre Anwendung demonstrierten zahlreiche Bürger – in Deutschland in der Ostermarsch- und Friedens-Bewegung. Ein Widerstand gegen die Nutzung der Kernbindungskräfte als neuer Energiequelle zeigte sich in der breiteren Öffentlichkeit zunächst nicht.

In der Nachkriegszeit litten die meisten Menschen an den Kriegsfolgen unter Hunger und Brenn-stoffmangel, so dass sie sich wenig um fernerliegende Probleme kümmerten. Als Anfang der 1950er Jahre der Wohlstand in der Bundesrepublik spürbar zunahm, begann eine Phase des Optimismus mit viel Zuversicht in den technischen Fortschritt mit wachsendem Wohlstand. Die Nutzung der Kernenergie wurde nicht als etwas „ungeheuer“ Neues wahrgenommen, sondern in den allgemeinen technischen Fortschritt eingereiht, von dem man sich weiter wachsenden Wohlstand versprach.

1954 begann in der Sowjetunion das Kernkraftwerk Obninsk als erstes, aus Kernenergie elektrischen Strom für die zivile Nutzung zu produzieren. Dem folgte 1956 das Kernkraftwerk Calder Hall in England. Zuvor, bereits 1953, hatte US Präsident Eisenhower die Kampagne „Atoms for Peace“ angekündigt. In seiner Rede hatte er versprochen, mit der Kernenergie würde es möglich, die noch weltweit verbreitete Armut zu überwinden.[1] Im Anschluss an die Rede erörterten in den Vereinigten Staaten 1954 rund 1.500 Wissenschaftler auf einer Tagung, wie die zivile Nutzung der Kernenergie Abhilfe bei einer zu erwartenden Energieknappheit schaffen könnte, und trugen entsprechende Konzepte vor. Im Jahr danach, vom 8. bis zum 20. August 1955, fand in Genf zum gleichen Thema die erste internationale Atomkonferenz (International Conference on the Peaceful Uses of Atomic Energy) unter der Federführung der Vereinten Nationen statt.[2] Sie führte zur Gründung der Internationalen Atomenergie Organisation (IAEO). Laut Satzung ist ihre Aufgabe: „den Beitrag der Kernenergie zu Frieden, Gesundheit und Wohlstand weltweit zu beschleunigen und zu vergrößern“. [3] Auf der Konferenz wurden vor allem Fragen der Wirtschaftlichkeit und des Kapitalbedarfs diskutiert aber kaum die zunächst wirklich brennenden Fragen der Sicherheit des Betriebs nuklearer Anlagen. [4]

In Deutschland wurde das Bundesministerium für Atomfragen (ab Oktober 1955 unter Franz Josef Strauß) eingerichtet und die Deutsche Atomkommission (1956) gegründet. Hier war es vor allem die SPD, die sich bereits auf ihrem Parteitag 1956 dem Aufruf „Atoms for Peace“ anschloss und in einer Entschließung die Nutzung der Kernenergie zur Überwindung von Not und Elend forderte.

Bis in die 1960er Jahren fanden kaum Proteste gegen die friedliche Nutzung der Kernenergie, weder gegen die Kernspaltung noch die inzwischen auch angegangene Kernfusion, statt. Allenfalls wollte man geplante Kraftwerke, die diese „unheimliche“ und in der Bevölkerung wenig verstandene Energie nutzten, nicht vor der eigenen Haustüre errichtet sehen.

Das änderte sich in Deutschland nach 1970 als bei Breisach, Esenshamm, Neckarwestheim und Bonn neue Kernkraftwerke geplant wurden. In Breisach kam es zu ersten öffentlichen Kundgebungen. Gegen den Plan wurden 65.000 Einsprüche eingereicht. Das führte zur Verlegung des Vorhabens nach Wyhl. Dort stieß es auf noch größeren Widerstand und wurde daher schließlich in Philippsburg gebaut. In Wyhl hatten die protestierenden Winzer sich nicht an der Unheimlichkeit der neuen Energiequelle gestoßen. Vielmehr befürchten die Winzer, dass der aus dem Kühlsystem des Werkes aufsteigende Wasserdampf die Qualität ihrer Reben beeinträchtigen könnte.

Die Antikernkraftstoßrichtung in Wyhl kam ab Februar 1975 von außen. In den 1960er Jahren war es auf Initiative des Sozialistischen Deutschen Studentenbundes (SDS) zum Widerstand gegen den sich unter Einfluss der westlichen Siegermächte neu durchsetzenden, tendenziell neoliberalen Kapitalismus gekommen. Diese Bewegung breitete sich vor allem in der Jugend aus und wurde bald unter Ausnützung der „swarming adolescents“ und „rebellious hysteria“ der Jugend durch soziopsychologische Einflussnahme von außen [5] in eine vorwiegend antiautoritäre, antitraditionalistische Stoßrichtung gegen „die Etablierten“ umorientiert. Daraus bildete sich die sogenannte „Neue Linke“ oder „68er Bewegung“. Diese in den 1968er Jahren stark aufflammende Bewegung zerfiel rasch und flammte ab, so dass sich ihre Aktivisten nach neuen Aktionsmöglichkeiten umsahen. Solche entdeckten sie in den Kämpfen der Winzer bei Wyhl. So kam es, dass sich der Protest dort 1975 zahlenmäßig so stark ausweitete und unter den Slogan „Kampf gegen Atomkraft und Großindustrie“ gestellt wurde. In Wyhl ist die Antikernkraftbewegung aus dem Schatten der Bedeutungslosigkeit herausgetreten. [6] Ähnliches entwickelte sich auch in Frankreich um das Kernkraftwerks Fessenheim.

Allerdings schaffte es die Antikernkraftbewegung noch nicht zu einer zentralen Organisation. Statt dessen bildeten sich nach Wyhl eine Vielzahl von Gruppen und Bürgerinitiativen, die dieses Thema aufgriffen und mit vielerlei anderen Themen verbanden. Das änderte sich in gewisser Weise mit der Gründung der „Partei die Grünen“ im Jahr 1980. Sie wirkte zunächst als loses Wählerband für verschiedene Antikernkraft- und Umwelt-Gruppen. Der Widerstand blieb auf die Ablehnung der Kernspaltung beschränkt. Die Kernfusion, blieb daneben weitgehend unberücksichtigt.

Die Katastrophe von Tschernobyl 1986 verhalf der Antikernkraftbewegung nach einem gewissen Abklingen europaweiten wieder zum Aufschwung, weil die radioaktive Wolke nicht an Grenzen Halt machte. Das geschah dann noch einmal verstärkt mit dem Reaktorunfall im Kernkraftwerk Fukushima Daiichi in Japan. Ein starkes Erdbeben mit nachfolgendem Tsunami hatte im März 2011 dort große Schäden an dem bereits zur Abschaltung vorgesehen und daher technisch kaum noch modernisierten Kernkraftwerk geführt. Die Katastrophe von Fukushima und vor allem die Medienberichterstattung darüber erschütterten den Glauben an die Beherrschbarkeit der Atomkraft in weiten Kreisen Deutschlands. Die Bundesregierung unter Angela Merkel ließ die ältesten Atommeiler sofort abschalten und bereitete den endgültigen Ausstieg vor, nachdem sie gerade erst die Laufzeiten verlängert hatte. [7]

Die Themen und Schwerpunkte der Antikernkraftbewegung hatten sich über die Jahre verschoben. Zuerst fürchtete man vor allem den GAU, den größten anzunehmenden Unfall eines Kernkraftwerks. Dann rückten Fragen der Wiederaufbereitung und Endlagerung abgebrannter Brennelemente ins Zentrum der Ablehnung. Das geschah, als das niedersächsische Gorleben zur größten Wiederaufarbeitungsanlage der Welt und der nahe gelegene Salzstock zum Endlager des Atommülls werden sollten. Schließlich konzentrierte man sich auf das Problem der Radioaktivität. Durch die Aktivität vieler Gruppen und die breite Medienberichterstattung wuchs die Ablehnung der Kernergie in der deutschen Bevölkerung bis sie 2001 auch im Parlament eine Mehrheit fand, die schließlich den Ausstieg aus der Kernkraft in Deutschland beschloss.

Tragen die wichtigsten „Antiatomängste“?

Eines der ersten Argumente, das vielleicht am ehesten das Gefühl der „Ungeheuerlichkeit“ dieser neu ins Leben der Menschen eintretenden Macht ausdrückt, ist der Vorwurf Kernenergie sei widernatürlich. Dieser emotionale Vorwurf ist leicht zu widerlegen. Schon Licht und Wärme der Sonnenstrahlung stammt vorwiegend von Kernfusionsprozessen in der Sonne (her?). Auch die Wärme im Erdinneren, die neuerdings mit Geothermik-Kraftwerken genutzt werden soll, wird durch nukleare Zerfalls- und Spaltungsprozesse im Erdkern aufrechterhalten.

Schließlich brannten auf der Erde lange bevor der Mensch dazu in der Lage war, Kernspaltungsreaktoren. Bei der Ortschaft Oklo in Gabun (Afrika) stieß man 1972 zum Beispiel auf sechs linsenförmige Taschen von je 10 bis 20 Metern Ausdehnung und rund einem Meter Dicke (später entdeckte man weitere). Sie bargen ungewöhnlich hoch angereichertes Uranerz, das aber ungewöhnlich wenig von dem spaltbaren Uranisotop U 235 enthielt. Dafür stieß man dort auf die üblichen Spaltprodukte des Urans. Es handelte sich demnach dort um natürliche Kernspaltungsreaktoren, die nach einschlägigen Berechnungen etwa 100 000 Jahre lang gearbeitet haben mussten. Interessant dabei ist die Beobachtung, dass die nicht gasförmigen Spaltprodukte nicht durch den porösen Sandsteinboden hindurch ins Grundwasser geschwemmt wurden, sondern ungeschützt an der Stelle im Boden verblieben sind.[8]

Wichtiger ist das Argument, der Betrieb von Kernreaktoren sei unbeherrschbar. Die an die 50 Millionen Mal höhere Energiedichte der Kernbindung gegenüber der molekularen Bindungskraft sind ein hohes Sicherheitsrisiko. Doch die lange Erfahrung in der Forschung, Entwicklung und beim Betrieb von Kernkraftwerken und der globale Austausch der dabei gemachten Erfahrungen über die World Assiciation of Nuclear Operators (WANO) hat mittlerweile zur weitestgehenden Lösung der Sicherheitsprobleme geführt. Dort fließen bei ständiger Überwachung der Reaktoren die Meldung aller Störfälle und die Untersuchung ihrer Entstehung und Vermeidbarkeit aus den inzwischen über 20.000 Jahren Betrieb aller Kernkraftwerke zusammen und werden an alle Betreiber weitergereicht. Das führt zu einer wachsenden Erfahrung und einer immer besseren Beherrschbarkeit möglicher Störfälle durch das Personal vor Ort. Auch werden ständig neue, denkbare Störfälle ausgedacht, simuliert und, wenn möglich, unter Laborbedingungen durchgespielt. Die daraus gewonnenen Erkenntnisse fließen nicht nur in die Schulungs- und Trainingsunterlagen der Betreiber, des Wartungspersonals, der Aufsichts- und Überwachungsbehörden und sonstige Sachverständigen und deren ständige Überwachungsarbeit und Sicherheitsprüfungen ein. Sie dienen auch der ständigen Nachrüstung und Verbesserung der kerntechnischen Anlagen. Im veralteten Kernkraftwerk Fukushima war es trotz bereits eingeleiteter Stilllegungsabsichten und entsprechend mangelhafter Nachrüstung nicht aus Sicherheitsmängeln (obwohl es sie gab) zum Unfall gekommen, sondern durch einen ungewöhnlich starken, so nicht vorhergesehenen Tsunami. Allenfalls eine zu leichtfertige Standortwahl an der bedrohlichen Küste könnte haftbar gemacht werden, und dass Pumpen und Notstromaggregate für die Notkühlung der Brennstäbe nicht flutsicher im Keller untergebracht waren. Bei dem Unfall des RBMK-Reaktors (einem graphitmoderierten wassergekühlten SiedewasserDruckröhrenreaktor) in Tschernobyl am 26.4.1986 handelte es sich um einen Reaktor ohne entsprechende Reaktorsicherheitshülle (Containment), an dem leichtfertig Versuche gemacht wurden, um das Brüten von Plutonium zu steigern. Die negative Wirkung dieser oder ähnlicher Störfälle und die teilweise agitatorische übertriebene Berichterstattung zeigten bald Wirkung.

Die Vertreter des „Unbeherrschbarkeit-Arguments“ vermeiden es, sich mit der technischen Wirklichkeit auseinanderzusetzen. Die ausgesprochen hohe Betriebssicherheit der Kernkraftwerke (und dass es nichts ohne Risiko gibt weglassen), wird bewusst nicht wahrgenommen. Den Hochtemperatur(-Kugelhaufen)reaktor in Jülich (HTR) hatte man versuchsweise, absichtlich ohne alle Sicherheitsvorkehrungen weiterbetrieben. Der Reaktor schaltete automatisch ab – ohne GAU /Kernschmelze. Jeder irgendwie denkbare Schadensfall wurde dabei selbsttätig, ohne menschliche Eingriffe, so eingegrenzt, dass die Auswirkungen innerhalb der Anlage quasi abgefangen und eventuelle Schadenswirkungen nicht über die Anlage hinaus gelangen konnten. Das wurde in Jülich experimentell nachgewiesen. Trotzdem und trotz dieses unwiderlegbaren Praxis-Nachweises und erheblicher Investitionen wurden entsprechende Anlagen nicht in Betrieb genommen bzw. kurz nach Inbetriebnahme stillgelegt. Das lässt sich durch Sicherheitsbedenken nicht mehr begründen.

Liegt es am Argument, dass bei der Nutzung der Kernkraft Radioaktivität entsteht? Zunächst sollte man sich klarmachen, wie Radioaktivität zustande kommt. Werden Atomkerne gespalten oder fusioniert, treten Kernveränderungen auf, bei denen das zur Stabilisierung der Kerne erforderliche Verhältnis von Protonen zu Neutronen gestört ist. In den Kernen werden nun Kräfte wach, die zu ihrer Stabilisierung beitragen. Dazu stoßen sie subatomare Teilchen oder Energiequanten in Form von radioaktiver Strahlung ab. Diese ist ab einer bestimmten Intensität durchaus gesundheitsschädlich oder gar tödlich. Diese Form der Stabilisierung der Kerne fand auf der Erde seit ihrer Entstehung statt, klang mit der Zeit deutlich ab und sorgt noch heute für die jeweils natürliche radioaktive Hintergrundstrahlung vor Ort.

Die Intensität der Strahlung hängt von der sogenannten Halbwertszeit der Substanzen ab; das ist die Zeit in der die Hälfte der Kerne der vorliegenden Substanz sich stabilisiert hat oder zerfallen ist. Stark strahlende Elemente haben eine sehr kurze Halbwertszeit. Andere, wie z.B. Wismut, haben eine extrem lange Halbwertszeit von rund 2,5 Mrd. so dass Streit entstand, ob das Element den stabilen oder instabilen Elementen zu rechnen sei. Abgestoßen werden je nach der Kerneigenschaft (des Isotops) entweder Heliumkerne als Alphastrahlung oder Elektronen beziehungsweise Positronen (letzteres, wenn sich im Kern ein Neutron in ein Proton umwandelt und dabei ein Elektron freigesetzt wird) als Betastrahlung, und/oder Gammastrahlung. Diese besteht aus Energiequanten elektomagnetischer Strahlung mit einer Energie über 200 keV mit einer Wellenlänge kürzer als 0,005 nm. Schließlich können instabile Kerne sich durch das Abstoßen eines Neutrons oder weit seltener eines Protons stabilisieren. Die Stärke der jeweiligen Radioaktivität hängt von der Art und der Anzahl der Kernumwandlungen pro Zeiteinheit des jeweiligen instabilen Isotops ab. Ein Kernzerfall pro Sekunde entspricht der Strahlungsintensität von einem Becquerel (Bc – darum wirken die Zahlenwerte in Becquerel beängstigend groß). Die dabei übertragene Energie wird in Gray (Gy) gemessen. Die relative biologische Wirksamkeit wurde an entsprechenden biologischen Substanzen ermittelt und wird in Sievert (Sv) pro Zeiteinheit der Bestrahlung ermittelt und zum Beispiel durch Millisievert pro Jahr (mSv/a) angegeben.

Die Radioaktivität kann bei Lebewesen zu gefährlichen Verbrennungen führen. Noch gefährlicher ist, wenn es zur Ionisierung kommt, indem die Strahlung in der Atomhülle eines Kerns einen Elektronenüberschuss oder Elektronenmangel erzeugt. Dadurch kann die molekulare Bindungsfähigkeit des Atoms gestört werden, was zum Beispiel lebenswichtiger Molekülketten in Organismen zerstören kann. Aus lebenswichtigen Molekülen können somit sogar Giftstoffe werden. Bisherige, langanhaltende Untersuchungen führten zu folgenden Erfahrungswerten: Die Strahlung von über 50 Sv führt innerhalb weniger Wochen zum Tod, bei 4-5 Sv besteht eine Überlebenschance von etwa 50%. Bei einer ständigen Strahlung von unter 0,5 Sv konnte das Kernforschungszentrum Karlsruhe in entsprechenden Untersuchungen keine nachteiligen Auswirkungen mehr erkennen. Das Bundesamt für Strahlenschutz hat den Grenzwert der Zumutbarkeit vorsichtshalber auf 0,02 Sv/a also 20 mSv/a festgelegt. [9]

Allerdings bemerkte man bald auch gesundheitsfördernde Wirkungen der ionisierenden Strahlung im relativ niedrigen Strahlungsbereich. Das erfuhr man zuerst anhand der Atombombentests. Im hohen Strahlungsbereich des Testgebietes erlosch alles Leben. Darum herum zeigte sich ein sogenannter Grüngürtel mit relativ hoher Strahlung, in dem der Pflanzenwuchs besonders stark wucherte, um schließlich ins übliche Wachstumsverhalten der weiteren Umgebung auszulaufen. Aufgrund dieser Beobachtung kam es zu zahlreichen Untersuchungen, die zu dem Ergebnis führten, dass eine um circa 5 bis 10 mSv/a erhöhte Strahlungsdisposition Wachstumsprozesse anregt und Stoffwechselprozesse tierischer Zellen sowie die Photosynthese der Pflanzenzellen beschleunigt. Die positiven Effekte radioaktiver Strahlung sind übrigens seit dem Mittelalter bekannt, als unter anderen der Arzt Parazelsus von Hohenheim (1493-1541) die Heilwirkung des Gasteiner Radonwassers erkannt hatte. Der Grund für eine positive Wirkung der Strahlung kann von dem Umstand herrühren, dass in der Zeit, als sich das Leben auf der Erde entwickelte, die natürliche radioaktive Umgebungsstrahlung wesentlich höher war als heute und die lebenden Zellen sich darauf eingestellt haben. Daraus erklärt sich, dass an manchen Orten mit einer natürlichen Strahlungsintensität, die deutlich höher als die in Deutschland erlaubte ist, die Menschen gesünder sind und Heilungsprozesse nachweislich rascher ablaufen als hierzulande. Das gilt insbesondere für die Gegenden um Ramasar im Iran oder am Strand von Guarapara in Brasilien.

Allerdings wird heute in den Medien und von zuständigen Behörden die Gefährdung durch Strahlungsintensität rein rechnerisch linear herunter gerechnet. Damit wird jede radioaktive Strahlung zu einem, wenn auch geringen Gesundheitsrisiko eingestuft. Die wenigsten derer, die sich vor Radioaktivität fürchten, wissen, dass ihr eigener Körper mit rund 0,25 mSv strahlt, Sex und Körpernähe demnach gesundheitsgefährdend wäre. Die um Kernkraftwerke ständig überwachte zugelassene Radioaktiv ist so gering, dass sie nicht einmal die Gesundheit fördern kann und von jeder natürlichen radioaktiven Bestrahlung bei Besteigung eines höheren Berges oder einer Flugreise überboten wird.

Wie zutreffend ist nun das Argument der Gefährlichkeit und der langen Strahlungsdauer der radioaktiven Abfälle aus Kernkraftwerken? Solche Abfälle treten in den Kernkraftwerken durchaus auf, wenn man sie unbehandelt ließe. Bei stark strahlenden Abfällen ist die Halbwertszeit kurz, so dass die Strahlung rasch unter den vorgeschriebenen niedrigen Grenzwert absinkt. Umgekehrt strahlen Stoffe mit einer sehr langen Halbwertszeit sehr schwach (Antiproportionalität). (Allerdings treten auch Spaltprodukte mit einer relativ hohen und länger dauernden Radioaktivität auf könnte dann wegbleiben). Die Instabilität solcher Kerne kann im Schnellen Brüter, im Dual-Fluid-Reaktor (DFR) oder in anderen neuen Reaktortypen behandelt werden.[10] Bei diesen Kraftwerkstypen handelt es sich in der Regel nicht mehr um Meiler, in denen Brennstoff für eine lange Betriebsdauer eingelagert ist, sondern um „Öfen“ in die nur der jeweils aktuelle Bedarf an Brennstoff zugeführt wird. Die in den Anlagen herrschende Neutronenstrahlung sorgt für die Spaltbarkeit und weitere Spaltung der überschweren Kerne oder für eine Stabilisierung leichterer Kerne durch die Anbindung fehlender Neutronen. Rein wirtschaftlich betrachtet, ließe sich damit die Strahlungsaktivität aller Spaltprodukte auf eine erforderliche Sicherungsfrist von 300 Jahren reduzieren.

Es bleibt noch ein letztes Argument: Die begrenzte Verfügbarkeit von Kernbrennstoff. Sie reiche nicht weit genug, – heißt es – damit sich eine Umstellung auf die Nutzung der Kernbindungskräfte wirtschaftlich lohnt. Ausgangsstoff für die Kernspaltung ist Uran 235, das nur zu 0,7% in Natururan enthalten ist. Für die Erzeugung einer Milliarde Kilowattstunden mit üblichen Leichtwasserreaktoren werden demnach 22 t Natururan gebraucht (beim Einsatz von Steinkohle wären es ca. 340 000 t). Natururan ist in der Erdkruste und in den Ozeanen reichlich vorhanden, allerdings nicht immer leicht zu gewinnen. Der Begriff „nachgewiesene Reserven“ bezieht sich auf die zu Marktpreisen derzeit zu fördernden Vorräte. Wenn behauptet wird, die Uranvorräte gingen in wenigen Jahrzehnten zur Neige, dann bezieht man sich auf die von den Urangesellschaften angegebenen „nachgewiesenen Reserven“. Bei dieser Behauptung wird die Möglichkeit der Rückgewinnung der Nuklearbrennstoffe durch die Wiederaufbereitung abgebrannter Brennstäbe und des Erbrütens neuer Brennstoffe in Reaktoren bewusst ignoriert.

Da in letzter Zeit viel Nuklearbrennstoff aus abgerüsteten Atomwaffen zur Verfügung stand, sanken die Uranpreise. Zahlreiche Bergwerke wurden deshalb stillgelegt. In Deutschland wurde zum Beispiel die Uranförderung 1990 völlig eingestellt. Entsprechend sanken die „nachgewiesenen Reserven“, und es wurde darauf verzichtetet, weitere Lagerstätten zu prospektieren. Bei den derzeit üblichen Förderkosten kommt man auf nachgewiesene Reserven von 11,3 Mio. t. Diese würden rund 150 Jahre reichen. Hinzu kommen bekannte Uranlager von 22 Mio. t in Phosphaterzen, die etwa bei gleichen Kosten abgebaut werden könnten. Beides zusammen errechnet eine Verfügbarkeit von 490 Jahren. Schließlich sind rund 4 Mrd. t Uran im Meerwasser gelöst und könnten mit Kosten von rund 300 US $/kg gewonnen werden.[11]

Doch Natururan ist nicht die wichtigste Quelle des Kernbrennstoffs. In den noch üblichen Kernreaktoren wird nur 1% des Uraninventars gespalten. Bei der Wiederaufbereitung der Brennelemente könnte rund ein Drittel der Abfälle wieder zur Energiegewinnung verwendet werden. Allerdings ist die Förderung von Natururan zurzeit noch billiger als die Wiederaufbereitung abgebrannter Brennstäbe aus Leichtwasserreaktoren. [12] Mit dem Schnellen Brüter kann nahezu das gesamte Natururan in Kernbrennstoff umgewandelt werden. Dadurch würde sich die Reichweite des bereits bekannten Urans um das 60-fache steigern (490 x 60 Jahre). Das würde natürlich die Uran-Preise enorm drücken. Die Inbetriebnahme des 1985 für 7 Mrd. DM (3,6 Mrd. Euro) fertiggestellten Schnellen Brutreaktors SNR 300 in Kalkar wurde daher politisch verhindert, 1991 verboten und die Anlage in einen Vergnügungspark umgewandelt. Dieser Politik entsprechend wurde in Deutschland auch das für 2 Mrd. DM erbaute Mischoxid-Brennelemente-Werk in Hanau zur Umwandlung von Waffenplutonium in Kernbrennstoff sofort nach der Fertigstellung stillgelegt. Auf Nachfrage aus dem Ausland wurde sogar der Verkauf des Werks politisch unterbunden.

Ein weiterer in der Natur vorhandener Spaltbrennstoff ist Thorium (Th 232), das zu 3 – 11 Prozent im reichlich vorhandenen Monazit-Sand vorkommt. Seine Vorräte sind weit größer als die an Natururan. Die Stromerzeugung aus Thorium wurde in dem in Deutschland entwickelten Kugelhaufenreaktor, dessen gefahrloser Betrieb sich auch für Entwicklungsländer eignen würde, über Jahre gefahrlos erprobt und schließlich ebenfalls politisch verhindert. Inzwischen wurde die Anlage in China weiterentwickelt und arbeitet dort sicher. Thorium 233, das aus Th 232 gebrütet wird, eignet sich nicht nur wegen seines sehr hohen Schmelzpunktes (3300° C für Thoriumoxid) besser für die Stromerzeugung durch Kernspaltung als Uran. Bei seinem Brutprozess fallen weder waffenfähiges Plutonium noch andere „problematische“ Transurane an. Auch sind seine Spaltprodukte leichter und gefahrloser zu handhaben. [13]

Von einer absehbaren Knappheit von Kernspaltungsbrennstoffen kann also so wenig die Rede sein, wie von den meisten der angeblichen und medial hochgespielten Gefahren der „Atomenergie“, also der Energie aus Kernspaltung.

Auf ein bisher kaum beachtetes Argument ist noch knapp hinzuweisen. Erst die Kernenergie vermag die hohe Energiedichte zu liefern, mit der sich sehr harte Molekularbindungen gewisser, relativ häufiger „Schadstoffe“ brechen lassen. Denn im Plasmazustand lösen sich alle Moleküle in ihre Elemente auf und können anschließend wieder zu neuen Werkstoffen verbunden werden. Ein Plasmazustand lässt sich mit der üblicherweise genutzten molekularen Bindungsenergie, – geschweige denn mit den sogenannten alternativen Energien – kaum oder nur sehr aufwendig mit geringen Mengen erreichen. Denn dazu sind hohe Energiekonzentrationen nötig, die sich sinnvollerweise nur mit der Nutzung der rund 50 Millionen Mal stärkeren, nuklearen Bindungsenergie erreichen lassen.

Über die Nutzung der Kernbindungsenergie durch Kernfusion wird bisher in der Öffentlichkeit kaum diskutiert. Hierzu wurde auch noch kein spezifisches Angstszenario entwickelt. Das mag daran liegen, dass die gewinnbringende Realisierung der beiden wichtigsten Reaktorarten, der Tokamaks und Stellaratoren, auf welche die Fusionstechnologie-Forschung eingeengt worden ist, noch nicht absehbar ist und diese sich möglicherweise auch nur als begrenzt einsetzbar erweisen werden. Zwar fällt die dabei auftretende Radioaktivität (bei Tritium – Superschwerer Wasserstoff) sehr gering aus, allerdings wird bei den herkömmlichen Verfahren zur Verschmelzung von Wasserstoffisotopen rund drei Viertel der Energie in sehr schnellen Neutronen freigesetzt, was erhebliche Probleme bei der Nutzung dieser Energiequellen aufwirft. Die Stromerzeugung würde hierbei wie bei der Kernspaltung durch Erhitzen eines Fluids (z.B. Wasser) in einem Sekundärkreislauf und Antrieb einer Turbine erfolgen.

Inzwischen ist ein anderes Fusionsverfahren, das sogenannte Dens Plasma Focus Verfahren abseits der allgemeinen Wahrnehmung und des öffentlichen Interesses von rein privater Seite relativ weit fortgeschritten. Es kommt ohne jede Radioaktivität und Neutronenstrahlung aus. Hierbei werden in einer relativ kleinen Anlage je ein Bor11-Kern mit einem Wasserstoffkern verschmolzen, dabei entstehen je 3 Helium Kerne, welche die freigesetzte Energie in einem dichten Strahl ausstößt. Dieser Strahl lässt sich wie bei einem Transformator durch Spulen abbremsen, wodurch unmittelbar elektrischer Strom induziert wird. Schließlich trifft der Strahl auf eine Kondensator-artige Platte, auf der sich die Heliumkerne ihre Elektronenhülle beschaffen, so dass wieder elektrischen Strom fließt. Diese vielversprechende Lösung ist an anderer Stelle ausführlicher beschrieben worden.[14]

Fazit:

Unsere moderne industrielle Gesellschaft ist in sehr hohem Maße abhängig von einer gesicherten Energie- und Stromversorgung. Ohne eine solche bricht viel mehr zusammen als nur das Internet. Daher ist die Entscheidung für Kernenergie, Kohle und Gas – oder dagegen, also für eine unsichere und derzeit im benötigten großen Umfang kaum speicherbare „Erneuerbare Energien“ nicht nur eine ideelle. Eine solche Entscheidung hätte sehr weitreichende Folgen für unsere Gesellschaft – (ähnlich wie die mit dem Beginn der Nutzung des Feuers vor 100.000 Jahren. Nur sind diesmal wie die damals aus Angst vor dem Feuer Zurückgebliebenen die Affen?

Umbruch – Einbruch oder Aufbruch: Es scheint, als wollten sich einige wenige Machthaber mit einem „Great Rest“ (Zurücksetzung) ihre Pfründen in einem zusammenbrechenden Finanzsystem retten und ihre Macht konzentriert ausbauen. Sie versprechen eine angeblich bessere Welt, in der normale Bürger nichts mehr besitzen und damit angeblich glücklich seien, weil sie meinen, das Klima gerettet und den Schritt in eine neue Gesellschaft auf der Grundlage zu nutzender Kernbindungskräfte vermieden haben.

Denn sollte den heutigen Menschen die Nutzung der Kernbindungskräfte so umfänglich gelingen wie den ersten Menschen schließlich die Nutzung der molekularen Bindungskräfte, ist eine Umstrukturierung der Gesellschaftsordnung wie sie vor rund 10.000 mit der Einführung der Landwirtschaft im Grundsatz geschaffen worden ist, zu erwarten. Soll das von deren Nutznießern mit einem „Great Rest“ verhindert werden? Oder verhindert das eine ähnliche „tierische Angst“ wie bei den vormenschlichen Hominiden vor über 100.000 Jahren.

  1. http://en.wikisource.org/wiki/Atoms_for_Peace_Speech,_President_Eisenhower,_December_8,_1953.
  2. Hinweis in: British Journal of Radiology, Band 28, 1955, S. 452.
  3. Siehe: http://www.dgvn.de/fileadmin/user_upload/PUBLIKATIONEN/Sonstiges/UN-System_final.pdf.
  4. The History of the IAEA, Part I, Chapter III 1997, S. 31–34, unter: https://www-pub.iaea.org/MTCD/publications/PDF/Pub1032_web.pdf.
  5. Eric Trist und Dr. Fred Emery hatten die genannten Phänomene am Tavistock Institute in London auf ihre politische Brauchbarkeit und Anwendbarkeit hin untersucht und vorbereitet. Vgl. F. E. Emery, E. Trist, Socio-Technical Systems, in: C.W. Churchman, M. Verlust (Hrgs) Management Science, Models, and Techniques Bd. 2 Pergamon Publ. Oxford 1960 S. 83–97. F. Emery, E. Trist, The causal texture of organizational environments, in: Human Relations 1965, Bd.18, S. 21–32. F.E. Emery, The next Thirty years: concepts, methods and anticipations, in: Human Relations 1967, Bd.20, S. 199–237.
  6. https://www.deutschlandfunk.de/kann-blockieren-suende-sein-100.html.
  7. Vgl. https://www.deutschlandfunk.de/kann-blockieren-suende-sein-100.html. und zu Fukushima https://www.bfs.de/DE/themen/ion/notfallschutz/notfall/fukushima/unfall.html.
  8. Vgl. unter anderem A. P. Meshik: Natürliche Kernreaktoren, in: Spektrum der Wissenschaft 2006/06, S. 84–90. Vgl. auch: F. Gauthier-Lafaye: 2 billion year old natural analogs for nuclear waste disposal: the natural nuclear fission reactors in Gabon (Africa). In: C. R. Physique 3, Nr. 7, S. 839–849 (2002). doi:10.1016/S1631-0705(02)01351-8.
  9. https://www.bfs.de/DE/themen/ion/strahlenschutz/grenzwerte/grenzwerte.html.
  10. Jérôme Serp et al. „The molten salt reactor (MSR) in generation IV: Overview andperspectives“, Progress in Nuclear Energy 77, 308-319 (2014), Badawy M.Elsheikh, „Safety assessment of molten salt reactors in comparison with light water reactors“, Journal of Radiation Research and Applied Sciences 6, S. 63–70 (2013).
  11. Diese Angaben beziehen sich auf einen Bericht des deutschen Bundestages von 2006 https://www.bundestag.de/resource/blob/509082/5594603c3ecf27933ad76d31faf89c27/uran-als-kernbrennstoff-data.pdf. Inzwischen wurden allenfalls mehr Vorräte entdeckt. Doch Natururan ist nicht der wichtigste Brennstoff.
  12. Zu den Uran-Vorräten vgl. http://www.framatome.de/anp/d/foa/anp/print/argumente/argumente_Uran_11_2005.pdf oder http://www.energie-fakten.de. Wie lange reichen die Uranvorräte? Oder Atomenergie: Uran für Jahrzehnte, Tagesspiegel 04.01.2006.
  13. Rudolf König, Hans-Georg Wieck, Amorphes Thorium – Grundlage eines Kernbrennstoffes für sichere Kernkraftwerke der Zukunft, Eigenverlag Berlin, November 2007.
  14. Vgl. Helmut Böttiger, Neue Energietechnologie für die Zukunft, Michael Imhof Verlag 2022.



Umbruch – Einbruch oder Aufbruch?! Teil I

Umbruch ist ein starkes Wort, denn es meint hier: An die Stelle eines alten Systems, soll ein neues treten. Deutet sich etwa ein solcher Umbruch an – in Form eines Aufbruchs zu etwas Besserem?

Dr. Helmut Böttiger

Teil I

Tatsächlich erleben wir in letzter Zeit gehäuft „Einbrüche“. Nein, nicht nur in Häuser und Geschäfte wird eingebrochen. Hier geht es um anderes. So ist kürzlich der Wert des Euros eingebrochen und auf den Wert des Dollars herabgesunken. Der Sars-Covid 19-Virus hat mit Lockdown, Masken- und Impf-Forderungen fast das Gesundheitssystem in Frage gestellt. Die dramatisch fortschreitende Inflation hat die Versorgung vieler privater Haushalte einbrechen lassen und dort die Sorge verbreitet, wie man künftig noch über die Runden kommen solle. Verstärkt wurde das besonders durch den enormen Anstieg der Energie- und Treibstoffpreise. Schließlich sind blockierte Verhandlungen in einen Krieg ausgebrochen und steigern die Gefahr eines Atomkriegs bedrohlich. Mit der Zuspitzung solcher Krisen wächst die diffuse Angst in der Bevölkerung. Ihr Vertrauen in die Zukunft beginnt einzubrechen.

Darüber hinaus hat die Coronakrise die ideologische Spaltung in der Bevölkerung vertieft. Die Spaltung begann vorher und zwar seit den 1970er Jahren mit dem Begriff „Grenzen des Wachstums“.[1] Die gesellschaftliche Spaltung betraf zunächst die Zustimmung oder Ablehnung der vielfach aber zunächst wenig stichhaltigen Beweisführung, dass die Industriegesellschaft sich in relativ kurzer Zeit auf kaum zu überwindende Grenzen des Wachstums zubewege. Mit den Jahren verlagerte sich der Streit eher auf die Frage, welche Maßnahmen zu ergreifen seien, so dass der Widerspruch kaum in Erscheinung trat.

Er war aber nur übertüncht worden. Grenzen des Wachstums hatten sich in der bisher gut 4 Milliarden Jahren währenden Entwicklung des Planeten Erde immer wieder eingestellt. Sie haben letztlich die evolutionäre Entwicklung seiner Biosphäre vorangebracht. Demnach wäre auch jetzt an eine evolutionäre Überwindung der erneut in Erscheinung tretenden Grenzen zu denken, eine Evolution der sogenannten Noosphäre, wenn man so will. Dem gegenüber scheint sich aber die entgegengesetzte Meinung durchzusetzen, nämlich dass diesen Grenzen nur durch ein Zurückfahren von Produktion und Versorgung der Menschen zu begegnen sei und die Menschheit sich somit in das stationär verstandene Geschehen der derzeitigen Biosphäre einzupassen habe. Energie-Einsatz und -Verbrauch stehen hierbei im Mittelpunkt der Betrachtung.

Neben allgemein vertretenen Forderungen, sich in die statisch interpretierte Biosphäre einzuordnen, finden evolutionär ausgerichtete Gegenstimmen kaum noch Beachtung und treten allenfalls noch im Streit um die Nutzung der Kernbindungskräfte (Atomenergie) auf. Der Streit spitzte sich zu, weil nun auch massive Einschränkungen bei der Nutzung fossiler Energieträger gefordert werden. Das wird damit begründet, dass deren Abgase, das Kohlendioxid CO2, neben Wasser die Grundnahrung der Pflanzen, angeblich das Klima bedrohlich erwärmen. Die alternativen Energiequellen, auf die stattdessen verwiesen werden, sind nicht nur knapp, sie verlangen eine drastische Senkung des Lebensstandards und der Anzahl der Menschen. Sie greifen selbst bedenklich in die Umwelt ein, was erstaunlicherweise kaum beachtet wird.

Oder sehen wir das zu pessimistisch, reden den Aufbruch in ein neues Leben schlecht? ?

Nehmen wir zum Beispiel die Windenergie.

Die Technik der Windkraftwerke gilt als sicher und gut handhabbar.[2] Das wird kaum bestritten. Doch Windkraftwerke gefährden in erheblichem Umfang Vögel, Fledermäuse und vor allem Insekten, die zu sogenannten Schlagopfern werden. Die Quantifizierung der Schäden erweist sich als schwierig, weil Tiere, wie z.B. Füchse, die weggeschleuderten Kadaver verzehren. Der Schlagschatten der Rotoren belästigt Anwohner. Die niedrig-frequente Druckwelle, die das Vorbeigleiten des Rotorblatts am Turm erzeugt, löst bei allen Lebewesen in ihren Luft- oder Gas-gefüllten Hohlräumen, wie z.B. in den Lungen, sogenannte Barotraumata aus, die vor allem bei Fledermäusen traumatische bis tödliche Auswirkungen haben. Sie können neben dem damit verbundenen Infraschall auch empfindliche Menschen gesundheitlich schädigen.

Für den Flächenbedarf einer Windkraftanlage mit dem Zuweg für die Montage und Wartung rechnet man bei der Drei-Megawatt-Klasse eine befestigte und freizugängliche Fläche von etwa 2.500 m². In Wälder geht man von einem Bedarf von 0,47 ha aus. Das scheint im Vergleich zu anderen Anlagen wenig zu sein. Unberücksichtigt bleiben die wegen der erzeugten Windschatten benötigten Abstände der Anlagen von einander und damit die Streuung der Windanlagen über Land. Das Land zwischen den Windkraftanlagen kann weiterhin landwirtschaftlich genutzt werden. Das gilt wesentlich weniger für Solaranlagen, wenn sie nicht auf Hausdächern, über Straßen und befestigten Plätzen errichtet werden.

Der Rohstoffverbrauch dieser zwischen mit 20 bis 25 Jahren relativ kurzlebigen Kraftwerke ist erheblich, vor allem wenn man die wegen der unsteten Energiebereitstellung erforderliche Energiespeicherkapazität hinzurechnet. Hier spielt vor allem der Bedarf an sogenannten seltenen Erden eine Rolle, deren Rückgewinnung aus dem Abfallschrott noch größere Probleme aufwirft. Das gleiche gilt für den Sondermüll aus den GFK-Fasern und Klebstoffen der Rotoren, die bisher noch nicht recycelt werden können.

Kaum berücksichtigt wird in der Diskussion die Klimawirksamkeit der großen Anzahl an Windkraftanlagen. Diese besteht im Abbremsen der Windgeschwindigkeit. Dadurch wird nicht nur der Kühleffekt des Windes gemindert, sondern auch seine Transportfähigkeit von Luftfeuchtigkeit vom Meer an Land. Inzwischen beobachten Meteorologen ein „Global Terrestrial Stilling“, das in etwa 10 m Höhe über dem Erdboden zunehmend gemessen wird. Das trägt sowohl zur Klimaerwärmung bei wie auch zu zunehmender Austrocknung, was sich u.a. im früher sehr niederschlagsreichen Norden Deutschlands bemerkbar macht. Selbst die Windenergiebranche kommt nicht umhin, den Rückgang der mittleren spezifischen Leistung schon bestehender Windkraftanlagen in den Jahren von 2012 bis 2019 im Norden um 30 %, in der Mitte um 23 %, im Süden um 26 % festzustellen.[3]

Dem globalen terrestrischen Stilling wird inzwischen eine große wissenschaftliche, sozioökonomische und ökologische Bedeutung beigemessen, weil selbst kleine Windgeschwindigkeitsänderungen die atmosphärische und ozeanische Dynamik und verwandte Bereiche entscheidend beeinflussen, etwa die Landwirtschaft und Hydrologie aufgrund der sogenannten Evapotranspiration (alle Arten des Übergangs des Wassers vom Land in die Atmosphäre), [4] die Migration durch Wind verbreiteter Pflanzenarten, [5] die Ausbreitung von Schadstoffen über die Luft [6] etc. Uneinheitlich wird noch der Einfluss auf höher gelegene Standorte beurteilt, besonders auf solche, die einen Großteil unserer Süßwasservorräte liefern.[7] Es zeigt sich aber, dass die Windgeschwindigkeiten dort sogar schneller abnehmen als an Standorten niedrigerer Höhen. [8] Schließlich entsteht bei der Umwandlung der Windenergie in el. Strom zu einem erheblichen Anteil (über 45%) Abwärme, die das Klima möglicherweise mehr erwärmt, als CO2 dies kann.[9]

Der Einfluss der Energieentnahme aus dem Wind in Bezug auf Umwelt und Klima wurde in der Öffentlichkeit kaum erwähnt. Das war und ist unverantwortlich, denn laut Studienlage verstärken wir dadurch den sogenannten Klimawandel (die Erderwärmung), anstatt ihn abzumildern.

Ist eine Klimaerwärmung, gravierend und menschgemacht durch CO2 (tatsächlich () weglassen) wissenschaftlich eindeutig belegt?

Die Klimaerwärmung durch Zunahme von CO2 in der Atmosphäre ist bisher keineswegs „wissenschaftlich“ erwiesen, wie behauptet wird. „Wegen fehlender physikalischer Beweise, dass CO2 eine globale Erwärmung verursacht, beruht das Argument, CO2 sei Ursache der Erwärmung, auf Computer-Modellierungen“, schrieb der Geologe Don Don J. Easterbrook bisher unwidersprochen.[10] Modelle liefern keine Beweise, allenfalls Erklärungen und die brauchen nicht zuzutreffen. Das gilt vor allem für die vielfach genannten 33°C Treibhausgaserwärmung aus einem erstaunlich falsch berechneten Unterschied zwischen Erde ohne und mit Atmosphäre.[11] Eine „Falsifizierung der atmosphärischen CO2 – Treibhauseffekte im Rahmen der Physik“ (englisch) lieferten bisher unwiderlegt Prof.

Gerhard Gerlich (Institut für Mathematische Physik, Technische Universität Braunschweig) und Dr. Ralf D. Tscheuschner bereits im Oktober 2009. [12]

Die Vertreter der „Klimasensitivität von CO2“ berufen sich gerne auf die sogenannte Rückstrahlung der vom erwärmten Erdboden abgegebenen Strahlung, die vom CO2 remittiert wird. CO2 absorbiert und emittiert hauptsachlich in der engen Bande von 15 Mikrometer (μm), Pflanzen tun das vorwiegend in der Bande 3,3 μm, Gestein zwischen 8 und 12 μm. Flüssiges Wasser emittiert im gesamten mittleren IR-Spektrum, besonders aber zwischen 2,8 und 8,3 μm. Daher sagte Prof. Reimund Stadler vom Institut für Organische Chemie der Universität Mainz bereits 1994: „Die Strahlungen, die vom Kohlendioxid absorbiert werden können, werden bei der vorhandenen Kohlendioxidmenge bereits vollständig eingefangen. Mehr geht nicht! Der konstruierte Zusammenhang zwischen global warming und Kohlendioxidemission entbehrt einer wissenschaftlich kritisch überprüfbaren Grundlage.[13] Demnach ginge von einer Zunahme an CO2 in der Atmosphäre keine zusätzliche Klimaerwärmung aus.

Wenn behauptet wird, CO2 würde die absorbierte Strahlung ringsum, also auch zum Teil wieder zum Boden zurückstrahlen, mag das zutreffen. Dass dies den Boden aufwärmen könnte, widerspricht eindeutig den Strahlungsgesetzen, die in Verbindung mit Rudolf Clausius‘ zweitem Hauptsatz der Thermodynamik vor allem auf Max Planck und Albert Einstein zurückgehen und bisher nicht widerlegt sind.[14]. Der wärmere Erdboden lässt sich nicht ohne Arbeit von der Strahlung eines kälteren Gegenstands erwärmen. CO2 leistet diese Arbeit jedenfalls nicht. Die Atmosphäre wird vor allem durch die Strahlung des wärmeren Erdbodens erwärmt, dieser aber nicht durch die darüberliegende, kältere Atmosphäre. Eine Erwärmung der Atmosphäre durch Stoßaktivierung seitens angeregter CO2-Molekülen ist bei ihrem Verhältnis von 4 zu 10.000 anderen Luftmolen kaum messbar. Neben dem Strahlungsgeschehen müssten auch alle anderen Arten der Energieströme, wie Aufstieg der latenten Wärme (pro Sekunde verdunsten auf der Erde 14 Mio. t Wasser, der Dampf steigt auf und regnet weiter oben abgekühlt wieder ab.) oder die Umwandlung der Sonnenenergie dank der Photosynthese der Pflanzen mitberücksichtigt werden, was im Diskurs der Klimaerwärmung durch CO2 in der Regel nicht geschieht.

Die gängigen Erklärungen des angeblichen Treibhauseffekts stützen sich auch auf die irrige Annahme, dass die gemittelte Temperatur (Durchschnittstemperatur der Erdoberfläche) irgendeine physikalische Bedeutung habe. Eine solche mittlere Temperatur hat mit einer Energiebilanz, aus der zumeist der Treibhauseffekt abgeleitet wird, nichts zu tun. Bei einer physikalisch vernünftigen Analyse müssten stets Temperaturfelder, also Bereicher von beobachtbaren, lokal gemessenen Temperaturen miteinander verglichen werden. Es müssten durch Messungen gestützte Belege vorgelegt werden, dass die lokalen Erhöhungen der Konzentration des Spurengases CO2 zu lokalen Temperaturerhöhungen führt und das lokale Wetter verändern und somit auch deren Statistik. Das ist bisher nicht geschehen.

Für die Zu- oder Abnahme des CO2-Gehalt der Atmosphäre sind weit mehr die temperaturabhängige Ozeanosphäre und die Biosphäre (Flora und Fauna) verantwortlich, als die Nutzung fossiler Brennstoffe. In der Biosphäre besorgen dies Schwankungen zwischen dem CO2-bindenden Pflanzenwuchs und der CO2-freisetzenden Ausatmung der Tiere und Menschen. In die Bodenerwärmung greift der Mensch mehr über die Gestaltung der Erdoberfläche, Siedlungsbau und Landwirtschaft, ein als über die industrielle CO2 Freisetzung.

Die CO2-Aufnahme oder Abgabe der Ozeane ist von der CO2-Konzentration in der Atmosphäre (seinem Partialdruck) und von der Wassertemperatur abhängig. Bekanntlich sind rund 71% der Erdoberfläche durchschnittlich 3000 m tief mit Wasser bedeckt. Meerwasser enthält etwa 50 Mal mehr Kohlenstoff als die gesamte Atmosphäre. Ein Liter Wasser bindet bei 0° C etwa 3,4g CO2, bei 20°C aber nur noch 1,7g. Die Erwärmung der Ozeane trägt also massiv zur Erhöhung des CO2 Gehalts der Atmosphäre bei und nicht umgekehrt. Vom Ozean absorbiertes CO2 wird im Oberflächenwasser zum großen Teil von Algen und Plankton verstoffwechselt. Das verbliebene CO2 wird allenthalben verbindet sich mit Kalzium in zu Kalkstein (CaCO3) umgewandelt (blaue Version bevorzugt). Das recht schwerlösliche CaCO3 sinkt tiefer und lagert sich bis in 5000 m Tiefe am Meeresboden ab.

Dort bilden sich allmählich Kalksteinschichten, die durch geologische Verschiebungen zum Teil als Kalksteingebirge an die Erdoberfläche gedrückt werden (Auf dem Festland gibt es angeblich etwa 2,8 x 1016 t Kalkstein). Die Kalksteinschichten werden aufgrund der Plattentektonik allmählich ins heiße Erdinnere hinab gedrückt. Im heißen Magma wird CaCO3 unter hohem Druck und unter Einwirkung von Eisen als Katalysator (Bakterien?! Nein) in Kohlenwasserstoffe (Erdgas etc.) umgewandelt. Von dort werden sie entweder durch Vulkane in die Atmosphäre abgegeben oder sammeln sich bei verhinderter Entgasung in alten oder neuen Lagerstätten.

Die Umwandlung von Kalkstein in Kohlenwasserstoffe unter Bedingungen wie sie Im Erdmagma herrschen gelang einer Gruppe um den Geologen Henry Scott an der Universität Indiana um 2004.[15] Dagegen ist es bis heute nicht gelungen, im Labor aus pflanzlichen oder tierischen Rückständen wie im Magma allein mit Druck und Hitze Kohlenwasserstoffe zu erzeugen. Das schafften bisher nur Lebewesen in anaeroben Gärungsprozessen. Dieses prinzipielle Unvermögen veranlasste schon 1963 den Nobelpreisträger für Chemie (1947), Robert Robinson, zu der Aussage: „Es kann nicht stark genug betont werden, dass Erdöl nicht die Zusammensetzung erkennen lässt, die von umgewandeltem biogenetischen Material zu erwarten wäre, und alle entsprechenden Hinweise auf solche Bestandteile in sehr altem Öl passen genauso gut oder sogar noch besser zu dem Konzept eines ursprünglichen Kohlenwasserstoffgemisches, dem später biologisches Material hinzugefügt worden ist.“[16]

Beide Recyclingprozesse von CO2 widersprechen nicht nur der CO2-Klima-Hypothese, sondern auch der Peak Oil Hypothese, nach der die Vorräte an Kohlenwasserstoffen auf der Erde bald verbraucht sein würden. Auf die These näher einzugehen, erübrigt sich, weil die vielen Explorationen neuer Lagerstätten die Peak Oil Hypothese verstummen ließen. Auf eine andere Ursache für die Erwärmungshypothese sei hier nur verwiesen, ohne näher darauf einzugehen, es sind dies Änderungen am Standort der Messstationen in Verbindung mit dem Wärmeinseleffekt. [17]

  1. Vgl. https://blog.hnf.de/an-den-grenzen-des-wachstums/.
  2. Windenergie zur Erzeugung elektrischen Stroms wurde übrigens zuerst im Dritten Reich propagiert: Lawaczeck, F. (1933), „Technik und Wirtschaft im Dritten Reich – Ein Arbeitsbeschaffungsprogramm“ Verlag Frz. Eher Nachfolger München, S. 50 ff
  3. So die Ergebnisse einer am 5. Oktober 2020 veröffentlichten Studie der Deutschen WindGuard im Auftrag des Bundesverbands WindEnergie e.V. mit dem Titel „Volllaststunden von Windenergieanlagen an Land – Entwicklung, Einflüsse, Auswirkungen“.
  4. Vgl.u.a. McVicar TR, Roderick ML, Donohue RJ, Van Niel TG: (2012), Less bluster ahead? Ecohydrological implications of global trends of terrestrial near-surface wind speeds, in: Ecohydrol., 5(4), 381–388, doi:10.1002/eco.1298.
  5. Thompson, S.E., and G.G. Katul: (2013), Implications of nonrandom seed abscission and global stilling for migration of wind-dispersed plant species, in: Glob. Chang. Biol., 19(6):1720–35, doi:10.1111/gcb.12173.
  6. Vgl.u.a. Cuevas, E., Y. Gonzalez, S. Rodriguez, J.C. Guerra, A.J. Gomez-Pelaez, S. Alonso-Perez, J. Bustos, and C. Milford: (2013), Assessment of atmospheric processes driving ozone variations in the subtropical North Atlantic free troposphere, in: Atmos. Chem. Phys., 13(4), 1973–1998, doi:10.5194/acp-13-1973-2013.
  7. Viviroli D, Archer DR, Buytaert W, Fowler HJ, Greenwood GB, Hamlet AF, Huang Y, Koboltschnig G, Litaor MI, Lopez-Moreno JI, Lorentz S, Schadler B, Schreier H, Schwaiger K, Vuille M, Woods R.: (2011), Climate change and mountain water resources: overview and recommendations for research, management and policy, in: Hydrology and Earth System Sciences 15(2): 471–504. doi:10.5194/hess-15-471-2011, und Viviroli D, Durr HH, Messerli B, Meybeck M, Weingartner R.: (2007), Mountains of the world, water towers for humanity: typology, mapping, and global significance, in: Water Resources Research 43(7): W07447, doi:10.1029/2006WR005653..
  8. McVicar TR, Van Niel TG, Roderick ML, Li LT, Mo XG, Zimmermann NE, Schmatz DR: (2010) Observational evidence from two mountainous regions that near-surface wind speeds are declining more rapidly at higher elevations than lower elevations: 1960–2006, in: Geophys Res Lett 37 (6): L06402. doi:10.1029/2009GL042255 und speziell für das Tibet-Plateau You, Q., Fraedrich, K., Min, J., Kang, S., Zhu, X., Pepin, N., Zhang, L.: (2014) Observed surface wind speed in the Tibetan Plateau since 1980 and its physical causes, in: International Journal of Climatology 34(6), 1873–1882. doi:10.1002/joc.3807.
  9. Vgl.u.a. Lee Miller: The Warmth of Wind Power, in: Physics Today 73, 8, 58 (2020); https://doi.org/10.1063/PT.3.4553.
  10. D.J. Easterbrook, Evidence-Based Climate Science. Elsevier, Amsterdam 2011, S. 400. Zu nennen wären hier u.a. etwa die Professoren Dr. G. Kramm oder Dr. G Gerlich.
  11. Dass die effektive Strahlungstemperatur der Erde, egal ob eine Atmosphäre existiert oder nicht, überhaupt keine reale Temperatur ist, ist seit dem 1.2.1913 ü 100 bekannt, siehe R. Emden in: „Über Strahlungsgleichgewicht und atmosphärische Strahlung“ unter: http://ing-buero-ebel.de/Treib/Emden.pdf. Vgl. neuerdings Kramm, G.: (2020) https://www.coursehero.com/file/82172501/Bemerkungen-zur-Gleichung-von-Gerlich-unpdf/EMC Report No. 01-20200627. ( der geänderte Link klappte bei mir)
  12. https://www.worldscientific.com/doi/abs/10.1142/S021797920904984X
  13. Mainzer Allgemeinen Zeitung vom 14.12.1994. Inzwischen nachgewiesen und bestätigt, W. A. van Wijngaarden, W. Happer: Relative Potency of Greenhouse Molecules, unter: arXiv:2103.16465v1 [physics.ao-ph] 30 März 2021.
  14. Vgl. z.B unter anderen A. Einstein, P. Ehrenfest, Zur Quantentheorie des Strahlungsgleichgewichts, in: Zeitschrift für Physik, Vol. 19, (1923), S. 301–306.
  15. Henry P. Scott, Russell J. Hemley et al., Generation of methane in the Earth’s mantle: In situ high pressure–temperature measurements of carbonate reduction, Proceedings of the US National Academy of Science PNAS, veröffentlicht am 20.9.2004, unter: http://www.pnas.org/content/101/39/14023.full.
  16. Robert Robertson, Duplex Origin of Petroleum, in: Nature, Vol. 199, 1963, S. 113.
  17. https://wattsupwiththat.com/2022/07/27/new-surface-stations-report-released-its-worse-than-we-thought