EIKE Website wurde Opfer eines Angriffs!

Offenbar ist unsere Seite vielen Klimagläubigen inzwischen ein dermaßen großer Dorn im Auge, dass sie anstatt die Auseinandersetzung mittels wissenschaftlicher Faktendiskussion mit uns zu führen, auch vor illegalen Methoden der Stilllegung wegen Überlastung der Server nicht mehr scheuen. Denn die Angriffe gingen nach Wiederfreischaltung sofort wieder los: Unser Provider schrieb uns soeben dazu

Wir haben den Account nun wieder freigegeben. Allerdings fiel uns auf, dass sofort wieder einige PHP-Prozesse auf Ihrem Account aktiv waren. Diese verursachen aktuell keine größeren Probleme, sodass der Account vorerst wohl aktiv bleiben kann. Bitte beachten Sie, dass wir unter Umständen den Account erneut sperren müssten, falls wieder Probleme auftreten.

Also dürfen wir damit rechnen in Kürze wieder Opfer eines Angriffes zu werden. Wir sind gespannt. Auch deswegen weil unser Provider in seiner Werbung verspricht Ddos Attacken von sich aus fernzuhalten, wir aber – jedenfalls unserer laienhaften Meinung nach- gerade Opfer einer derartigen Attacke geworden sind.
Wir danken allen Lesern, die sich mit einer Spende an den Aufwendungen für den Erhalt und freien Zugang unserer Website beteiligt haben oder noch beteiligen werden.
 




Das nationale Begleit­gremium zum “Standort­auswahl­gesetz” stellt sich vor“

Am Samstag dem 11.2.17 fand im “Tagungswerk Jerusalemkirche in Berlin” eine Veranstaltung zum “Standortauswahlgesetz” statt.

Was verbirgt sich dahinter?

Wer bisher noch nicht von dieser Institution gehört hat, sollte vielleicht mal deren Internetauftritt besuchen. Mal ehrlich, wer hat überhaupt von dieser Tagung gewußt oder gar eine Einladung erhalten? Dafür war Funk, Fernsehen und Presse reichlich vertreten. Ist ja bald wieder Wahlkampf. Erstaunlich oder eher erschreckend ist auch hier wieder, das neue deutsche Blockparteiensystem. Alle Parteien vereint – unter Führung der Grünen – im Kampf gegen das “Teufelszeug” und den zahlenden Bürger. Ein Lehrstück über gelenkte Demokratie. Man bestimmt ein Gremium aus gleichgesinnten Laien und nennt das “Bürgerbeteiligung”. Sachverstand ist ausdrücklich nicht gewünscht, er stört nur die Politik bei ihrer “großen Transformation”.

Was soll das Standortauswahlgesetz bewirken?

Zumindest eine Partei sieht ihre Wurzeln und ihre Kernkompetenz im “Kampf gegen das Atom”. Zieht man dieses Thema ab, verbleibt nur noch ein bischen (austauschbarer) Sozialismus. Die Transsexualität und die vegetarische Zwangsernährung hat sich bereits in den letzten Wahlkämpfen nicht als der Wahlkampfschlager erwiesen. Also zurück zum Geschäft mit der Angst. Nur ist auch das nicht mehr so einfach zu betreiben wie früher. Durch den “Atomausstieg” und die “Energiewende” ist “Atomkraft-Nein-Danke” auch für wohlwollende Linke nicht mehr so der Aufreger. Also schnell vor der Bundestagswahl noch ein paar Kohlen für die eigene Klientel aufgelegt, indem man ein “Standortauswahlgesetz” im Schweinsgalopp durch die Parlamente treibt. Da alle etablierten Parteien auf den potentiellen Koalitionspartner zum eigenen Machterhalt oder Machterwerb angewiesen scheinen, mit voller Unterstützung der anderen Parteien. Es gibt im Bundestag offensichtlich keine Opposition – und was weit folgenschwerer ist – keinen Sachverstand mehr.
Nachdem wir bereits Milliarden in die Erkundung der Standorte Gorleben und Schacht Konrad investiert haben, soll jetzt noch einmal alles von Neuem gestartet werden. Wohl gemerkt, nicht weil sich diese Standorte als gänzlich ungeeignet erwiesen haben, sondern um die gesamte Republik wieder mit “einem Kampf gegen das Atom” zu überziehen. Wir gönnen uns ja sonst nichts. In diesem Punkt schweigen sogar die Politiker, die sonst ständig von “Kinderarmut”, drohender “Altersarmut” etc. reden.

Was ist das eigentliche Problem?

Wir verfügen an zahlreichen Standorten über unterschiedlichste Stoffe, die ionisierende Strahlung aussenden. Sie stammen aus unterschiedlichsten Quellen: Energieerzeugung, Forschung, Medizin, Produktion und Bergbau (Öl, Gas, Kohle usw.). Damit muß verantwortungsvoll umgegangen werden. Das ist die eigentliche politische Frage, die in den Parlamenten diskutiert und beschlossen werden muß:

  • Was ist Wertstoff und was ist Abfall?
  • Was wird als gefährlich angesehen? Dies betrifft nicht nur die Radioaktivität, sondern auch den chemischen Zustand.
  • Wie hoch sollen die Grenzwerte sein?
  • Sollen die Stoffe “vernichtet” werden und damit dauerhaft aus der Welt geschafft werden oder sollen sie “sicher gelagert” werden?
  • Was ist eine als sicher angesehene Lagerung: Technische Barrieren oder geologische Barrieren oder eine Mischform?
  • Erst wenn über diese Fragen Einigung erzielt worden ist, kann sachlich fundiert über Standorte entschieden werden. Dieser Prozeß muß in einer Demokratie über die Parlamente geschehen. Die Politiker – da grundsätzlich Laien – haben vorher den Sachverstand der Wissenschaft zu konsultieren. Die Entscheidung jedoch, kann ihnen keiner abnehmen.

Ganz nebenbei, die “Endlagerfindung” ist mitnichten die endgültige Lösung. Auch bei einem kompletten Ausstieg aus der Kernenergie und Forschung wird weiterhin mit radioaktiven Stoffen in Medizin und Fertigung umgegangen werden. Radioaktiver Abfall wird weiterhin entstehen.

Die moralische Überhöhung

“Atommüll” sei Teufelszeug, für das die heutige Generation die Verantwortung tragen müßte, da sie auch den Nutzen davon gehabt hätte. Abgesehen davon, daß dies eine eigenartige Auffassung von der Entwicklung der Menschheit ist, ist diese Aussage auch in höchstem Maße zynisch. Diese Denkweise gipfelt in der Forderung eines generellen Exportverbotes für radioaktive Stoffe. Man will die abgebrannten Brennelemente unwiederbringlich verbuddeln. Deutschland will aus der Kernenergie aussteigen, gut, das ist sein Recht. Aber woher nimmt dieses grün-alternative Milieu eigentlich das Recht, dem Rest der Welt seine Sichtweise aufzuzwingen? Für den überwiegenden Teil der Menschheit sind Brennelemente kein Müll, sondern Rohstoff für die Energiegewinnung. Das Recycling ist erprobte Praxis. Wo bleibt da eigentlich die “Nachhaltigkeit”, die sonst immer, wie eine Monstranz vor sich her getragen wird. Allein China baut alle drei Monate einen neuen Kernreaktor. Der Uranbedarf wird entsprechend steigen. Die Urangewinnung erfordert viele menschliche und materielle Ressourcen, aber wir maßen uns an, Wertstoffe durch vergraben dem Weltmarkt zu entziehen. Am Deutschen Wesen, wird die Welt genesen.
Wie in sich unlogisch die Argumentation ist, zeigt sich daran, daß ein grüner Umweltminister sogar fordert, man müsse für die Endlagerung auch ausdrücklich das tail-end (abgereicherter Teilstrom bei der Urananreicherung) aus deutschen Urananreicherungsanlagen einbeziehen. Was bitte, strahlt denn mehr: Uran–235 oder Uran–238? Das abgereicherte Uran strahlt daher weniger als Natururan. Bisher ist es ein frei handelbares Wirtschaftsgut. Wenn wir die Grenzwerte so tief nach unten schrauben, sollten wir schleunigst Zwischenlager für Kohlenasche (aus der wird gerne Zement und Pflastersteine gemacht), Rückstände aus der heimischen Öl- und Gasförderung usw. anlegen. Außerdem müßten wir schleunigst alle Panzer, panzerbrechende Munition und Ausgleichsgewichte in diversen Flugzeugen mit Aufklebern zur Warnung vor Radioaktivität versehen und das Personal mit Dosimetern ausrüsten. Schöne Grüße aus Absurdistan.

Der Müll geht aus

Der bisherige Gesetzentwurf lautet im Untertitel …ein Endlager für Wärme entwickelnde radioaktive Abfälle…. Wahrscheinlich der kleinste gemeinsame Nenner zwischen den Parteien. Durchaus sinnvoll, denn es gibt ja bereits den Standort Konrad für mittelaktiven Abfall. Wenn man nun aber alle Kernkraftwerke abgeschaltet hat, kommt kein neuer (hochaktiver) Müll mehr hinzu. Der bereits zwischengelagerte Abfall aus der Wiederaufbereitung ist schon recht alt. Bis ein Endlager betriebsbereit ist und die erste Einlagerung möglich wird, werden mindestens noch weitere 50 Jahre vergehen. Je länger der Abfall lagert, um so mehr radioaktive Stoffe sind zerfallen. Es bleiben nur die langlebigen über, die aber gerade wegen ihrer Langlebigkeit wenig Wärmeleistung produzieren. Deshalb ist es z.B. kein Problem, eine Oberflächentemperatur von 90°C (z. B. französische Vorschrift für deren Endlager) bei den Gebinden einzuhalten. Der deutsche Gesetzentwurf schweigt sich bisher dazu aus, was durchaus sinnvoll ist, da ja noch keine konkreten geologischen Verhältnisse vorliegen sollen (Entscheidungsfreiheit).
Damit die “Atommüll-Story” weiter am Laufen gehalten werden kann, muß man virtuellen Müll erschaffen. Man redet gewaltige Mengen aus der Asse herbei, die angeblich wieder vollständig ausgebaggert werden muß. Hinzu kommen die Mengen an leicht radioaktiven Abfällen aus den Kernkraftwerken und dem Abbruch der kerntechnischen Anlagen. Es wird dabei tunlichst verschwiegen, daß das Volumen von radioaktivem Müll vollkommen beliebig ist. Man kann durch Nachbehandlung (Dekontaminierung, Verbrennung etc.) und Sortierung das Volumen beliebig verringern. Alles nur eine Frage der Kosten. Die jetzt aufgeworfene Forderung der grünen Problemerschaffungs-Partei, auch dieser Müll müßte in dem geologischen Tiefenlager eingelagert werden, setzt dem Ganzen die Krone auf. Müll, der weltweit auf normalen oberirdischen Sondermülldeponien gelagert wird. Dies nur um den Popanz eines nicht vorhandenen Endlagers aufrecht erhalten zu können. Dieses muß natürlich möglichst groß sein, um den Widerstand in der Region anfachen zu können und gleichzeitig möglichst teuer, um das Märchen von der viel zu teuren Kernenergie erfüllen zu können. Als Nebenprodukt kann man noch ein Endlager erschaffen, das sicherheitstechnisch deutlich hinter internationalen Standards zurückbleibt. Nach dem Murks der Energiewende, noch ein Murks mit radioaktiven Stoffen.

Das erschaffene Endlagerproblem

Das größte Bubenstück der Grünen, war jedoch das Verbot einer Wiederaufbereitung, das jetzt noch einmal durch das Exportverbot für Kernbrennstoffe verschärft werden soll. Man muß es immer wieder betonen, der verglaste Abfall aus der Wiederaufbereitung in Frankreich und England ist nach maximal 100 000 Jahren auf das Niveau von Natururan abgeklungen. Man kann ihn bereits nach wenigen hundert Jahren in die Hand nehmen, wenn man keine Strahlenphobie hat. Genau das, war der sicherheitstechnische Sinn der Wiederaufbereitung: Verkleinere drastisch das Volumen und entschärfe den Abfall durch die Entfernung des Plutoniums.
Durch die jetzt geplante Endlagerung der unbehandelten Brennstäbe hat man wegen des hohen Plutoniumgehaltes einen wesentlich problematischeren Abfall erschaffen. Man kann nicht einfach die Castoren verbuddeln, sondern die Brennelemente müssen aufwendig neu verpackt werden. Verfahren hierfür, die auch nur ansatzweise die gleiche Sicherheit bieten, wie der verglaste Abfall, gibt es nicht. Wer soll die eigentlich entwickeln und wo wird später die Anlage hierfür errichtet?

Zusammenfassung

Es ist der klassische Politikablauf: Erschaffe ein Problem, das du anschließend vorgibst zu lösen. Halte Fachleute fern und laß nach dem Prinzip des Berliner Willi Brand Flughafens Laien vor sich hin wurschteln. Je länger die Sache dauert, je höher sind die Pfründe für alle Günstlinge. Tarne die Angelegenheit über eine “Bürgerbeteiligung”. Gleichzeitig schaffst du dadurch Arbeitsplätze für nicht vom Arbeitsmarkt nachgefragte Akademikergruppen. Diese sind dir deshalb treu ergeben und werden dir den Rücken frei halten. Je besser du die Verantwortungslosigkeit organisiert, je besser ist die Chance wiedergewählt zu werden.
Es wird eine endlose Geschichte inszeniert. Jetzt, wo man sich die Rücklagen für die Entsorgung einverleibt hat, hat man alle Zeit der Welt, das Geld für andere Dinge auszugeben. Politiker als Vermögensverwalter ist genauso, wie gierige Hunde zur Bewachung von Steaks. Ist das Geld weg, wird man die Gesetze ändern. Schacht Konrad und Gorleben laufen ja nicht weg.
Der Beitrag erschien zuerst bei NUKEKLAUS hier




Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: “So wenig Strahlung, als vernünftig erreichbar”. Das Wort “vernünftig” wird – wegen der angeblichen Krebsgefahr – als “so gering wie möglich” überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine “normale” Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen, durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn, ist jedoch die Außerkraftsetzung des Grundsatzes : “Die Dosis macht’s”. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche “auf ex” haben soll. Bestenfalls ist dieser Irrglaube auf ein “physikalisches” Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie, war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz “eine Mutation = ein Krebs” ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der “Strahlenschutz” ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der “Walschützer” ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen “Klimaschutz” und andere Machenschaften der “Ökoindustrie” ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle “Gutmenschen” mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich “harte moralische Fakten” von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus “Angst vor Strahlung” verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die “Strahlung” so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von “Strahlenkrankheiten”. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon, als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im “kalten Krieg” die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein “gut” und kein “schlecht”, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis “die Dosis macht’s”, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der “Angstmensch” als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den “Klimawissenschaften”, bei denen “Welt-Temperaturen” mit (bekannt fehlerhaften) “Weltmodellen” berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Der Beitrag erschien zuerst bei NUKEKLAUS hierhttp://nukeklaus.de/home/mediziner-gegen-lnt/




Daten zur deutschen Stromversorgung 2016

Zur Übersicht: die Nettostromerzeugung im Jahr 2016 betrug in Deutschland ca. 550 Terawattstunden (TWh). Das ist der Strommix, welcher tatsächlich aus der Steckdose kommt. Bei der Bruttostromerzeugung – ca. 650 TWh – berücksichtigt man auch die Eigenerzeugung der Industrie, beispielsweise im Bergbau und in der Chemie; diese hat in den folgenden grafischen Darstellungen keinen Eingang gefunden. Bei den Daten stütze ich mich vor allem auf Erhebungen des Fraunhoferinstituts ISE in Freiburg, auf die Plattform Agora Energiewende in Berlin sowie auf Veröffentlichungen des Bundesministeriums für Wirtschaft und Energie.

In Europa ist Deutschland der größte Stromerzeuger. Die jetzt verfügbaren Zahlen der Nettoproduktionen für das Jahr 2014 ergibt folgende Reihung: Deutschland (592 TWh), Frankreich (539), Großbritannien (322),  Italien (269), Spanien (268), Schweden (150), Polen (145). Die in diesem Blog zitierten Zahlen der verschiedenen Quellen sind (im niedrigen Prozentbereich) leicht different, ohne dass dafür ein Grund angegeben werden kann.

Merke:  1 TWh =1 Terawattstunde

                          =1000 Gigawattstunden (GWh)

                          =1 Million Megawattstunden (MWh)

                          =1 Milliarde Kilowattstunden (KWh)

Einige Grafiken zur Stromwirtschaft

Abb.1: Verteilung der Nettostromerzeugung auf die verschiedenen Energieträger (ISE)

Die Grafik zeigt die acht wichtigsten deutschen Energieträger. Kernenergie, Braunkohle, Steinkohle und Gas werden den konventionellen Energien zugerechnet und liefern insbesondere Konstantstrom im Bereich der Mittel-und Grundlast. Wasserkraft, Biomasse, Wind und Solar gehören zu den erneuerbaren Energien; ihr Beitrag zur gesamten Stromversorgung ist unstetig und u. a. abhängig von Wetter und Standort.

Abb. 2: Veränderung der Nettostromerzeugung 2016 gegenüber Vorjahr 2015 (ISE)

Die Stromproduktion aus Kernkraft ging 2016 – im Vergleich zu 2015 – um 7,8 % zurück; ursächlich war die Abschaltung des KKW Grafenrheinfeld im Juni 2015.

Die Gaskraftwerke haben 2016  ca. 44 TWh netto für die öffentliche Stromversorgung produziert. Dieser markante Aufwärtstrend von 46 % resultiert hauptsächlich aus den niedrigen Gaspreisen. Die Energieeinspeisung aus Braunkohle. Steinkohle, Wind und Solar ging entsprechend zurück.

Abb. 3: Anteile der verschiedenen Stromerzeuger im Jahr 2016 (ISE)

Die wichtigsten Energieträger in Kreisdarstellung.

Merke: im Jahr 2016 haben die erneuerbaren Energien mit ca. einem Drittel zur deutschen Stromversorgung beigetragen.

Abb. 4: Stromexportsaldo 2010 bis 2016 (ISE)

Im Jahr 2016 wurde bei Strom ein Exportüberschuss von ca. 50 TWh erzielt. Dieser Wert stellt nach den alten Rekordjahren 2012 bis 2015 wieder einen neuen Spitzenwert dar und liegt um etwa 2 TWh bzw. 4% über dem Niveau von 2015. Der Großteil der Exporte floss in die Niederlande, die einen Teil nach Belgien und Großbritannien weiter leiteten. Auf Rang zwei folgt die Schweiz, die hauptsächlich als Transitland nach Italien dient. An dritter Stelle liegt Frankreich, wo einige Kernkraftwerke aus Sicherheitsgründen abgeschaltet werden mussten. Rang vier belegt Polen, das einen Teil des Stroms aus den neuen Bundesländern über Tschechien nach Süddeutschland transportiert.

Eingeführter Strom kostet durchschnittlich 37, ausgeführter 35 Euro/MWh. Der durchschnittliche (day-ahead) Börsenstrompreis ist auf 28 Euro/MWh gefallen und liegt inflationsbereinigt ungefähr auf dem Niveau von 2002.

Abb. 5: Stromerzeugung im ersten Quartal 2016 (Agora)

Die Stromerzeugung im ersten Quartal 2016:

hohe Last und Winterstürme zu Beginn des Jahres.

Abb. 6: Stromerzeugung im dritten Quartal 2016 (Agora)

Die Stromerzeugung im dritten Quartal 2016:

ein sonniger Sommer mit wenig Wind

Abb. 7: Haushaltsstrompreise 2007 bis 2017 (Agora)

Die Haushaltsstrompreise werden im Jahr 2017 erstmals die 30-Cent-Marke überschreiten.

Die Ursachen sind gestiegene Netzentgelte, gestiegene EEG-Umlage und hohe Vertriebsmargen.

Ausblick

Die Zukunft der deutschen Stromwirtschaft – für die kommenden 10 bis 15 Jahre – ist schwer einzuschätzen. Relativ gesichert ist die Abschaltung der noch laufenden 8 Kernkraftwerke bis 2022; dafür wurde im Sommer 2011 eigens ein Bundesgesetz erlassen. Demnach wird noch in diesem Jahr  das Kernkraftwerk Gundremmingen B vom Netz genommen werden. Ob man es wagen wird  (im Jahr 2022!) auf einem Schlag die drei leistungsstarken  KKW Isar 2, Emsland und Neckarwestheim II abzuschalten, hängt vom Ausbau der großen Nord-Süd-Gleichstromleitungen ab. Die Inbetriebnahme dieser Trassenprojekte hat sich von 2019 auf 2021/22 verzögert. Außerdem werden sie, wegen des Übergangs auf Erdverkabelung, um den Faktor 5 bis 10 teurer. Damit steigen auch weiterhin die Stromkosten für die Privathaushalte.

Der Ausbau der erneuerbaren Energien (EE), insbesondere für Wind und Solar wird sich wohl verlangsamen, weil künftige Genehmigungen dem Wettbewerb via Auktionen unterliegen. Die gesteckten Ziele – 2030:50 %,  2040:65 % und 2050: 80 % – sind sehr ambitioniert; man darf zweifeln, ob sie erreicht werden. Die Klimaziele, wie in Paris vereinbart, werden sicherlich verfehlt werden, da die Grundversorgung mit Strom (in Abwesenheit von Kernkraftwerken und Großspeichern) und die Stabilhaltung der Netze nur über die CO2-haltigen Energieträger Braunkohle, Steinkohle und Erdgas geschehen kann. Wobei das Zertifikatesystem der Europäischen Union keinen Beitrag zum Klimaschutz liefert, weil es die CO2-Freisetzungen nur räumlich verlagert.

Entscheidend für den Fortgang der Energiewende sind unter anderem die hohen, sich abzeichnenden Kosten. Bei der Einführung des EEG im Jahr 1990 versprach der damalige Umweltminister Jürgen Trittin „Mehrkosten von gerade mal  1 Euro pro Familie und Monat, etwa so viel wie eine Kugel Eis“. Heute beträgt die EEG-Umlage für eine Durchschnittsfamilie allein das 20fache, nämlich ca. 20 Euro pro Monat. Die jährlichen Kosten für die Einspeisevergütung liegen bei 25 Milliarden Euro – die 2 Milliarden für die eingesparten Brennstoffkosten bereits gegen gerechnet. Tendenz: stark steigend! Die Gesamtkosten der Energiewende bezifferte der heutige Kanzleramtsminister Peter Altmeier in seiner früheren Funktion als Umweltminister auf 1 Billion Euro.

Fazit: Eines fernen Tages könnten die Menschen vielleicht nicht mehr bereit (oder in der Lage) sein, diese hohen Kosten zu tragen.

Die deutsche Energiewende würde auf halbem Wege stecken bleiben.




10. IKEK – Das Experiment Teil II: Auswertung des 2-tägigen „Al-Gore Experiment“

Dann wiederholte man das „Al Gore – Experiment “ in einem Behältnis mit (auch infrarot-durchlässiger) Plastikabdeckung (Wrap – Plastikfolie einer Küchenrolle) und 100 % CO2 Füllung und versuchte im Anschluss, mittels Feindosierung des CO2 Gehaltes im Behälter mit Verdopplung und Vervierfachung des CO2 Gehaltes die sog. Klimasensitivität zu bestimmen. Für die Erwärmung des Inhaltes wurden alternativ verschiedene Quellen, wie die Sonne, Halogenleuchten bzw. Heizwendeln, verwendet.

Video des Vortrags zum 2. Teil des „Al Gore-Experimentes“ von Jan Eric Solheim mit anschließender Fachdiskussion

100 % CO2

Ein weiterer Vor-Versuch (Min. 3:31) diente der Klärung ob sich eine 100 % CO2 Füllung anders erwärmt als eine solche mit Luft. Ein Unterschied – so Solheim – sei nicht erkennbar. (Anm. der Redaktion: Man sieht aber am Ende der rosa Kurve eine Abweichung von – 0,4 bis -0,5 °C; diese wurde nicht erklärt, es wurde auch nicht danach gefragt)

Außenmessung

Ein weitere Versuchsreihe wurde außen durchgeführt um Unterschiede zwischen den Halogenleuchten auszuschließen. Das war jedoch in Norwegen mit den wenigen Sonnentagen äußerst schwierig.

Klimasensitivität.

Es wurde dann versucht die Klimasensitivität ECS zu bestimmen. Dazu wurde die der CO2 Anteil der inneren Luft verdoppelt, vervierfacht und verachtfacht und jeweils erneut der Anstieg der Temperatur gemessen.
Daraus errechnet sich unter sonnengleichen Erwärmung der (verblüffende) negative Wert unter von – 0,11 ± 0,11 °C.
Das bedeutet, dass das Zuführen von CO2 statt zu Erwärmung zu führen, die Innenatmosphäre kühlt. Eine Erklärung dafür hatte Eric Solheim nicht anzubieten, sondern überließ das dem Publikum.
Um all das zu überprüfen wurde nochmals eine neue Reihe von Kästen gebaut, die kurz vor der Reise nach Berlin in Betrieb gingen. Dabei wurde während eines Versuchs, die Plastikabdeckung durch eine Glasabdeckung ersetzt. Nach der Rückerwärmung zeigte sich, dass die Temperatur im Kasten mit der Glasabdeckung niemals die der Plastikabdeckung überstieg.
Dann wurde der Innenluft CO2 in 100 ml Dosierung zugeführt mit dem Ergebnis, dass die Innentemperatur sank.

CO2 kühlt die Luft im Innern der Kästen.

Auch der nächste Versuch zeigt deutlich sowohl die Kühlwirkung einer Glasabdeckung (gegenüber Plastik) als auch einer 100 % CO2 Füllung (Al Gore Experiment)

Diskussion

Im Folgenden geht Prof. Solheim detaillierter auf das Experiment zur Bestimmung der Klimasensitivität ein. Bei mit präzis bestimmten Energiemengen die mittels Heizwendeln zugeführt werden, ergibt sich ebenfalls eine negative Klimasensitivität, diesmal aber mit einem Wert von -0,3± 0,1 °C. „In diesen Kästen..“ wie der Vortragende nicht vergisst zu erwähnen.
Anschließend begann sofort eine heftige Diskussion. Es gab viele kluge, meist Kontra-Stellungnahmen, aber eine endgültige Erklärung wurde mangels Zeit ggf. unter veränderten Bedingungen den Versuch zu wiederholen, verständlicherweise nicht erreicht.