Wir bleiben am Leben, obwohl unsere Gene einiges aushalten müssen – Teil III

Wären die Menschen böse oder dumm genug, einen Atomkrieg zu entfesseln, gäbe es erheblich schlimmere Dinge, über die man sich Sorgen machen müsste als Strahlung, und zwar sowohl während als auch nach einem solchen Krieg. Die Atombomben des 2. Weltkriegs haben ihre Opfer in genau der gleichen Weise getötet wie andere Bomben. Das Feuer-Bombardement japanischer Städte tötete mehr Menschen und hinterließ eine noch größere Zahl mit schwersten Verbrennungen und großen Schmerzen für immer. Im Jahre 1994 tötete eine simple Machete über eine halbe Million Menschen in Ruanda. Im Vergleich zu fehlenden Gliedmaßen und schrecklichen Verbrennungen waren die Auswirkungen von Strahlen auf die meisten Überlebenden banal. Wir werden später sehen, dass das Krebsrisiko durch Wurst größer ist als das bei einem Überlebenden der Atombombenabwürfe. Die gestiegene Krebsrate in den Überlebenden gab diesen eine mittlere Reduktion der Lebenszeit um etwa zwei Monate (hier) und hatte keinerlei langzeitliche Auswirkungen auf spätere Generationen.
Wenn man zwei Ursachen von Krebs miteinander vergleichen will, zählt man gewöhnlich aufgetretene Fälle oder vielleicht Todesfälle. Etwas, dass Millionen Krebstote zur Folge hat, ist schlimmer als etwas, dass nur 1000 Krebstote fordert. Sich auf das Leiden eines einzelnen Menschen unter diesen tausend zu konzentrieren kann zu einer grausamen, ungerechten und unmoralischen Bereitstellung von Ressourcen weg von Vielen und hin zu Wenigen führen.
Peter, Paul und Mary und die Hymne gegen Kernkraft
Dreißig Jahre des Brandmarkens hat den geringen Anteil von Strahlung an Krankheitsursachen weit über deren Bedeutung hinausgehoben. Die meisten unserer politischen Leithammel einschließlich Bill Clinton, der im Jahre 1994 das US-Programm zur Entwicklung des Integral Fast Reactor IFR vom Tisch gewischt hat, sind in einer Umgebung aufgewachsen, die Strahlung als Gift ansieht. Nunmehr seit Jahrzehnten wurde als die Hymne der Anti-Kernkraft-Bewegung das Lied Power von Peter,_Paul_and_Mary betrachtet einschließlich der vielen Cover-Versionen (eine davon hier bei youtube.com). Es hat einen ironischen Refrain:
Just give me the restless power of the wind
Give me the comforting glow of a wood fire
But please take all of your atomic poison power away.
[etwa:
Gib mir die pausenlose Kraft des Windes / Gib mir das komfortable Glühen eines Holzfeuers / Aber bitte nimm alles atomare Gift hinweg]
Poetischer Wohlklang ist keine Entschuldigung dafür, Unsinn an die vorderste Front zu rücken.
Holzfeuer sind tödlich. Kochfeuer, hauptsächlich aus Holz, manchmal auch getrockneter Dung von Vieh, töten jährlich eine halbe Million Kinder und weitere 3 Millionen Erwachsene (hier). Holzfeuer ist sicher natürlichen Ursprungs. Eine natürliche giftige Suppe von hässlichen natürlichen Chemikalien.
 
Quelle
Es verursacht COPD … chronische obstruktive Lungenkrankheiten (hier) bei Erwachsenen, und diese Störung führt zu Infektionen, die Kinder ohne Zugang zu medizinischer Hilfe wie in der Ersten Welt töten. Holzrauch ist nicht nur tödlich, sondern Holz ist auch ein Karzinogen der 1. Klasse; genau wie ionisierende Strahlung. „1. Klasse“ bedeutet einfach, dass es vielfach bei Erwachsenen nachgewiesen ist.

Quelle. Weder Holzstaub, Holzrauch oder Strahlung ist ein existenzielles Risiko für die Menschheit, aber Holzrauch ist im Allgemeinen anders als Strahlung für Individuen ziemlich tödlich.
Und dann gibt es da die Holzindustrie. Das ist eine der gefährlicheren auf diesem Planeten. In den achtziger Jahren, als die Anti-Kernkraft-Hymne in den USA und Australien auf und ab gespielt worden ist, sind allein in den USA 1492 Holzarbeiter ums Leben gekommen (hier) … und Zehntausende waren gesundheitlich beeinträchtigt. Die Anzahl zu Tode gekommener Holzarbeiter hat sich in den USA seitdem halbiert, aber die Todesrate ist immer noch eine der höchsten aller Industrien und liegt bei 70 Todesopfern pro Jahr pro 100.000 Arbeiter (hier). Ist das viel? Bei Verkehrsunfällen sterben pro Jahr unter 100.000 Menschen in Australien 6; in den achtziger Jahren waren es noch 20. Die Todesrate durch Lungenkrebs in den USA liegt bei 30 pro 100.000 Menschen pro Jahr. Holz ist tatsächlich etwas Wunderbares, aber Herstellung und Gebrauch sind tödlich und giftig.
Andererseits steht Kernkraft wie bereits erwähnt für saubere Luft, was sie zu etwas macht, dem man sehr dankbar sein muss, hat sie doch 1,8 Millionen Fehlgeburten seit den siebziger Jahren verhindert (hier). Minenarbeit unter Tage hat die Kumpel in den fünfziger Jahren radioaktivem Radongas ausgesetzt und ihr Lungenkrebs-Risiko höher werden lassen als bei Rauchern (hier und hier), aber moderne Technik macht den Uran-Bergbau zu einem der sichersten aller Bergbau-Tätigkeiten. Einfacher gesagt, Todesfälle sind ziemlich ungewöhnlich (hier), und Strahlendosen sind messbar und daher leicht zu kontrollieren. Wie misst man Holzrauch oder das Einatmen von Staub oder die Aufnahme von Staub durch Kinder, deren Mütter mit Holz kochen? … Man weiß erst, dass die Dosis zu hoch war, wenn das Kind krank wird.
Peter,Paul und Mary haben sich getrennt. Die Anti-Kernkraft-Hymne hat eine wunderbare Melodie, aber der Text ist verwirrender Plunder und Ballast*, und in dem Lied triumphiert Rhythmus über Vernunft.
[*Unübersetzbares  Wortspiel: „addled flotsam and jetsam“]
Also müssen wir jetzt drei Jahrzehnte eines zu Herzen gehenden, aber grob irreführenden Markenzeichens zurückdrehen. Man stelle sich mal vor, wie unterschiedlich es auf dem Planeten während der letzten 23 Jahre zugegangen wäre, falls jedes Land auf ihm wie Frankreich Strom mit Emissionen von lediglich 80 g CO2/kWh erzeugt hätte anstatt des globalen Mittels von 570… mit den stärksten Emissionen in „Anti-Kernkraft-Australien“  mit 850 g CO2/kWh.
Dies hätte geschehen können, wenn Peter, Paul und Mary doch bloß geschrieben hätten:
Please spare me the transitory power of the wind
Give me that Cherenkov_glow  of a fission fire
And please take all your kiddie killing wood smoke away.
(Ich glaube, das muss nicht übersetzt werden. C. F.)
 
Quelle
Um nun den Bereich von Protestsongs von Strahlungsexperten auf andere Experten auszuweiten, müssen wir mehr Details über Krebs erfahren.
Was Experten über Krebs wissen
Anfangen wollen wir mit zwei grundlegenden Tatsachen:
● Das Überleben einer Atomexplosion und der Empfang einer großen Dosis Strahlung stellt ein viel geringeres Krebsrisiko dar als ein karzinogener Lebensstil – Rauchen, Verzehr von reichlich rotem und verarbeitetem Fleisch, Übergewicht, keine Bewegung, um nur einige wesentliche Gründe für Krebs zu nennen. Auch die Körpergröße gehört dazu, was vielleicht überraschend ist, aber ich gehe später noch darauf ein.
● Das Leben auf strahlenverseuchtem Land nach so etwas wie Tschernobyl sowie der Verzehr von Nahrungsmitteln aus verstrahlten Gebieten birgt ebenfalls nachweislich ein viel geringeres Krebsrisiko als Krebs aufgrund mancher Lebensgewohnheiten.
Für einen Protestsongs hörenden Laien sind diese beiden Tatsachen sowohl erstaunlich als auch gefühlsmäßig falsch: „Das kann nicht stimmen!“ wäre die absehbare Antwort. Aber ein Experte würde eher antworten: „Ja, natürlich … weiß das nicht jeder?“ Nein, das weiß nicht jeder.
Was wissen Experten, das wir nicht wissen?
Beginnen wollen wir mit dem Vergleich dessen, was Experten über die Überlebenden der Atombomben im 2. Weltkrieg wissen im Vergleich zu Menschen in Australien (oder den USA oder UK) mit dem entsprechenden Lebensstil. Das Krebsrisiko der Überlebenden von Hiroshima und Nagasaki ist ausführlich untersucht worden.  Es hat um etwa 11 Prozent zugenommen. Die Experten wissen das, aber wir anderen müssen da nachschauen. Aber natürlich tun wir das nicht, und selbst wenn wir es täten, hätten wir noch lange keine Vergleichsmöglichkeit. Ist eine Zunahme um 11 Prozent eine starke Zunahme?
Nein! Die Krebsrate in Australien beispielsweise liegt um ganze 50 Prozent höher als die in Japan (hier; allerdings scheint dieser Link nicht zu funktionieren). Standardisiert man die Zahlen hinsichtlich der unterschiedlichen Altersstruktur, kommt man auf 314 Krebsfälle pro 100.000 Menschen pro Jahr, in Japan sind es 201. Aber selbst diese 11 Prozent Zunahme unter den Überlebenden der Bomben sind irreführend, weil es ein Mittelwert ist, der künstlich nach oben getrieben wird durch die wenigen Überlebenden, die massiven Strahlendosen ausgesetzt waren, was die Zunahme viel größer ausfallen ließ. Die überwältigende Mehrheit aller Überlebenden erlebte lediglich eine Zunahme der Rate um 2 Prozent. Die wenigen Überlebenden, die die allgemeine Zahl so nach oben getrieben haben mit ihrer Zunahme des Risikos um 60 Prozent, wurden von einer kurzen, aber massiven Welle von Strahlung betroffen, die etwa 300.000 mal so hoch war wie die Hintergrundstrahlung, aber selbst diese massive Dosis hat ihr Krebsrisiko  nur um einen Bruchteil desjenigen in Australien zunehmen lassen.
Die anderen Krebsarten sind Leukämien. Sie machen etwa 2 bis 3 Prozent aller Krebsfälle aus, so dass sie selbst bei einer Verdoppelung der Zahlen die obige Analyse nicht widerlegen. Aber sie verdoppeln sich nicht. Leukämie hat bei den Überlebenden um 6 Prozent zugenommen (hier), aber eine Verdoppelung der Rate bei den Wenigen, die massive Dosen abbekommen hatten, hat das Mittel auf 46 Prozent steigen lassen … aber das ist immer noch weniger als bei einem Leben im australischen Lebensstil.
Andererseits hatte der Unfall von Tschernobyl keinerlei Auswirkungen auf die Krebsrate mit Ausnahme einiger Fälle von Schilddrüsenkrebs. Auch dies ist Experten wohlbekannt. Wenn es um das allgemeine Krebsrisiko in verstrahlten Gebieten geht oder um den Verzehr von Nahrungsmitteln aus solchen Gebieten, müssen wir lediglich in die nationalen Krebsregister schauen, um zu sehen, was passiert ist. Krebsregister sind sehr einfache Dinge. Man bekommt die Diagnose Krebs, das wird aufgezeichnet und die Zahlen addiert. Dann entstehen einige einfache und transparente Statistiken daraus. Während der letzten 25 Jahre gab es in der Ukraine sowie in Russland und Weißrussland etwa 14 Millionen Krebsfälle. Legt man die australische Rate zugrunde, wären es 20 Millionen. Wie machen sich 6000 Fälle von Schilddrüsenkrebs mit etwa 15 Toten gegen die 6 Millionen eines extravaganten Lebensstils aus?
Krebs durch den Lebensstil ist immer ein viel höheres Risiko als Atombomben und Reaktorunfälle.
Anti-Kernkraft-Guru Helen Caldicott „warnt“ vor dem Krebsrisiko beim Verzehr türkischer Aprikosen (hier bei youtube), weil die Türkei durch den Fallout von Tschernobyl betroffen war. Krebsexperten andererseits wissen, dass die Krebsrate in der Türkei (hier, aber auch dieser Link scheint nicht zu gehen) weniger als halb so groß ist wie in Australien oder den USA. Im Jahre 2008 gab es in der Türkei 95.000 neue Krebsfälle bei einer Bevölkerung von 73 Millionen. Zum Vergleich: In Australien mit 22 Millionen Einwohnern waren es 107.000 neue Krebsfälle Wenn das mehr nach einem Drittel als der Hälfte aussieht, dann deshalb, weil die Experten solche Raten justieren, um der unterschiedlichen Altersstruktur in der Türkei Rechnung zu tragen.
Die Anti-Kernkraft-Bewegung ist stolz darauf, Angst machende Geschichten darüber zu verbreiten, was Strahlung bei unserer DNA anrichtet. Experten wissen, dass alles und jedes unter der Sonne einschließlich dieser selbst der DNA zusetzen. Das Umherwerfen mit technischem Jargon und das Verbreiten von Angst sind kein Ersatz für harte Daten zu realen Auswirkungen. Betrachtet man diese, befindet sich das nukleare Risiko fast am Ende jeder Risikotabelle. Es ist ihrer Natur nach ähnlich und sehr viel geringer als das Risiko von Unfällen in der Arbeit, beim Sport oder beim Renovieren der Wohnung. Und außerdem wird es drastisch in den Schatten gestellt durch 1,8 Millionen verhinderte Fehlgeburten infolge saubererer Luft.
Wenn die Menschen mit dem Narrativ „Strahlung ist Gift“ aufwachsen, dann ist es einfach unglaublich zu erfahren, dass das Überleben einer Atombombe viel weniger karzinogen ist als beispielsweise der häufige Verzehr von Würsten (hier), aber genauso ist es. Krebsexperten wie der in Teil II erwähnte Robert Gale verstehen das, aber Nicht-Experten finden das so erstaunlich, dass sie es nicht glauben. Darum soll hier noch etwas näher erläutert werden, was es ist, das dem Wissen der Experten nach den Unterschied ausmacht.
DNA-Schäden sind nicht Krebs
Man erinnere sich noch einmal an Teil I, in dem wir die Frage stellten, ob es eine Strahlungs-Untergrenze gibt, unterhalb der keine DNA-Schäden oder Mutationen möglich sind. Als wir diese Frage zum ersten Mal gestellt hatten, haben die meisten Wissenschaftler geraten, dass die Frage gleichbedeutend war mit der Frage, ob es eine Strahlungsdosis gibt, unterhalb der man keinen Krebs bekommt.
Sie lagen falsch.
Bei Menschen mit dem Laron-Syndrom kommt es zu vielen Mutationen und anderen DNA-Schäden, aber sie bekommen keinen Krebs. Sie sind einfach Beispiel für ein allgemeineres Prinzip, nämlich dass das Wachstum von Krebsgeschwüren Teamarbeit ist, das unter Anderem die richtige Menge an Mutationen erfordert sowie die Ausbreitung der Geschwüre, während die normalen Checks wirkungslos gemacht werden. Krebs ist nicht einfach wie ein Stock im Rad eines Fahrrades, sondern eine kooperierende und sich entwickelnde Gemeinschaft von Mutanten, die normale Prozesse im Körper dazu nutzen, ihre eigenen schändlichen Gelüste zu befriedigen. Da gibt es sehr viele DNA-Schäden, aber keinen Krebs.
Andererseits, Menschen, bei denen die Krebsrate weit höher liegt als alles, was selbst ein ärmlicher Lebensstil erzeugen kann, tragen Mutationen in sich, die die effiziente Heilung von DNA-Schäden verhindern. Das ist das Problem von Angelina Jolie. Es ist nicht so, dass ihre Mutation zusätzliche DNA-Schäden hervorruft; überhaupt nicht. Ihr Problem ist, dass die BRCA1-Mutation mehr der Mutationskraft hinter normalen DNA-Schäden freisetzt. Ein normales (nicht mutiertes) BRCA1-Gen ist Teil des genetischen Superteams zur Bekämpfung von Problemen, das normale Schäden repariert. Man behalte dabei im Gedächtnis, dass eine siebenfache Strahlung von Hiroshima-Bomben jeden Tag  normale Schäden auslöst. Wenn also nur ein Mitglied dieses Reparatur-Teams durchdreht, ist man in Schwierigkeiten. Menschen, die unter dem Bloom-Syndrom leiden, haben sogar noch weniger Reparatur-Kapazität.
 
Quelle des Bildes. Zwergenwuchs und Laron-Syndrom schützen vor Krebs.
Treffen mit dem Krebs-Team
Was bedeutet die Aussage, dass eine Zelle zu einer Krebs-Zelle geworden ist? In der Regel bedeutet es, dass die Zelle sich selbst sehr oft reproduziert hat und sie sich alle in einer großen Masse zusammengeklumpt haben. Falls der Krebs in Ihrem Darmtrakt sitzt, kann dieser Klumpen den Darm stark verengen oder vollständig blockieren.
Normale Zellen tun das nicht. Wenn eine normale Zelle zu einer Krebs-Zelle wird, muss sie ihre Lebensweise fundamental ändern (hier). Normale Zellen klumpen nicht zusammen wegen der Mechanismen, die sie zu ihren Nachbarn auf Abstand halten. Diese Mechanismen müssen ausgeschaltet werden. Normale Zellen sind begrenzt hinsichtlich der Anzahl von Teilungen und Reproduktionen. Die Mechanismen hinter dieser Begrenzung müssen ausgeschaltet werden. Normale Zellen zerstören sich im Falle der Schädigung selbst. Auch dieser Mechanismus muss ausgeschaltet werden.
Das sind nur einige von vielleicht einem Dutzend Gründen, warum Krebs-Zellen so anders sind. Die zellulären Änderungen, die gebraucht werden, um eine normale Zelle in eine Krebs-Zelle zu transformieren, erfolgen meist durch Mutation, also Gen-Veränderungen. Aber natürlich nicht irgendwelche Gene. Weniger als 1 Prozent aller Gene sind involviert in die Änderungen, die eine Zelle zu einem Tumor werden lassen. Und innerhalb dieses einen Prozents haben Forscher sogar noch weniger gefunden, das besonders wichtig ist, um den Zellen die vielen Features zu vermitteln, die es ihr ermöglichen, zu einem Tumor zu werden.
Aber es gibt einen großen offensichtlichen Unterschied zwischen Strahlung und viralen oder chemischen Karzinogenen, wie man sie in Zigaretten, Diesel-Abgasen, Holzstaub, Ruß, rotem Fleisch usw. findet.
Worin besteht der Unterschied? Strahlung ist ein „equal opportunity“-Mutator [?].
Was heißt das? Wenn radioaktive Partikel oder Wellen auf eine Zelle treffen, haben sie physikalisch keine Möglichkeit, bestimmte Gene zu berühren. Sie schwirren umher, ziemlich zufällig. Dieses Herumschwirren erzeugt schädigende Nebenprodukte, aber auch diese konzentrieren sich nicht auf einen bestimmten Brennpunkt, weil die gleichen Nebenprodukte auch durch andere, normale Prozesse entstehen, und nichts ist involviert, das man mit gezielter Bosheit verwechseln könnte. Dies bedeutet, dass die meisten Strahlungsschäden in Genen oder anderen Strukturen auftreten, die für die Entstehung von Krebs irrelevant sind. Eines der Nebenprodukte beispielsweise von Strahlung, die auf das Wasser in der Zelle trifft (eine Zelle besteht zum allergrößten Teil aus Wasser) ist Wasserstoff-Peroxid. Das ist ein normales Nebenprodukt, welches DSBs [?] verursachen kann, und es gibt viele natürliche und einfachere Wege, die von Wasserstoff-Peroxid ausgelösten Schäden an der DNA zu vervielfältigen als eine große Strahlendosis abzubekommen. Eine davon sahen wir in Teil 1.
Jetzt vergleiche man dies mit einem Krebs auslösenden Virus. Zuerst: Was macht dieses Virus zu einem Krebsauslöser anstatt einfach nur einen Nieser auszulösen? Ein krebserzeugendes Virus kann ganz bestimmte Bereiche der Zelle treffen. Es kann sogar gezielt einen oder mehrere Gene treffen, die bei der Krebsentstehung involviert sind. Zum Beispiel kann ein Virus sehr spezielle Ziele befallen wie zum Beispiel ein sehr spezielles einzelnes Gen (mit der Bezeichnung p53). Dieses Gen unterdrückt Krebs, weshalb man ihm den illustrativen Titel The Guardian of the Genome verliehen hat. Es ist eines der Gene, das von Tabakrauch betroffen wird. Es würde eine außerordentlich hohe Dosis oder größtes Pech bedeuten, wenn Strahlung dieses Gen p53 treffen würde. Es ist dieses Fehlen der Spezialisierung auf bestimmte Ziele, dass Strahlung in karzinogener Hinsicht zu einem Schwächling macht.
Chemische Karzinogene können sich auch gezielt spezielle, Tumore unterdrückende Gene aussuchen. Während sich beispielsweise die Anti-Kernkraft-Bewegung auf Dinge konzentriert hat, die bei einem Kernkraftwerk schief gehen können, emittieren Kohlekraftwerke normalerweise eifrig verschmutzende Chrom- und Nickelanteile, die andere Tumore unterdrückende Gene angreifen können (hier), sowie Arsen, welches sich das magische p53-Gen vornehmen kann. Nickel und Arsen aus den Emissionen von Kohlekraftwerken kann von Bäumen aufgenommen werden und endet in Holzrauch, der sich in den Lungen von Jung und Alt ablagert.
Aber wir müssen den Unterschied quantifizieren, den Spezialisierung machen kann.
In einer Studie aus dem Jahr 2012 haben Forscher Mäuse mit einer Strahlendosis von 4 Gray [?] bestrahlt. Das ist eine massive Dosis. Sie ist etwa 20 mal stärker als der Mittelwert von Strahlung, dem die Überlebenden von Hiroshima ausgesetzt waren. Es ist gerade unterhalb der Dosis, die die Maus getötet hätte.
Und siehe da, die Maus bekam Krebs – allerdings erst nach 77 Wochen. Das ist wirklich eine lange Zeit in einem Mäuseleben und entspricht etwa 40 bis 50 Jahren menschlicher Lebenszeit. Und wie zuvor schon erwähnt sind Mäuse viel anfälliger für Krebs als Menschen. Andererseits, man gebe Mäusen eine große Dosis der karzinogenen Chemikalie PhIP (hier), und sie werden innerhalb nur weniger Wochen in voller Stärke an Krebs erkranken. Das ist der Unterschied zwischen zufälligem Herumballern und gezielten Attentaten. Ja, Strahlung kann Krebs verursachen, aber hinsichtlich der Effizienz nur mit der Note 6 minus.
Was ist PhIP und warum füttern die Menschen Mäuse damit? PhIP ist eines der vielen Molekülarten, die man in allen Arten von Fleisch findet, das bei hoher Temperatur verarbeitet wird, also z. B. auf einem Gartengrill. Darunter ist eine Gruppe, welche bei Mäusen bei massiven Dosen Krebs erregen kann … ähnlich wie bei Strahlung, aber wesentlich effizienter. Gibt es eine sichere Dosis? Natürlich nicht! Gibt es eine absolut sichere Distanz, die man in jedem Jahr mit dem Auto fahren kann? Natürlich nicht! Aber einige Fahrweisen bergen nur ein sehr geringes Risiko.
Ist PhIP ein Hoch-Risiko-Karzinogen … soll heißen, bewirkt es sehr oft die Entstehung von Krebs? Das ist keineswegs sicher, aber man findet Warnungen vor dem Grillen von Fleisch bei hoher Temperatur, und zwar im Kleingedruckten der meisten offiziellen Literatur zur Verhinderung von Krebs. Die im oben erwähnten Versuch verwendeten Dosen waren wie gesagt massiv und viel zu groß, um daraus irgendeine Relevanz für den Menschen abzuleiten. Ich wette auf Häm-Eisen [?] als primäre Ursache für Darmkrebs, aber es gibt viele mögliche Verdächtige.
Und was ist, wenn man [körperlich] groß ist? Warum stand dies in der Liste der Risikofaktoren für Darm- (und Brust-)Krebs? Nicht die Körpergröße selbst, sondern einige der für die Körpergröße zuständigen Faktoren sind gefährlich (hier). Im Einzelnen haben sich in großen Menschen viel mehr Zellteilungen ereignet, stimuliert von Wachstumshormonen, und das bedeutet ein größeres Potential für DNA-Schäden. Der statistische Zusammenhang ist eindeutig, und Experten haben auch eine ungefähre Vorstellung hinsichtlich der Ursachen, aber eine detaillierte Erklärung wird es wohl erst in einigen Jahren geben.
Man beachte genau, was ich hier tue. Ich versuche nicht zu beweisen, dass Tschernobyl allein nur eine minimale Auswirkung auf Krebs hatte. Das ist einfach eine bestätigte Tatsache. Alles, was ich versuchen will zu erreichen ist ein wenig mehr Verständnis dafür, warum dies für Experten keineswegs überraschend kommt. Immer wenn Fakten nicht eingängig sind, ist es einfach, verschleiernde Theorien zu verbreiten. Wenn man einmal verstanden hat, warum Experten nicht viel von Tschernobyl erwartet hatten, versteht man auch, warum es nichts weiter zu berichten gab.
Ein neuer Mitspieler
Zum Schluss möchte ich noch etwas behandeln, das schon in Teil II angesprochen worden ist … Epigenetik [?].
Das Verständnis für Krebs ist zu dessen Behandlung unabdingbar. Es ist schwierig, mit dieser Ansicht nicht überein zu stimmen, aber die erstaunliche Zunahme des Wissens hierzu während der letzten 20 Jahre hat nicht zu einer ähnlichen Verbesserung der Behandlungserfolge geführt. Wie es so üblich ist, hat man einmal einen fundamentalen Mechanismus erkannt, zeigt sich darunter  ein weiterer noch unbekannter Mechanismus, der womöglich noch komplexer ist. Eine der jüngsten Ebenen in dieser Hinsicht ist Epigenetik. Die Gene in unserer DNA sind nicht unser Bauplan wie man ursprünglich gedacht hatte. Stattdessen sind sie lediglich ein Bauplan für eine Reihe von Werkzeugen. Die gesamte biologische Software, die kontrolliert, wie und wann diese Werkzeuge zur Anwendung kommen, liegt möglicherweise in der DNA, aber nicht in den Genen. Und die erste von vielleicht mehreren Ebenen dieser Software ist die epigenetische Ebene. Diese Ebene legt die Mechanismen fest, die die Aktivierung jedes Gens in jeder Zelle kontrollieren.
 
Mehr
Auf Folgendes sollte man sich konzentrieren:
Einige Menschen tragen DNA-Mutationen in sich, die sie sehr wahrscheinlich Darmkrebs bekommen lassen, und zwar auf die gleiche Weise, mit der BRCA1-Mutationen Frauen anfällig für Brustkrebs machen. Wie BRCA1-Mutationen schalten auch diese Mutationen Gene aus, die für die Reparatur von Schäden an der DNA zuständig sind; und alles, was dem DNA-Reparatursystem in die Quere kommt, sorgt für Probleme. Diese Darmkrebs-Mutationen sind für 5 bis 10 Prozent aller Fälle von Darmkrebs verantwortlich. Darum liegt das Niveau von Darmkrebs-Erkrankungen in Ländern ohne die normalen westlichen Risikofaktoren wie rotes und gegrilltes Fleisch, Fettleibigkeit, Alkohol, wenig Bewegung usw. so niedrig.
Aber epigenetische Mechanismen können Gene genauso effektiv ausschalten wie Mutationen, aber sie tun es, ohne die DNA-Sequenz zu verändern. Epigenetische Mechanismen werden kontrolliert durch triviale Dinge wie das, was man isst, wie viele Sorgen man hat und vielleicht auch noch ein paar Dinge, die wir nicht kennen – noch nicht.
Wenn also Krebs durch epigenetische Änderungen gesteuert wird, kann es wie durch eine Mutation verursachter Krebs aussehen, aber wenn die Ärzte nach einer solchen suchen, finden sie keine. Es wird während der kommenden Jahrzehnte sehr viel Neues zu Epigenetik geben, aber man sollte keine Wunder erwarten.
Aber Epigenetik liegt im Zentrum dessen, wie unser Lebensstil sich auf unsere Gesundheit auswirkt. Darum wird sie wohl unsere Ansicht von uns selbst fundamental ändern. Zum Beispiel hat die Epigenetik alle Argumente zerstört, die etwa so klingen: „Wir haben etwas schon hunderte Jahre lang getan, es ist in unseren Genen, es stand nicht genügend Zeit für genetische Änderungen zur Verfügung, also liegt dieses etwas in unserer Natur“. Für „etwas“ kann man viele Verhaltensweisen einsetzen: Gewalt, Frauen vergewaltigen, Fleisch essen, Monogamie, heterosexuell sein. Die Epigenetik zeigt, dass das Argument auf falsche Voraussetzungen beruht. Die Epigenetik erlaubt die Modifizierung der Art und Weise, wie die DNA-Reparatur-Werkzeuge eingesetzt werden, schon innerhalb von Tagen und Wochen. Wenn eine Katze ihr Junges im Babystadium nicht ausreichend ableckt, kommt es zu semi-permanenten nachteiligen genetischen Veränderungen, die nicht nur ein Leben lang andauern können, sondern mittels der Gene auch an folgende Generationen weitergegeben werden können. Mehr als nur ein paar Kätzchen haben gelitten, um diesen Tatbestand zu beweisen, und es gibt sehr gute Gründe anzunehmen, dass es bei Menschen genauso ist [vielleicht kann sogar der Übersetzer davon ein Lied singen, wenn man „Ablecken“ durch „Zuwendung“ ersetzt!]
Falls das [zärtliche] Ablecken eines Kätzchens Aktivierungs-Anweisungen in den Genen verändern kann, die das zukünftige Katzenleben betreffen, was ist dann mit der Strahlung durch einen Nuklearunfall – wie etwa von Cäsium-137? Eine vor kurzem erschienene Studie kommt zu dem Ergebnis, dass selbst riesige Dosen von Gammastrahlung durch Cäsium-137 nicht die Wirkung von Zärtlichkeiten der Katzenmutter aufwiegen können. Strahlung hatte keine Auswirkungen auf genetische Aktivierungs-Anweisungen.
Abschließende Bemerkungen
[Im ersten der drei Absätze erwähnt der Autor zunächst den IPCC-Bericht Nr. 5 sowie alle Schrecken, die dort projiziert werden. Leider scheint er das zu glauben, ohne das ihm klar wird, dass nun er davon geängstigt wird, weil er zu wenig darüber weiß, also genau das, was er uns unterstellt, die wir viel zu wenig von Strahlung wissen {siehe hierzu den letzten Absatz}. Er schlägt dann aber den Bogen zu den Erneuerbaren und prangert die Unlogik entsprechender Kreise an. A. d. Übers.]

Gegenwärtig agieren viele Umweltgruppen so, als ob die Risiken in Verbindung mit Nuklear-Unfällen genauso groß sind wie die [vermeintlichen, A. d. Übers.] Risiken in Verbindung mit der Klimaänderung. Sie scheinen sich … voll auf die Technologie der Erneuerbaren Energie zu stürzen: Wind und Sonne. Andererseits wollen viele nicht einsehen, dass die einzige Technologie, die die Abhängigkeit von Öl und Kohle erfolgreich bekämpft, wie sich während der Ölkrise des Jahres 1970 gezeigt hat, die Kernkraft ist.
Es ist meine Überzeugung, dass der Hauptgrund für diese Irrationalität darin zu suchen ist, dass die Öffentlichkeit allgemein und die meisten Umweltaktivisten im Besonderen nichts über die Dinge wissen, die sie ängstigen. Darum ängstigen sie sie. Diese Reihe hat versucht, dieses Defizit zu beheben. Während die allgemeine Öffentlichkeit weder Zeit noch Lust hat, die Details zu durchforsten, um rationale Energie-Entscheidungen zu treffen, ist es die Pflicht unserer politischen und umweltlichen Meinungsmacher genau dies zu tun. Sie müssen die Wissenschaft in Betracht ziehen und dann der wachsenden Liste von Personen beitreten, die glauben, das Anti-Kernkraft = Anti-Zukunft ist. So einfach ist das.
Link: http://bravenewclimate.com/2013/11/15/stayin-alive-gene-pool-p3/
Übersetzt von Chris Frey EIKE




Neues vom Panikchester des PIK: Entkorken der Ost-Antarktis führt zu Anstieg des Meeresspiegels

Zwei besonders schöne Sätze ind dieser Modell-Geschichte aus 1001 Nacht:

Ein Abschmelzen von  Eis an der Küste könnte diesen relativ kleinen Korken verschwinden lassen – und damit einen Meeresspiegelanstieg von 300 bis 400 Zentimetern verursachen. „Der vollständige Meeresspiegelanstieg wäre letztlich bis zu 80 mal größer als der durch das anfängliche Abschmelzen des Eiskorkens“,

und etwas später

In den Simulationen dauert das vollständige Ausströmen aller Eismassen aus der betroffenen Region in der Ost-Antarktis fünftausend bis zehntausend Jahre.

Simulanten unter sich. Es ist aber sehr wahrscheinlich, dass unsere Mainstream-Journalisten diese Feinheiten nicht mal bemerken und nicht darauf kommentierend eingehen werden. Sonst würden sie diesen Bericht bestenfalls im Feuilleton unter „Fiction“ bringen, nicht aber auf der Wissenschaftsseite. Doch berichtet wird schon fleißig – Hier und hier und hier.
Werden Zweifel angemeldet, z.B. darüber, dass jemand sich vorgibt zu wissen, was die Antarktis in 5000 bis 10.000 Jahren an Eis verliert? Nirgends!

Hier die Pressemitteilung im Wortlaut

05.05.2014 – Das Abschmelzen bereits einer kleinen Menge Eis an der ostantarktischen Küste könnte eine große Wirkung haben – nämlich dass große Eismassen unaufhaltsam jahrtausendelang in den Ozean fließen und damit den Meeresspiegel ansteigen lassen. Dies zeigt eine jetzt von Wissenschaftlern des Potsdam-Instituts für Klimafolgenforschung (PIK) veröffentlichte Studie in Nature Climate Change. Die Ergebnisse beruhen auf Computersimulationen des antarktischen Eisflusses mit verbesserten Daten zum Untergrund der Antarktis.
„Das Wilkes-Becken der Ost-Antarktis ist wie eine gekippte Flasche“, erklärt Leitautor Matthias Mengel, „wenn der Korken gezogen wird, entleert sie sich.“ Das Becken bildet das größte marine Landeis-Gebiet in der Region. Derzeit hält ein Eisstück an der Küste die dahinter liegenden Eismassen zurück: eben wie ein Korken, der den Inhalt einer Flasche zurückhält. Ein Abschmelzen von  Eis an der Küste könnte diesen relativ kleinen Korken verschwinden lassen – und damit einen Meeresspiegelanstieg von 300 bis 400 Zentimetern verursachen. „Der vollständige Meeresspiegelanstieg wäre letztlich bis zu 80 mal größer als der durch das anfängliche Abschmelzen des Eiskorkens“, sagt Ko-Autor Anders Levermann. „Bislang galt nur die Westantarktis als instabil, aber jetzt wissen wir, dass ihr zehnmal größeres Gegenstück im Osten möglicherweise auch in Gefahr ist“, sagt Levermann, der die Forschung zu globalen Anpassungs-Strategien am PIK leitet und einer der Leitautoren des Meeresspiegelkapitels im aktuellen Sachstandsbericht des Weltklimarates (IPCC) ist. Dieser Bericht, der Ende September veröffentlicht wurde, sieht einen Beitrag der Antarktis zum globalen Meeresspiegelanstieg von bis zu 16 Zentimetern innerhalb unseres Jahrhunderts. „Wenn die Hälfte dieses Eisverlustes aus der Korken-Region käme, würde das unaufhaltsame Abfließen der Eismassen beginnen. Wir haben vermutlich bislang die Stabilität der Ost-Antarktis überschätzt“, so Levermann. Treibhausgas-Ausstoß könnte das Eis unkontrollierbar schmelzen lassen  Ein Abschmelzen würde die Aufsetzlinie des Eises landeinwärts verlagern – das ist der Bereich, in dem das kontinentale Eis in Kontakt mit dem Wasser tritt und schließlich beginnt, als Eisschelf an der Meeresoberfläche aufzuschwimmen. Der felsige Untergrund unter dem Eis bildet ein riesiges, zum Landesinneren hin abfallendes Tal. Wenn die Aufsetzlinie von ihrer derzeitigen Position am Kamm in das Tal zurückweicht, wird die dem Meer zugewandte Eis-Kante höher. Mehr Eis wird dann in den Ozean geschoben, bis es schließlich abbricht und schmilzt. Und je wärmer es wird, desto schneller geschieht dies.  In den Simulationen dauert das vollständige Ausströmen aller Eismassen aus der betroffenen Region in der Ost-Antarktis fünftausend bis zehntausend Jahre. Wenn diese Entwicklung jedoch erst einmal begonnen hat, wird sich das Auslaufen unaufhaltsam fortsetzen, bis das gesamte Becken leergelaufen ist; selbst wenn die Klimaerwärmung aufhören sollte. „Das ist das grundlegende Problem hier“, sagt Matthias Mengel. „Indem wir mehr und mehr Treibhausgase ausstoßen, lösen wir möglicherweise heute Reaktionen aus, die wir in Zukunft dann nicht mehr stoppen können.“ Ein so erheblicher Meeresspiegelanstieg würde das Gesicht unseres Planeten verändern – er wäre mit großer Wahrscheinlichkeit ein erhebliches Risiko für Küstenstädte von Dublin bis Mumbai, von Tokio bis New York.  Artikel: Mengel, M., Levermann, A. (2014): Ice plug prevents irreversible discharge from East Antarctica. Nature Climate Change (online) [DOI: 10.1038/NCLIMATE2226] Weblink zum Artikel:www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate2226.html




Gorleben- Offizielle vorläufige Sicherheitsanalyse ergibt: Gorleben ist geeignet

Frau Dr. Barbara Hendricks, die neue Ministerin des Bundesministeriums für Umwelt Naturschutz Bau und Reaktorsicherheit, sagte in der RHEINISCH POST vom 21.12.2013 „Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort … Für sie als überzeugte Christin sei es immer ‚gotteslästerlich‘ gewesen, dass Menschen dachten, sie könnten etwas für Millionen Jahre garantieren …“ . Die Existenz natürlicher Kernreaktoren und natürlicher Endlager (OKLO) (2*) ist ihr anscheinend nicht  bekannt.

Anlass

In einer gemeinsamen Erklärung von Bundesminister Röttgen und dem Präsidenten des BfS König wurde im November 2010 die Erstellung einer vorläufigen Sicherheitsanalyse für den Standort Gorleben (VSG) angekündigt: „Das Moratorium würde zum 1. Oktober 2010 wieder aufgehoben. Mit der Wiederaufnahme der Erkundungsarbeiten solle endlich Klarheit geschaffen werden … eine ergebnisoffene Erkundung muss die Eignung oder Nichteignung des Salzstocks Gorleben umfassend begründen. Sollte sich der Salzstock als ungeeignet erweisen, müssen wir neue Wege finden …“ Bei der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) wurde deshalb diese vorläufige Sicherheitsanalyse für Gorleben (SVG) in Auftrag gegeben, die alle bisherigen Untersuchungen analysieren und zusammenfassen soll (H. Fuchs; 2013) (3*). Der Ergebnisbericht der GRS zur „Vorläufige Sicherheitsanalyse für den Standort“ Gorleben (VSG) liegt inzwischen vor (GRS-290; 2012) (4*).

Hauptziele

Als die drei Hauptziele des Auftrags an die GRS werden genannt:
♦„Gestützt auf die Ergebnisse von Analysen zur Integrität der Salzstruktur Gorleben und einer radiologischen Konsequenzanalyse … sollte eine vorläufige Eignungsaussage zum Standort Gorleben  abgeleitet werden  …Dabei wäre nachvollziehbar darzulegen gewesen, ob … am Standort Gorleben wärme entwickelnde radioaktive Abfälle sicher eingelagert werden könnten, oder ob jetzt schon Fakten vorliegen, die gegen eine Eignung sprechen.
  „Da die sicherheitliche Beurteilung eines Endlagersystems nicht alleine auf der Basis der Standorteigenschaften erfolgen kann … sollten Endlagerkonzepte entwickelt werden, welche, soweit dies während der Laufzeit des Vorhabens VSG möglich ist, optimiert werden.
  „Weiterhin sollte der aus heutiger Sicht erforderliche FuE-Bedarf identifiziert und systematisch zusammengestellt werden.“
Erhellend ist jedoch die politische Wende, die allerdings an der fachlichen Aussage der vorläufigen Sicherheitsaussage nichts verändert: Zur Amtszeit von Herrn Minister Altmaier wurde auf Wunsch des BMU am 21.08.2012 im Rahmen eines Änderungsvertrages zu diesem Vorhaben vereinbart: „Auf eine dezidierte vorläufige Eignungsprognose für den Standort Gorleben zu verzichten“. Dies erklärt, dass die ursprünglichen Ziele im Endbericht nun im Konjunktiv geschrieben wurden. Die Wissenschaftler haben sich an diesen politischen Aufruf jedoch nur begrenzt gehalten.

Vorgehensweise

Die „Vorläufige Sicherheitsanalyse Gorleben“ zeichnet sich dadurch aus, dass die seit Mitte der 1990er Jahre erarbeiteten Einzelergebnisse der Endlagerforschung bezüglich des lang zeitigen Einschlusses radioaktiver Abfälle in Salzstöcken und die bisherigen Erkundungsergebnisse zum Standort Gorleben für die durchzuführende Langzeitsicherheitsanalyse zusammengeführt wurden. Die Beteiligung vieler Wissenschaftseinrichtungen, die über Jahrzehnte langes Knowhow zu allen endlagerrelevanten Aspekten verfügen, und deren direkte interdisziplinäre Zusammenarbeit unter wissenschaftlicher Führung eines Steering Committee hat sich bewährt. Für eine interne Qualitätsprüfung war der Einbezug von Wissenschaftseinrichtungen wie z. B. Universitäten, die nicht in aktuelle Endlagerprojekte involviert sind und die daher prädestiniert waren, Methodik und Datenlagen im Vorhaben VSG kritisch zu hinterfragen.

Ergebnis

Es ist ein umfassender Bericht, der nicht nur die bisherigen Ergebnisse der Untersuchungen von Gorleben in fünfzehn einzelnen Arbeitspaketen zusammenführt und ausführlich bewertet, sondern auch eine Anzahl von Vorschlägen aufzeigt, welche Untersuchungen und Analysen noch durchzuführen sind, um eine endgültige Sicherheitsanalyse für eine Planfeststellung zu erstellen. K.O. -Kriterien zum Gesamtprojekt Gorleben sind weder in den fünfzehn Arbeitspaketen noch in dem Gesamtbericht zu finden. 
Der Bericht zeigt die Komplexität der Erstellung einer Langzeitsicherheitsanalyse eines Standortes für ein Endlager. Diese Komplexität macht es politischen und ideologischen Gegnern leicht, mit einfachen Sprüchen sachliche Argumente nicht zur Kenntnis zu nehmen und diese Sprüche in Parteien, Bürgerforen, Netzwerken etc. aber auch mit Hilfe der Presse zu verbreiten. Hier ist es die  Aufgabe der Wissenschaft, über die Wirklichkeit Klarheit zu schaffen. Denn wenn Gegner der Endlagerung die Aufmerksamkeit der Massen suchen, produzieren sie statt Aufklärung Schattenwahrheiten, die sich über Jahrzehnte wie Mehltau auf alle Sektoren von Staat, Wirtschaft und Gesellschaft legt. Und dies führte zu nicht gerechtfertigten Vorurteilen, Massenbefindlichkeiten und gefühlten Risiken und festigen oder auch verstärken Befindlichkeiten – ein leider vermutlich nicht zu ändernder Grundmangel der Demokratie: „In einer Demokratie wird der gewählt, der sich dem Publikum angenehm macht. Das ist einer der schweren Geburtsfehler jeder Demokratie …“ Das hat schon Helmut Schmidt erkannt. 
Für zukünftig zu erwartende Schadensersatzforderungen sind der Bericht  „International Group Gorleben“ (2001) (5*) sowie die „Vorläufige Sicherheitsanalyse Gorleben (VSG)“ der GRS wichtig, denn in beiden gibt es keine Hinweise zu den wissenschaftlichen sowie technischen Ergebnissen, die einer Eignungshöffigkeit von Gorleben widersprechen. Die Verzögerungen sind somit ausschließlich eine Folge der Politik. Die Furcht vor diesem Sachverhalt dürfte wohl der Grund für die schwammige Aussage von Bundesumweltministerin Dr. Hendricks sein (Zeit online, Newsticker, 10. April 2014): „… sie hält ein Ausscheiden des Salzstocks Gorleben aus der Suche nach einem Atommüll-Endlager für möglich. Sie könne es sich ’sehr gut vorstellen‘, dass Gorleben nach wissenschaftlichen Kriterien nicht weiter in Frage komme. Eine ‚politische Vorfestlegung‘ gegen Gorleben könne es aber nicht geben, betonte sie. Gorleben müsse genauso untersucht werden wie alle anderen denkbaren Standorte“.( ???)

Transparenz

Bei der Endlagerung geht es um Transparenz und Glaubwürdigkeit. Und um diesen Ansprüchen gerecht zu werden, habe ich davon Abstand genommen, selbst eine zusammenfassende Bewertung der Ergebnisse einzelner Arbeitspakete zu erstellen. Dies  würde den Rahmen dieses Berichtes sprengen. Für interessierte Laien und möglicherweise auch für die Presse möchte ich die Wissenschaftler selbst sprechen lassen, indem ich die Ergebnisse (Fazite) zu ihren Arbeitspaketen mit Angabe der Seitenzahl im ANHANG aufliste. So kann der interessierte Leser schnell die Themen, die ihn besonders interessieren, identifizieren und die wissenschaftliche Begründung dazu anhand der Originaltexte schnell finden.  Die Auswahl der aufgeführten Arbeitspakete ist beliebig.

Zukunft

            Jede Berichterstattung über Gorleben, sei sie von Politikern, selbsternannten Fachleuten, Zeitgeist-Journalisten, NGOs, Bürgerforen, sogenannten „Gutmenschen“ und vielen mehr – siehe negativ-Beispiel „Hans Brakhagen (6*) – sollte sich in Zukunft an den nachvollziehbaren Ergebnissen der Wissenschaftler messen lassen. Damit würde sich die immer wieder gebetsmühlenartig geforderte Transparenz für die Bürger beträchtlich erhöhen.
Der Bericht zeigt aber auch, dass die Suche nach zwei zusätzlichen Standorten  für die Endlagerung von wärme entwickelnden radioaktiven Abfällen und deren Erkundung und Bewertung – man verpflichtet sich ja, den besten zu finden –  in nicht Salinaren Formationen bedeutend schwieriger sein wird als bei Gorleben (N. Deisenroth & R. Kokorsch, 2011, S.14ff ) (7*). Beispielhaft sind hier einige der bedeutendsten Nachteile zu nennen: Insbesondere bei Tongesteinen aber auch bei Graniten müssen wegen der geforderten niederen Inaktivierungstemperaturen der Endlagerbehälter bedeutend größere Erkundungs- und später Einlagerungsbereiche untersucht werden, um einen geforderten mineralischen und tektonischen Homogenbereich in der gewählten Gesteinsformation abzugrenzen (z.B. ca. 3 Quadratkilometer im Salz bzw. 10 bis 15 Quadratkilometer bei Ton und Granit). Denn von den physikalischen Eigenschaften der Tongesteine werden vor allem die Wärmeleitfähigkeit und die Temperaturbelastung sowie die Hohlraumstabilität als gering bis sehr gering eingestuft. Auch dürfen keine Erkenntnisse vorliegen, welche die Einhaltung der geowissenschaftlichen Mindestanforderungen zur Gebirgsdurchlässigkeit, Mächtigkeit und Ausdehnung des einschlusswirksamen Gebirgsbereiches für lange Zeiträume erscheinen lässt. Die Mächtigkeit der deutschen Tonsteinvorkommen erlaubt z.B. für Bohrlocheinlagerung nur Bohrlängen von max. 50 Metern. Die bergmännische Auffahrung und Unterhaltung der Einlagerungsräume im Tongestein, das Stahl- oder Betonausbau erfordert, ist deutlich aufwendiger als  im Steinsalz etc. etc.
Vom Umweltministerium wird gefordert :Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort ..“, Deshalb ist es notwendig, für den Vergleich zwischen dem heute bestehenden hohen Erkenntnisstand von Gorleben, für die zwei neuen Standorte zumindest den Erkenntnisstand zu erarbeiten, der heute bei Gorleben erreicht ist. Dies wird Jahrzehnte dauern, die Kosten werden sich auf zweistellige Milliardenbeträge belaufen, wenn es ohne Bürgerproteste abläuft. Sind Bürgerproteste wie beispielsweise bei dem Bau der Stromautobahn von Norden nach Süden als Folge der sogenannten Energiewende zu erwarten, wird alles noch viel teurer werden und das nur, weil in Deutschland Ideologie vor Vernunft und Wissen steht (H. Fuchs & R. Kamradek, 2013) (8*). Der finanzielle Aufwand für diesen Weg ist – ohne die mehrstelligen Milliarden Beträge für die Suche nach neuen Standorten auf der grünen Wiese – an den Kostenprognosen der Energiewende absehbar (F.A.Z vom 21. Februar): Stand 2004: 2,3 Milliarden Euro, Stand 2014: 23,6 Milliarden und das mit rasant steigendem Kohleverbrauch und beträchtlich weniger Landschaft- und Klimaschutz.
Erinnert die heutige Situation nicht an das Mittelalter, als der Naturwissenschaftler Nikolaus Kopernikus ohne Erfolg lebenslang gegen den Glauben der Kirche argumentierte, die Erde sei der Mittelpunkt des Universums.
Die Finnen sind heute schon weiter (F.A.Z vom 22. April: „Bis zur nächsten Eiszeit“)! Sie haben begonnen, einen Standort für ein sicheres – nicht das sicherste – Endlager zu untersuchen.
(1*)       GRS-VSG Bericht: GRS 290
            GRS ist eine gemeinnützige technisch-wissenschaftliche Forschungs- und    Sachverständigenorganisation. Sie verfügt über interdisziplinäres Wissen,fortschrittliche Methoden         und qualifizierte Daten, um die Sicherheit technischer Anlagen zu bewerten und weiterzuentwickeln.          Sie gehört zu 46 % der          Bundesrepublik Deutschland und zu 46 % den Technischen Überwachungs- Vereinen (TÜV) und dem Germanischen Lloyd.            Jeweils 4 % der Anteile der GRS haben das Land Nordrhein-Westfalen und der Freistaat Bayern inne.
(2*)       OKLO: „Der natürliche Reaktor von Oklo“ G.Ries, SciLogs online, 2011,
(3*)       H.Fuchs, Gorleben, das Endlagersuchgesetz, NovoArgumente online,2013
(4*)       GRS-290 (PDF 10.07 MB) oder, ISBN 978-3-939355-66-3
(5*)       International Expert Group Gorleben, 2001: , „Repository Project Gorleben – Evaluation of the    Present Situation, online 31.07.2013.
(6*)       Hans Brakhage: www.hans-brakhage.de/belgaraths-turmzimmer/asse-gorleben-html
(7*)       N. Deisenroth & R. Kokorsch, „Vergleich der Salzstöcke Asse und Gorleben hinsichtlich ihrer           Eignung für die Endlagerung radioaktiver Abfälle“ in der Zeitschrift GEZÄHEKISTE, Heft 7,          Nr.1; 2011.
(8*)       H.Fuchs & R. Kamradek, „Die German Angst“, Bookshouse Verlag, 2013
Anhang zur Bewertung 
            Kapitel 5 Umsetzung des Sicherheits- und Nachweiskonzept im Vorhaben VSG S.77 bis S. 256
            Fazit S.103, M
            „Zusammenfassend ist festzustellen, dass keine grundsätzlichen Zweifel an der technischen Umsetzbarkeit der im Vorhaben entwickelten  Auffahrungs- und Einlagerungskonzepte bestehen …“ 
            Fazit S.110, M1
            „… dass die Maßnahme M1 bei der Auslegung der Grubengebäude auf konzeptioneller Basis umgesetzt wurde. Die Anzahl, Längen und Querschnitte der Einlagerungsstrecken bzw. Einlagerungsbohrlöchern ergeben sich aus der Anzahl der und den Abmessungen der Behälter … In zukünftigen Optimierungen können sicherheitstechnische Zielsetzungen von Bedeutung sein …“
            Fazit S.118, M10
            „… dass die geforderte Maßnahme M10 konzeptionell insgesamt umgesetzt und auch in der Realität betriebstechnisch mit heutiger Bergbautechnik umsetzbar ist .“ 
            Fazit S.126 M12, M15
            „… dass die Forderung, die sich aus den Maßnahmen M12 und M15 ableiten, im Vorhaben  VSG auf konzeptioneller Basis für den Fall der Strecken-und Bohrlochlagerung umgesetzt wurden …“ 
            Fazit S.131  M13 M14
            „… dass das Hauptsalz im Kernbereich des Salzstocks und damit auch in der Umgebung des Einlagerungsbereiches auf Grund der geologischen Entwicklungsgeschichte durch eine halokinetisch bedingte intensive Deformation und daraus resultierende Homogenisierung gekennzeichnet ist. Gleichzeitig weist es einen hohen Rekristallisationsgrad und die Abwesenheit von hydraulischen Klüften, Störungen oder makroskopischen Lösungsvorkommen auf …
„Die Erfüllung der mit der Maßnahme M2 verbundenen Anforderungen an die Eigenschaften der geologischen Barriere kann daher unter der grundlegenden Annahme im Vorhaben VSG, dass die im Erkundungsbereich 1 erzielten Erkundungsergebnisse auf nicht erkundete Hauptsalzpartien übertragen werden können, grundsätzlich als gegeben angesehen werden …“ 
            Fazit S.137, M13, M14
            „Die im Vorhaben VSG durchgeführte Endlagerplanung sieht den Einlagerungsbereich der Streckenlagerung auf der 870-m-Sohle vor. Auch das Prinzip der Bohrlochlagerung (Variante C) sieht das Niveau der Überfahrungsstrecken, von denen aus die Bohrlöcher beladen werden, auf einer Teufe von 870m vor. Durch die Endlagerplanung ist gewährleistet, dass große Mächtigkeiten der Salzbarriere zu den Seiten sowie nach oben zum Salzspiegel vorhanden sind …“
            Fazit S.138 M14
            „Für die nächste eine Million Jahre ist davon auszugehen, dass aufgrund der geringen verbliebenen Mengen mobilisierbaren Hauptsalzes im Bereich der Zechstein-Basis und unter dem Einfluss des rezenten Hauptspannungsfeldes keine erneute massive Salzeinwanderung in die Struktur mit entscheidenden Änderungen der geologischen Standortverhältnisse stattfinden …“
            Fazit S.170, M6, M7, M8, M16
            „… dass die Maßnahme M7 zwar durch das im Vorhaben VSG entwickelten Verschlusskonzept auf konzeptioneller Basis formal umgesetzt wurde und erfolgversprechend erscheint. Trotz umfangreicher Untersuchungen in der Vergangenheit fehlt jedoch noch ein fundiertes Prozessverständnis bezüglich der erreichbaren Endporosität und zur Geschwindigkeit der Salzgruskompaktion bei geringer Feuchtigkeitszugabe unter realen Endlagerbedingungen. Es gelten diesbezüglich die gleichen Vorbehalte, die im Zusammenhang mit der Umsetzbarkeit der Maßnahmen M6, M8, und M16 dargestellt wurden …“ 
            Fazit S. 229 Einschluss der Nuklide
            „Aufgrund der großräumigen Integrität der an das Endlagerbergwerk angrenzenden Bereiche der geologischen Barriere, der Integrität der Verschlussbauwerke über ihre Funktionsdauer sowie der Einschlusseigenschaften des kompaktierten Versatzes kann für den Standort ein einschlusswirksamer Gebirgsbereich in Lage und Grenze ausgewiesen werden …
            Kapitel 6  Zusammenfassung der Ergebnisse S. 257 bis S.312
            Kapitel 6.1 Grundlegende Annahmen  S. 257 „… Ein Großteil der im Vorhaben VSG erzielten Ergebnisse und die nachfolgenden Ausführungen stehen unter dem Vorbehalt, dass die Ergebnisse zukünftiger Erkundungs- bzw. Forschungsarbeiten bestätigen, dass die  nachfolgend aufgelisteten grundlegenden Annahmen zutreffen…“ 
            Kapitel 6.2 Umsetzung der Sicherheitsanforderungen des BMU im Vorhaben VSG 
            Kapitel 6.2.1 Anforderungen an die Endlagerauslegung
            Fazit S.267
            „… Zusammenfassend ist folgendes festzustellen: Die Sicherheitsanforderungen des BMU an die Endlagerauslegung können generell auf der für eine vorläufige Sicherheitsanalyse typischen konzeptuellen Ebene als erfüllt bzw. in Zukunft als erfüllbar angesehen werden. …“  
            Kapitel 6.2.2 Anforderungen an die Nachweisführung
            Fazit: S.288
            „Aus den im vorangegangenen dargelegten Gründen wird davon ausgegangen, dass die Anforderungen an die langzeitsicherheitsgerichteten Nachweise, soweit diese den dauerhaften Einschluss der aus den Abfällen stammenden Radionuklide betreffen, auf konzeptioneller Basis umgesetzt wurden …
             …. Die zusammenfassenden Aussagen am Ende des Kapitels 6.2.1 zum FuE-Bedarf bei den im Vorhaben VSG projektierten Verschlussprojekten und zum langfristigen Kompaktionsverhalten von Salzgrusversatz gelten hier gleichermaßen, ebenso wie die Einschränkungen zur Durchführung von Optimierungsmaßnahmen im Vorhaben VSG …“ 
            Kapitel 6.2.3 Anforderungen an Qualität, Dauerhaftigkeit und Robustheit des         Einschlussvermögens des einschlusswirksamen Gebirgsbereiches
            Fazit: S. 301
            „Zusammenfassend wird festgestellt, dass einer zukünftigen potenziellen Beeinträchtigung des Einschlussvermögens des einschlusswirksamen Gebirgsbereichs durch natürliche Ereignisse und Prozesse planerisch Rechnung getragen wird. Gegen kurzfristige Ereignisse wie Erdbeben … wurden die Verschlussbauwerke ausgelegt.  Den Auswirkungen durch Subrosion, Erosion, Diapirismus sowie Klimaveränderungen wurde durch … eine ausreichende Teufenlage der Einlagerungsbereiche begegnet …“
            Fazit: S. 312
            „… Bezogen auf die Endlagerung von wärmenentwickelnden radioaktiven Abfälle können unter den in Kapitel 6.1 angeführten Vorbehalte sowohl die projektierten Endlagersystemen als auch die hiermit verbundenen Sicherheitsaussagen als robust angesehen werden. Für das Freisetzungsverhalten gasförmiger Radionuklide gilt dies vorbehaltlich der Modell- Prozess- und Datenungewissheiten nur, wenn Behälter unterstellt werden, die über etwa 500 Jahre gasdicht sind. … Die im Vorhaben VSG entwickelten Endlagerkonzepte werden einschließlich der Rückholungskonzepte als realisierbar angesehen…“ 
            Zusammenfassung der im Anhang der Synthese genannten geowissenschaftlichen         Standortbeschreibungen. Bericht zum Arbeitspakete 13 (S. 379 – 424).
            In diesen Anhang wird die Geologie im Zusammenhang mit der zukünftigen geologischen Entwicklungsgeschichte des Endlagers genau beschrieben. Ein Inhaltsverzeichnis zu diesem Anhang ist allerdings nicht zu finden. Deshalb ist für den interessierten Leser diese Themengliederung angeführt:
            A.1 : Schichtenfolge und Lagerungsverhältnisse im Deck- und Nebengebirge: A1.1: Prä-salinarer Untergrund; A1.2: Zechstein; A1.3: Trias bis Oberkreide; A1.4: Tertiär A1.5: Quartär;
            A.2 : Hydrogeologie:  A2.1 Hydrologischer Bau des Deckgebirges; A2.2: Das Süß-/ Salzwassersystem; A2.3: Grundwasserbewegung im Süßwasserkörper; A2.4: Grundwasserbewegung im Salzwasserkörper: 
            A.3 : Geologie des Salzstocks Gorleben:  A3.1: Entwicklungsgeschichte der Salzstruktur Gorleben-Rambo; A3.2: Hutgestein des Salzstocks Gorleben; A3.3: Salzspiegel; A3.4: Subrosion; A3.5: Stratigraphie und Lithologie; A3.6: Klüfte und Störungen im Salinargestein; A3.7: Lösungsvorkommen im Salinargestein; A3.8: Kohlenwasserstoff- und Gasvorkommen im Salinargestein; A3.9: 
            A.4 : Geologische Langzeitprognose: 4.1: Ableitung der zukünftigen Rahmenentwicklung; 4.2: Wahrscheinliche zukünftige geologische Entwicklung am Standort Gorleben; 4.3: Überregionale Entwicklungen; 4.4 Kaltzeitliche Entwicklungen; 4.5: Wenig wahrscheinliche oder auszuschließende Entwicklungen des geologischen Systems am Standort Gorleben. Literaturverzeichnis.
***
Was sagte Hans Magnus Enzensberger noch vor kurzem: „Der Schlaf der Vernunft wird bis zu dem Tag anhalten, an dem die Mehrheit der Einwohner unseres Landes am eigenen Leib erfährt, was ihnen widerfahren ist. Vielleicht werden sie sich die Augen reiben und fragen, warum sie die Zeit, zu der Gegenwehr noch möglich gewesen wäre, verschlafen haben:“
Helmut Fuchs
——————————————-
Der Autor ist auch – zusammen mit Rolf Kamradek – Autor des Politthriller „Die German Angst“ 
 
Näheres zu Dr. Helmut Fuchs finden durch googeln unter „helmut.fuchs.geologe“




Was das Schlachten einer Giraffe und ein Freihandelsabkommen gemeinsam haben

von Lorenz Teufel und Hans-Dieter Radecke
„Natur, rot an Zahn und Klaue.“ Die Zeile stammt von Alfred Lord Tennyson. Er spielt hier auf die unheilbare Hoffnung des Menschen an, „dass Gott Liebe wärʼ / Und Liebe das Gesetz, auf das die Schöpfung baue.“ Unheilbar ist sie nach Tennyson, weil seine Mitmenschen trotz gegenteiliger Erfahrungen daran festhielten, selbst dann „wenn die Natur auch, rot an Zahn und Klaue / Vor Raublust, dieses Credo niederschrie.“
Der Glaube an eine gütige Mutter Natur ist gerade heute wieder allgegenwärtig und trägt nicht selten die Züge religiöser Verblendung. Nachhaltig, gerecht und innovativ ist sie. Mit sanfter ruhiger Hand hält sie alles in der Balance, sorgt in einem perfekten Gleichgewichtssystem uneigennützig für alle ihre Geschöpfe und bringt dabei einen Gleichklang aus Schönheit, Harmonie und erhabener Perfektion hervor. Werden wir mit ihren blutigen Zähnen und Klauen konfrontiert, reagieren wir mit sentimentalem Unverständnis. „Der Sentimentale“, meinte einst Oscar Wilde, „ist einer, der in allen Dingen lächerlich hohe Werte sieht und von nichts den Marktpreis kennt.“
Häufig genug geht dieses naive Naturverständnis bereits so weit, dass Naturkatastrophen gar nicht mehr der Natur selbst zugeschrieben, sondern gänzlich „der Menschheit“ angelastet werden. Lawinen sind dann nur noch die zwangsläufige Folge von Naturraubbau; Stürme, Trockenheiten, Überschwemmungen und Erdbeben sind durch unseren verantwortungslosen CO2-Ausstoß verursacht; Tsunamis werden durch geheime militärische Experimente oder ganz allgemein durch die menschliche Hybris ausgelöst. Da ist es dann nur noch ein Roth-grünes Handumdrehen, und 16 000 japanische Tsunamitote mutieren zu Opfern eines Reaktorunfalls. Niemand hat diesen Naturkitsch besser und kürzer zum Ausdruck gebracht als Herbert Grönemeyer: „Die Erde ist freundlich / Warum wir eigentlich nicht?”
Als vor einigen Wochen in einem dänischen Zoo die Giraffe Marius öffentlich geschlachtet und danach an die Raubtiere verfüttert wurde, brach ein weltweiter Sturm der Entrüstung über die Verantwortlichen herein. Meinungsstarke aber geistesschwache Online-Petitionen wurden gestartet, der Zoodirektor bedroht. Die blutige Fratze der ach so gerechten Natur wollte niemand sehen. Über 90 Prozent aller jemals existierenden Arten hat die angeblich doch so nachhaltige „Mutter Natur“ ausgerottet.
Ähnliche Empörungsstürme brechen bezeichnenderweise los, wenn die Marktwirtschaft ihre von Freiheit verzerrte Fratze erhebt. „Eigentlich“ wird die Marktwirtschaft ja von der Mehrheit aller Deutschen geliebt und geschätzt. Quer durch alle Parteien wird sie hochgelobt und anerkannt. Selbst Stalin-Verehrerin Wagenknecht bekommt feuchte Augen, wenn sie uneigennützig ihre Vollendung fordert. Allerdings ist hier die Rede von einer ganz bestimmten Art von Marktwirtschaft. Sozial, gerecht, nachhaltig, innovativ und moralisch muss sie sein, Arbeitsplätze soll sie schaffen und sichern. Und statt bloß quantitativen Besitz für den Einzelnen, muss sie qualitativen und genfreien Wohlstand für jeden erzeugen. Alles Mögliche darf sie sein, nur allzu frei, das darf sie nicht sein. Denn dann wird sie zum „Morallehrer“.
Besonders deutlich wird die Abscheu gegen diese ungeliebte Seite des Marktes angesichts des bevorstehenden Freihandelsabkommens mit den USA und der Entscheidung des EU-Ministerrates, gentechnisch veränderten Mais NICHT zu verbieten. Da geht ein Gespenst um in Deutschland – das Gespenst des rücksichtslos selektierenden freien Marktes. Ein Massensterben europäischer Filmkulturen stehe uns bevor, warnen Subventionscineasten und Kulturnationalisten. Verordnungsschützer und Regelhüter sehen unkalkulierbare Risiken für unmündige Verbraucher und unsere unbefleckte Genflora voraus, fürchten gar um die letzten Biotope staatlicher Gouvernantenwillkür. Am Ende könne selbst die Wim-Wenders-Förderungsfauna in ernste Gefahr geraten. „Ihr habt nichts zu gewinnen als Freiheit“, schallt es aus allen Subventionspalästen – „aber unser Niveau zu verlieren.“
In seiner sentimentalen Einfalt gleicht dieses Wunschbild vom sozialen Markt auf verblüffende Weise dem romantischen Zerrbild von der Natur. Auch hier finden wir die selben geistlosen Versatzstücke einer romantischen heile-heile-Gänschen-Weltsicht. So wie auf der einen Seite der maßlos konsumierende Mensch für die Katastrophen in einer eigentlich gütigen Natur verantwortlich ist, so ist es in der eigentlich perfekten Welt der sozialen Markwirtschaft die böse Kapitalistin (Bänkerin, Hedgefondsmanagerin), die die heile Welt durch ihre unmäßige Gier in ein Armenhaus verwandelt. Analysiert man es zu Ende, dann gibt es natürlich keinen Zweifel, dass die Kapitalistinnen letztendlich auch für Naturkatastrophen und Artensterben verantwortlich sind. Wer sonst?
Als Charles Darwin vor mehr als 150 Jahren über seiner Evolutionstheorie brütete, sah er sich einem Problem gegenüber. Seine Theorie der natürlichen Selektion basierte auf einem radikalen Individualismus. Nach seiner Ansicht wirkte die Selektion nämlich nicht zum Wohl von Arten, sondern ausschließlich zum Wohl von Individuen und ihres Fortpflanzungserfolges. Damit stand sie im krassen Gegensatz zu den gottgefälligen Ideen seiner Zeitgenossen über eine gütige Schöpfung, die sich liebevoll um jede Spezies sorgt und kümmert. Wenn es aber so war, wie Darwin glaubte, wie konnte dann ein nur auf das Wohl des Einzelnen gerichteter Mechanismus zu so komplexen sozialen Strukturen und artübergreifenden Beziehungen führen, wie er sie überall in der Natur vorfand?
Die Lösung seines Problems fand er unter anderem in Adam Smiths Wirtschaftstheorie des „laissez-faire“. Durch geniale Ideenübertragung gelang es Darwin, die Perfektion und Stabilität der Naturprozesse aus seiner rein individualistischen Selektionstheorie heraus plausibel zu machen. Für den schottischen Philosophen Smith war klar, dass der Wettbewerb von Unternehmen (Arten), von denen jedes die Freiheit besitzt, nach dem eigenen Nutzen (Fortpflanzung) zu streben, dazu führen würde, dass weniger fähige Konkurrenten vom Markt gedrängt würden. Zwischen den jeweils Erfolgreichsten könnte sich ein Gleichgewicht bilden, wodurch eine geordnetes Wirtschafts- (Öko)system entstünde. Smith drückte es so aus: „Jeder glaubt nur sein eigenes Interesse zu verfolgen, tatsächlich erfährt so aber indirekt auch das Gesamtwohl der Volkswirtschaft die beste Förderung. Der einzelne wird hierbei von einer unsichtbaren Hand geleitet, um ein Ziel zu verfolgen, das er keineswegs intendiert hat.“
Heute werden weder Darwins Selektionstheorie noch Adams Wirtschaftstheorie von Wissenschaftlern als uneingeschränkt richtig erachtet. Beide Theorien haben Erweiterungen und Veränderungen (Populationsgenetik, Spieltheorie etc.) erfahren. Vielen von uns ist auch klar, dass „Natur“ und „Markt“ nur abstrakte Begriffshülsen sind, deren Inhalt und Bedeutung ganz wesentlich von den jeweils favorisierten menschlichen Norm- und Wertesystemen abhängen. Wer in der „Natur“ nur einen unschuldigen Hort des Heils sieht, den man mit allen Mitteln vor dem Zugriff des gierigen Menschen schützen muss, projiziert damit seine eigenen Wert- und Wahnvorstellungen ebenso nach außen, wie derjenige, der in ihr nur die Blaupause für seinen perversen Kampf gegen alles „Schwache“ und „Unvollkommene“ sieht.
Ein objektives Ding namens „Natur“ mit klar definierten Grenzen und Eigenschaften gibt es ebenso wenig, wie es „den Markt“ gibt. „Dem Markt“ vorzuwerfen, er bringe aus sich heraus keine Moral hervor und sei deshalb auf äußere Moralquellen angewiesen, ist deshalb in etwa so sinnvoll, wie „der Mathematik“ oder „der Zeit“ vorzuwerfen, sie seien lieblos. Selbstverständlich produzieren Drogen- oder Gemüsemärkte keine Moral, das tun aber Religionen, Ideologien oder Gebote auch nicht. Die einzige Moralquelle, die wir kennen, ist der Mensch, der seine Moralvorstellungen auf abstrakte Entitäten wie Götter oder Gebote projiziert. „Der Markt“ ist eine Abstraktion, er ist so gut oder schlecht oder frei, wie die Menschen, die ihn durch Regeln und Handlungen konstituieren.
Die Bilder und Vorstellungen, die wir uns vom Markt oder der Natur machen, sagen uns damit etwas über unsere Ideologien und Wertesysteme. Wer in der Natur nur ein armes und wehrloses Opfer des Menschen sieht, für den ist es ein Leichtes, daraus das Recht abzuleiten, soweit in das Leben eines jeden einzelnen Menschen einzugreifen, bis ihm jede Möglichkeit genommen ist, „die Natur“ zu schädigen. Und wer im „Kapitalismus“ nur ein ungerechtes amoralisches Raubtier mit blutigen Klauen sieht, für den ist es eine selbstverständliche Pflicht, „den Markt“ soweit in Fesseln zu legen, bis er nur noch Gleichheitsmoral nach Plan produziert und jedem Menschen die Freiheit genommen ist, „ungerechten“ Reichtum anzuhäufen.
Wer wie Jürgen Habermas „den Kapitalismus“ zähmen will, der muss sich darüber klar sein, dass es hier nicht darum geht, ein abstraktes Etwas zu bändigen. Hier geht es schlicht darum, Menschen durch staatliche Gewalt zu zähmen, sie am Handeln zu hindern und ihre Freiheit einzuschränken. Denn „der Kapitalismus“ stellt die Freiheit des Individuums ins Zentrum aller wirtschaftlichen Aktivitäten – und damit die Quintessenz der Aufklärung. „Der Markt“ mag ein abstraktes Konstrukt sein, aber seine konkreten Regeln betreffen uns alle real. Jede Regulierung des freien Austausches von Waren und Dienstleistungen ist ein konkreter Eingriff in unser Leben. Und dabei spielt es nur eine untergeordnete Rolle, ob wir Anbieter oder Kunden sind, denn die meisten von uns sind beides. Wir kaufen Waren und Dienstleistungen und bieten unsere Talente und Arbeitszeit an. Das bedeutet nun nicht, dass „der Markt“ keine Regeln braucht, ganz im Gegenteil, ein Markt braucht Regeln, sonst ist er kein Markt, und „ungeregelter Kapitalismus“ ist ein Widerspruch in sich. Doch diese Regeln sollten den freien Austausch von Waren und Dienstleistungen sichern und ihn nicht durch staatliche Gewalt in ideologische Bahnen zwingen oder gar unmöglich machen. Moralische Marktfeindlichkeit mit dem Ziel der Schaffung einer „gerechten“ Gesellschaft führt überall hin, nur nicht zu einer „humaneren“ Welt.
Nach einer Emnid Umfrage fordern 83 Prozent aller Deutschen, dass sich die Bundeskanzlerin für noch strengere Klimaschutzziele einsetzen soll. DREIUNDACHZIG Prozent aller Deutschen wünschen sich also, der Staat solle sich noch mehr als er das ohnehin schon tut, in das Leben eines jeden Bürgers einmischen, um „das Klima“ zu retten, das nach fast übereinstimmender Meinung vom Menschen bedroht wird. Das Ganze trägt Züge eines religiösen Wahns. Im sogenannten Klimaschutz“ gehen die beiden beschriebenen Ideologien von „Markt“ und „Natur“ eine fast perfekte Symbiose ein. Wer glaubt, hier gehe es nur um die Verschärfung einiger Grenzwerte, der irrt sich gewaltig. Hier nimmt sich der Staat das Recht heraus, seinen Bürgern vorzuschreiben, was sie kaufen, was sie produzieren und was sie verkaufen müssen. Der grüne Umweltsenator in Bremen plant gar das Grundrecht auf die Unverletzlichkeit der Wohnung „einzuschränken“, damit „Blockwarte“ ohne Gerichtsbeschluss überprüfen können, ob jemand mit Strom heizt. Um es klar zu sagen, wer so etwas tut, missbraucht das staatliche Gewaltmonopol und tritt die Freiheit seiner Bürger mit Füßen.
Hier wird Adams „unsichtbare Hand“ durch Ideologie ersetzt. „Der Markt“ soll durch Zwang in eine bestimmte Richtung gelenkt werden, um festgelegte Vorgaben (für Elektroautos, Ökostrom, CO2-Ausstoß, Frauen und Löhne) zu erreichen. Kennzeichen eines freien Marktes hingegen ist es, dass jeder Akteur in Freiheit und eigener Verantwortung seine jeweiligen Interessen verfolgen kann. Das führt dann dazu, dass Marktentwicklungen zwar nicht vorhersehbar sind, aber durch das Wirken der Freiheit auf vielfache Weise das Gemeinwohl fördern. Erfolgreiche freie Unternehmer zeichnet es nämlich aus, dass sie etwas anbieten, was die Kunden wirklich haben wollen. Nur wer sich Gedanken darüber macht, was seine Mitmenschen brauchen, sich wünschen oder in Zukunft für ihr Glück und Wohlbefinden benötigen werden, wird am freien Markt erfolgreich sein. Denn im Gegensatz zur Staatsgewalt hat keine „Kapitalistin“ die Macht, ihre Kunden zum Kauf bestimmter Produkte (oder TV-Programme) zu zwingen. Sie muss den Kunden durch Qualität und Preis für sich gewinnen. Henry Ford, George Westinghouse und Walt Disney waren nicht erfolgreich, weil sie selbstlos zu Planerfüllungsgehilfen und Subventionsschmarotzern degenerierten, sondern weil sie aus Eigeninteresse ihren Mitmenschen gute und preiswerte Offerten machten. Mut zur Innovation, Kreativität und Risikobereitschaft sind die entscheidenden Merkmale eines produktiven Marktes – nicht Gesetze, die dem Bürger bestimmte Quoten, Produkte und Dienstleistungen aufzwingen.
Doch mit rationalen Argumenten und Erfahrungswerten ist hier, wie bei fast jeder religiösen Gemeinschaft, wenig bis nichts auszurichten. Wer davon überzeugt ist, uneigennützig und selbstlos zum Wohl der Menschheit und der Schöpfung zu handeln, dem ist mit Vernunft nicht beizukommen. So wie sich die Ideologen der sozialen Planwirtschaft nicht durch die Tatsache kurieren lassen, dass sämtliche derartigen Versuche zum Leid von Millionen Menschen jämmerlich gescheitert sind – jüngstes Beispiel ist Venezuela, wo eines der ölreichsten Länder in einem Sumpf aus Verbrechen und Korruption versinkt – so lassen sich die sogenannten Natur- und Klimaschützer weder durch das menschliche Leid, das durch die Palmölproduktion verursacht wird, noch durch die Tatsache zum nachdenken bringen, dass im eigennützigen freien Markt der USA Energiepreise und CO2-Ausstoß sinken, während sie in unserer selbstlosen Planwirtschaft munter steigen.
Selbstlos und uneigennützig fordert deshalb Wim Wenders, seine Subventionen nicht durch ein Freihandelsabkommen zu gefährden; selbstlos und uneigennützig verschandeln deshalb Wind- und Solarfirmen ganze Landstriche, ehe sie in Insolvenz gehen; selbstlos und uneigennützig muss die Kanzlerin deshalb um das diabolische amerikanische Frackinggas betteln. Wir jedoch, „wir sind nicht bereit, von irgendjemandem anzunehmen, dass es ihm an Selbstsucht mangelt.“ (Adam Smith) Und dennoch vertrauen wir darauf, dass der Mensch vernünftig ist, und Freiheit das Gesetz, auf das der Fortschritt baut, selbst dann, wenn der Gutmensch auch, rot an Faust und Fahne, vor Dummheit dieses Credo niederschreit.
Die Autoren sind Physiker und haben gemeinsam das Buch “Was zu zweifeln war. Die Lüge von der objektiven Wissenschaft” verfasst.
Zuerst veröffentlich auf ACHGUT hier 




Es gibt keine CO2-Erwärmung – Seit 1998 bewegen uns wieder auf eine kleine Eiszeit zu

Die folgende Grafik beginnt 850 n.Chr., also nach der Teilung des Frankenreiches und reicht bis etwa 1920.

Abb. 1: In der mittelalterlichen Warmperiode waren die Temperaturen im Mittel 2- 4°C höher als heute, Island und Grönland wurden im 9. Jahrhundert durch die Wikinger besiedelt, das Packeis zog sich weiter nördlich zurück und in England und Dänemark wurde Wein angebaut. In Island wuchsen Eichen und selbst in Grönland baute man Weizen und Gerste an.
Um 1300 wohnten mehr als 3000 Menschen an der Westküste Grönlands. (Schaefer, 1997.) Das sollte sich bald ändern: 1492 stellte der Papst fest, dass seit 80 Jahren kein Bischof mehr wegen Eis Grönland hätte besuchen können. Seit damals waren die europäischen Siedler wegen der Kälte wohl nach Neufundland weiter gewandert.
In der beginnenden kleinen Eiszeit war es im Mittel ca. 1- 3°C kälter als heute. Die Wikinger-Kolonie in Grönland war ausgestorben, die Themse in England war im Winter oftmals für lange Zeit im Jahr zugefroren genau so wie die holländischen Kanäle.
Aus der Grafik der Abb1 erkennen wir auch, dass die Kleine Eiszeit etwa 1850 zu Ende ging, seitdem wurde es wieder wärmer. Ab 1900 gab es in Deutschland wieder angenehmere Temperaturen, welche zu höheren Ernteerträgen führte und die großen Hunger-Auswanderungswellen aus der Mitte Europas fanden ein Ende.
Doch wie entwickelten sich ab 1900 die Temperaturen weiter in Deutschland? Seit 1881 führt der Deutsche Wetterdienst in Offenbach (DWD) seine –wie er sagt- zuverlässigen Temperaturaufzeichnungen. Und diese zeigen zunächst mal was Erfreuliches. Die Temperaturaufzeichnungen beweisen, dass trotz einiger kühlerer Jahre die Temperaturen im Schnitt auch nach 1900 weiter gestiegen sind. Die durchgängige Trendlinie geht ab 1900 weiter nach oben bis etwa zum Jahr 1998. Dieses Jahr 1998 war seit den regelmäßigen Temperaturaufzeichnungen weltweit das wärmste Jahr, in Deutschland war es das Jahr 2000. Seitdem sinken die Temperaturen wieder leicht.

Abb.2. Sie ist eine Ergänzung von Abb1 um weitere 90 Jahre bis in die aktuelle Zeit. Man sieht deutlich, dass die Temperaturen seit 1998 wieder abwärts gehen. Die Trendlinie für die deutschen Temperaturaufzeichnungen fällt aber schon seit 1997, obwohl Kohlendioxid auch in den letzten 17 Jahren weiter ansteigend war.

Abb.3. Nach einer Phase der Wiedererwärmung nach der kleinen Eiszeit fallen die Temperaturen in den letzten 17 Jahren wieder, obwohl der CO2-anstieg in der Atmosphäre sich fortsetzt. Im Jahre 2013 liegt er bei 380 ppm oder 0,038%. Steigende CO2-werte, aber fallende Temperaturen??
Somit steht aber auch fest, dass wir Normalbürger ständig belogen werden. Nirgendwo zeichnet sich das Bild einer sich fortsetzenden beängstigten Erwärmung ab, die laut den Märchen und abstrusen Behauptungen des Weltklimarates, aber auch des PIK Potsdam in absehbarer Zeit zum Hitzetod der Erde führen sollen.
Anhand der Temperaturdaten des DWD lässt sich lediglich feststellen, dass
1) die Temperaturen von 1850 an langsam gestiegen sind und nun wieder eine kleine Abkühlungsphase einsetzt. Und:
2) Dass es trotz der Abkühlungsphase seit 1998 immer noch wärmer als vor etwa 120 Jahren ist. Das zeigt die Abbildung2. So begründet auch der DWD stets die Klimaerwärmung und bietet solche Diagramme wie Abb4 an.

Abb.4: Trotz der Abkühlung in diesem Jahrtausend sind die gemessenen Temperaturen immer noch höher als vor 120 Jahren. Für die Betrachtung eines längeren Zeitraumes geben wir also dem DWD zunächst mal recht, zumal wir für unsere Betrachtungen dieselben DWD-Werte verwenden.
Doch ist es wirklich wärmer geworden? Sind die Temperaturen derzeit wirklich höher als vor 120 Jahren. Im folgenden soll gezeigt werden, dass man diese anhand von Abb4 vorschnell getroffene Aussage einer genaueren Betrachtung unterziehen muss.
Der Wärmeinseleffekt -WI-
Die letzten 150 Jahre unterscheiden sich grundlegend von anderen Epochen der Menschheitsgeschichte. In dieser Zeit hat sich die Bevölkerung von knapp einer Milliarde auf über 7 Milliarden vergrößert. Großräumige Naturlandschaften wurden umgestaltet, Sumpfgebiete und Feuchtwiesen trockengelegt, ein Großteil der Naturflächen wurden versiegelt und betoniert. Die Städte sind ausgeufert und einstige Naturräume sind zu großen zusammenhängenden Wohn- Arbeits- und Industrieflächen mit betoniertem Straßenbau zusammengewachsen, was die kühlend wirkende Verdunstung vermindert. Schließlich ist der Energiehunger der Menschheit in diesen letzten 150 Jahren ins Unermessliche gestiegen. Dieser Wärmeeintrag durch Energieverbrauch (Abwärme der Kraftwerke, Maschinen, Verbrennungsmotoren, Heizungen und Klimaanlagen) erfolgt vor allem in dicht besiedelten Gebieten. Neuerdings führt in Deutschland auch der massive Ausbau der Wind- und Solarenergiegewinnung zu Erwärmungseffekten auch in der freien Landschaft, denn die großen Windparks bremsen den kühlend wirkenden Wind, und die dunklen Solarpaneele wandeln nur etwa 10% der eintreffenden Sonnenstrahlung in Elektroenergie um, heizen sich aber wegen ihrer dunklen Oberflächen und der fehlenden Verdunstung wesentlich stärker als gewachsener Boden auf.
All diese Veränderungen bewirkten letztlich einen Wärmeeintrag in die einstige Naturflächen, der sich derzeit immer noch ungebremst fortsetzt. Täglich werden in Deutschland 108 ha Natur versiegelt und betoniert, was zur weiteren Erwärmung in den großräumigen, neu vom Menschen geschaffenen Flächen beiträgt. Dazu kommt, dass die Klimastationen, die sich vor 150 Jahren bei Forsthäusern am Waldrand, bei unbeheizten Klöstern oder bei wissenschaftlichen Instituten am Stadtrand befanden, heute nahezu alle in den von Menschenhand geschaffenen Wärmezonen oder gar neben den Landebahnen von Flughäfen stehen.
In der Gruppe Kowatsch/Leistenschneider/Kämpfe stellten wir uns die Frage, was würden die Messstationen an Temperaturen tatsächlich gemessen haben, wenn sich Deutschland in den letzten 123 Jahren nicht verändert hätte und wie wäre der Temperaturverlauf der Abbildung 4, wenn auch die Messstationen noch am gleichen Ort sich befinden würden wie vor 123 Jahren?
Der Physiker Raimund Leitenschneider hat durch seine statistisch vergleichende Methode herausgefunden, dass diese menschengemachte Wärmeinselerwärmung für Deutschland etwa 1,2 Grad beträgt mit einem Unsicherheitsbereich von +/- 0,5Grad.
Im folgenden Schaubild 5 soll dies gezeigt werden.

Abb. 5 Die rote Kurve entspricht der Abb4. Sie ist nach den Originaldaten des DWD gezeichnet.
Die blaue Kurve ist die WI-bereinigte Kurve. So würde der Temperaturverlauf in Deutschland aussehen, wenn sich die Welt nach 1850 nicht, bzw. nur wenig verändert hätte. Bei weniger als 40 Mio Einwohnern in der Fläche des heutigen Deutschlands, bei gleicher Lebensweise, gleichem Aussehen der Landschaft, dem geringen Energieverbrauch und die Messstationen an denselben Standorten wie 1891, dann hätte der DWD für das Jahr 2013 nur etwa 7,5 C ermittelt.
Auch viele Indizien und Beobachtungen sprechen für die Richtigkeit dieser 1,2 Grad menschengemachter Wärmeinselanteil für Deutschland. Hier sollen einige genannt werden:
Die Temperaturen in der freien Fläche Deutschlands, weitab von allen Wärmeinseln, zeigen in der Natur ein anderes Bild. In einem FFH-Schutzgebiet im Frankenbachtal im Ostalbkreis, fern aller Ansiedlungen und Wärmeinseln, zeigen die Maibeobachtungen den kümmerlichen Blattaustrieb verschiedener Sträucher. Die Vegetation der Bäume nimmt die tatsächlichen Maitemperaturen wahr und diese sind in Deutschland nach einer sechzehnjährigen Abkühlungsphase wieder so tief wie vor mindestens 50 Jahren, als der Betrachter erstmalig dort war. Aber selbst in den stark WI- beeinflussten Städten hat sich die Vegetationsentwicklung in den vergangenen 25 Jahren nicht bei allen Pflanzen einfach verfrüht, wie das folgende Beispiel verdeutlicht. STEFAN KÄMPFE führt als ehrenamtlicher Mitarbeiter der floristischen Kartierung in Thüringen auch phänologische Beobachtungen in Weimar durch. Dabei zeigte sich, dass sich nicht alle phänologischen Phasen verfrüht haben. Zwar treten Holunderblüte und Holunderreife (Beginn des Frühsommers beziehungsweise des Frühherbstes) heute etwa 9 Tage eher ein, als um 1990. Bei der Apfelblüte (Beginn des Vollfrühlings) gab es aber nur eine minimale Verfrühung um weniger als 2 Tage, während sich der Beginn des Erstfrühlings (Laubaustrieb der Wildstachelbeere) um etwa 11 Tage verspätet hat. Die folgende Abbildung 6 zeigt den Grund für diese gegenläufige Entwicklung:

Abb. 6: Die Hauptursache für die gegenläufige Vegetationsentwicklung in Weimar (verspäteter Erstfrühling- Austrieb der Wildstachelbeere, Mitte unten- Hellgrün, und der verfrühten Holunderblüte- Frühsommerbeginn- dunkelblau, oberste Kurve) ist im unterschiedlichen Trendverhalten der Lufttemperaturen zu suchen. Denn während die Wintertemperaturen, welche den Beginn des Erstfrühlings ganz wesentlich bestimmen, leicht gefallen sind, stiegen die Frühlingstemperaturen,  besonders aber die des April, welche den Beginn der Holunderblüte maßgeblich beeinflussen, deutlich an. Diese Temperaturänderungen beruhen hauptsächlich auf Änderungen in den Häufigkeitsverhältnissen der Großwetterlagen (weniger milde Westwetterlagen im Winter, mehr erwärmend wirkende Süd- und Südwestlagen im Frühling) sowie einer längeren Sonnenscheindauer im Frühling- für einen CO2- Einfluss auf diese Temperaturänderungen fehlen die Hinweise.
Wir möchten betonen: Die vom Deutschen Wetterdienst DWD veröffentlichten Temperaturreihen sind richtig ermittelt. Sie gelten jedoch nur für die vom Menschen großflächig geschaffenen Zivilisationsflächen, eben dort, wo auch die Messstationen stehen. Und hauptsächlich dort gibt es die Erwärmung seit 1900 tatsächlich. Bei Temperaturvergleichen mit früher dürfen jedoch nicht direkt die einzelnen Temperaturen in Relation gesetzt werden, denn die Thermometer messen die vom Menschen in die Landschaft eingebrachte Wärme automatisch mit.                                                                                                              Aus der blauen, dem WI-bereinigten Temperaturverlauf der Abb. 5 erkennen wir: Nach einer 16jährigen Abkühlungsphase wären wir wieder bei Temperaturen um 1900 angekommen, wenn sich Deutschland in diesem Zeitraum nicht verändert hätte und die Messstationen auch noch an den damaligen Plätzen stehen würden. Und im Vergleich zur Abbildung 1 muss man leider feststellen: wir befinden uns nur knapp über der Durchschnittslinie der Abb1, also im Bereich des kleinen roten Bereiches am Ende des Zeitraumes bis 1920. Ohne WI- Anteil, hätte es seit 1900 gar keine Erwärmung gegeben.                                                                                                                         Eine Klimastation mit möglichst wenig Umgebungsänderungen müsste das bestätigen. Leider gibt es in Deutschland keine Station mehr, in deren weiten Umgebung sich nichts oder nur wenig verändert hat. Auch die Station auf der Zugspitze ist seit über 60 Jahren durch den wachsenden Tourismus stark WI- beeinflusst. Doch in den USA wurden wir fündig. Glücklicherweise gibt es die Dale Enterprise Station, eine Temperatur-Messstation, bei der sich nur wenig in der weiten Umgebung verändert hat, die also fast keinen WI hat.

Abb.7: Die Überraschung ist groß, denn die vom IPCC, dem selbst ernannten Weltklimarat behauptete schlimme globale Erwärmung ist bei dieser Station auf dem Lande überhaupt nicht erkennbar. (Obwohl auch diese Station einen geringen WI-effekt haben dürfte)  Nur zu Beginn der ersten 20 Jahre der Messreihe von 1880 bis 1900 zeigt sich ein leichter Temperaturanstieg, da wir damals aus der kleinen Eiszeit kamen, welche 1850 zu Ende ging. Und seit 1998 ist deutlich der Temperaturrückgang erkennbar, da er durch keinen oder nur durch einen geringen WI-effekt abgebremst wird. Auch auf dieser kleinen Farm in Virginia ist man wieder auf dem Stand von 1900 angekommen.  http://sppiblog.org/news/contribution-of-ushnc-and-giss-bias-in-long-term-temperature-records-for-a-well-sited-rural-weather-station
Zusammenfassung
1)Ab 1850 wurde es wieder wärmer auf der Erde wie die Abbildungen 1 und 2 zeigen. Die kleine Eiszeit ging zu Ende. Und diese Wiedererwärmung hat bestimmt nichts mit CO2 zu tun, sondern mit der Sonne und der kosmischen Strahlung und all den anderen Faktoren, die die Temperaturen bestimmen.
2) Aufgrund des beginnenden Bevölkerungswachstums entstanden allmählich auf der Erde großflächige Wärmezonen, in welchen nun die Messstationen stehen. Täglich werden allein in der Dritten Welt 50 km2 Regenwald gerodet, bei uns 108 ha überbaut. Das alles trägt zur weiteren Erwärmung bei.
3) Die Thermometer messen diese Wärmeinselwärme automatisch mit. Die WI-bereinigte Temperaturkurve beweist, dass es in den letzten 120 Jahren bzw. seit 1900 keine großen Temperaturänderungen gegeben hätte. Wir liegen nach der Abkühlung seit 1998 in der freien Fläche, wo der WI weniger wirkt, wieder bei den Temperaturen von 1900 und damit nur knapp über den Temperaturen zu Ende der kleinen Eiszeit.
4) Die Warnungen des Weltklimarates vor einer Hitzekatastrophe, verursacht durch CO2 sind die reinsten Märchen. Sie entbehren jeder wissenschaftlichen Grundlage. Dafür fehlt nicht nur der Versuchsbeweis, auch die Theorie ist falsch. Außerdem gibt es keinerlei technische Anwendungen zu diesem behaupteten CO2-Erwärmungseffekt
5) Die leicht steigende Trendlinie 1900 bis 2013 wie aus der Abb3 ersichtlich ist kein Beweis für den behaupteten anthropogenen CO2-Treibhauseffekt. Es handelt sich um den WI-effekt. Allerdings ist dieser WI-effekt auch menschengemacht.
Fazit:
Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Natur- und Umweltschutz ist deshalb ein konsensfähiges Ziel aller Völker.
Wie ideologisch vermessen können einige Leute nur sein, indem sie der Natur ein „2-Grad-Ziel“ vorgeben wollen? Wir sind doch alle froh, dass die Temperaturen aus der kleinen Eiszeit herausgefunden haben. Wenn schon ein Ziel, dann wäre das warme Mittelalter erstrebenswert. (siehe Abb1)
Es ist endlich an der Zeit, dass wir damit aufhören, Kohlendioxid zu verteufeln. CO2 ist für die Erde ein lebensnotwendiges Gas, genauso wichtig wie Wasser und Sauerstoff. Ohne CO2 wäre die Erde kahl wie der Mond. Mit derzeit 0,038% CO2 haben wir nicht zuviel Kohlendioxid in der Luft, sondern eher zu wenig. CO2 wirkt auf die Pflanzen wie ein Dünger. Mehr CO2 wäre angesichts des Hungers in der Welt erstrebenswert.

Abb.8: Die Graphik verdeutlicht den geringen Anteil von Kohlendioxid in der Luft. Von diesem bereits sehr geringen Anteil stammt der allergrößte Anteil aus natürlichen Prozessen und damit nicht von den Menschen. Auch aus dieser Grafik ist erkennbar, dass wir einer großen Verdummungspropaganda ausgesetzt sind, die nur auf unser Geld abzielt.
Endergebnis: Die Erwärmung der letzten 110 Jahre war keine globale Erwärmung, sondern nur eine lokale Erwärmung in den von den Menschen neu geschaffenen Wärmeflächen. Dort stehen auch die Messstationen.
Es gibt keine globale CO2-Erwärmung und die angebliche Klimakatastrophe durch anthropogenes Kohlendioxid ist ein Geschäftsmodell.
Es soll zum Abschluss nicht unerwähnt bleiben, dass eine CO2-Einsparung, verbunden mit einer Optimierung von technischen Prozessen selbstverständlich sinnvoll ist, allerdings lediglich aus Gründen des Umweltschutzes und der Ressourcenschonung. Alles andere, was sich in der heutigen gigantischen Umverteilungs- und Besteuerungsmanie eines quasi religiösen Klimawahns äußert, hat keinerlei legitime Daseinsberechtigung.
Josef Kowatsch, Hüttlingen
Stefan Kämpfe, Weimar