Wer kollabiert zuerst: Der Planet oder der Euro?

Die Deutschen schätzen ihre sprichwörtliche German Angst hoch ein, eine meist irrationale, diffuse Furcht vor Dingen, die sie sich bereitwillig einreden lassen. Waldsterben, Rinderwahn, Radioaktivität, Genmanipulation, Amalgam, Fipronileier, Dieselfeinstaub, Dioxin oder Ozonloch – in keinem Land reagiert die Öffentlichkeit auch nur halb so schrill und hysterisch wie in Deutschland.

Auf dieser German Angst fußt das Geschäftsmodell der Grünen. Es funktioniert so: Eine „wissenschaftliche“ Studie macht eine potenzielle Gefahr aus. Die Medien machen eine Tatsache daraus. Experten aller Art heizen die Diskussion mit immer neuen grenzwertigen Theorien an. Die Grünen verweisen auf tausende Todesopfer und fordern den sofortigen Schutz der Bevölkerung. Es bleibt der Politik kein anderer Ausweg, sie muss öffentlichkeitswirksame – das heißt möglichst kostspielige – Maßnahmen einleiten, um nicht den Volkszorn zu erregen. Nach einigen Wochen oder Monaten legt sich die Angst, weil nichts passiert. Und die Grünen verbuchen einen weiteren Erfolg, weil sie unser aller Ableben mit ihrem Alarmismus gerade nochmal verhindert haben.

Jährlich 420.000 Tote durch Lebensmittelvergiftungen120.000 Tote durch Feinstaub1.400.000 Opfer durch Tschernobyl500.000 Erkrankte durch Dioxin, dagegen muten die 120-BSE-Toten pro Jahr in Deutschland fast harmlos an. Wir könnten alle schon 120 Jahre alt sein, wenn wir nicht ständig von irgendwelchen bösartigen Kapitalisten vergiftet und gestorben würden.

Wissenschaftliche Studien malen ein Klima-Höllenszenario aus, was als Dauerfeuer aus allen Rohren der Medien auf die Deutschen niederprasselt. Der Meeresspiegel steigt um 60 Meter an – die Sintflut droht. Der Permafrostboden taut, die Amazonaswälder verdorren in der Hitze. Stürme, Waldbrände, Dürre, Überschwemmungen, dann versiegt auch noch der Golfstrom und eine neue Eiszeit kommt. Das ist nichts anderes als die zehn Plagen, nur etwas modern aufgemotzt.

Dann gehen in Deutschland hin und wieder die Lichter aus

Und natürlich will Deutschland die Welt retten, am besten ganz alleine. Jetzt soll „de-karbonisiert“ werden, was das Zeug hält. Wir können unsere 25 nennenswerten Kohlekraftwerke abschalten. Dann gehen in Deutschland hin und wieder die Lichter aus und die Industrie muss leider auswandern. Das ist aber mit den Kohlekraftwerken so ähnlich wie mit den Kernkraftwerken: Für jedes Kohlekraftwerk, das wir hier abschalten, werden woanders 56 neue gebaut. Weltweit sind 1.400 Kohlekraftwerke im Bau oder in Planung. Und die kohlekraftwerksbauenden Länder denken gar nicht daran, bei der Weltrettung auf Kosten ihres Wohlstandes mitzumachen – genauso wenig, wie alle anderen Länder nicht daran denken, beim deutschen Atomausstieg mitzumachen.

Was kann Deutschland überhaupt zur Dekarbonisierung der Welt beitragen? Machen wir mal eine kleine Bilanz. Die Atmosphäre der Erde besteht zu 78 Prozent aus Stickstoff und zu 21 Prozent aus Sauerstoff – das sind 99 Prozent der Atmosphäre. Argon, Dämpfe und Spurengase machen 0,93 Prozent aus. Nur 4.000 von 10 Millionen Molekülen in der Atmosphäre sind CO2, das sind 0,04 Prozent. Von den 4.000 CO2-Molekülen sind 120 menschengemacht. Von diesen 120 menschengemachten CO2-Molekülen stammen drei (3) aus Deutschland, das sind 0,00003 Prozent. Drei CO2-Gasmoleküle von 10 Millionen sind Gasmoleküle aus Deutschland.

Um sich das bildlich vorstellen zu können, machen wir mal einen Höhenvergleich daraus. Wenn die Erdatmosphäre so hoch wie der Eiffelturm (324 m) wäre, dann wäre Stickstoff etwa 253 m hoch, so wie der Messeturm in Frankfurt. Sauerstoff wäre 68 m hoch, so etwa wie die Thomaskirche in Leipzig. Argon und die Spurengase wären 3 m hoch, wie das Goethe-/Schiller-Denkmal in Weimar. CO2 wäre so hoch wie eine Büro-Kaffeetasse, etwa 13 cm. Und der deutsche Anteil am CO2 wäre so hoch wie ein Blatt Papier, nämlich 0,1 mm. Der deutsche Beitrag zum weltweiten CO2 ist so viel, wie ein Blatt Papier im Vergleich zum Eiffelturm. (Vielen Dank an die Ersteller eines Videoclips mit diesem Vergleich auf Facebook.) Tja, liebe Deutsche, von ganzem Herzen: Viel Erfolg beim Weltretten!

Schluss mit der Klimakrise und mit lustig

Ich ordne die Forderungen nach sofortiger Abschaltung deutscher Kohlekraftwerke zwecks Weltrettung unter dem Begriff „Wohlstandsignoranz“ ein. Das sind Forderungen in Ermanglung echter Probleme, von denen es zugegebenermaßen schon heute ein paar gibt, über die man weniger gern spricht. Doch Greta, Annalena und Luisa wären sofort weg vom Fenster, wenn akut echte Probleme auftauchten, die jeden deutschen Angsthasen sofort und unmittelbar betreffen würden.

Das wäre spätestens der Fall, wenn uns allen in nicht allzu langer Zukunft der Euro um die Ohren fliegen würde. Die Zeit dafür ist reif. Die Nachrichten über eine Bankenkrise verdichten sich. Deutschland sitzt auf einem Berg Schuldscheine aus Target-Salden in höhe von 941 Milliarden Euro, die von den Schuldnern niemals zurückgezahlt werden können und für die im Falle eines Euro-Crashs die Steuerzahler haften. Die EZB druckt weiterhin munter jeden Monat 60 Milliarden, die Zinsen bleiben bei null, damit die Südländer weiter fröhlich Schulden machen können, mit Billigung von Brüssel.

Es ist sehr wahrscheinlich, dass der Eurocrash noch lange vor dem Klima-Armageddon dazwischen kommt. Man muss kein Volkswirt sein, um zu erkennen, dass durch die Politik des lockeren Geldes im letzten Jahrzehnt zu viel Schulden bei der Zukunft aufgenommen wurden, dass zu viel Pseudo-Geld ohne Gegenwert gedruckt und dass zu viel Steuer-Geld für unsinnige Weltrettungsideen verschleudert wurde.

Im Falle eines Eurocrash ist in Deutschland Schluss mit der Klimakrise und mit lustig. Denn dann ist nicht nur die Altersvorsorge futsch, womöglich das klein‘ Häuschen weg – falls es noch nicht abbezahlt ist oder eine Zwangshypothek kommt, es droht darüber hinaus Mammutinflation mit Arbeitslosigkeit und Massenverelendung. Wir haben noch 13 Jahre? Vielleicht auch nicht.

Der Beitrag erschien zuerst bei ACHGUT hier




Der Klimasommer

Dieses schöne Wort wurde uns von Annalena Baerbock geschenkt.

Im Gegensatz zu vielen anderen Sprachen ist es im Deutschen problemlos möglich, Substantive zu kombinieren. Das ist oft sinnvoll, erspart es doch längere Formulierungen oder Umschreibungen. Es kann aber auch zu Irrtümern führen, denn ein Kreiskrankenhaus ist nicht rund, ein Kronzeuge trägt keine Krone und ein Zitronenfalter faltet keine Zitronen.

Was ist nun ein „Klimasommer“? Tauchen wir also tief in den Kübel politischer Sprachpanscherei ein und greifen zunächst den Sommer: Aha, eine Jahreszeit. Die wärmste, wo die Sonne am höchsten steht und die Tage am wärmsten sind. Sie dauert genau drei Monate und ist global verschieden. Wenn wir Sommer haben, ist in Australien Winter. Klingt seltsam, ist aber so.

Beim zweiten Griff halten wir das Klima in der Hand. Es entsteht aus der Kette Wetter → Witterung → Klima und ist eine Statistik von Temperatur, Niederschlag, Luftfeuchte, Sonnenscheindauer und Windaufkommen, ermittelt über mindestens 30 Jahre. Weiter kann man unterscheiden in Mikro-, Meso- und Makroklima, je nach räumlicher Dimension der Betrachtung.

Nun haben wir in jeder Hand ein Wort – „Klima“ und „Sommer“ und pappen das einfach zusammen, wie es Frau Baerbock getan hat. Fügt man die Begriffe aber anders  zusammen als sie es tat, erhält es einen Sinn:Sommerklima. Da erinnert sich jeder, wie das Wetter in seiner Region so im Durchschnitt in den letzten Jahrzehnten war. Der Grönländer stöhnt bei fünf Grad plus über die Hitze, während der Nordafrikaner in seinem Winterklima bei zehn Grad plus die Mütze aufsetzt und die dicken Stiefel anzieht.

Also, alles relativ mit dem jahreszeitlichen Klima. Aber was ist nun ein Klimasommer? Hat das Klima, also eine Wetterstatistik über eine längere Zeit, jetzt auch Jahreszeiten? Das könnte man so sehen, wenn man an die Warm- und Kaltzeiten der Erdgeschichte denkt und die heutige Zeit als Warmzeit interpretiert. Ein weiterer Wortsinn ergibt sich nicht.

Vermutlich meinte Frau Baerbock auch etwas anderes, als sie sich anmaßte, das Auftreten der Kanzlerin, immerhin der ersten Person im Staat, völlig taktlos einer laienmedizinischen Diagnose zu unterziehen und dies gleichzeitig politisch zu instrumentalisieren. Da hat Annalena wieder einen Baerbock geschossen, der ihrer Kanzlerinnenkanditatinneneignung (um wiederum ein zusammengesetztes Substantiv zu benutzen) schaden dürfte. Sie hat mit dem rhetorisch atemlos im Stil einer Singer-Nähmaschine ratternden Stakkato in gewohnt hoher Platitüdenfrequenz schlicht überzogen. Um meinerseits eine laienmedizinische Diagnose abzugeben, vermute ich bei ihr eine cerebrale kognitive Insuffizienz, hervorgerufen durch lokale Hyperthermie in der Cortex cerebri als Ursache.

Als Politiker*_In der ersten Reihe hätte ihr das nicht passieren dürfen. Eine nachgeschobene Entschuldigung ist kosmetischer Natur, spontane Sprache legt das Denken offen. Wechselweises Gift sprühen und Kreide fressen gehört allerdings zum Instrumentarium der Politiker und auch der Grünen.

Was wollte Frau Baerbock mit dem Begriff „Klimasommer“ nun transportieren? Sie meinte mit einiger Wahrscheinlichkeit einen Sommer, der infolge eines Klimawandels wärmer ist als vorherige und der entsprechende Auswirkungen auf die Gesundheit der Menschen hat. Warum sagt sie das nicht? Weil Politikersprech sich zunehmend verschlagwortet und in Phrasen ergötzt. Unklare Sprache zeigt unklares Denken. Dies zeugt wiederum vom Elend unserer Eliten, dem Bildungselend.

Es gibt eine Vielzahl weiterer in dieser Weise unzulässig erfundener Begriffe, die zunehmend auch menschenfeindliche Assoziationen wecken. „Klimasünder“ und „Klimaleugner“ sind Menschenfeinde, „Klimaschädlinge“ sind offenbar nicht mal mehr Menschen. Am Klima kann man sich nicht „versündigen“, auch wenn manche pro Kopf mehr CO2ausstoßen als andere. Niemand leugnet den Klimawandel, es gibt nur verschiedene Ansichten zu den Ursachen. Und einen „Klimamanager“ kann es auch nicht geben, denn Management des Klimas würde gezielte Beeinflussung des Wetters bedeuten. Wenn Herr Rahmsdorf vom PIK nun meint, wir hätten die Kontrolle über das Klima verloren, bitte ich um die Angabe, wann und wie der Mensch diese Kontrolle schon jemals hatte.

 

Die Grünen in ihrer moralinsauren Abgehobenheit, die erntereife Felderzertrampeln oder dies gutheißen, scheinen von hohen Temperaturen deutlich beeinflusst, auch wenn sie derzeit wohl eher angesichts hoher Umfragewerte erregt zittern. Sie werden ihre ungedeckten Schecks auf die Zukunft noch einlösen müssen, wenn nach mehr als 14 Jahren Merkel die Scherben zusammengefegt werden. Egal, bei welcher Temperatur.

Der Beitrag erschien zuerst bei TE hier

 




„Atommüll“ im Bohrloch

Man kann heute nicht nur einige tausend Meter senkrecht in die Tiefe bohren, sondern auch noch bis zu 5 km waagerecht. Dabei ist entscheidend, daß man die waagerechten Bohrungen bis auf etwa einen Meter zielgenau innerhalb einer Schicht ausführen kann. Damit ergeben sich völlig neue Aspekte für den Bau eines Endlagers.

Bergwerk oder Bohrfeld

Der klassische Weg ist die Anlage eines Bergwerkes. Bis man mit der Einlagerung beginnen kann, muß man tatsächlich ein komplettes Bergwerk mit allen zugehörigen Einbauten errichten. Entscheidender Faktor ist hierbei der Mensch: Bergleute müssen von der ersten Stunde bis zum endgültigen Verschluß – ein Zeitraum von rund 100 Jahren – in diesem Bergwerk arbeiten. Das erfordert einen enormen Aufwand für die Sicherheit und begrenzt die Tiefe: Es muß nicht nur eine mehrere Kilometer lange Rampe für den Transport der Abfallbehälter aufgefahren werden, sondern zusätzlich noch Schachtanlagen für die Belüftung und den Personentransport. Für all die aufwendige Technik müssen im Berg komplette Werkstätten, Sozialräume etc. eingerichtet und betrieben werden. Ein enormer Kostenfaktor. Abschließend müssen alle Einbauten und Installationen (Kabel, Rohrleitungen usw.) wieder zurückgebaut werden und alle Hohlräume sorgfältig verfüllt und abgedichtet werden. Bei einem konventionellen Bergwerk holt man nur die wertvollen Dinge raus und läßt das Bergwerk absaufen und langsam in sich zusammenfallen. Genau das geht bei einem Endlager nicht. Hier muß der ursprüngliche Zustand des Gebirges möglichst gleichwertig wieder hergestellt werden – ist doch das Gestein die entscheidende Barriere eines Endlagers. Durch all diese bergmännischen Tätigkeiten wird die ursprüngliche Einlagerungsstätte erheblich verletzt. Dabei sind nicht nur die Hohlräume wieder zu verschließen, sondern auch die durch den Abbau gestörten Randzonen entsprechend abzudichten.

Legt man ein Bohrfeld an, muß zu keinem Zeitpunkt irgendein Mensch unter Tage arbeiten. Alle Bau-, Einlagerungs- und Verfüllarbeiten werden ausschließlich von der Oberfläche aus ausgeführt. Die Arbeiten gehen abschnittsweise vor sich. Sobald eine Bohrung fertiggestellt ist, kann sie befüllt werden und (wunschgemäß sofort) wieder fachgerecht verschlossen werden. Für jede Bohrung sind nur einige Monate erforderlich und anschließend ist sofort der Endlagerzustand erreicht. Dies bedeutet eine enorme Flexibilität. Man muß nicht mehr ein zentrales Endlager betreiben, in dem alle radioaktiven Abfälle eingelagert werden, sondern kann mehrere spezielle Lagerstätten einrichten. Dies könnte auch eine bessere Akzeptanz bei der Bevölkerung bedeuten. Es gibt nicht mehr eine Region, die sich als „Atomklo“ der Nation verstehen muß, sondern viele Endlager sind möglich. Der Nutzen von einem Kernkraftwerk kann besser mit den (vermeintlichen) Nachteilen eines Endlagers ausgeglichen werden. Insbesondere durch horizontale Bohrungen werden ganz neue Gebiete für die Endlagerung gewonnen. Für ein Bergwerk braucht man eine möglichst dicke Schicht (z. B. Salzstock). Für horizontale Bohrungen reichen sehr dünne Schichten (Abweichungen von weniger als einem Meter bei der Bohrung) aus. Ein stark geschichteter Untergrund kann sogar von Vorteil sein, wie man von den Gaslagerstätten weiß. Einzelne Schichten im Untergrund sind oft so dicht, daß sie nicht einmal unter Druck stehendes Erdgas durchlassen. Ein gewaltiger Vorteil für ein Endlager.

Senkrecht oder horizontal?

Die Idee „Atommüll“ in tiefe Bohrungen zu versenken ist nicht neu. So hat man in den USA versuchsweise Bohrungen bis 5000 m Tiefe ausgeführt. In den unteren 1 bis 2 km sollten dann Kanister mit „Atommüll“ endgelagert werden. Hier galt das Prinzip: Je tiefer, je sicherer, denn Tiefe schützt vor durchgehenden Rissen und es verbleibt nur noch die (langsame) Diffusion zum Transport. Der „Atommüll“ sollte also mindestens drei Kilometer unter der Erdoberfläche gelagert sein. Bei dieser Bauart stehen die Kanister übereinander, was zu einer entsprechenden Belastung für den untersten Kanister führt. Gemildert kann dies werden, indem man mehrere Pfropfen in die Bohrung einbaut, auf denen jeweils ein separater Turm steht. Dies verkürzt aber die nutzbare Länge entsprechend und erhöht die Baukosten. Nachteilig ist auch bei einem Wassereintritt, daß die radioaktiven Stoffe – angetrieben durch den Auftrieb durch die Wärmeentwicklung – bevorzugt in der Bohrung und ihrer Störzone nach oben steigen wollen. Es ist also eine besonders sorgfältige Wiederverfüllung nötig, damit auch langfristig keine radioaktiven Stoffe in Grundwasser führende Schichten gelangen.

Bei einer horizontalen Lagerung ist der Auftrieb naturbedingt wesentlich kleiner, da die Wärmeentwicklung eher flächig auftritt. Technisch arbeitet man dem Auftrieb entgegen, indem man den horizontalen Teil leicht ansteigend ausführt. Flüssigkeiten und Gase haben dadurch die Tendenz sich entgegen der Hauptbohrung zu bewegen. Bei einer solchen Anlage spielt Wasser in der Einlagerungszone eine geringe Rolle. Anders als bei einem Bergwerk muß es gar nicht abgepumpt werden und es werden somit nicht die Strukturen gestört. Es muß lediglich gewährleistet sein, daß es oberhalb ausreichende Sperrschichten gibt, die einen Austausch mit oberflächennahen Grundwasserschichten verhindern. Wie lange dieses Wasser schon keinen Kontakt mehr mit der Oberfläche hatte, kann man leicht über eine Isotopenanalyse ermitteln. So stammen beispielsweise die Wässer in den Ölfeldern von Texas (permian) überwiegend aus dem gleichen Meer, in dem auch die öl- und gasbildenden Organismen gelebt haben – sie sind Millionen Jahre alt. Genau die Schichten, die auch das Öl und Gas gefangen gehalten haben, haben auch sie von der Oberfläche fern gehalten. Ein weiterer Vorteil dieser alten Wässer ist, daß sie längst mit Mineralien gesättigt sind und keinen Sauerstoff mehr enthalten – sie können deshalb nur sehr schlecht den „Atommüll“ auflösen bzw. die Behälter korrodieren.

Die Konstruktion eines horizontalen Lagers

Der Bau eines solchen Endlagers vollzieht sich in drei Schritten: Im ersten Schritt wird eine ganz konventionelle Bohrung bis in die gewünschte Tiefe (mindestens so tief wie die geplanten Bergwerke) niedergebracht. Ist sie fertig gebohrt, wird sie komplett mit einem Stahlrohr ausgekleidet, welches einzementiert wird. Der Spezialzement verbindet das Rohr fest mit dem umgebenden Gestein und festigt die durch das Bohrgerät beschädigte Randzone (jeweils ungefähr einen halben Bohrungsdurchmesser um das Loch). Ab diesem Moment hat man also eine stabile senkrechte Rohrleitung nach unten. Im zweiten Schritt wird der Bogen als Übergang von der Senkrechten in die Horizontale gebohrt. Dies geschieht mit einem Winkel von etwa 0,25° pro Meter (300 bis 600 Höhenmeter zwischen Senkrecht und Waagerecht). Wie stark die Krümmung sein darf, hängt wesentlich von der Länge der „Müllbehälter“ ab. Schließlich sollen diese Behälter später ohne Belastung – wie ein Sattelzug auf einer Straße – um die Ecke gefahren werden. Will man z. B. komplette Brennelemente (in Deutschland z. B. ist eine Wiederaufbereitung politisch ausgeschlossen) einlagern, hat ein solcher Kanister eine Länge von knapp 5 m und wiegt rund 500 kg. Ist auch dieser Teil fertig gebohrt, wird er ebenfalls durchgehend bis zur Erdoberfläche verrohrt. Im senkrechten Teil besteht die Konstruktion nun aus zwei zentrischen Rohren, deren Zwischenraum ebenfalls zementiert wird. Im dritten Schritt wird die horizontale Bohrung ausgeführt. Man realisiert heute im Ölgeschäft bis zu 5 km lange Strecken. Wie lang eine Bohrung sein kann hängt maßgeblich von der Beschaffenheit der Schicht ab, in die die Endlagerung erfolgen soll. Dieser Teil wird nun ebenfalls verrohrt, was zur Folge hat, daß im senkrechten Teil nun drei Rohre ineinander gesteckt sind.

Die „Abfallbehälter“ bestehen aus Rohren mit einer Wandstärke von etwa 1 cm aus „Alloy 625“ (einem rostfreien Edelstahl, aus dem z. B. auch Rohre in Kernkraftwerken gefertigt werden). Hohlräume in den Behältern werden ausgefüllt und diese anschließend gasdicht verschweißt. Solche „Stangen“ – typische Durchmesser 23 bis 33 cm – sind außerordentlich stabil. Bis diese Behälter „durchgerostet“ sind, vergehen mindestens 50 000 Jahre. Ein Zeitraum, in dem fast alle Spaltprodukte bereits zerfallen sind. Erst dann müßte das Gestein seine Aufgabe als weitere Barriere erfüllen. Die Rohre zur Auskleidung der Bohrlöcher haben eine Lebensdauer von mehreren hundert Jahren.

Aus der Ölindustrie kennt man zahlreiche Verfahren, wie man solche Bohrungen befahren kann. Das Ein- und Ausbringen von Messgeräten, Kameras, Werkzeugen usw. ist Routine. Es gibt sogar Spezialfirmen, die abgebrochene oder verklemmte Bohrgestänge wieder aus einem Bohrloch fischen können. Die „Abfallbehälter“ werden wahrscheinlich mit einem elektrisch angetriebenen Traktor, an einem Stahlseil hängend, in die Rohre gedrückt bzw. wieder herausgezogen. Die Lagerung ist also für (mindestens) Jahrzehnte rückholbar. Auch dies eine politische Forderung, die eigentlich im Widerspruch zu einem Endlager steht.

Alle Arbeiten werden also von der Erdoberfläche aus ausgeführt. Einzige Besonderheit ist eine Abschirmung gegen die Strahlung während der Versenkung des „Atommülls“. In der Ölförderung ist es üblich, von einer kleinen Baustelle aus, mehrere Löcher zu bohren. Teilweise sogar mehrere Schichten übereinander zu erschließen. So könnte man auch ein recht großes Lagerfeld für viele Tonnen Abfall anlegen. Auch der oberirdische Platzbedarf wäre somit sehr viel kleiner als für ein vergleichbares Bergwerk.

Was könnte man einlagern?

Wie oben schon erwähnt, könnte man ganze Brennelemente ohne weitere Bearbeitung einlagern. Dies dürfte – wegen der enormen Rohstoffverschwendung – die Ausnahme sein. Viel eher wird man die verglasten Spaltprodukte mit den minoren Aktinoiden nach einer Wiederaufbereitung (französischer Weg) in solche Behälter gießen. Es sind aber auch andere Wege darstellbar. So fällt man in den USA in den militärischen Aufbereitungsanlagen Strontium und Cäsium (Halbwertszeit etwa 30 Jahre) aus der Spaltproduktlösung aus. So erhält man eine relativ große Menge kurzlebigen Abfall und eine relativ geringe Menge langlebigere Spaltprodukte. Diese Cäsium- und Strontium-Kapseln werden getrennt gelagert. Man kann hierfür einen besonders geeigneten Lagerort finden. Dampferzeuger aus Kernkraftwerken werden heute schon in Spezialfabriken zerlegt und dekontaminiert. Übrig bleibt eine große Menge handelsüblicher Schrott zu Wiederverwendung und ein kleiner Block eingeschmolzenen radioaktiven Materials. Diesen Abfall könnte man auch in die „Abfallbehälter“ gießen und endlagern. Heute wird es immer mehr üblich, kontaminierte Stoffe (Schutzkleidung etc.) vorher einzuäschern und nur noch das kleine Volumen der Asche zu lagern. Genauso könnte man belastete Filterharze in „Abfallbehälter“ umfüllen. Alles nur eine Frage der Kosten und des politischen Willens.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Strom ist nicht gleich Strom – Wieder Engpässe beim Strom in Deutschland

So viel Sonne – und dann Stromengpässe? Wie kann das denn sein? Die chaotischen Zustände kommen bekanntlich nicht erst seit diesem Monat vor, sondern schon seit langem. Wir haben die katastrophalen Folgen der Energiewende hier oft genug beschrieben. Z.B.:

Der Spiegel-Mann schreibt vermutlich von der FAZ ab: »Gerät das System aus der Balance, schwankt auch die sogenannte Stromfrequenz – was ganze Fabriken aus dem Takt bringen kann.«

Sogar ganze Fabriken. Das muss ja schlimm sein. Was, erführe der wackere Spiegel-Mann, dass die Netzfrequenz, nicht die »sogenannte Stromfrequenz«, die entscheidende Regelgröße ist, nach der Stromproduktion dem Verbrauch angepasst wird. Strom ist nämlich ein ganz besonderer Saft. Er kann nicht in größeren Mengen gespeichert werden. Es kommt immer darauf an, wann er gebraucht wird. „Strom ist also nicht gleich Strom“, wie auch der Titel eines lesenswerten Buches lautet.

Es kommt darauf an, wann er gebraucht wird und nicht, wann er zufällig anfällt. Ein Industrieland benötigt die Energie „Strom“, es kann seine Produktion nicht danach ausrichten, wenn zufällig die Sonne so schön scheint und ein paar Stunden tagsüber sehr viel Strom aus den Photovoltaikanlagen kommt. Nachmittags und spätestens abends ist Schluss mit lustig, Strom gibts nicht mehr, weil die Sonne untergegangen ist. Das Gleiche gilt für die Windräder, die auch nur dann Strom liefern, wenn der zufällig weht.

Woher kommt dann der Strom? In den Mengen, in denen er gebraucht wird, kann er nicht gespeichert werden. Wenn die letzten Kohlekraftwerke abgeschaltet sein werden, wird’s dunkel in Deutschland. Nur mit den großen Schwungmassen der Generatoren können die kurzzeitigen Schwankungen im Netz schnell ausgeglichen werden. Die werden sich nicht mehr drehen.

Denn noch steht in Deutschland hinter jedem Windrad, hinter jeder Photovoltaikanlage die Leistung eines konventionellen Kraftwerkes. Das lässt sich nicht eben mal anschalten, das dauert. Es läuft daher tagsüber gewissermaßen im Leerlauf, kostet entsprechend, muss dann liefern, wenn’s dunkel wird und von den Solaranlagen nichts mehr kommt.

Verbrauch und Produktion müssen in einem sehr exakten Gleichgewicht stehen. Die Netzfrequenz ist das entscheidende Maß dafür, ob genügend Strom produziert wird. Sämtliche Stromerzeuger und Verbraucher in Europa takten im Gleichklang von 50 Hertz. Sinkt die Frequenz auch nur geringfügig unter diesen Wert, so herrscht Strommangel und die Netzbetreiber müssen schnellstens weitere Stromquellen dazuschalten – oder eben möglichst schnell Stromverbraucher abschalten, also etwa mal eine Stadt.

Gerät das Verhältnis zwischen Stromproduktion und Verbrauch aus dem Takt, droht nicht nur der Ausfall einer Fabrik, sondern ein weitreichender Stromausfall, ein Blackout, der schnell ganz Europa erfassen kann. Das Beispiel Südamerika, das jüngst einen Stromausfall erlebte, der 48 Millionen Menschen im Dunkeln ließ, sollte für uns ein Warnschuss sein. Besonders bemerkenswert an diesem Ereignis ist, dass seine Ursachen immer noch nicht geklärt sind. Eine stabile Stromversorgung für ein Industrieland aufrecht zu erhalten, ist hoch komplex, insbesondere dann, wenn zwangsweise immer mehr wetterabhängiger Zufallsstrom eingespeist wird. Denn der ist pures Gift für die Netzstabilität.

Wenn wie derzeit tagsüber zu viel Sonnenstrom da ist, wissen die Netzbetreiber oft nicht, wohin damit. Denn auch in den Nachbarländern wartet man nicht auf den Strom, der zufällig mal aus Deutschland kommt. Erst eine kräftige Mitgift in Höhe von einigen Millionen Euro bewegt die Netzbetreiber, die eigene Produktion herunterzufahren und Strom aus Deutschland abzunehmen. Das nennen nur sehr Wohlmeinende Stromexportland.

Sehr nett finden es mitunter eidgenössische Netzbetreiber, Zufallsstrom aus Deutschland abzunehmen und damit Wasser in hochgelegene Speicher in den Alpen zu pumpen. Dafür bekommen sie oft genug viele Euros; die bekommen sie dann auch wieder, wenn sie diese Energie wieder an Deutschland zurückgeben, wenn dort Dunkelflaute herrscht. Der Gelackmeierte ist der Stromkunde, der den Spaß mit den höchsten Strompreisen Europas bezahlt.

Noch nicht erwähnt haben wir bisher die erheblichen Energieverluste, die bei diesen Stromtransporten quer durch Europa entstehen, und die ebenfalls der Stromkunde bezahlt. Denn Energie in Form elektrischer Energie über weite Strecken zu transportieren, ist die ungünstigste Form des Energietransportes. Effektiver geht es in Form der Kohlenwasserstoffe wie Kohle, Öl oder Gas.

Also: Strom ist nicht gleich Strom, es kommt immer darauf an, wann er gebraucht wird. Die Energiewende zerstört diese Regeln gründlich.

Der einzige vernünftige Vorschlag in der unseligen Energiewendendiskussion, den ich kenne, war der, dass Windkraft- und Photovoltaikstromlieferanten dann ihren Strom liefern müssten, wenn er auch benötigt wird. So, wie das der Bäcker machen muss, wenn er seine Brötchen ausliefert – in der Menge und zu dem Zeitpunkt, wenn seine Kunden sie benötigen. So müssen es die Wasserwerke machen, die schlecht sagen können: Jetzt haben wir gerade Wasser, wascht euch!

Das wäre Markt: Das Angebot richtet sich nach der Nachfrage, der Preis wird entsprechend geregelt. Und nicht umgekehrt wie derzeit auf dem Energiesektor, wo Stromproduzenten munter fordern: Wir liefern jetzt Strom, weil wir ihn gerade haben, weil Sonne und Wind liefern, also zahlt uns unseren horrenden Preis, gleichgültig, ob ihr den Strom benötigt oder nicht. In einem solchen System von „Marktteilnehmern“ zu sprechen, wie es der Spiegel tut, ist schräg.

Eine regelmäßige, gesicherte Energieversorgung ist die Voraussetzung für ein Industrieland. Das zerstört man am besten, indem dessen Energieversorgung zerstört wird, wie es die Energiewende gerade macht.

Die Schuld an einem Blackout muss man dann natürlich Spekulanten in die Schuhe schieben. Kennt man von Honecker & Co, die für schlechte Ernten den Klassenfeind verantwortlich machten, aber niemals die eigene Unfähigkeit. Von daher klingt dieses »Framing« bekannt – und bedrohlich.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




90 italienische Wissenschaftler unterzeichnen Petition gegen Klimaalarm

Ja, in Italien haben vor kurzem über 90 Wissenschaftler eine Petition unterzeichnet mit dem Titel: “Klima, eine Gegenstrom-Petition“:

————

An den Präsidenten der Republik
An den Präsidenten des Senats
An den Präsidenten der Abgeordnetenkammer
An den Präsidenten des Rats

19.6.2019

 

PETITION ZUR GLOBALEN ANTHROPOGENEN ERWÄRMUNG

Die Unterzeichnenden, Bürger und Wissenschaftler, schicken eine warme Einladung an die politischen Führungskräfte, eine Umweltschutzpolitik einzuführen, welche im Einklang mit den wissenschaftlichen Erkenntnissen steht.

Insbesondere ist es dringend, die Verschmutzung dort zu bekämpfen, wo sie auftritt, gemäß den Befunden der modernsten Wissenschaft. Diesbezüglich ist die Verzögerung beklagenswert, mit welcher der Wissensreichtum, der von der Welt der Forschung zur Verfügung gestellt wird, benutzt wird, um die anthropogenen Schadstoffemissionen zu reduzieren, welche sowohl in den kontinentalen als auch Meeresumweltsystemen weit verbreitet vorhanden sind.

Aber uns muss bewusst sein, dass KOHLENDIOXID SELBST KEIN SCHADSTOFF IST. Im Gegenteil. Es ist für das Leben auf unserem Planeten unentbehrlich.

In den letzten Jahrzehnten hat sich eine These verbreitet, dass die Erwärmung der Erdoberfläche um rund 0,9°C, welche ab 1850 beobachtet worden ist, anomal wäre und ausschließlich von menschlichen Aktivitäten verursacht werden würde, insbesondere durch den Ausstoß von CO2 in die Atmosphäre beim Gebrauch fossiler Brennstoffe.

Dies ist die These der anthropogenen globalen Erwärmung, welche von dem Weltklimarat (IPCC) der Vereinten Nationen gefördert wird, deren Konsequenzen Umweltveränderungen sein würden, die so ernst wären, dass man enormen Schaden in der unmittelbaren Zukunft fürchten muss, außer wenn drastische und kostenintensive Abschwächungsmaßnahmen unverzüglich ergriffen werden.

Diesbezüglich sind viele Nationen in der Welt Programmen beigetreten, um Kohlendioxidemissionen zu reduzieren, und werden unter Druck gesetzt, auch durch eine nicht nachlassende Propaganda, zunehmend fordernde Programme anzunehmen, deren Umsetzung, welche mit hohen Belastungen auf die Wirtschaften der einzelnen Mitgliedsstaaten verbunden ist, von Klimakontrolle abhängig wäre und daher die „Rettung“ des Planeten.

Jedoch ist der anthropogene Ursprung der globalen Erwärmung EINE UNBEWIESENE HYPOTHESE, nur abgeleitet von einigen Klimamodellen, d.h. komplexen Computerprogrammen, genannt ‚General Circulation Models‘.

Hingegen hat die wissenschaftliche Literatur zunehmend die Existenz einer natürlichen Klimaschwankung betont, welche die Modelle nicht reproduzieren können.

Diese natürliche Schwankung erklärt einen beachtlichen Teil der globalen Erwärmung, welche seit 1850 beobachtet worden ist. Die anthropogene Verantwortung für die Klimaveränderung, welche in dem letzten Jahrhundert beobachtet worden ist, wird daher UNGERECHTFERTIGT ÜBERTRIEBEN und Katastrophenvorhersagen SIND NICHT REALISTISCH.

Das Klima ist das komplexeste System auf unseren Planeten, daher muss man sich damit mit Methoden befassen, welche adäquat sind und mit seinem Niveau der Komplexität übereinstimmen.

Klimasimulationsmodelle reproduzieren nicht die beobachtete natürliche Schwankung des Klimas und rekonstruieren insbesondere nicht die warmen Perioden der letzten 10.000 Jahre. Diese haben sich ungefähr alle tausend Jahre wiederholt und schließen die gut bekannte mittelalterliche Warmzeit ein, die heiße römische Periode, und generell die Warmzeiten während des „Holozänen Optimums“.

Die PERIODEN DER VERGANGENHEIT SIND AUCH WÄRMER GEWESEN ALS DIE GEGENWÄRTIGE ZEIT, obwohl die CO2 Konzentration niedriger war als die gegenwärtige, dieweil sie mit den tausendjährigen Zyklen der Sonnenaktivität verbunden sind. Die Auswirkungen werden von den Modellen nicht reproduziert.

Es sollte daran gedacht werden, dass die Erwärmung, welche seit 1900 beobachtet worden ist, tatsächlich in den 1700en begann, d.h. am Tiefpunkt der Kleinen Eiszeit, der kältesten Periode der letzten 10.000 Jahre (übereinstimmend mit dem tausendjährigen Tiefpunkt der Sonnenaktivität, welche Astrophysiker Maunder Minimum nennen). Seitdem ist die Sonnenaktivität, ihrem tausendjährigen Zyklus folgend, angestiegen, wobei sie die Erdoberfläche erwärmt.

Des Weiteren versagen die Modelle dabei, die bekannten Klimaschwankungen von ungefähr 60 Jahren zu reproduzieren.

Diese waren zum Beispiel verantwortlich für eine Warmzeit (1850-1880) gefolgt von einer kühleren Periode (1880-1910), eine Erwärmung (1910-40), eine Abkühlung (1940-70) und einer neuen wärmeren Periode (1970-2000) ähnlich der, welche 60 Jahre früher beobachtet wurde.

Die folgenden Jahre (2000-2019) sahen einen Anstieg, der nicht von den Modellen vorhergesagt wurde, von ungefähr 0,2°C pro Jahrzehnt, und eine beachtliche Klimastabilität, welche sporadisch von den schnellen natürlichen Schwankungen des äquatorialen Pazifischen Ozeans  unterbrochen wurde, bekannt als die El Nino Southern Oscillations, wie diejenige, welche zu der temporären Erwärmung zwischen 2015 und 2016 führte.

Die Medien behaupten auch, dass extreme Ereignisse, wie z.B. Hurrikans und Zyklone, alarmierend angestiegen sind. Umgekehrt sind diese Ereignisse, wie viele Klimasysteme, seit dem zuvor erwähnten 60-Jahre-Zyklus moduliert worden.

Zum Beispiel, wenn wir die offiziellen Daten von 1880 über tropische Atlantikzyklone betrachten, welche Nordamerika getroffen haben, scheinen sie eine starke 60-Jahre Schwankung zu haben, entsprechend der thermischen Schwankung des Atlantiks, genannt Atlantic Multidecadal Oscillation (=atlantische mehrdekadische Schwankung).

Die Spitzen, welche pro Jahrzehnt beobachtet wurden, sind in den Jahren 1880-90, 1940-50 und 1995-2005 miteinander kompatibel. Von 2005 bis 2015 nahm die Anzahl der Zyklone ab, wobei dies präzise dem zuvor erwähnten Zyklus folgte. Somit gibt es in der Zeitspanne von 1880-2015 zwischen der Anzahl der Zyklone (welche schwanken) und dem CO2 (welches monoton ansteigt) keine Korrelation.

Das Klimasystem wird noch nicht ausreichend verstanden. Obwohl es wahr ist, dass CO2 ein Treibhausgas ist, ist laut dem IPCC die Klimasensitivität auf dessen Anstieg in der Atmosphäre immer noch extrem unsicher.

Es wird geschätzt, dass eine Verdoppelung der Konzentration des atmosphärischen CO2 von ungefähr 300ppm vorindustriell auf 600ppm die Durchschnittstemperatur des Planeten von einem Minimum von 1°C bis zu einem Maximum von 5°C erhöhen kann.

Diese Unsicherheit ist enorm.

Jedenfalls schätzen viele neue Studien, die auf experimentellen Daten basieren, dass die Klimasensitivität auf CO2 BEDEUTEND NIEDRIGER ist als jene, die von den IPCC Modellen geschätzt wird.

Dann ist es wissenschaftlich unrealistisch, die Verantwortung für die Erwärmung, welche vom vergangenen Jahrhundert bis heute beobachtet wurde, den Menschen zuzuschreiben. Die voreilenden Vorhersagen der Panikmacher sind daher nicht glaubwürdig, da sie auf Modellen basieren, deren Ergebnisse den experimentellen Daten wiedersprechen.

Alle Beweise legen nahe, dass diese MODELLE den anthropogenen Beitrag ÜBERSCHÄTZEN und die natürliche Klimaschwankung unterschätzen, besonders jene, die von der Sonne, dem Mond und den Meeresschwankungen verursacht wird.

Schließlich veröffentlichen die Medien die Nachricht, laut dessen es in Bezug auf die menschliche Ursache der gegenwärtigen Klimaänderung einen fast einstimmigen Konsens unter den Wissenschaftlern gibt, dass die wissenschaftliche Debatte abgeschlossen werden würde.

Jedoch müssen wir uns zuerst einmal bewusst werden, dass die wissenschaftliche Methode bestimmt, dass die Fakten und nicht die Anzahl der Anhänger eine Mutmaßung zu einer gemeinsamen wissenschaftlichen Theorie machen.

Wie dem auch sei, der gleiche angebliche Konsens EXISTIERT NICHT. Es gibt tatsächlich eine bemerkenswerte Variabilität an Meinungen unter den Spezialisten – Klimatologen, Meteorologen, Geologen, Geophysiker, Astrophysiker – von denen viele einen wichtigen natürlichen Beitrag zur globalen Erwärmung anerkennen, welche von der vorindustriellen Zeit und sogar von der Vorkriegszeit bis heute beobachtet worden ist.

Es hat auch Petitionen gegeben, welche von tausenden von Wissenschaftlern unterschrieben worden sind, die eine abweichende Meinung zur Mutmaßung der anthropogenen globalen Erwärmung ausgedrückt haben.

Diese umfassen diejenige, welche 2007 von dem Physiker F. Seitz gefördert wurde, ehemaliger Präsident der American National Academy of Science, und diejenige, welche von dem nichtstaatlichen Weltklimarat (NIPCC) gefördert wurde, deren Bericht von 2009 zu dem Schluss kommt, dass „die Natur, und nicht die Aktivität des Menschen, regiert das Klima“.

Zum Schluss, angesichts der ENTSCHEIDENDEN WICHTIGKEIT, WELCHE FOSSILE TREIBSTOFFE für die Energieversorgung der Menschheit haben, schlagen wir vor, dass sie  nicht der Politik von kritikloser Reduzierung der Emission von Kohlendioxid in die Atmosphäre unterworfen werden sollten mit DEM ILLUSORISCHEN ANSCHEIN DES BEHERRSCHENS DES KLIMAS.

 

FÖRDERKOMITEE :

1. Uberto Crescenti, Emeritus Professor of Applied Geology, University G. D’Annunzio, Chieti-Pescara, formerly Rector and President of the Italian Geological Society.

2. Giuliano Panza, Professor of Seismology, University of Trieste, Academician of the Lincei and of the National Academy of Sciences, called of the XL, 2018 International Award of the American Geophysical Union.

3. Alberto Prestininzi, Professor of Applied Geology, La Sapienza University, Rome, formerly Scientific Editor in Chief of the magazine International IJEGE and Director of the Geological Risk Forecasting and Control Research Center.

4. Franco Prodi, Professor of Atmospheric Physics, University of Ferrara.

5. Franco Battaglia, Professor of Physical Chemistry, University of Modena; Galileo Movement 2001.

6. Mario Giaccio, Professor of Technology and Economics of Energy Sources, University G. D’Annunzio, Chieti-Pescara, former Dean of the Faculty of Economics.

7. Enrico Miccadei, Professor of Physical Geography and Geomorphology, University G. D’Annunzio, Chieti-Pescara.

8. Nicola Scafetta, Professor of Atmospheric Physics and Oceanography, Federico II University, Naples.

UNTERZEICHNENDE

1. Antonino Zichichi, Emeritus Professor of Physics, University of Bologna, Founder and President of the Ettore Center for Scientific Culture Majorana di Erice.

2. Renato Angelo Ricci, Professor Emeritus of Physics, University of Padua, former President of the Italian Society of Physics and Society European Physics; Galileo Movement 2001.

3. Aurelio Misiti, Professor of Health-Environmental Engineering, University of Sapienza, Rome.

4. Antonio Brambati, Professor of Sedimentology, University of Trieste, Project Manager Paleoclima-mare of PNRA, already President of the National Oceanography Commission.

5. Cesare Barbieri, Professor Emeritus of Astronomy, University of Padua.
6. Sergio Bartalucci, Physicist, President of the Association of Scientists and Tecnolgi for Italian Research.
7. Antonio Bianchini, Professor of Astronomy, University of Padua.
8. Paolo Bonifazi, former Director of the Institute of Interplanetary Space Physics, National Astrophysical Institute.
9. Francesca Bozzano, Professor of Applied Geology, Sapienza University of Rome, Director of the CERI Research Center.
10. Marcello Buccolini, Professor of Geomorphology, University University G. D’Annunzio, Chieti-Pescara.
11. Paolo Budetta, Professor of Applied Geology, University of Naples.
12. Monia Calista, Researcher in Applied Geology, University G. D’Annunzio, Chieti-Pescara.
13. Giovanni Carboni, Professor of Physics, Tor Vergata University, Rome; Galileo Movement 2001.
14. Franco Casali, Professor of Physics, University of Bologna and Bologna Academy of Sciences.
15. Giuliano Ceradelli, Engineer and climatologist, ALDAI.
16. Domenico Corradini, Professor of Historical Geology, University of Modena.
17. Fulvio Crisciani, Professor of Geophysical Fluid Dynamics, University of Trieste and Marine Sciences Institute, Cnr, Trieste.
18. Carlo Esposito, Professor of Remote Sensing, La Sapienza University, Rome.
19. Mario Floris, Professor of Remote Sensing, University of Padua.
20. Gianni Fochi, Chemist, Scuola Normale Superiore of Pisa; scientific journalist.
21. Mario Gaeta, Professor of Volcanology, La Sapienza University, Rome.
22. Giuseppe Gambolati, Fellow of the American Geophysica Union, Professor of Numerical Methods, University of Padua.
23. Rinaldo Genevois, Professor of Applied Geology, University of Padua.
24. Carlo Lombardi, Professor of Nuclear Plants, Milan Polytechnic.
25. Luigi Marino, Geologist, Geological Risk Forecasting and Control Research Center, La Sapienza University, Rome.
26. Salvatore Martino, Professor of Seismic Microzonation, La Sapienza University, Rome.
27. Paolo Mazzanti, Professor of Satellite Interferometry, La Sapienza University, Rome.
28. Adriano Mazzarella, Professor of Meteorology and Climatology, University of Naples.
29. Carlo Merli, Professor of Environmental Technologies, La Sapienza University, Rome.
30. Alberto Mirandola, Professor of Applied Energetics and President of the Research Doctorate in Energy, University of Padua.
31. Renzo Mosetti, Professor of Oceanography, University of Trieste, former Director of the Department of Oceanography, Istituto OGS, Trieste.

32. Daniela Novembre, Researcher in Mining Geological Resources and Mineralogical Applications, University G. D’Annunzio, Chieti Pescara.
33. Sergio Ortolani, Professor of Astronomy and Astrophysics, University of Padua.
34. Antonio Pasculli, Researcher of Applied Geology, University G. D’Annunzio, Chieti-Pescara.
35. Ernesto Pedrocchi, Professor Emeritus of Energetics, Polytechnic of Milan.
36. Tommaso Piacentini, Professor of Physical Geography and Geomorphology, University G. D’Annunzio, Chieti-Pescara.
37. Guido Possa, nuclear engineer, formerly Deputy Minister Miur.
38. Mario Luigi Rainone, Professor of Applied Geology, University of Chieti-Pescara.
39. Francesca Quercia, Geologist, Research Director, Ispra.
40. Giancarlo Ruocco, Professor of Structure of Matter, La Sapienza University, Rome.
41. Sergio Rusi, Professor of Hydrogeology, University G. D’Annunzio, Chieti-Pescara.
42. Massimo Salleolini, Professor of Applied Hydrogeology and Environmental Hydrology, University of Siena.
43. Emanuele Scalcione, Head of Regional Agrometeorological Service Alsia, Basilicata.
44. Nicola Sciarra, Professor of Applied Geology, University G. D’Annunzio, Chieti-Pescara.
45. Leonello Serva, Geologist, Director of Geological Services of Italy; Galileo Movement 2001.
46. ​​Luigi Stedile, Geologist, Geological Risk Review and Control Research Center, La Sapienza University, Rome.
47. Giorgio Trenta, Physicist and Physician, President Emeritus of the Italian Association of Medical Radiation Protection; Galileo Movement 2001.
48. Gianluca Valenzise, ​​Director of Research, National Institute of Geophysics and Volcanology, Rome.
49. Corrado Venturini, Professor of Structural Geology, University of Bologna.
50. Franco Zavatti, Astronomy Researcher, University of Bologna.
51. Achille Balduzzi, Geologist, Agip-Eni.
52. Claudio Borri, Professor of Construction Sciences, University of Florence, Coordinator of the International Doctorate in Engineering Civil.
53. Pino Cippitelli, Agip-Eni Geologist.
54. Franco Di Cesare, Executive, Agip-Eni.
55. Serena Doria, Researcher of Probability and Mathematical Statistics, University G. D’Annunzio, Chieti-Pescara.
56. Enzo Siviero, Professor of Ponti, University of Venice, Rector of the e-Campus University.
57. Pietro Agostini, Engineer, Association of Scientists and Tecnolgi for Italian Research.
58. Donato Barone, Engineer.
59. Roberto Bonucchi, Teacher.
60. Gianfranco Brignoli, Geologist.
61. Alessandro Chiaudani, Ph.D. agronomist, University G. D’Annunzio, Chieti-Pescara.
62. Antonio Clemente, Researcher in Urban Planning, University G. D’Annunzio, Chieti-Pescara.
63. Luigi Fressoia, urban architect, Perugia.
64. Sabino Gallo, nuclear engineer.
65. Daniela Giannessi, First Researcher, Ipcf-Cnr, Pisa.
66. Roberto Grassi, Engineer, Director of G&G, Rome.
67. Alberto Lagi, Engineer, President of Restoration of Complex Damaged Plants.
68. Luciano Lepori, Ipcf-Cnr Researcher, Pisa.
69. Roberto Madrigali, Metereologo.
70. Ludovica Manusardi, Nuclear physicist and scientific journalist, Ugis.
71. Maria Massullo, Technologist, Enea-Casaccia, Rome.
72. Enrico Matteoli, First Researcher, Ipcf-Cnr, Pisa.
73. Gabriella Mincione, Professor of Sciences and Techniques of Laboratory Medicine, University G. D’Annunzio, Chieti-Pescara.
74. Massimo Pallotta, First Technologist, National Institute for Nuclear Physics.
75. Enzo Pennetta, Professor of Natural Sciences and scientific divulger.
76. Nunzia Radatti, Chemist, Sogin.
77. Vincenzo Romanello, Nuclear Engineer, Research Center, Rez, Czech Republic.
78. Alberto Rota, Engineer, Researcher at Cise and Enel.
79. Massimo Sepielli, Director of Research, Enea, Rome.
80. Ugo Spezia, Engineer, Industrial Safety Manager, Sogin; Galileo Movement 2001.
81. Emilio Stefani, Professor of Plant Pathology, University of Modena.
82. Umberto Tirelli, Visiting Senior Scientist, Istituto Tumori d’Aviano; Galileo Movement 2001.
83. Roberto Vacca, Engineer and scientific writer.

—————-

Italienisches Original hier

Englische Übersetzung hier

Der Beitrag erschien zuerst bei „Die kalte Sonne“