Teil 2: IV Internationale Klima & Energiekonferenz (4. IKEK) in München: Vortragsvideos

Der Einfluss kosmischer Strahlung auf das Klima – Neuste Erkenntnisse und deren Bedeutung für das Verständnis des Klimawandels
Prof. Dr. Nir Shaviv
Racah Institute of Physics – The Hebrew University of Jerusalem  

Klima, Wasser, CO2 und die Sonne
Prof. Dr. Jan Veizer
Department of Earth Sciences, University of Ottawa 

Die klimatische Rolle der Sonne und der kosmischen Strahlung
Prof. Dr. Henrik Svensmark
Centre for Sun-Climate Research des Danish National Space Centre 


Reale Temperaturmessungen vs. Klima-Alarmismus
Prof. em. Dr. Horst-Joachim Lüdecke Pressesprecher EIKE
Hochschule für Technik und Wirtschaft des Saarlandes

Dipl. Meteorologe Klaus-Eckart Puls stv. Pressesprecher EIKE

stv. Pressesprecher EIKE
Wie akkurate und langfristige Wettervorhersagen möglich sind
Piers Corbyn Weather Action, London


Zum ersten Block der Vorträge geht es hier.




Sind niedrige Strahlendosen gefährlich?

Angst vor Strahlung ist meist unbegründet
Strahlenparadox: Erhöhter Strahlung ausgesetzte Bevölkerungsgruppen sind gesünder als Bevölkerungsgruppen, die in strahlungsarmer Umgebung leben
In dem Buch „Stralingstekort“ (Strahlenmangel) beschreibt der Journalist Theo Richel das Phänomen der Strahlenhormesis; Strahlung, welche bei hoher Dosis schädlich ist, erweist sich bei geringer Dosis als gesundheitsfördernd. Das bedeutet, dass die Politik auf dem Gebiet der Strahlung auf falschen Grundlagen beruht.
Die heutige Strahlenschutzpolitik basiert auf der LNT (linear no threshold)-Hypothese und dem ALARA (as low as reasonably achievable)-Prinzip. Die LNT-Hypothese besagt, dass jede Strahlendosis schädlich ist, dass der schädliche Effekt linear von der Dosis abhängt, und dass es keine Schwellendosis gibt.
Legt man diese Hypothese zugrunde, so muss man immer von dem ALARA-Prinzip ausgehen, d.h. die Dosis muss so niedrig gehalten werden, wie das vernünftigerweise möglich ist. „Vernünftigerweise“ kann so aufgefasst werden, dass man beispielsweise wirtschaftliche Faktoren in die Betrachtung einbezieht. Die Frage, was vernünftigerweise gemacht werden kann, gibt natürlich zu vielen Diskussionen und unterschiedlichen Interpretationen Anlass.
Hormesis ist kein besonderer Effekt. Sehr viele Stoffe sind bei großer Einwirkung schädlich, in kleinen Dosen  dagegen förderlich oder sogar unentbehrlich für die Gesundheit. Beispiele sind manche Vitamine und Spurenelemente, und was Strahlung betrifft: Das Sonnenlicht. Auf dem Gebiet der ionisierenden Strahlung herrscht schon seit einigen Jahrzehnten Streit zwischen kritiklosen Anhängern der LNT-Hypothese und Wissenschaftlern, welche Argumente für die Strahlenhormesis vorbringen. Das Problem ist dabei, das sich der Streit im Gebiet niedriger Strahlendosen abspielt, wo epidemiologische (statistische) Untersuchungen sehr schwierig sind. Doch ist das sogenannte Strahlenparadox schon sehr lange bekannt.
Dies Paradox zeigt sich in Untersuchungen an Bevölkerungsgruppen, welche erhöhter Strahlung ausgesetzt sind (etwa in Gebieten mit hoher natürlicher Strahlenintensität). Das Ergebnis ist immer: Die Menschen sind gesünder als diejenigen anderer Gruppen, welche in strahlenarmer Umgebung leben.
Die endgültige Beantwortung der Frage, ob es auch bei ionisierender Strahlung den Hormesiseffekt gibt ist von großer Bedeutung, da die bisherige auf der LNT-Hypothese beruhende Politik erhebliche Konsequenzen für die Wirtschaft hat und bei der Bevölkerung Angst erzeugt. Hormesis bedeutet, dass man sich eher über zu wenig Strahlung Sorgen machen muss. Jedenfalls ist dann die Sorge über die geringen Strahlendosen, welche man heute so ernst nimmt, nicht begründet.
In diesem Zusammenhang möchte ich ein historisches Beispiel aus meiner eigenen Erfahrung anführen: In den siebziger Jahren war ich Mitglied einer Beratungskommission auf dem Gebiet der Volksgesundheit. Die Kommission sollte über „Kerntechnische Einrichtungen und Volksgesundheit“ beraten und unter diesem Titel ein Gutachten erstellen („Kerncentrales en Volksgezondheid“). Die Kommission machte den Versuch, eine Jahresdosis zu definieren, unterhalb derer es nicht sinnvoll wäre, besondere Maßregeln zu ergreifen, kurz gesagt, welche Dosis als vernachlässigbar anzusehen wäre. Hierbei berücksichtigte die Kommission, dass die natürliche Strahlenexposition der Holländer aus dem Erdboden eine Variationsbreite von 0,3 Millisievert pro Jahr zeigt. Bewohner von Marschböden sitzen auf der hohen Seite, Bewohner von Sandböden auf der niedrigen. Damit zog sich die Kommission massive Kritik der Anti-Kernkraft-Bewegung zu. Es half nichts, dass die Kommission darlegte: Marschbewohner haben sich noch nie über ihre höhere Strahlenbelastung Sorgen gemacht, und eine Tendenz, massenhaft zu den Sandböden abzuwandern, gibt es nicht.
(Anmerkung des Übersetzers: In Deutschland ist der Unterschied zwischen niedrigster und höchster Bodenstrahlung mehrfach grösser, bis weit über 1 mSv pro Jahr hinaus).
Wie sieht die Sache vom Standpunkt der LNT-Hypothese aus? Nehmen wir an, alle Holländer werden an die Orte mit dem niedrigsten Strahlungsniveau umgesiedelt, dann macht das nach der gebräuchlichen LNT-Hypothese einen Unterschied von 120 Todesfällen pro Jahr! Jedoch leben manche Völker auf dieser Welt in Gebieten, in denen die Jahresdosis mehr als hundertfach höher ist als 0,3 Millisievert pro Jahr, wobei diese Völker Beispiele für das obengenannte Strahlenparadox sind.
Seit vielen Jahren macht man sich in Holland und anderswo auch Sorgen über die Radondosis in Wohnhäusern, aufgrund der LNT-Hypothese. Zwar unterstellt diese Hypothese für niedrige Strahlendosen nur sehr kleine Risikofaktoren, werden diese aber mit einer sehr großen Zahl von Personen multipliziert, dann erhält man beeindruckende Resultate.
Das Buch „Stralingstekort“ enthält eine große Menge an Tatsachen, welche auf die Existenz der Strahlenhormesis hinweisen. Zumindest gibt es viel Stoff zum Nachdenken. Nach meiner Ansicht wird jedenfalls die LNT-Hypothese viel zu oft kritiklos angewandt, vor allem von politischen Instanzen. Diese Hypothese wurde als vorsichtige Annahme aufgestellt; politische Instanzen handhaben sie jedoch als Dogma. Der in dem Buch zitierte niederländische Strahlenforscher Dr. Albert Keverling Buisman stellt fest: „Alle Untersuchungen über Hintergrundstrahlung kamen zu dem Ergebnis, dass um so weniger Krebsfälle vorkommen, je höher diese Hintergrundstrahlung ist. Ohne Ausnahme.“ Dies Büchlein zu lesen, kann ich von Herzen anraten. Stoff zum Nachdenken!  Das Büchlein „Stralingstekort“ wurde herausgegeben von der Stiftung „De Groene Rekenkamer“ mit einiger Unterstützung von unserer Stiftung „Kernvisie“. „De Groene Rekenkamer“ wurde 2008 von Wissenschaftlern und Journalisten mit dem Ziel gegründet, die Staatspolitik auf den Gebieten Umwelt, Gesundheit, Technologie und verwandten Bereichen kritisch zu verfolgen. Sie stützt sich dabei auf wissenschaftliche Analysen des Risikos und der Kosteneffizienz der gesetzlichen Vorgaben und verbreitet ihre Erkenntnisse an eine möglichst große Öffentlichkeit.
Stralingstekort (Strahlenmangel, in niederländischer Sprache). Was, wenn Strahlung tastsächlich gut für Sie ist? Eine Übersetzung und eingehende Bearbeitung eines amerikanischen Buches über Strahlenhormesis.
Hugo van Dam
Ed Hiserodt und Theo Richel, Verlag De Groene Rekenkamer 2011
Die Übersetzung besorgte dankenswerterweise Dr. Hermann Hinsch, der auch den Einführungstext schrieb.
——
Soweit der Artikel von Prof. van Dam. Er bezieht sich teilweise auf das sehr empfehlenswerte amerikanische Buch: „Underexposed. What If Radiation Is Actually Good for You?“
Ed Hiserodt, Laissez Faire Books, Little Rock, Arkansas, 2005, ISBN 0-930073-35-5




Klima-Panik-Orchester spielt in der Antarktis

Das stets und gerne auf Katastrophen-Szenarien eingestellte PIK [1] ließ verlauten: "Forscher des Potsdam-Instituts für Klimafolgenforschung (PIK) halten es für möglich, dass das Klimasystem in der Westantarktis gekippt sein könnte, und das Eisschild unaufhaltsam abtauen wird."
Oder jüngst DER SPIEGEL [2] : "Die Bilanz der Europäischen Raumfahrtbehörde ESA ist alarmierend: Seit 2002 hat das Larsen-B-Eisschelf in der Antarktis drei Viertel der Eisfläche verloren. Beobachtet hat dies der Satellit "Envisat". Schuld an der Schmelze ist die Erderwärmung."
Zunächst: Die Satelliten-Daten sind nicht anzuzweifeln.
Alles andere ist dann die beim Klima-Thema übliche Medien-Mischung von Halbwahrheiten, Weglassen von konträren Fakten, Fakten-Verdrehungen sowie emotional formulierter Angst- und Panik-Mache.
Bei dieser Art Verlautbarungen täte es einer sachlichen Information der Leser gut – insbesondere von naturwissenschaftlich weniger belesenen – , wenn auch folgende Aspekte ergänzend und komplettierend dargestellt würden :
(1)  Die AA-Halbinsel umfaßt kaum 1% der Fläche der Antarktis (in Folgendem: AA), ⇒ Abb.1
(2)  Die in [2] genannte Fläche von LARSEN-B und WILKINS liegt folglich flächenmäßig im Promille-Bereich der AA-Fläche (Abb.1).
 
Abb. 1: Eis-Schelfe Antarktis [3]
(3)   99% der gesamten AA-Region zeigt einen säkularen Kälte-Trend der Temperatur [4];
(4) Selbst der immer wieder behauptete Erwärmungs-Trend der AA-Halbinsel einschließlich LARSEN- und WILKINS-Schelf ist nach aktuellen Auswertungen [5] nicht zu finden:

"It’s The Claim “Antarctica Is Warming” That Is Disintegrating – And Not Much Else": …

This tradition of yearly alarms continues this year as well, this time from the European Space Agency (ESA), which appears in a report at Spiegel." …u.w.a.a.O.: "According to ESA, the blame for this is (man-made) global warming. After all, northern West Antarctica has warmed 2.5°C over the last 50 years." …u.w.a.a.O.: "Let’s take a look at the results from measurements taken at the Larsen Ice Shelf. We see immediately that the trend is relatively constant, if not slightly downward, since measurements began in 1985." (⇒ Abb.2)
 
Abb. 2 Temperature development Larsen Ice Shelf ; NASA GISS; nach [5]
Und weiter a.a.O. [5]: "However, the measurements at the Larsen Ice Shelf go back only to 1985, and the ESA press release expressly states a temperature development going back 50 years. So let’s look at the next stations closest to the Larsen Ice Shelf with sufficiently long measurement histories. They are (see charts below) Faraday (since 1944), Rothera Point (since 1946), Bernado O’Higgins (since 1963), Base Esperanz (since 1945) and Base Arturo P (since 1966). All these stations have one thing in common: A “warming of 2.5°C over the last 50 years” is nowhere to be found. And any warming that did occur, did so without exception before 1980. Taking this into account, attributing the break-up of the Larsen Ice Shelf to global warming is already quite adventurous, to put it mildly."
(5)   Die gesamte AA-Eisfläche einschließlich des Schelf-Eises zeigt zwar bezüglich der Veränderungen regional ein etwas differenziertes Verhalten, aber insgesamt wächst sie [4], vgl. auch Abbildungen 3-5 hier.

Abb. 3 Sea-Ice-Anomaly : No sign of melting here  [5]  

Abb. 4: See-Eis-Fläche Antarktis [6]
 
Abb. 5: See-Eis-Ausdehnung Antarktis [7]
(6)  Der Grund für das Abbrechen von Eis im Bereich von LARSEN-B + WILKINS ist keineswegs – wie z.B. im o.a. SPON-Artikel [2] behauptet – die "Erderwärmung", denn die gibt es in der AA nicht! Dazu heißt es in einer Übersicht  [4] :
"Nahezu die gesamte Antarktis ist innerhalb der vergangenen 30 Jahre kälter geworden. Die einzige wesentliche Ausnahme ist die Antarktische Halbinsel. Das hat meteorologische Gründe: Die AA-Halbinsel liegt in der Westwindzone der Südhemisphäre. Dieser südhemisphärische Westwind-Gürtel unterliegt stochastischen zyklischen Luftdruck-Schwankungen, wie auch alle anderen globalen Windsysteme. Daher wird analog zu den Schwankungen des Luftdruckgürtels in den gemäßigten Breiten der Nordhalbkugel, der sogenannten Nord-Atlantischen Oszillation NAO, auch für die Südhalbkugel ein solcher Index berechnet: Die Ant-Arktische Oszillation AAO."
Und weiter a.a.O. [4] :
"Den Verlauf des AAO-Index 1948-2002 zeigt die Abb.3 [in 4] : Vor etwa 1980 gab es eine Dominanz von meridionalen Wetter-Lagen, während seitdem zonale Wetterlagen stark überwiegen. Das bedeutet eine Verstärkung der Westwind-Zirkulation und damit der Sturm-Aktivität. Gleichzeitig wird damit häufiger mildere Luft vom Pazifik gegen die AA-Halbinsel geführt. Somit führen Stürme mit milderer Luft vom Pazifik her an der AA-Halbinsel thermisch zu Eis-Schmelz-Prozessen und mit höheren Wellen mechanisch zu überdurchschnittlichem Abbrechen von Eis. Bekannt geworden sind dabei in jüngerer Zeit Eisabbrüche (Eisberge) beim Wilkins-Schelfeis an der Westküste der AA-Halbinsel.
Die Ursachen sind also meteorologischer Natur und haben mit irgend einer "Klima-Katastrophe" nichts zu tun."
Klaus-Eckart Puls, EIKE
Q u e l l e n
[1a]  Eisberg voraus; http://www.eike-klima-energie.eu/publikationen/klaus-puls-dipl-meteorologe/puls-publikation/eisberg-voraus-weltuntergang-auch/
[1]  http://www.pnn.de/campus/549280/
[2]  SPON: 10.04.2012, Satellit dokumentiert zehn Jahre Eisschmelze;
            http://www.spiegel.de/wissenschaft/natur/0,1518,826669,00.html
[3]  WIKIPEDIA; http://de.wikipedia.org/wiki/Schelfeis
[4]   http://www.eike-klima-energie.eu/news-cache/klima-kaelte-trend-in-der-antarktis/
[5]  http://notrickszone.com/2012/04/12/its-the-claim-antarctica-is-warming-that-is-disintegrating-and-not-much-else/
[6]  http://nsidc.org/data/seaice_index/images/daily_images/S_timeseries.png
[7]  http://nsidc.org/data/seaice_index/images/daily_images/S_daily_extent_hires.png

Related Files




Temperaturverlauf* von 1973 bis 2012: Dramatische Korrekturen Richtung Erwärmung, Trends mit Rauschen

*Im Original steht immer “surface temperatures”. Die Übersetzung „Temperaturen“ impliziert immer, dass es sich tatsächlich um die Temperatur am Boden handelt. Der Begriff „Bodentemperatur“ ist irreführend, denn es sind ja nicht die Temperaturdaten 5 cm über dem Erdboden gemeint (um z. . Bodenfrost zu ermitteln). A. d. Übers.

Die wesentlichen Schlussfolgerungen lauten:

1) Der lineare Erwärmungstrend während der Periode 1973 bis 2012 ist im USHCN-Datensatz am größten (+0,245°C pro Dekade), gefolgt von CRUTem3 (+0,198°C pro Dekade und an dritter Stelle weit abgeschlagen meine entsprechend der Bevölkerung adjustierten ISH-Temperaturen (PDAT) mit +0,013°C pro Dekade.
2) Nahezu die gesamte Erwärmung im USHCN seit 1973 scheint das Ergebnis von Korrekturen der NOAA an den Daten zu sein, vor allem im Zeitrahmen von 1995 bis 1997.
3) Während es im Mittleren Westen der USA einige UHI-Effekte zu geben scheint und sogar eine Spur Abkühlung mit der Bevölkerungsdichte im Südwesten, gibt es für alle 1200 USHCN-Stationen zusammen nur eine geringe Korrelation zwischen den Temperaturtrends an den Stationen und der Bevölkerungsdichte.
4) Trotz homogenisierenden Anpassungen der USHCN-Werte, um die Übereinstimmung benachbarter Stationen zu verbessern, zeigen die USHCN-Trends mehr Rauschen als das, was ich bekomme, wenn ich 4 mal pro Tag die ISH-Temperaturen und eine einfache UHI-Korrektur verwende.

Die folgende Abbildung zeigt 12-monatige übergreifende mittlere Anomalien [trailing average anomalies] der drei unterschiedlichen Datensätze USHCN, CRUTem3, and ISH PDAT… man beachte die großen Unterschiede der berechneten linearen Erwärmungstrends:

Die nächste Abbildung zeigt die Unterschiede zwischen meinem ISH-PDAT-Datensatz und den anderen beiden Datensätzen. Ich wäre an Meinungen Anderer interessiert, die diese Daten analysiert haben, welche der von NOAA vorgenommenen Korrekturen die relativ starke Erwärmung in den USHCN-Daten von 1995 bis 1997 verursacht haben könnten:

Liest man die Beschreibung der USHCN-Daten, Version 2, scheint es, als ob es nur zwei Korrekturen der Daten waren, die Temperaturtrends substantiell beeinflussen können: 1) Anpassungen der Beobachtungszeit (TOB) und 2) Anpassungen durch Veränderung der Stationen, die auf ziemlich aufwändigen statistischen Vergleichsprüfungen zwischen benachbarten Stationen beruhen. Letzteres soll Änderungen der Instrumententypen in den Daten identifizieren und anpassen sowie Umverteilungen der Thermometer und UHI-Effekte.
Wir sehen im obigen Plot auch, dass die Korrekturen in den Datensätzen von CRUTem3 und USHCN nach etwa 1996 ziemlich unterschiedlich zu den zuvor gemachten waren, obwohl sie zum Ende der Aufzeichnung zur gleichen Antwort kommen.

UHI-Effekte in den Trends der USHCN-Stationen

Genauso, wie ich es mit den ISH-PDAT-Daten gemacht habe, habe ich die Temperaturtrends der USHCN-Stationen mit der Bevölkerungsdichte an der jeweiligen Station korreliert. Für alle rund 1200 Stationen zusammen erkennt man kaum einen Beweis für verbleibende UHI-Effekte:

Die Ergebnisse ändern sich jedoch deutlich, wenn man die USA in 6 Unterregionen einteilt:





Von den 6 Unterregionen sind die beiden mit den stärksten zutage tretenden Effekten 1) die nördlich-zentralen USA mit einer Tendenz, dass Stationen in Gebieten mit höherer Bevölkerungsdichte die stärkste Erwärmung zeigen, und 2) der Südwesten der USA mit einem ziemlich starken Abkühlungseffekt mit zunehmender Bevölkerungsdichte. Wie ich früher schon angemerkt habe, könnte dies das Ergebnis künstlicher Anpflanzungen in einem Gebiet sein, das von Natur aus arid ist. Man würde denken, dass dieser Effekt in die Homogenisierung der USHCN-Daten einbezogen worden wäre, aber offensichtlich war das nicht der Fall.

Trendübereinstimmung zwischen benachbarten Stationspaaren

Hier erlebte ich eine ziemliche Überraschung. Da die USHCN-Daten Homogenisierungskorrekturen mit Vergleichen zu benachbarten Stationen unterzogen worden waren, war ich sicher, dass die USHCN-Trends benachbarter Stationen besser übereinstimmen als die Stationstrends meiner nach Bevölkerung angepassten ISH-Daten.
Ich habe alle Stationspaare bis 200 km Distanz zwischen ihnen verglichen, um eine Schätzung ihrer Übereinstimmung in den Temperaturtrends zu erhalten. Die folgenden zwei Abbildungen zeigen die geographische Verteilung der rund 280 Stationen in meinem ISH-Datensatz sowie die rund 1200 Stationen des USHCN-Datensatzes:


Ich habe alle Stationspaare, die 200 km oder weniger voneinander entfernt liegen, in jedem dieser beiden Datensätze herangezogen und berechnete die mittlere absolute Differenz der Temperaturtrends während der Periode 1973 bis 2012 über alle Paarungen. Die mittlere Stationseinteilung des USHCN- bzw. des ISH-PDAT-Datensatzes war nahezu identisch: 133,2 km für den ISH-Datensatz (643 Paarungen) und 132,4 km für den USHCN-Datensatz (12453 Paarungen).
Aber die Trends der ISH-Paarungen zeigten eine um 15% bessere Übereinstimmung (mittlere absolute Trenddifferenz 0,143°C pro Dekade) als die USHCN-Paarungen (mittlere absolute Trenddifferenz 0,167°C pro Dekade).
Betrachtet man den ungeheuren Aufwand, den die NOAA dem USHCN-Datensatz hat zuteil werden lassen, um die Übereinstimmung zwischen benachbarten Stationen zu verbessern, habe ich für dieses Ergebnis keine Erklärung. Ich muss mich fragen, ob deren Korrekturmethoden mehr Störeffekte erzeugt als eliminiert haben, zumindest was deren Auswirkung auf die Temperaturtrends betrifft.
Und ich muss zugeben, dass jene Korrekturen, die nahezu das gesamte Erwärmungssignal der letzten 40 Jahre ausmachen, verwirrend sind. Wenn sich die „globale Erwärmung“ nur nach der Korrektur der Daten zeigt, kann man verstehen, warum so vielen Menschen diese Korrekturen verdächtig vorkommen.
Roy Spencer
______________________________________
Kommentar von Anthony Watts dazu, der den Beitrag mit dem Titel „Die Erwärmung in den USHCN-Daten ist im Wesentlichen das Ergebnis von Korrekturen“ eingestellt hat:
Dr. Roy Spencer beweist, was wir schon seit Jahren gesagt haben: das USHCN (U.S. Historical Climatology Network) ist ein Chaos, das mit einem noch größeren Chaos von Korrekturen vermischt ist.
Link zu Dr. Spencer: USHCN Surface Temperatures, 1973-2012: Dramatic Warming Adjustments, Noisy Trends
Link zu diesem Artikel bei Wattsup: http://wattsupwiththat.com/2012/04/13/warming-in-the-ushcn-is-mainly-an-artifact-of-adjustments/
Übersetzt von Chris Frey EIKE




Kommt nun die richtige Energiewende? Das CERN hält die „kalte Fusion“ nicht für Esoterik

Doch dann kam eine überraschende Wende. Im März 1989, also vor nun 23 Jahren, verkündeten die beiden amerikanischen Elektrochemiker Martin Fleischmann und Stanley Pons auf einer Veranstaltung des europäischen Kernforschungszentrums CERN in Genf, es sei ihnen gelungen, die Wasserstoffisotopen Deuterium und Tritium bei Zimmertemperatur im Reagenzglas zu verschmelzen. Dieses Gefäß bestand aus einer Art Elektrolysezelle mit einer Kathode aus Palladium. Die Nachricht, die „kalte Fusion“ könne uns vielleicht auf billige, sichere und unerschöpfliche Weise unserer Energiesorgen entledigen, machte schnell die Runde. Doch schon wenige Wochen darauf folgte die Ernüchterung, als die US-Physiker Steven Koonin, Nathan Lewis und Charles Barnes vom renommierten California Institute of Technology (Caltech) auf einer Versammlung der amerikanischen Gesellschaft für Physik erklärten, es sei ihnen nicht gelungen, die Versuchsergebnisse von Fleischmann und Pons (Entstehung von Helium, freien Neutronen und Gammastrahlen) zu reproduzieren.

Doch Martin Fleischmann und eine Reihe weiterer Forscher in Indien, Japan und Italien ließen sich davon nicht beirren. Schließlich hatte Andréj Sacharow, der Vater der russischen Wasserstoffbombe, die grundsätzliche Möglichkeit der „kalten Fusion“ (wiss. Korrekt: Low Energy Nuclear Reaction, LENR) schon 1948 theoretisch hergeleitet. Während sich das US-Energieministerium (DOE) längere Zeit gegen eine staatliche Förderung der LENR aussprach, hält die US-Weltraumbehörde NASA neuerdings LENR für eine viel versprechende „Zukunftstechnologie“, die auch die Luft- und Raumfahrt revolutionieren könnte Dennis Bushnell, der Chefwissenschaftler des NASA-Forschungszentrums in Langley, geht allerdings nicht davon aus, dass die „kalte Fusion“ genau so abläuft, wie Fleischmann und Pons annahmen. Statt um eine Fusion leichter Atomkerne handele es sich vermutlich eher um eine Transmutation durch Neutronen- und Elektronenanlagerung und anschließendem Zerfall des schwereren Isotops. Wie dem auch sei, der Prozess setzt auf jeden Fall reichlich Wärme frei, und zwar deutlich mehr, als durch chemische Reaktionen allein erklärt werden kann. Es müssen Umwandlungen auf atomarer Ebene stattgefunden haben. Das wurde durch etliche Experimente, die unabhängig voneinander in Indien, Japan, Italien und den USA durchgeführt wurden, demonstriert.

Kein Wunder, dass sich nun auch private Konzerne wie Mitsubishi und Toyota in Japan und vielleicht auch Siemens in Deutschland für die „kalte Fusion“ erwärmen. Das wurde offenbar auf einem am 22. März 2012 vom CERN eigens veranstalteten Kolloquium zum Thema LENR. Dort stellte der an der Universität von Perugia/Italien lehrende indische Physiker Yogendra Srivastava die von der NASA favorisierte Theorie der Low Energy Nuclear Transmutations (LENT) von Giuliano Preparata (Mailand) und Allan Widom (Boston) vor. (Preparata hat in den 70er Jahren selbst am CERN gearbeitet.) Srivastava wies in seinem Vortrag auch darauf hin, dass die explosive Freisetzung von Neutronen in der Natur durchaus nichts Seltenes ist. Sie wird beobachtet bei Sonneneruptionen, bei Gewittern und bei Erdbeben. Vermutlich gehen die bei starken Erdbeben beobachtbaren Blitze von piezoelektrisch ausgelösten Transmutationen beim Zerbrechen von Quarzkristallen in der Erdkruste aus, meint Srivastava

Der italienische Kernphysiker Francesco Celani (Frascati) stellte beim Genfer Kolloquium bislang unveröffentlichte LENR- bzw. LENT-Experimente der NASA und japanischer Firmen vor. Dabei ragen die Ergebnisse der Versuche mit nanoskaligen Paladium-Silber oder -Zirkon-Elektroden heraus. Celani erwähnte auch den geheimnisvollen„Energy-Katalysator“, mit dem der italienische Unternehmer Adrea Rossi im vergangenen Jahr Furore gemacht hat. Dieser arbeitet nicht mit Palladium-Elektroden, sondern mit nanoskaligem Nickel in Wasserstoff. Durch den Einfang von Protonen durch die Nickel-Atome soll dabei Kupfer entstehen. Rossi, der mit dem emeritierten Physikprofessor Sergio Focardi aus Bologna zusammenarbeitet, lässt sich aber nicht in die Karten schauen. Der innere Aufbau seines Apparats bleibt streng geheim. Deshalb hat er dafür auch kein Patent bekommen. Immerhin hat Rossi sich vom renommierten Königlichen Institut für Technologie (KTH) in Stockholm bestätigen lassen, dass sein Apparat sechs Stunden lang 25 Kilowattstunden elektrische Leistung erzeugt hat. Inzwischen hat Rossi angekündigt, dass er ab 2013 für zirka 1.000 Euro ein kompaktes Gerät anbieten will, mit dem sich ein ganzes Eigenheim heizen lässt. Es soll nur zweimal im Jahr „Brennstoff“ für etwa 20 Euro benötigen. Ein Gerät will Rossi bereits an den Mann gebracht haben. Auch wenn gegenüber diesen Erfolgsmeldungen Skepsis geboten ist, zeichnet es sich schon jetzt ab, dass die „Energiewende“ wohl ganz anders aussehen wird, als von Angela Merkel und den ihr dienstbaren „Experten“ geplant. Sollte die kalte Transmutation tatsächlich funktionieren, wäre damit ihr Markterfolg aber noch nicht sicher gestellt, denn die Grünen werden wohl bald ein Haar in der Suppe finden.

Edgar Gärtner EIKE 

Internet:

Leser die sich über den Fortgang der Erfindung Rossis informieren wollen, hier dessen Internet-Plattform hinweisen: http://www.e-catworld.com/

ferner:

Wikipedia: Kalte Fusion

Yogendra Srivastava: Overview of LENT Theory

Francesco Celani: Overview of Theoretical and Experimental Progress in Low Energy Nuclear Reactions (LENR)