Atome – die strahlenden Monster? „Das Märchen von der Asse, Gorleben und anderen Endlagern“

Es ist ermutigend, wenn der Autor nicht müde wird und nun mit der 3. überarbeiteten Auflage einen weiteren Anlauf unternimmt mit dem Ziel, mit dem Halb- und Unwissen in Sachen Atome und deren Strahlung in der Bevölkerung, vor allem aber in der Publizistik und bei den Volksvertretern aufzuräumen.
Dazu bedarf es naturwissenschaftlich belegten Faktenwissens  und darüber verfügt der Physiker und Strahlenschutzfachmann Hinsch, der Mitarbeiter der Helmholzgesellschaft und in dieser Eigenschaft in der Asse beschäftigt war.
Den Übergang der Zuständigkeit für die Asse von der Helmholzgesellschaft zum Bundesamt für Strahlenschutz war für den Fachmann Hinsch mit einem Wandel von wissenschaftlich abgesicherter Arbeit hin zu politisch gewollter Verunsicherung und Problematisierung der Lagerung von radioaktiven Materialien verbunden.
Nach wie vor gilt  für die eingelagerten Stoffe in der Asse, dass keine erhöhte Strahlung in der Umgebung messbar ist. Das kann und wird auch in der Zukunft nicht anders sein, weil die natürliche Strahlung des Deckgebirges die Strahlung der eingelagerten Stoffe um ein Mehrfaches übertrifft. (Niemann, 2007 / 2009).     
Vor diesem Hintergrund kritisiert der Autor das Vorhaben der Rückholung der eingelagerten Stoffe aus der Asse.
Besorgniserregend ist in diesem Zusammenhang für den interessierten Laien die Tatsache, dass das zuständige Bundesamt für Strahlenschutz laut Evaluationsbericht des Wissenschaftsrates (2006) ganz offensichtlich nicht über die notwendige Kompetenz verfügt, um die anstehenden Probleme zu bearbeiten, geschweige denn zu lösen.
Weiter verstärkt wird diese Situation dadurch, dass offensichtlich von Seiten der verantwortlichen PolitikerInnen keine sachorientierte Bearbeitung des Problems Asse u.a. Lager oder Endlager für strahlende Abfälle zu erwarten ist.
Das gilt – wie der Autor darstellt – für die Inkompetenz von Frau Kotting-Uhl, Herrn Wenzel,  Herrn König u.a. Politiker auf den verschiedensten politischen Ebenen.  
Nicht minder kritisch betrachtet Hinsch die Rolle von Journalisten hinsichtlich deren Verpflichtung zu einer sachbezogenen und dennoch kritischen Berichterstattung.
Der Beitrag von Karl-Friedrich Kassel in der Zeit vom 05.03. 2009 mit dem Titel: „Asse war die falsche Standortwahl“ wird vom Strahlenfachmann zitiert und vor allem kritisiert.
Der interessierte Leser findet in dem Buch viele Sachinformationen, wie Hinweise zur unterschiedlichen Gefährlichkeit verschiedener Strahlenformen. Besonders gefährlich ist Alpha- u. Neutronenstrahlung, weniger gefährlich dagegen Gamma- u. Röntgenstrahlung.
Strahlendosis, Strahlungsintensität, Messeinheiten wie Bequerel (Bq), Sievert (Sv), Hintergrundstrahlung, radioaktiver Zerfall u.a. Termini werden erklärt.
Der Leser erfährt beispielsweise, dass Uran (U 235, 238),Thorium (Th232) und Kalium (K40) die wesentlichen natürlichen radioaktiven Elemente unserer Erde sind.
Die Mensch gemachte künstliche Aktivität erhöht die natürliche Aktivität von Mutter Erde lt. Hinsch um 0,017%.
Diese Zahl dient nicht etwa der Verharmlosung, sondern vielmehr als Aufruf zu einer sachbezogeneren Betrachtung von realen und vermuteten Strahlenproblemen.
Als erster Schritt dazu sei die Lektüre des Buches von Hermann Hinsch: „Das Märchen von der Asse, Gorleben und anderen Endlagern“ empfohlen.
Diese Empfehlung ergeht insbesondere an politische Entscheidungsträger aller Ebenen und aller Couleur und an Journalisten der verschiedenen Medien.
Bei einer Neuauflage wünscht sich der Rezensent einen Tabellenteil mit den Fakten in Sachen radioaktiver Elemente, Radioaktivität, Zerfallsraten, Mess- und Maßeinheiten u. a. wichtige Fakten zum Thema aufzunehmen.
Das Buch:(Bei Bedarf bitte über Amazon Bestellknopf oben rechts bestellen)
Hinsch, Hermann: „Das Märchen von der Asse,  Gorleben und anderen Endlagern“
3. Aufl.; März 2013 / 132 Seiten
Preis: 14,99 €
Verlag. Books on Demand, Norderstedt
ISBN: 978-3-8482-6787-3 
Literatur:
Hinsch, H. (2010): „Das Märchen von der Asse“
NOVOArgumente 105; S. 50-51
Niemann, L. (2007): „Strahlend wie das Matterhorn“
NOVO 89; S. 34-35
Niemann, L. (2009): „Der Asse-„Skandal““
NOVOArgumente 99; S. 43-46
Wissenschaftsrat (2006): „Wissenschaftspolitische Stellungnahme zum Bundesamt für Strahlenschutz (BfS) , Salzgitter         
http://www.wissenschaftsrat.de7download/archiv/7259-06.pdf
                 




Wenn man von Kindern redet…

Im zweiten Film vom Herrn der Ringe gibt es eine Szene, in der ein verzweifelter König, der den Tod seines gefallenen Sohnes beklagt, erklärt: „Keine Eltern sollten ihr Kind beerdigen müssen!“
Diese Aussage bewegt die Zuhörer gewaltig – vor allem solche, die zufällig Eltern sind. Der Tod eines Kindes ist eine Agonie für Erwachsene – Mütter, Väter, Großeltern, Tanten, Onkel – und ebenso für die Geschwister. Es ist eine Trauer, die die Menschen bis zu ihrem eigenen Grab mit sich herum schleppen.
Was wir modernen, gehätschelten, technologisch gesegneten Bewohner der Ersten Welt vergessen haben ist, dass Kindstod einst allgemein verbreitet war.

Im Jahre 1762 war Emile von Jean-Jaques Rousseau erschienen. Darin fand sich dies:
Die Hälfte aller geborenen Kinder stirbt vor dem achten Lebensjahr… Das ist ein Naturgesetz, warum sollte man dem widersprechen?
Die industrielle Revolution begann etwa zum Zeitpunkt der Veröffentlichung dieses Buches. Vor der Industrialisierung unserer Gesellschaften konnte unser Leben also tragisch kurz sein. Das herzzerreißende Ereignis, von dem der König sagt, dass es niemand durchmachen sollte, war in Wirklichkeit Normalität. Die meisten Erwachsenen liefen mit einer schmerzhaften Leere in ihrem Herzen herum, die der Tod eines geliebten kleinen Mädchens oder Jungen hinterlassen hat.
Die Filme über den Herrn der Ringe spielen in einer vorindustriellen Zeit. Es gibt darin keine Krankenhäuser, keine Impfstoffe, kein fließendes Wasser oder Zentralheizungen. Die Menschen reisen nicht via Flugzeug, Eisenbahn oder Auto, sondern auf dem Pferderücken. Und Pferde waren eine der Todesursachen für Kinder – durch Ausschlagen, Niedertrampeln oder Herunterfallen.
Falls wir darüber nur für mehr als 10 Sekunden nachdenken, klingen die Bemerkungen des Königs hohl. Sie repräsentieren eine historisch falsche Umkehr der Wirklichkeit. Eine vorindustrielle Welt ist genau die Art Welt, in der immer irgendjemand ein Kind beerdigen muss.
Was mich zu den grünen Aktivisten bringt. Ihnen zufolge sind industrielle Prozesse des Teufels. Industrie verschmutzt. Sie verbraucht zu viel Wasser. Sie verschandelt die Landschaft. Ihrer Comic-Heft-Analyse zufolge ist Industrie gierig und kurzsichtig und kümmert sich nur um sich selbst.
Aber selbst wenn das alles stimmen würde, gibt es noch eine absolute Wahrheit: Die Industrie ist gut für Kinder. Sie rettet ihre Leben.
Gestern habe ich beobachtet, dass Klima-Kreuzzügler sagen, wir sollten Maßnahmen gegen die globale Erwärmung ergreifen um unserer Kinder und Enkel willen. Viele dieser Menschen favorisieren eine sofortige und starke Reduktion der Kohlendioxid-Emissionen – etwas, das nicht erreicht werden kann, wenn wir nicht einen erheblichen Teil unserer industrialisierten Wirtschaft schließen.
Diese Leute sagen, dass sie sich um die Kinder kümmern. Aber sie wollen, dass wir zurück in eine Welt kommen, in der viele Kinder ihre Kindheit nicht überleben.
Denken Sie mal darüber nach!
Link: http://nofrakkingconsensus.com/2013/03/26/speaking-of-the-children/
Übersetzt von Chris Frey EIKE




Gefälschte Ergebnisse bei Untersuchungen des Proxys „Schichtdicke“

Ihre Behauptung aus dem Abstract lautet folgendermaßen:
Mittels einer hierarchischen Bayesianischen Analyse [?] von Thermometerablesungen, Baumringen, Eisbohrkernen und Sedimenten aus Seen zeigen wir hier, das Magnitude und Frequenz jüngster Warm-Extreme der Temperatur in hohen nördlichen Breiten während der letzten 600 Jahre ohne Beispiel sind. Die Sommer der Jahre 2005, 2007, 2010 und 2011 waren wärmer als alle Sommer zuvor bis zum Jahr 1400 (Waharscheinlichkeit P > 0,95), jedenfalls im Flächenmittel. Der Sommer 2010 war der wärmste Sommer der letzten 600 Jahre in Westrussland (P >0,99) und möglicherweise der wärmste in Westgrönland und der kanadischen Arktis (P > 0,90). Diese und andere Extreme aus jüngster Zeit liegen deutlich weit oberhalb der in einem stationären Klima zu erwartenden Extreme, können aber verstanden werden als resultierend aus konstanter Raum-Zeit-Variabilität über eine gestiegene Mitteltemperatur.
[Der letzte Satz lautet im Original: probably the warmest in western Greenland and the Canadian Arctic as well (P > 0.90). These and other recent extremes greatly exceed those expected from a stationary climate, but can be understood as resulting from constant space–time variability about an increased mean temperature.]
Inzwischen hat Steve McIntyre bei ClimateAudit einige liebenswerte Probleme in ihren Behauptungen gefunden. Ich überlegte mir, einmal einen Blick auf ihre Aufzeichnungen aus Sedimenten in Seen zu werfen. Die Rohdaten vor jedweder Analyse sehen so aus:


Abbildung 1: alle Schichtdicken-Aufzeichnungen aus TH2013. Die Einheiten wechseln und sind so wie vom Original-Forscher berichtet.
Was also stimmt hier nicht? Nun, eine ganze Menge!
Zu Beginn ist da die infame Korttajarvi-Aufzeichnung. Eine gute Beschreibung hiervon gibt Steve McIntyre:
In Übereinstimmung mit der totalen und vollständigen Sturheit der Paläoklima-Gemeinschaft verwenden sie die berühmteste Reihe von Mann et al. 2008: die kontaminierten Korttajarvi-Sedimente. Die Probleme dieser Reihe sind in Skeptiker-Blogs nur allzu bekannt, und Ross und ich haben darüber in einem Kommentar bei PNAS berichtet. Die Original-Autorin, Mia Tiljander, warnte vor der Verwendung des jüngsten Teils dieser Daten, waren doch die Sedimente durch modernen Brückenbau und die Landwirtschaft kontaminiert worden. Obwohl die Schwächen dieser Reihe als Proxy Lesern „skeptischer“ Blogs gut bekannt sind, haben die Begutachter bei Nature offenbar keine Einwände gegen die Berücksichtigung dieses Proxy für eine Temperaturrekonstruktion gehabt.
Hier möchte ich einen Moment innehalten und über Proxies aus Seen sprechen. Auf dem Grund nahezu jeden Sees wird in jedem Jahr eine neue Sedimentschicht abgelegt. Dieses Sediment enthält einen sehr informativen Mix von allem, was jemals während eines bestimmten Jahres in den See gespült worden ist. Man kann Änderungen der lokalen Vegetation beispielsweise durch Pflanzenpollen identifizieren, die als Teil des Sediments abgelagert worden sind. Es gibt eine Menge Informationen, die man aus dem Schlamm am Seegrund gewinnen kann.
Eine Informationsquelle, die wir betrachten können, ist die Rate, mit der sich das Sediment akkumuliert. Das nennt man „Schichtdicke“ [varve thickness], wobei eine „Schicht“ [varve] ein Paar dünner Schichten in dem Sediment bedeutet, eine für Sommer und eine für Winter, die zusammen ein einzelnes Jahres-Sediment ausmachen. Offensichtlich kann diese Dicke ziemlich variieren. Und in einigen Fällen ist es in gewisser Weise mit der Temperatur korreliert.
Allerdings unterscheiden sich See-Proxies in einem entscheidenden Punkt von Proxies aus Eisbohrkernen. Die täglichen Aktivitäten der Menschen ändern nicht die Dicke der Eisschichten, die sich jedes Jahr bilden. Aber alles vom Straßenbau bis zu Änderungen der landwirtschaftlichen Methoden kann die Sediment-Menge in lokalen Gewässern radikal verändern. Und genau das ist das Problem bei Korttajarvi.
Zusätzlich können auch Änderungen der natürlichen Landschaft das Sediment-Niveau verändern. Viele Dinge, vom Verbrennen lokaler Vegetation über Insektenvernichtung bis hin zu Änderungen des lokalen Wasserabflusses können die Sediment-Ablagerungen in einem bestimmten Teil eines bestimmten Sees verändern.
Man betrachte hierzu beispielsweise die Soper-Daten in Abbildung 1. Mehr als offensichtlich werden einige signifikante Änderungen während der ersten Hälfte des 20. Jahrhunderts  erkennbar. Nach vier Jahrhunderten eines bestimmten Regimes ist etwas geschehen. Wir wissen nicht was, aber es erscheint zweifelhaft, dass eine graduelle Temperaturänderung eine so plötzliche Änderung der abgelagerten Sedimentmenge in Kombination mit einer Änderung der Variabilität ausgelöst haben kann.
An genau dieser Stelle möchte ich innehalten und betonen, dass allein die Erwähnung dieses Proxys, wenn man die offensichtliche Unsinnigkeit ignoriert, auch Korttajarvi zu betrachten, ausreicht, die ganze Studie total zu disqualifizieren. Es gibt keinerlei Rechtfertigung für die Behauptung, dass diese Änderungen mit der Temperatur zusammenhängen. Ja, ich weiß, später in der Studie wird darauf noch eingegangen, aber bleiben wir realistisch: Dies ist keine Repräsentation der Temperatur.
Aber Korttajarvi und Soper sind nicht das einzige Problem. Man betrachte Iceberg, drei separate Aufzeichnungen. Es ist wie eine zweitrangige Quizfrage: „Welcher dieser drei Aufzeichnungen ist anders als die beiden anderen?“ Wie kann man so etwas nur als stichhaltige Proxy betrachten?
Wohin führt die Betrachtung all diesen Mülls? Die Autoren erklären es so:
Alle Schichtdicken-Aufzeichnungen, die öffentlich beim Paleolimnology Data Archive der NOAA öffentlich zugänglich sind (Stand Januar 2012) werden betrachtet unter der Voraussetzung, dass sie folgenden Kriterien genügen:
• sie reichen mindestens 200 Jahre zurück,
• sie zeigen eine jährliche Auflösung
• sie werden in Längeneinheiten dargestellt
• die Original-Veröffentlichungen oder andere Referenzen sprechen für eine positive Verbindung mit der Sommertemperatur.
Nun, das klingt alles sehr gut, aber diese Kerle sind so klassisch … man betrachte den Devon Lake in Abbildung 1, es ist DV09. Sehen Sie, wie weit diese Reihe zurück reicht? Bis 1843, also bis vor 170 Jahren … so viel zu ihrem 200-Jahres-Kriterium.
Wollen Sie den spaßigen Teil erfahren? Fast hätte ich es übersehen, aber als ich die Kriterien gelesen habe dachte ich „warum gerade 200 Jahre?“ Das schien mir eine Besonderheit zu sein, also betrachtete ich sehr genau die einzige Reihe, auf die es passte, und … nanu? Das sieht nicht wie 200 Jahre aus. Also untersuchte ich die Daten hier … 1843, nicht vor 200, sondern vor 170 Jahren.
Mann, je mehr ich schaue, umso mehr finde ich. In dieser Hinsicht haben Sawtooth und Murray wenige kurze separate Abschnitte zum Ende ihrer Hauptdaten. Vielleicht ist es Zufall, aber beide werden den wie auch immer gefälschten Hockeyschläger von Korttajarvi und Soper stützen.
Soviel also zum ersten Blick auf die Rohdaten. Jetzt wollen wir betrachten, was sie tatsächlich mit diesen Daten machen. Aus der Studie:
Wie allgemein üblich werden die Schichtdicken vor der Analyse logarithmisch transformiert, was zu Verteilungen führt, die normalverteilter sind und mit der Hypothese in Einklang stehen, die unsere Analyse charakterisiert (siehe folgenden Abschnitt).
Ich kann mich mit dieser Transformation nicht ganz abfinden. Ich verstehe die zugrunde liegende Rechtfertigung oder Logik nicht, das zu tun. Falls die Schichtdicke in irgendeiner Weise proportional zur Temperatur ist, und das kann gut sein, warum sollte sie proportional zum Logarithmus der Dicke sein?
Wie auch immer, schauen wir, über wie viel „normalverteilter“ wir reden. Hier folgen die Verteilungen der gleichen Aufzeichnungen nach der Log-Transformation [?] und Standardisierung. Ich habe einen „Violin-Plot“ verwendet, um das Aussehen der Verteilung zu untersuchen. Die Entfernung an irgendeinem Punkt steht für die geglättete Zahl der Datenpunkte um diesen Wert. Der weiße Punkt zeigt den Medianwert der Daten. Der schwarze Kasten zeigt die interquartile Bandbreite, die die Hälfte der Daten enthält. Die vertikalen „Schnurrhaare“ [whiskers] erstrecken sich 1,5 mal so weit wie die interquartile Distanz an der Ober- bzw. der Unterseite des Kastens.


Abbildung 2: Violin-Plots der Daten aus Abbildung 1, aber nach der Log-Transformation und Standardisierung. Die Randwert-Normalverteilung unten rechts dient Vergleichszwecken.
Man beachte die sehr großen Unterschiede zwischen den verschiedenen Datensätzen der Schichtdicke. Man kann die Probleme beim Soper-Datensatz erkennen. Einige Datensätze sind nach der Log-Transformation ziemlich normalverteilt, wie Big Round und Donard. Andere wie DV09 und Soper sind selbst nach der Transformation noch weit von der Normalverteilung entfernt. Viele von ihnen sind stark asymmetrisch mit Ausreißern von vier Standardabweichungen, die in positiver Richtung allgemein sind. Im Gegensatz dazu variieren sie nur halb so stark in negativer Richtung, zwei Standardabweichungen. Und wenn man sie mit einschließt, beeinflussen die Unterschiede, mit denen sie aus dem Normalzustand schwingen (die positiven Ausreißer übertreffen die negativen bei Weitem), sowohl die Ergebnisse als auch deren Unsicherheiten.
In jedem Falle sind die Datensätze nach der Log-Transformation und Standardisierung zu einem Mittel von Null und einer Standardabweichung von eins in Abbildung 3 gezeigt:
 
Abbildung 3: Schichtdicken-Aufzeichnungen nach Log-Transformation und Standardisierung.
Wie man sieht, ändert die Log-Transformation nichts an den Problemen von z. B. Soper oder Iceberg. Sie sind immer noch nicht intern konsistent. Als Ergebnis der Mitbetrachtung dieser problematischen Reihen, die allesamt sichtbare Unregelmäßigkeiten in den jüngsten Daten enthalten, zeigt selbst ein einfacher Mittelwert einen vollkommen gefälschten Hockeyschläger.
Tatsächlich zeigt das Mittel die typische Form für diese Art gefälschten Hockeyschläger. Im „Schaft“ des Hockeyschlägers scheinen sich die Rand-Variationen der gewählten Proxies einander wegzumitteln. Im „Blatt“ mitteln sich die Rand-Proxies ebenfalls heraus, und alles was übrig bleibt, sind die wenigen Proxies, die im jüngsten Abschnitt einen Anstieg zeigen.
Meine Schlussfolgerungen lauten (in beliebiger Reihenfolge):
• Man muss den Autoren hinsichtlich der Eindeutigkeit ihrer Datenquellen gratulieren. Sie lassen eine einfache Analyse ihrer Arbeit zu.
• Man muss ihnen auch zu den klaren Definitionen der Kriterien gratulieren, die sie an die Berücksichtigung der Proxies anlegen.
• Traurigerweise folgen sie nicht ihren eigenen Kriterien.
• Die wesentliche Schlussfolgerung jedoch lautet: Klare, eindeutige Kriterien von der Art, wie sie sie verwendet haben, sind ein notwendiger, aber kein ausreichender Teil des Prozesses. Es müssen noch mehr Schritte unternommen werden!
Der zweite Schritt besteht in der Verwendung von Quellen-Dokumentationen und der Literatur um zu sehen, ob es Probleme mit der Verwendung einiger Teile der Daten gibt. Hier Korttajarvi mit einzubeziehen ist ein besonders ungeheuerliches Übersehen. Michael Mann hat es in seiner Analyse aus dem Jahr 2008 umgekehrt verwendet. Er hat anschließend gesagt, dass „das keine Rolle spielt“. Es erscheint hier wieder umgekehrt, und die ursprünglichen Forscher sagten, man verwende es nicht nach 1750 oder so. Es ist absolut erbärmlich, dass nach all den Diskussionen in der Literatur und im Internet einschließlich eines veröffentlichten Briefes an PNAS Korttajarvi wieder einmal in einer Proxy-Rekonstruktion verwendet wird, und wieder einmal wird es umgekehrt verwendet. Das ist unentschuldbar.
Der nächste Schritt bei der Auswahl der Proxies muss in der Verwendung des Mark I eyeball [?] bestehen um zu sehen, ob es Lücken, Sprünge der Amplitude, Änderungen der Variabilität oder andere Anzeichen von Problemen in den Daten gibt.
Als nächstes müssen die Auswirkungen der fragwürdigen Daten auf das Endergebnis untersucht werden.
Und schließlich müssen noch die Gründe dargelegt werden für den Ein- oder Ausschluss der fragwürdigen Daten sowie deren Auswirkung auf das Ergebnis der Studie.
Unglücklicherweise haben sie nur dem ersten Teil Genüge getan, indem sie klare Kriterien formuliert haben.
Sehen Sie, man kann nicht einfach ein Bündel Proxies nehmen und diese mitteln, egal ob man Bayesianische Methoden anwendet oder nicht. Die Menge [crowd] der Paläo-Proxy-Forscher hat wieder und immer wieder gezeigt, dass man damit einen Hockeysachläger konstruieren kann, wenn man nur die richtigen Proxies dafür auswählt…
Und jetzt? Alles, was es beweist, ist: ja, wirklich; wenn man Müll hineinsteckt, wird man vermutlich auch Müll herausbekommen. Wenn man sorgfältig den Auswählprozess der Proxies durchführt, kann man jedes gewünschte Ergebnis bekommen.
Mann, wie sehr ich es satt habe, mich durch diese Art von Müll zu wühlen; künstliche Studien von künstlichen Wissenschaftlern.
Willis Eschenbach
Link: http://wattsupwiththat.com/2013/04/13/spurious-varvology/
Übersetzt von Chris Frey EIKE




Zukünftige Temperaturenentwicklung in Deutschland – Wärmer oder Kälter? (Teil 2)

…So konnten anhand historischer und aktueller Daten, nach einem Hauptsonnenzyklus starke Ausschläge zwischen warm und kalt nachgewiesen werden und sind in unseren Breiten als „normal“ anzusehen, was bedeutet, dass das Klima/Wetter in Deutschland für die nächsten Jahre starken Schwankungen zwischen warm und kalt unterliegt. So freut es uns natürlich, dass die Warmisten von PIK und Co. zu ähnlichen Aussagen, was die Schwankungen betrifft, gelangen. Dass deren Erklärungen hierzu, jedoch an der Wirklichkeit vorbeigehen und der Realität (wieder einmal) nicht standhalten, zeigt unser Teil 2.
Obwohl wir kälteren Zeiten entgegen gehen, werden Mammut und Wollnashorn in unseren Breiten nicht mehr erscheinen. Übertreibungen solcher Art, wenn auch in die andere Richtung, überlassen wir PIK, AWI, ZDF und Co. Wir wollen uns mehr an der Naturwischenschaft orientieren. Abbildung, Quelle: Wikimedia.commons

PIK und AWI behaupten: Es ist kälter, weil es wärmer wird

Dass für die nächsten Jahrzehnte mit hohen Schwankungen zwischen warm und kalt zu rechnen ist, hat Leistenschneider bereits in 09/2011 in seiner EIKE-Reihe, “Dynamisches Sonnensystem – Die tatsächlichen Hintergründer des Klimawandels“ festgehalten und dies anhand historisch gemessener Temperaturdaten, wie sie z.B. in den Abbildungen 15 bis 19 (Teil 1) zu sehen sind, festgehalten und mit der Sonnenphysik beschrieben. Umso erfreulicher, dass gegenwärtig die sog. Warmisten sich seine Feststellung zu Eigen machen. Abenteuerlich hingegen ist deren Begründung für die aktuelle Abkühlung. Aber dazu später mehr. Lassen Sie uns zuerst unser Ergebnis, dass die Wintertemperaturen den Jahrestemperaturen um ca. 10 Jahre vorlaufen und somit deren Trend vorweg nehmen, weiter prüfen.
Unsere eingangs gezeigte Auswertung ergab das Jahr 2070, bis die Temperaturen in unserem Land wieder zu steigen beginnen. Wird bei unserem Ergebnis weiter dem Fakt Rechnung getragen, dass bei inaktiver Sonne sich das Verhältnis Abstiegszeit (Abkühlung) zu Anstiegszeit (Erwärmung)  zugunsten der Abkühlung verschiebt, so trifft unser Ergebnis sehr exakt die Realität des letzten Hauptsonnenzyklus – so, wie sich seinerzeit die Temperaturen entwickelten. Keine gute Nachricht, denn eine Warmzeit ist eine gute Zeit. Nicht nur wegen der Heizkosten und dem Freizeitwert, sondern vor allem für die Biosphäre. Aber wissenschaftliche Erkenntnis richtet sich nun einmal nicht an menschlichen Wünschen.
Wie gesagt, möchten wir unsere Ergebnisse jedoch noch weiter absichern, bzw. prüfen. Besteht der von uns ermittelte jahreszeitliche Vorlauf der Temperaturen noch bei weiteren Datenreihen. Hierzu möchten wir Frühling und Herbstgang der Temperaturen vergleichen.
 
 
 
  
 
Abbildungen 20 – 24: Basis dieser Untersuchungen waren das „Wikipedia- Deutschlandmittel“ ab 1761 und das Rastermittel Deutschland ab 1881. Ganz oben Einzelwerte ab 1761 mit Linear- und Polynomtrends. Bei langfristiger Betrachtung sind die Lineartrends gleich, was auch zu erwarten war. Abbildungen 22 – 24 zeigen Gleitmittel 11-, 23- und 35- jährig mit Polynom- Trends. Die untere Abbildung 25 zeigt, dass sich auf der kurzfristigen Skala (1980 bis 2012) sogar ein gegenläufiges Verhalten zeigt- wenn Frühling warm, dann Herbst tendenziell eher kalt- und umgekehrt. Man erkennt außerdem bei allen Abbildungen, dass die Frühjahrsmittel die Herbstmittel gegen Ende des Betrachtungszeitraums eingeholt haben. Als mögliche Ursachen kommen eventuell unterschiedliche Auswirkungen der verschiedenen Wärmeinsel- Effekte in Betracht. Außerdem nahm die herbstliche Sonnenscheindauer während der vergangenen 30 Jahre weniger deutlich zu, als die des Frühjahres; und der Frühling, besonders der April, zeichnete sich durch eine wachsende Anzahl von Hochdruckwetterlagen aus (KÄMPFE/LEISTENSCHNEIDER/KOWATSCH 2013: „Erst zum Gipfel, dann wieder talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen“, Teile 2 und 3) bei http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/
Inwieweit die Wintertemperaturen, einen Trend vorwegnehmen, haben wir auch am Vergleich zu den Frühlingstemperaturen geprüft (Abbildungen 25 und 26).

Abb. 25 und 26: Sowohl die Deutschland-Langzeitzeitmittel aus den Wikipedia-Daten, als auch die Deutschlandmittel der DWD-Daten zeigen das gleiche Verhalten der Temperaturen, insbesondere ihres Trends (Polynom 6): Die Wintertemperaturen eilen den Frühjahrtemperaturen voraus und zwar um gut 10 Jahre, wobei in einer Abkühlungsphase auch hier sich das Verhältnis verschiebt – größer wird. Eine mögliche Erklärung für diese Verschiebung sind die Strahlungsgesetze nach Planck und die Abkühlungsgesetze nach Newton, wie sie auch Leistenschneider in 2010 als Basis für die Berechnung seines WI-Temperaturwertes der Deutschlandtemperaturreihe des DWD heranzog, EIKE berichtete darüber (http://www.eike-klima-energie.eu/uploads/media/Waermeinseleffekt-k-L_I_und_II.pdf). Ein gleich starker Erwärmungsantrieb wirkt im niedrigen Temperaturniveau deutlicher, als bei höherem Ausgangsniveau der Temperaturen. Seine Überlegungen und seine ermittelten WI-Werte für Deutschland, wurden übrigens jüngst bei WUWT zu 100% bestätigt (http://wattsupwiththat.com/2013/04/16/revisiting-temperature-reconstructions-used-in-climate-change-modeling/).
Anhand weiterer Untersuchungen, wird dieses Verhalten, sowie die unterschiedliche Temperaturentwicklung der Jahreszeiten eingehender geprüft werden müssen; besonders zur Rolle der WI-Effekte.
Deutschland: Frühlingsmittel laufen den Herbstmitteln und die Wintermittel, den Frühlingsmitteln um 1 bis 1,5 Jahrzehnte voraus! Wie bereits der Wintervorlauf zu den Jahrestemperaturen.
Eine mögliche Erklärung, dass die Herbstmittel den Frühlingsmitteln nachlaufen, also eine Abkühlung später anzeigen, könnte in der Erwärmung der Speicherflächen Land und Wasser liegen. Diese geben die im Frühjahr und Sommer gespeicherte Sonnenwärme an die Atmosphäre ab und diese gespeicherte (Zusatz)Wärme wird zu der direkten solaren Strahlung über die vorherrschenden Luftströmungen (West, Südwest) zu uns getragen. Genauere Untersuchungen werden z.Z. durchgeführt.
Daraus kann der Schluss gezogen werden, dass in naher Zukunft die Frühlingstemperaturen zuerst und stärker sinken werden, während der Herbst tendenziell noch ein paar Jahre relativ warm bleiben könnte- das deutete sich in den vergangenen Jahren schon so an.
Und nun zu den abenteuerlichen Versuchen der sog. Warmisten, die Kälte, die wir seit mehreren Jahren vorfinden, der aus Computermodellen abgeleiteten postulierten Erderwärmung zuzuschreiben. So war am 28.03.2013 in der Südwestpresse folgendes zu vernehmen: Weil das Eis in der Arktis schmilzt, fließt kalte Polarluft nach Mitteleuropa. Im Nordosten Deutschlands geht laut Deutschem Wetterdienst der kälteste März seit 130 Jahren zu Ende. Klimaforscher rechnen für die Zukunft mit häufiger auftretenden extremen Wintereinbrüchen. Aha, “Klimaforscher rechnen für die Zukunft mit häufiger auftretenden extremen Wintereinbrüchen. Auf EIKE hat dies bereits Leistenschneider in der erwähnten Reihe zum Einfluss der Sonne auf unser Wetter/Klima in 09/2011 aufgezeigt und hergeleitet (ohne aufwendige Klimamodelle und Supercomputer, sondern anhand der Sonnenphysik und historischer Temperaturdaten).
Die Erklärung, die die sog. Warmisten anführen, klingt indes so: Mehrere Klimastudien hatten diese Kälteeinbrüche bereits vorhergesagt. Eine Ursache ist demnach das mit der Erderwärmung immer stärker schmelzende Arktiseis. PIK-Forscher Vladimir Petoukhov hatte 2010 in einer Modellrechnung eine Verdreifachung extremer Wintereinbrüche in Europa und Nordasien prognostiziert. Grund: Das dunkle, offene Meer in der Arktis heize untere Luftschichten weiter auf. Das führe zu einer Luftströmung, die in der Computersimulation kalte Winterwinde nach Europa brachte.“ Oder wie folgt:
“Wladimir Petoukow vom Potsdam-Institut für Klimafolgenforschung und Klaus Dethloff in der Forschungsstelle Potsdam des Alfred-Wegener-Instituts haben alles herausgefunden: Mithilfe von Computermodellen zeigen beide Forschergruppen, wie der Klimawandel Teile Europas in einen Eiskeller verwandeln könnte: Wenn die moderne Zivilisation viel Kohle, Öl und Gas verbrennt, steigen weltweit die Temperaturen und auf dem Nordpolarmeer schmilzt das Eis. Genau das registrieren Forschungssatelliten seit einigen Jahren. Mit dem Eis aber fehlt auch der Deckel, der die Energie im Wasser hält. Daher erwärmt sich auch die Luft über den eisfreien Wasserflächen. Dadurch aber verändert sich auch der Luftdruck über dem Atlantik in arktischen und in mittleren Breiten und es kann sich ein Hoch über Skandinavien bilden, das uns zurzeit eisige Temperaturen beschert.“
Nun zu den Fakten. Die Luftströmungen, die sich angeblich wegen den vielen Treibhausgasen geändert haben, werden von der NAO (North Atlantic Oscillation) bestimmt. Die NAO gibt das Druckgefälle zwischen Islandtief und Azorenhoch an und ist Hauptfaktor für das Wetter in Europa und für die dortigen Klimaschwankungen. Sie ist ein regionaler Teil der ringförmigen Arctic Oscillation (AO) und beschreibt den Druckunterschied zwischen dem Islandtief und dem Azorenhoch. Wie der Name sagt, ist dieser Druckunterschied nicht konstant, sondern Schwankungen unterworfen, die einen oszillierenden Charakter besitzen.
Die NAO bestimmt den Verlauf der Zugbahnen atlantischer Sturmsysteme und die daraus resultierende Beeinflussung der Niederschlags- und Temperaturmuster im Nordatlantik. Sie wird auch in Zusammenhang gebracht mit der arktischen Meereisausbreitung, dem Eisvolumen in der “Davis Strait“ und den Eisbergflussraten vor der Küste Labradors. Sie ist maßgeblich für unser Wettergeschehen und wird daher an dieser Stelle näher betrachtet.
Als Maß für die NAO wird ein Index der Luftdruckunterschiede an repräsentativen Stationen benutzt. In der Definition nach Hurrell sind dies “Stykkysholmur“ auf Island und “Ponta del Gada“ auf den Azoren. Der NAO-Index nach Jones verwendet anstelle der Station “Ponta del Gada“ die Station auf Gibraltar. Allgemein gilt, dass der NAO-Index die Differenz der Druckanomalie auf den Azoren minus der auf Island ist, d.h. ist der NAOI stark positiv, hat man ein ausgeprägtes Azorenhoch bzw. Islandtief, was mit einem starken westwärts gerichteten Grundstrom und dafür typischen wandernden Zyklonenfamilien im nord-west-atlantischen und west-europäischen Raum verbunden ist und Mitteleuropa milde Winter beschert. Im Gegensatz dazu, wenn der NAO-Index niedrig oder negativ ist, dann ist der Grundstrom schwach, was oft mit meridionalen, blockierten Wetterlagen einhergeht. Die NAO soll sich demnach wegen der vielen Treibhausgase verändert haben. Dazu schauen wir, inwieweit die NAO vom atmosphärischen CO2-Pegel abhängt.
 
Abbildung 27 zeigt sowohl den NAO-Verlauf, als auch den atmosphärischen CO2-Pegel nach NOAA. Es bedarf keiner weiteren Erläuterungen, dass beide Verläufe, nichts gemeinsam haben. Auch der Langfristtrend der NAO zeigt keine steigende, fallende, oder sonst wie geartete Tendenz, die einen Ansatz für die Behauptungen von PIK und Co. geben.
 
Abbildung 28: NAO von 1860 – 2011 (Quelle: Hamburger Bildungsserver). Während der atmosphärische CO2-Pegel steigt und steigt, fällt derzeit das Langfristmittel der NAO, wie z.B. auch in den 1950er Jahren. Dies lässt auf zyklische Muster schließen, die nicht auf das Freisetzen sog. Treibhausgase reagieren, sondern auf die Sonnenaktivität. Dies ist seit langem bekannt, siehe Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003.
Abbildung 29 zeigt den NOA-Index nach Hurrel. Sowohl in der linken und noch mehr in der rechten Abbildung ist deutlich der Schwabe-Zyklus der Sonne abgebildet. Die Schwankungen der NAO sind in Übereinstimmung mit den Sonnenzyklen.
 
Abbildung 29 links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich mit dem Schwabezyklus korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000). Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein.
Unnötig zu erwärmen, dass ebenfalls kein Zusammenhang zwischen dem Einfluss der arktischen Meereisbedeckung und den Wintertemperaturen besteht (Abbildung 30).
 
Abbildung 30 (Quelle: Privatdozent Dr. Dr. Eckhard Schulze -EIKE): “Die Eisbedeckung der Arktis bewegt sich im Januar in engen Grenzen zwischen 14,5 und 15 Millionen Quadratkilometern. Die Monatsmitteltempertaturen in Deutschland (Quelle DWD) lassen, bezogen auf das jeweils selbe Jahr, keinerlei Abhängigkeiten zu den Eisbedeckungsflächen erkennen. Dies wird drastisch illustriert, wenn man die Jahre 2007 und 2010 betrachtet. In diesen beiden Jahren sind die Januarwerte der eisbedeckten Flächen nahezu gleich, die Monatsmitteltemperatur ist jedoch 2007 mit 4,8°C atypisch hoch und in 2010 mit -3,6°C recht tief für den Januar.“
Noch deutlicher wird dies, wird zu den Märztemperaturen verglichen (Abbildung 31).
 
Abbildung 31, Quelle, wie Abb 30 (Datenquelle der Temperaturen, DWD, Datenquelle Monatsmittel der Eisbedeckungsflächen http://www.woodfortrees.org/data/nsidc-seaice-n). Wie unschwer zu erkennen, gibt es keinen Zusammenhang zwischen der arktischen Eisbedeckung und den Temperaturen in Deutschland. Somit kann die o.g. Aussage von PIK und AWI als widerlegt angesehen werden.
Ausgangspunkt der erneut von PIK und AWI vorgebrachten These, dass es in Deutschland kälter wird, weil es wärmer wird, um es einmal bildhaft auszudrücken, ist die Untersuchung von Petoukhov, V., Semenov, V. A. (2010): A link between reduced Barents-Kara sea ice and cold winter extremes over northern continents. – Journal of Geophysical Research, 115, D21111 (Abbildung 32):
 
Abbildung 32 zeigt die Eisbedeckung in der Barentssee und Karasee nach Petoukhov et al. Von 2000 bis 2007 und dazu das Wintermittel für Deutschland nach DWD-Daten.
 
Abbildung 33, Quelle, Dr. Dr. Schulze – EIKE: Dazu in graphischer Darstellung, die Eisbeckungen Barentssee (blau) und Karasee (grün), sowie das Wintermittel der Temperaturen von Deutschland (rot). Wer daraus nun ableitet, die dortigen Eisbeckungen hätten etwas mit den Wintertemperaturen in Deutschland zu tun, der hat sehr viel Phantasie.
Zu gleichem Ergebnis kommt Herr Dr. Herold (EIKE). Die PIK-Aussage lautet: "Die vorliegenden Modellrechnungen zeigen, dass der Luftdruckgegensatz bei geringerer sommerlicher arktischer Meereisbedeckung im darauf folgenden Winter abgeschwächt wird, so dass arktische Kälte bis in die mittleren Breiten vordringen kann." Und was zeigen die Daten?

Abbildung 34 (Datenquelle: Dr. Herold – EIKE): die blaue Kurve zeigt die arktische Eisbedeckung im Zeitraum Ende August 2005 bis Ende August 2012. (8 Werte)
Laut PIK bestimmt diese Meereisausdehung vom Sommer die Wintertemperaturen ein halbes Jahr später in Mitteleuropa. Wenig Meereis soll kalte Winter bringen. Die entsprechenden 8 Winter haben diesen Verlauf:

Abb35a: (Datenquelle DWD). Die Wintertemperaturen Deutschlands zeigen keinerlei Zusammenhang mit der Größe der arktischen Meereisbedeckung vom Sommer davor. Die beiden Grafiken entlarven eindeutig die PIK-Aussagen als falsch.
Dieses Jahr war der März ein zusätzlicher Wintermonat in Asien, in Europa und in Deutschland. Deshalb soll dieser eigentlich erste Vorfrühlingsmonat auch in die Betrachtung mit einbezogen werden.

Abb 35b (Datenquelle DWD). Keinerlei Zusammenhang besteht auch für die Sommereisausdehnung Nordpol und den nachfolgenden Märztemperaturen. Der vom PIK behauptete Zusammenhang trifft nur zufällig für die letzte Betrachtung zu.
Außerdem sind extrem kalte Märzmonate auch in der Vergangenheit immer wieder vorgekommen. So wiesen die Märzen 1785, 1786, 1789, 1804, 1808, 1814, 1845, 1853 und 1883 an der Station Berlin- Tempelhof ein Monatsmittel unter 0°C auf, ohne dass es damals eine erhöhte CO2- Konzentration in der Atmosphäre gab!
Damit beweisen die zuvor vorgelegten Grafiken eindeutig, dass die von PIK verkündete neue Theorie, vollkommen falsch ist, denn die Grafiken von zuvor  beweisen keinerlei Zusammenhang. Die Ausdehnung des Sommereises am Nordpol hat noch niemals den darauffolgenden Winter in Deutschland maßgeblich vorbestimmt. Das ist blanker Unsinn. Die Winter wurden kälter, weil  seit 1998 die Temperaturen weltweit abnehmen.
Und schließlich lässt sich auch der kalte März 2013 nicht mit einer außergewöhnlich geringen Eisbedeckung im März erklären, wie die folgende Abbildung 36 beweist.
 
Abbildung 36 : Eisbedeckung der Arktis Anfang März 2013, Quelle: http://nsidc.org/arcticseaicenews/ (kleine Abbildung: EIKE)
Es zeigt sich, dass es gar keinen dramatischen Eisschwund im Spätwinter gibt! Wie übrigens generell nicht, was Abbildung rechts zeigt. Nach jeder noch so starken Sommerschmelze, kehrt das Wintereis auf volle Ausdehnung zurück. Es gibt demnach keine Nordpoleisschmelze. Zwar wird die orange Linie (große Abbildung, Langjähriges Median- Mittel der Eisbedeckung) vereinzelt leicht unter-, an einzelnen Stellen aber auch überschritten- für Europa (links ganz unten liegend) können diese geringen Änderungen der winterlichen Eisdecke keine wesentlichen Auswirkungen haben.
KÄMPFE/LEISTENSCHNEIDER/KOWATSCH (2013) fanden aber eine andere Ursache für die geänderten Häufigkeitsverhältnisse der Großwetterlagen, und zwar die Sonnenaktivität. Eine sehr aktive Sonne begünstigt mildernd wirkende Westlagen, die aktuell nachlassende Aktivität hingegen Extremlagen:
 
Abbildung 37: Man erkennt, dass mit fallender gelber Linie (Anzahl der Sonnenflecken, Gleitmittel) die Zahl der mildernd wirkenden Westwetterlagen (violette Linie) deutlich abnahm; gleichzeitig wurden Lagen mit nördlichen (blaugrün) und südlichen (rot) Strömungsanteilen häufiger, was Extremwetter begünstigt und vor allem insgesamt kältere Winter fördert (auch Südlagen können im Winter mitunter bitterkalt sein!). Man beachte, dass wegen des „11- jährigen Gleitmittels“ die Werte seit 1975 und bis 2012 mit eingeflossen sind.

Ergebnis 3

Die Abbildungen widerlegen eindeutig die von PIK und AWI vertretene These. Die Wintertemperaturen haben nichts mit einer arktischen Eisschmelze zu tun, sondern gehen, so wie von uns dargestellt, auf die rückläufige solare Aktivität zurück und das typische Verhaltensmuster der Temperaturen nach einem Hauptsonnenzyklus.
Soviel zu den Computermodellen von PIK, AWI und Co., über die angeblich durch „Treibhausgase“ ausgelöste „arktischen Eisschmelze“ und die dadurch bedingten niedrigen Temperaturen in Deutschland.
Dass dieser Unsinn, der wieder einmal von deutschen Journalisten, deren Kenntnisse meist bereits an der Oberfläche enden, ungeprüft nachgeredet wurde, vom PIK und AWI in die Welt gesetzt wurde, verwundert denn nicht wirklich. Auch nicht, dass das ZDF wieder einmal an vorderster Linie zu finden ist, da deren Journalisten und Nachrichtensprechern zuweilen der Durchblick fehlt (EIKE berichtete darüber, hier  und hier ). Auch nicht, dass deren Meteorologen, wie Frau Niedek, die für den Unsinn, der anthropogenen Klimaerwärmung bezahlt werden (EIKE berichtet ebenfalls darüber auf Seite 35), dass jedoch ebenso Herr Dr. Tiersch auf den PIK (Unsinns-)Zug aufgesprungen ist und dies in der Karwoche im Heute Journal gegenüber der bereits beschriebenen ZDF-Sprecherin, Frau Slomka, eine breite Öffentlichkeit damit überraschte, dass es kälter wird, weil es wärmer wird, überrascht uns nun doch ein wenig. Offensichtlich ist das ZDF bestrebt, seinen runden Geburtstag unter dem Motto zu begehen: 50 Jahre Unsinn (und kein Ende abzusehen).
Wie sich die Temperaturen in Deutschland kurzfristig entwickeln werden, wie also die Temperaturen der nächsten Monate oder des Sommers werden, hängt somit stark von der solaren Aktivität und der Sonnenscheindauer ab. Gegenwärtig steigt die solaren Aktivität wieder, was an der vermehrten Sonnenfleckenaktivität sichtbar ist. Inwieweit sich daraus in diesem Jahr ein 2. Aktivitätsmaximum im 11-jährigen Schwabe-Zyklus entwickelt, werden die nächsten Monate zeigen. Warum Aktivitätszyklen dort ein 2. Maximum ausbilden können, hat Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ beschrieben – wegen der Fließrichtungen des elektr. und magn. leitfähigen Sonnenplasmas im 200.000 km starken Sonnenmantel.
 
Abbildung 38 zeigt links die Sonnenzyklen 21 – 23 (Quelle: Max Planck Gesellschaft). Jeder Zyklus bildet teils deutlich ein 2. Maximum aus. Rechts daneben ist der aktuelle 24. Zyklus bis März 2013 zu sehen. Ein Erstes Maximum fand in der zweiten Hälfte 2011 statt. Inwieweit sich in 2013 ein zweites Maximum ausbildet, was dann Einfluss auf unser Wetter hat, werden die nächsten Monate zeigen. Anhand der Auswertung vergangener solarer Zyklus, liegen beide Maxima ca. 1 ½ Jahre auseinander, so dass ein zweites solares Maximum in 2013 eintreten sollte. Danach geht die Sonne in ihre inaktive Phase, wie bei jedem Schwabezyklus. Solange, bis der nächste, der 25. Sonnenzyklus beginnt. Der jedoch, wegen dem übergeordneten Gleissberg-Zyklus (stellt die Hüllkurve des Schwabezyklus dar und hat im 25. Sonnenzyklus sein Minimum), sehr schwach ausfallen dürfte.
Damit die deutsche Öffentlichkeit die tatsächlichen Gründe für die vergangenen kalten Temperaturen, den nicht enden wollenden Winter und die zu erwartende Temperaturentwicklung in unserem Land, erfährt, werden wir von EIKE diesen Part übernehmen, den eigentlich die deutsche Presse übernehmen sollte: Für Aufklärung zu sorgen. Wie es scheint, ist man dort zuweilen aus eigenem Interesse (Geld) und ideologischer Verblendung (der Mensch und seine Industrie ist an allem Schuld) dazu nicht mehr in der Lage.
  
Stefan Kämpfe, Weimar
Josef Kowatsch, Hüttlingen
Raimund Leistenschneider – EIKE




Abstimmung „Green Tec Awards“

Schauen Sie sich das Reaktorkonzept an! "Grüner" geht es eigentlich nicht mehr, und man fragt sich, was die grüne Ideologie eigentlich gegen eine inhärent sichere Kernkraft ohne nukleraen Abfall hat. Danach können Sie sich entscheiden und abstimmen. Und so geht´s. Seite aufrufen, bis zu Galileo Wissenspreis runterscrollen, dann rechts im Bild "DFR Institut für Festkörper -Kernphysik" Vergrößerungsglas anklicken. Dann erscheint der Text:

Dual Fluid Reaktor DFR
Institut für Festkörper-Kernphysik GmbH
Der Dual Fluid Reaktor DFR ist ein neues nukleares Reaktorkonzept in Weiterführung der sogenannten Generation IV. Der DFR ist inhärent sicher, wobei er im Gegensatz zu heutigen wassermoderierten Reaktoren keinerlei aktive Sicherungssysteme benötigt. Der DFR kann langlebigen nuklearen Abfall aus heutigen Reaktoren vollständig nutzen, ohne neuen zu produzieren – ein geologisches Endlager wird dadurch überflüssig. Außerdem können Kraftstoffe CO2-frei günstig hergestellt werden. Dadurch wird der DFR zu einer extrem umweltfreundlichen und kosteneffizienten Lösung für die Zukunft.
www.dual-fluid-reaktor.de

Konzept begutachten und evtl. zur Anstimmung markieren.

Gefunden?
Danach ist es recht einfach: Häkchen einsetzen, ans Ende scrollen, „Abstimmung“ anklicken und danach Name und E-Mail-Adresse angeben. Die Seite erreicht man hier.
Das EIKE TEam