Temperaturen in Südamerika folgten vor allem dem Strahlungsantrieb

Ihre Studie, kürzlich erschienen bei „Quaternary Science Reviews“, kommt zu dem Schluss, dass die Klimaveränderungen in der Zeitskala von Jahrhunderten vor allem von Schwankungen der solaren Strahlung verursacht wurden. Von 3140 bis 2800 v. Chr. sowie von 70 v. Chr. bis 150 n. Chr. hätten sich Warmphasen ereignet. Die Temperaturentwicklung der letzten Jahrzehnte (1959 bis 2009) sei im Kontext der vergangenen fünf Jahrtausende betrachtet „nicht außergewöhnlich“.

In der Zeitskala von Jahren bis Jahrzenten seien die Temperaturschwankungen in der untersuchten Region vor allem von der Interaktion zwischen oberflächennahem Meerwasser und Atmosphäre im Pazifik (dem sogenannten El Niño – Südliche Oszillation) und ähnlichen, längeren Oszillationen angetrieben worden.

Die aktuelle Studie reiht sich in eine Serie neuerer wissenschaftlicher Arbeiten ein, die ein Licht auf Nicht-menschliche-Klimafaktoren werfen. Kürzlich legten etwa japanische Wissenschaftler in der renommierten Fachzeitschrift „Nature“ dar, wie die kosmische Strahlung das Klima beeinflussen kann (Achgut.com berichtete). Wenig später erklärte ein britisch-russisches Forscherteam, ebenfalls in „Nature“, dass das Weltklima erheblich von verschiedenen miteinander verwobenen natürlichen Zyklen beeinflusst wird (Achgut.com berichtete). In eine ähnliche Kerbe schlägt eine weitere aktuelle Forschungsarbeit, deren chinesische Autoren ausdrücklich vor natürlichen Klimaveränderungen warnen, die die Menschheit unvorbereitet treffen könnten (Achgut.com berichtete). Und im August letzten Jahres kam ein amerikanisch-britisches Forscherteam zu dem Ergebnis, dass die Stärke des asiatischen Monsuns mit der Sonnenaktivität korreliert (Achgut.com berichtete).

Übernommen von ACHGUT hier




Der Stern sinkt: Stellenstreichungen bei Daimler

Die Botschaft von Daimler wird eindeutig sein: Wieder ein Gewinneinbruch, und die Spirale zeigt weiter nach unten. Am Dienstag, 11. Februar, verkündet der neue Daimler-Chef Ola Källenius den zweiten Gewinneinbruch hintereinander. Källenius, der im Mai vergangenen Jahres inthronisierte Schwede, wird nach einem Bericht des Handelsblattes in seinem Sparprogramm mehr als 10 000 Stellenstreichungen verkünden – bei rund 282 000 Mitarbeitern. Es könnten auch 15 000 Arbeitsplätze wegfallen.

Das Ergebnis vor Zinsen und Steuern liegt mit 5,6 Milliarden Euro nur noch bei der Hälfte des Vorjahresergebnisses, wie Daimler bereits im Januar veröffentlichte. 

Die Aktien des Stuttgarter Autohersteller mit seiner mehr als 130-jährigen Tradition haben seit Anfang des Jahres 2018 fast 40 Prozent an Wert verloren. Ein ziemlich beispielloser Fall des einstigen Vorzeigeunternehmens.

Zum Milliardengrab wird für Daimler ausgerechnet der Dieselantrieb. Dem Unternehmen, das den Dieselmotor salonfähig gemacht und zum ersten Mal in einen Pkw eingebaut hat, wird das Kesseltreiben auf diese Antriebsform zum Verhängnis. Die Motorenbauer wussten sich bekanntlich seinerzeit nicht mehr anders als mit einigen Tricksereien zu helfen, um irgendwie die ins aberwitzige gesteigerten Grenzwerte zu erreichen.

Auf zwischen 1,1 bis zu 1,5 Milliarden Euro werden allein die Kosten für die laufenden Verfahren in den USA geschätzt. Es schlagen auch die Kosten für den horrenden Aufwand für neue Zertifizierungen zu Buche, die die Autohersteller aufgrund geänderter Abgasvorschriften für jedes Modell in jeder Variante zu absolvieren hatten. Das führte zu absurden Situationen, dass Autohersteller nicht mehr liefern konnten, und dies hat erhebliche Spuren in den Kassen hinterlassen. Auch Daimler drohen hohe Strafzahlungen aufgrund des CO2-Ablasszertifikatehandels. Denn jetzt machen sich die verschrobenen CO2-Vorschriften bemerkbar, und die Folgen der Entscheidungen werden deutlich, die vor einem Jahr der Bundestag diskussionslos durchgewunken und die EU im Eiltempo beschlossen hat. Nur die AfD wollte seinerzeit im Bundestag ein Moratorium erreichen und die Autoindustrie etwas aus der Schusslinie nehmen, kam damit aber nicht durch.

Es zeigt sich, dass die Autohersteller besser rechtzeitig massiv gegen die systematische Zerstörung des Automobils Stellung bezogen hätten, anstatt in ein freudiges »Wir schaffen das!« einzustimmen. Aber das ist mehr als zehn, fünfzehn Jahre her, als sozialdemokratische und grüne Politik in trauter Eintracht mit internationalen NGOs die deutsche Autoindustrie unter Beschuss genommen haben.

Eine durchwegs dürftige Rolle spielen die letzten Gewerkschaftler. Sie wollen sich gegen Arbeitsplatzabbau wehren, verkünden sie von ihrer Resterampe. Källenius hat die IG Metall bereits zur Zurückhaltung bei den kommenden Tarifverhandlungen aufgerufen: »Wir halten es in dieser Situation für sehr, sehr sinnvoll, die Ansprüche entsprechend anzupassen.«

Von zwei größeren Daimler-Aktienpaketen, die in chinesische Autobauerhände wechselten, berichtet die Welt. Die chinesischen Autobauer Geely, dem bereits Volvo gehört, und BAIC wollen ihren Anteil an Daimler auf bis zu zehn Prozent aufstocken. Die sind am technologischen Know how Daimlers höchst interessiert und kaufen um fast jeden Preis.

Viel zu transferieren hätten sie nicht. Das Know how entsteht bereits in Peking. Daimler baut in China ein weiteres komplettes Technologiezentrum mit Prüfständen, Teststrecke sowie Prüflabors und Werkstätten zur Erprobung von Technologie, Antriebsstrang und Chassis, Emissionen und Luftqualität im Innenraum auf. Also das, was in Stuttgart und Sindelfingen vorhanden ist und worin der technologische Kern eines Autoherstellers besteht.Die neue Automobiltechnik wird in China entstehen. Und, so viel sei verraten, das Auto der Zukunft dort wird kein Elektroauto werden.

Da wirkt es wie ein schlechter Witz, dass sich jetzt ausgerechnet die Bundesumweltministerin Svenja Schulze zu Wort meldet. Die Bundesregierung wolle keine strengeren Klimaschutz-Vorschriften für Autoflotten in der EU – vorerst, wie sie sagte.

Doch werden die Händler des neuen »Green Deals« in Brüssel wohl kaum eher ruhen, bis auch die letzten Reste der Autoindustrie Deutschlands zerschlagen sind. Die Gelegenheit ist gerade günstig. Hebel sind weiterhin Grenzwerte, mit denen dem effektivsten Motor, den es zur Zeit gibt, nämlich dem Diesel, der Garaus gemacht werden kann. Der geht mit dem Kraftstoff besonders sparsam um und ist deshalb beliebt. Die Autoingenieure haben ihn so sauber bekommen, dass hinten aus dem Auspuff kein Feinstaub und nur noch sehr wenige Stickoxide herauskommen.

Es darf sehr bezweifelt werden, ob Schulze überhaupt merkt, was ihre Klimakampftruppen angerichtet haben. Sie sollte nur nicht mehr vor arbeitslosen Arbeitern der Autoindustrie auftreten. Die dürften nicht mehr so friedlich sein wie die Bauern bei ihrer Demonstration in Berlin.

Das letzte Gefecht der Autoindustrie hinterläßt deutliche Spuren in den Bilanzen. Geschlossene Werkshallen sind der nächste Schritt. Die Sterne über Stuttgart und Sindelfingen sinken. 

Der Beitrag erschien zuerst bei TE hier




SEID IHR ALLE EIN BISSCHEN GRETA?

Dinosaurier mit drei Flügeln

VW baut nicht nur Wagen fürs Volk. Der Bugatti Veyron, das exklusive Topmodell, ist in der Standardversion 400 km/h schnell. Falls Ihnen das nicht reicht, die Sportversion bringt’s auf 430. Dafür braucht der Wagen einen starken Motor: einen turbogeladenen 8 Liter 16 Zylinder, der 900 kW (1200 PS) auf die Kurbelwelle bringt. Das Auto wiegt 1,9 Tonnen, davon machen Motor plus Getriebe etwa ein Viertel aus. Es ist also möglich, eine Maschine zu bauen, die 900 kW Leistung abliefert und die nur eine halbe Tonne wiegt.

Eine größere Windturbine hat eine „installierte Leistung“ von 6 Megawatt = 6000 Kilowatt. Im Jahresdurchschnitt liefert sie 20 % davon, also 1200 kW; das ist, zugegeben, etwas mehr als der Bugatti Motor leistet, aber was wiegt sie?

Das Fundament aus 1400 Kubikmetern hochfestem Stahlbeton hat 3500 Tonnen. Der Turm besteht aus Schalen, von denen jeweils 3 einen Ring mit 50 m Umfang bilden. 35 solcher Ringe bauen den Turm auf: 130 m hoch und 2800 t schwer. Der Kasten oben drauf, genannt Maschinenhaus, ist 120 t schwer und beherbergt den Generator von 220 t, der durch einen 320 t schweren Rotor angetrieben wird. Gesamtgewicht der Anlage ist – rechnen Sie nach – rund 7000 Tonnen. http://bi-berken.de/resources/Dimensionen+Windkraftanlagen_.pdf

Die Röhre, auf der oben das Maschinenhaus sitzt, bedeckt am Boden eine Fläche von 200 Quadratmetern, darin hätte ein kleinerer Supermarkt Platz.

Dieser Gigant leistet im Durchschnitt nur wenig mehr, als ein Bugatti-Motor, der nur eine halbe Tonne auf die Waage bringt – nicht 7000. Der Bugatti braucht natürlich Sprit, der Vergleich soll nur aufzuzeigen, welches Verhältnis von Leistung zu Masse technologisch möglich ist.

Maschinen, die pro abgegebene Leistung so unglaublich schwer sind, wie das beschriebene Monster, können nicht wirtschaftlich sein. Aber weil sie durch astronomische Summen gefördert werden ist eine wahre Goldgräberstimmung entstanden, und die Ungetüme werden installiert auf Teufel komm raus. Der Goldregen könnte ja versiegen.

 

Von nichts kommt nichts

Warum eigentlich müssen Windturbinen so groß sein? Kann man sie mit moderner Technik vielleicht auf die Ausmaße eines Bugatti schrumpfen? Um zu erklären, warum das nicht geht, dazu brauchen wir etwas Physik.

Die mechanische Leistung, die eine Luftströmung pro Quadratmeter anbietet, ist gleich der Dichte der Luft multipliziert mit ihrer Geschwindigkeit hoch drei. Und das Ganze halbiert.

Hier ein Beispiel:

Falls Sie bei sanfter Fahrt, sagen wir gut 50 km/h, einen Hula-Hoop-Reifen (erinnern Sie sich?) im offenen Cabrio hoch halten, und zwar so, dass der Fahrtwind durch den Ring pustet, dann rauschen da so ungefähr 2 kW durch.

Damit kann man nicht viel anfangen. Nehmen wir den oben beschriebenen Riesen, der bei einem 50 km/h Wind 6000 kW bringen soll. Der muss dem Wind eine Fläche von 3000 Quadratmeter anbieten. Jedes der drei Rotorblätter muss dann ungefähr 30 m lang sein.

Leider können die Flügel aber nicht die gesamte Windenergie ernten, ihr Wirkungsgrad ist bestenfalls 40%. Statt einer Fläche von 3000 m2 brauchen wir also derer 7500 um bei 50 km/h Wind 6000 Kilowatt Strom zu produzieren.

Dafür brauchen wir Flügel, die 50 m lang sind. Zum Vergleich: Die Flügel eines Airbus A380 Superjumbo sind nur 40 m lang. Unsere Windräder müssen leider so groß sein, weil die Luft ein so verdammt dünnes Medium ist (der schwere Airbus wird trotzdem von der dünnen Luft getragen, aber erst ab 300 km/h – und seine vier Turbinen leisten dabei übrigens 330 Megawatt, so viel wie 55 unserer Windräder bei optimalem Wind).

Diese gigantischen Ausmaße werden einmal eine Herausforderung sein, wenn die Windräder nach ihrer nützlichen Lebensdauer von 10 oder 20 Jahren beseitigt werden müssen. 7000 Tonnen Stahl, Beton, Kunstsoff und Kohlefaser werden ein nie dagewesenes Entsorgungsproblem darstellen. Bei rund 30.000 solcher Monster – zwar nicht alle 7000t schwer – kommen da dennoch Hunderte Millionen Tonnen Schrott zusammen; das ist mehr als sämtliche Autos Deutschlands auf die Waage bringen würden! Und hohe Anteile sind Kohlefaser und Plastik. Da müssen wir viele Plastik-Strohhalme einsparen um das wett zu machen. Wie das gehen soll ist noch nicht ganz klar. Es gibt noch kein etabliertes Verfahren, um das Zeug sauber zu recyceln.

 

https://www.bloomberg.com/news/features/2020-02-05/wind-turbine-blades-can-t-be-recycled-so-they-re-piling-up-in-landfills

 

Zu viel oder zu wenig

Zurück zur Leistung der Monster. Das mit der dünnen Luft wäre halb so schlimm, wenn in unserer Formel nicht die Windgeschwindigkeit hoch drei stünde. Die gute Nachricht ist, dass wir bei doppelter Geschwindigkeit immerhin 2 hoch 3 = 8 mal so viel Leistung haben, die schlechte Nachricht ist, dass wir bei halber Geschwindigkeit nur ein Achtel bekommen.

Unser Monster bringt seine „installierte (d.h. maximale, theoretische) Leistung“ bei 50 km/h. Weht der Wind schneller, dann bringt sie auch nicht mehr, denn sie wird „abgeriegelt“, und weht es noch mehr, dann wird sie „abgeschaltet“, damit sie nicht kaputt geht. Das funktioniert leider nicht immer. https://www.youtube.com/watch?v=kjnXpOMu09I

Bei 15 km/h Wind aber, das ist immerhin noch flottes Radfahrerinnen-Tempo, bekämen wir nur noch 160 kW. Eine Maschine, größer als ein Super-Jumbo, bringt dann so viel oder so wenig Leistung wie der Motor eines VW Golf. Soweit jedenfalls die Theorie, in der Praxis würde das Ding vermutlich still stehen.

Falls Sie Segler sind, kennen Sie die Geschichte ja hinlänglich. Entweder dümpelt man tagelang dahin und verbringt die Zeit mit Seemannsgarn bei lauwarmem Bier, oder es kachelt dermaßen, dass man die Segel reffen muss und hoffen, dass unter Deck alle Schubladen dicht sind. Es ist nicht daran zu denken, dass man bei doppelter Windgeschwindigkeit einfach doppelt, geschweige denn achtmal so schnell wäre. Den stetigen Wind, bei dem das Schiff mit seiner Lieblingsgeschwindigkeit durchs Wasser pflügt, den hat man nur alle Jubeljahre.

Einfach ausgedrückt: „Windgeschwindigkeit hoch drei“ bedeutet für die Windgeneratoren, dass man entweder zu viel des Guten bekommt oder gar nichts. Wenn der Wind richtig weht, dann muss man den Strom zu Schleuderpreisen exportieren, manchmal sogar zu „negativen Preisen“. Oder aber es herrscht Schwachwind und man muss den ganzen Stroms aus den herkömmlichen Kraftwerken im In- und Ausland beziehen.

Aus dieser Situation können wir uns auch nicht retten, wenn wir noch mehr Rotoren aufstellen. Die werden bei starkem Wind noch mehr Überschuss produzieren und bei Flaute genauso wenig.

 

Die Kosten / Nutzen Bilanz

Wie viel Strom beschert uns die deutsche Windkraft nun tatsächlich? Da gibt es unterschiedliche Statistiken, und bekanntlich soll man nur derjenigen Glauben schenken, die man selbst gefälscht hat. Das wird schwierig. McKinsey kommt zu folgendem Resultat:

Erneuerbare Energien bedrohen die deutsche Wirtschaft und Energieversorgung.

… Deutschland erzeugt trotz großer Hektik immer noch nur 35% seines Stroms aus erneuerbaren Energien. Und wenn die Biomasse-Verbrennung, die häufig schmutziger ist als Kohle, nicht berücksichtigt wird, entfielen 2018 nur 27% der Stromerzeugung auf Wind-, Wasser- und Solarstrom in Deutschland.

https://www.forbes.com/sites/michaelshellenberger/2019/09/05/renewables-threaten-german-economy-energy-supply-mckinsey-warns-in-new-report/#6fa4222a8e48

Ziehen wir Solar und Wasser davon ab, dann bleiben maximal 20% aus Windkraft.

All die Anstrengungen der Energiewende wurden ja unternommen, um den CO2 Ausstoß zu reduzieren, um das „Klima zu retten“. Ist das gelungen? Keineswegs. Deutschland hat immer noch signifikant höhere pro Kopf Emissionen (11 Tonnen pro Jahr CO2) als Frankreich, England oder Italien (jeweils ca. 7 Tonnen) und liegt 3 Tonnen über dem EU Durchschnitt. https://www.umweltbundesamt.de/sites/default/files/medien/384/bilder/3_abb_thg-emi-eu-vergleich-pro-kopf_2019-09-06.png

Dafür haben wir die höchsten Strompreise und bald die „Smart Meters“, welche dafür sorgen werden, dass wir den Strom nicht dann bekommen, wenn wir ihn brauchen, sondern dann, wenn es den Protagonisten der Energiewende in den Kram passt.

 

Kein Ziel vor Augen, dafür verdoppelte Anstrengung

Es ist verständlich, dass die in Wohlstand geborenen Generationen die deutsche Wirtschaft für „unkaputtbar“ halten. Die Verwundbarkeit der Natur aber wurde ihnen doch Jahrzehnte lang unmissverständlich eingetrichtert. Doch diese heiligen Kühe von damals werden jetzt herdenweise geschlachtet. Die einmalige Landschaft, der vom Tode bedrohte Wald, die Tier- und Pflanzenwelt, der Juchtenkäfer, der große Abendsegler und das braune Langohr, keiner hat mehr Anspruch auf Schutz. Sie alle sind jetzt zum Abschuss freigegeben. Sie werden dem einzigen, allerhöchsten Ziel geopfert, das es noch gibt.

Bei aller Aussichtslosigkeit wird dieser Weg beharrlich verfolgt, und die Tatsache, dass kein anderes Land in die gleiche Richtung geht, steigert nur die eigene Besessenheit. Eine Besessenheit, die keine Fragen zulässt, was der Nutzen ist, die keine Wahrnehmung hat für den Schaden, der angerichtet wird, und die dazu führt, dass man sich selbst und anderen viel Leid zufügt.

Ein einzelner Mensch mit solch einem Verhalten würde als psychologisch auffällig eingestuft. Die abnormale Intensität, mit der ein extrem enger Interessensbereich verfolgt wird und die Blindheit für die Auswirkungen auf das persönliche Wohl und das der anderen sind Merkmale einer krankhaften Entwicklungsstörung. Diese wurde 1944 erstmals von dem Wiener Kinderarzt Hans Asperger beschrieben und 2018 durch Greta Thunberg weltweit populär gemacht.

Betrachtet man die Begeisterung der mehrheitlich schwarz-rot-grünen deutschen Bevölkerung für die Energiewende, dann meine lieben Mitbürgerinnen und Mitbürger, dann drängt sich die Frage auf: seid Ihr vielleicht alle ein bisschen Greta?

 

Der Artikel erschien zuerst in www.think-again.orgund im Buch Grün und Dumm https://think-again.org/product/grun-und-dumm/

 

 

 

 




Bei den Tagesthemen wird der Klimawandel erfühlt: Klima-Wahnsinn sucht nun Antarktis heim

Die “Erderwärmung”, so fabuliert Caren Miosga, sei in der Antarktis “ein mit allen Sinnen wahrnehmbarer Fakt”. Wie man es, bei einer Jahresdurchschnittstemperatur von -16 Grad Celsius schafft, die “Erderwärmung” wahrzunehmen, ist indes kein Geheimnis von Miosga, es ist schlicht und einfach BS (Bullshit, für die des Englischen nicht mächtigen).

Und jetzt freut es uns, dass wir an dieser Stelle einmal nicht selbst tätig werden müssen, um den Unsinn, der Konsumenten der Tagesthemen von den Klimawandlern in die Sinne gehauen wird, zu entkräften. Nein, wir freuen uns einen Text unverändert abdrucken zu können, den uns ein Leser geschickt hat, der sich seinen Frust ob des öffentlich-rechtlichen Bären, der im in naiv-dreister Dummheit aufgebunden werden sollte, von der Seele geschrieben hat.

Hier ist das Ergebnis:

Haltungsjournalismus im öffentlich-rechtlichen Rundfunk: Wie wir belogen werden, wenn’s der vermeintlich guten Sache dient.

Neumayer III Station

Am 10. Dezember 2019 brachten die ”Tagesthemen” in der ARD einen kurzen Bericht über die Arbeit der Forscher in der Neumayer-Station III des Alfred-Wegener-Instituts in der Antarktis.

Die Überschrift lautet ”Neumayer-Station in Antarktis: Deutsche Klimaforschung auf brüchigem Eis” und soll wohl suggerieren, dass das Eis dort schwindet.

Das Gegenteil ist richtig. Auf dem Titelbild ist die Station abgebildet, sie steht auf hydraulischen Stelzen. Auf der Homepage des Instituts erfährt man, damit solle verhindert werden, dass die Station mit der Zeit von der ansteigenden Schnee-Eis-Masse geflutet wird, wie schon ihre beiden Vorgängerstationen.

In der Anmoderation behauptete Caren Miosga, in der Antarktis sei wahrnehmbar, dass die Erderwärmung keine wissenschaftliche Theorie, sondern Fakt sei und der Berichterstatter sich dort auf’s dünner werdende Eis begeben habe. Das ist eine komplette Verdrehung der Tatsachen. Die Station steht mit ihren Stelzen nicht auf dünner, sondern auf dicker werdendem Eis. Auch für die gesamte Antarktis hat die NASA eine Zunahme des Eisvolumens auf der Grundlage von Satellitendaten dokumentiert.

Völlig grotesk wird die Angelegenheit, wenn die Moderatorin behauptet, die Erderwärmung sei ”in der Antarktis ein mit allen Sinnen wahrnehmbarer Fakt”, und dabei auf die Neumayer-Station im Bild hinter ihr deutet. Die Originaldaten der Temperaturaufzeichnungen der drei Neumayer Stationen seit 1981 zeigen dort nämlich eine Abkühlung:
Quelle

Das entspricht auch der Temperaturveränderung in der Gesamt-Antarktis seit Beginn der Satellitenaufzeichnungen im Jahr 1979 (60. bis 85. Breitengrad Süd):

Quelle

Auch hier eine leichte, jedoch statistisch nicht signifikante Abkühlung, jedenfalls alles andere als ein Beweis für eine Erwärmung, die dort angeblich Fakt sei. Sogar das Ozeanwasser rund um die Antarktis kühlt sich leicht ab:

In der Einleitung zu dem Bericht werden über die grotesk fehlerhafte Einführung hinaus noch Erkenntnisse der Neumayer-Forscher angekündigt, die das Faktum des Klimawandels und der dort ”mit allen Sinnen wahrnehmbaren Erderwärmung” angeblich stützen. Danach kommt jedoch nichts dergleichen, es wird lediglich ein Forscher zitiert, der eine Erhöhung des CO2-Gehalts der Atmosphäre auch in der Antarktis gemessen hat. Das ist lächerlich. Konnte man bisher vielleicht davon ausgehen, dass dies dort nicht der Fall sei? Ansonsten bringen die Forscher Zukunftsbedenken vor, aber keinerlei Erkenntnisse, die diese Bedenken etwa anhand der Zustände vor Ort stützen.

Alles in allem erreicht das Filmchen eine neue Stufe der Desinformation durch den Haltungsjournalismus in den öffentlich-rechtlichen Medien. In der Einleitung werden Behauptungen aufgestellt, die in dem nachfolgenden Bericht gar nicht wieder aufgegriffen, geschweige denn belegt werden und sie lassen sich überdies mit ein paar Klicks im Internet bei der Originalquelle widerlegen.

Diese ”fake news” waren leicht zu enttarnen. Man fragt sich, wo wir sonst womöglich noch auf die Irreführungen der Haltungsjournalisten hereinfallen, wenn die Aufdeckung nicht so einfach ist. Gut zu wissen, dass es noch Journalisten gibt, die recherchieren, wenn z.B. Spiegel online in der Rubrik „Wissenschaft“ wieder einmal Unsinn verbreitet. Wie hier aufgegriffen von Alexander Wendt in seinem Online-Magazin „Publico“, ebenfalls am Beispiel Klimawandel.

Wir haben schon des öfteren darauf hingewiesen, dass die Qualität der Beiträge in öffentlich-rechtlichen Anstalten natürlich eine Funktion der Kompetenz derer ist, die an den Beiträgen herumgewurschtelt haben. Dass Journalisten-Darsteller, die die “Erwärmung der Erde” an genau einem Punkt der Erde mit “allen Sinnen” wahrnehmen können wollen (fast so gut wie CO2 sehen), ist ein eindeutiger Indikator dafür, dass das Niveau der Kompetenz in öffentlich-rechtlichen Anstalten doch tatsächlich noch weiter sinken konnte als wir es für möglich gehalten haben. Müssten Journalisten-Darsteller wie Miosga auf einem freien Markt ihre Dienste feilbieten, sie wären vorhersehbar auf Almosen angewiesen. Die Zwangsgebühren retten eine große Anzahl von Inkompetenten davor, Hartz IV beantragen zu müssen.

Der Beitrag erschien zuerst bei ScienceFiles hier

Das der Wahnsinn mit der Antarktis Methode hat und weitergetrieben wird, zeigt auch schon der nächste Beitrag, der wieder bei der ARD erschien.

„Antarktis schmilzt, Wahnsinn grassiert bei der Tagesschau – Fakten gegen Hysterie“






Die Pilze von Tschernobyl

Wer etwas nachdenkt, kann diesen Unsinn sofort erkennen: Wurden doch allein zig Tonnen Plutonium bei den Kernwaffentests in die Atmosphäre freigesetzt. Aber dieser Irrglaube hält bis heute an. So ist doch inzwischen das Hauptargument gegen die Kernenergie der böse „Atommüll“, vor dem die Menschheit für Millionen Jahre geschützt werden muß. Genau dieses Scheinargument wird aus der Halbwertszeit von Plutonium – ganz nebenbei, ein willkommener Energiespender, viel zu schade zum verbuddeln – hergeleitet.

Es gibt aber noch einen weiteren Einwand gegen eine übertriebene Strahlenangst. Wäre die Natur so empfindlich, gäbe es uns gar nicht. Radioaktiver Zerfall geht immer nur in eine Richtung. Mit jedem Zerfall, bei dem Strahlung ausgesendet wird, ist dieses Atom unwiederbringlich verschwunden. Deshalb war in grauer Vorzeit die Strahlenbelastung wesentlich höher als heute (z. B. der Anteil an U235 im Natururan und seine Zerfallsketten). Das Leben auf der Erde mußte deshalb von Anbeginn an „Selbstheilungsstrategien“ entwickeln, um sich überhaupt auf eine höhere Stufe entwickeln zu können. Erdgeschichtlich standen am Anfang die Pilze (sie sind weder Pflanzen noch Tiere), die das noch völlig karge Land vor Milliarden Jahren eroberten. Sie konnten lebenswichtige Mineralien gewinnen. Eine Eigenschaft, die sie bis heute auszeichnet. Allerdings wurden dadurch auch radioaktive Stoffe aufgenommen, mit denen sie umgehen mußten.

Pilze und Bakterien

Insofern ist es nicht verwunderlich, daß schon 2008 in dem Trümmerfeld des Reaktors von Tschernobyl Pilze gefunden wurden. Sie siedelten teilweise auf den mit Brennstoffresten verschmutzen Graphitblöcken. Wohlgemerkt, mitten im Atommüll. Man hat schon lange den Verdacht, daß Pilze enorm widerstandsfähig gegenüber ionisierender Strahlung sind. So findet man in den Schichten der frühen Kreidezeit viele melaninhaltige Pilzsporen. In einer erdgeschichtlichen Periode, in der viele Pflanzen- und Tierarten schlagartig verschwunden sind. Man führt dies auf starke kosmische Strahlung durch ein astronomisches Ereignis bzw. einen Nulldurchgang des Erdmagnetfeldes zurück. Es gab auch Überlegungen, Pilze zur Renaturierung stark verseuchter Gebiete einzusetzen, da sie auch radioaktive Stoffe begierig aufnehmen und aus ihrer Umgebung herauslösen.

In einer Studie von Dadachova und Casadevall ergibt sich noch ein ganz anderer Effekt: Alles deutet darauf hin, daß manche Pilze durch ihr Melanin ionisierende Strahlung zur Energieumwandlung nutzen können, analog dem Chlorophyll bei Pflanzen. Die Studien gehen auf Untersuchungen über den Pilz Aspergillus Niger aus dem ≫Evolution Canyon≪ in Israel zurück. Dort hat man auf der Südseite eine 200%-800% höhere Sonneneinstrahlung als auf dessen Nordseite. Folglich ist der Melaningehalt bei den Pilzen auf der Südseite entsprechend höher. Diese Pilze wuchsen bei intensiver UV-Bestrahlung wesentlich besser. Wenn man diese Pilze einer Strahlung aus einer Co60 – Quelle von bis zu 4000 Gy aussetzte, wuchsen sie ebenfalls schneller. Dies deutet daraufhin, daß sie nicht nur nicht geschädigt werden durch so hohe Strahlung, sondern viel mehr diese Strahlungsenergie nutzbringend über ihr Melanin umwandeln können. Inzwischen hat man nicht nur Bakterien und Pilze in der Reaktorruine in Tschernobyl gefunden, sondern auch im Kühlwasser von Reaktoren. Dort sind sie ebenfalls extremer Strahlung ausgesetzt. Bisheriger Spitzenreiter bei den Bakterien ist Deinococcus radiodurans mit einer Todesrate von 10% (letale Dosis, LD10) erst bei einer Dosis von 15000 Gy. Zum Glück ist dies bei Bakterien eine Ausnahme. Üblicherweise setzt man zur Haltbarmachung von Lebensmitteln γ-Strahlen mit einer Dosis von 1000 Gy ein. Escherichia coli Bakterien haben beispielsweise eine LD10 schon bei 700 Gy. Ganz anders sieht es bei melaninhaltigen Pilzen aus. Viele dieser Hefe- oder Schimmelpilze haben eine LD10 erst bei 5000 Gy.

Mit den „Tschernobyl-Pilzen“ wurden weitere, verblüffende Experimente durchgeführt. Sie wurden unterschiedlichen ionisierenden Strahlen durch Quellen aus P32 und Cd109ausgesetzt. Bei all diesen Experimenten konnte festgestellt werden, daß sie bei gerichteten Quellen zumeist bevorzugt in diese Richtungen wuchsen – ähnlich wie Pflanzen, die sich nach dem Licht ausrichten. Harte Strahler (Cs137) wirkten positiver als weiche (Sn121). Pilze, die aus einer stark strahlenden Umgebung stammen, reagierten stärker als Pilze aus unbelasteten Regionen. Man kann also von einer Gewöhnung an die Strahlung ausgehen (“radioadaptive response”).

In und auf der internationalen Raumstation (ISS) gibt es zahlreiche eingeschleppte Pilze. Die kosmische Strahlung ist dort natürlich sehr viel geringer (etwa 0,04 Gy pro Jahr), aber gleichwohl sind Pilze mit höherem Melaningehalt überproportional vertreten. Keinesfalls jedoch, sind sie durch die jahrelange kosmische Strahlung abgetötet worden.

Nutzung durch Melanin

Eine Hypothese geht davon aus, daß das Melanin selbst auf ionisierende Strahlung reagiert und sich anpaßt. Dies würde auch den „Lerneffekt“ durch längere Bestrahlung erklären. Es sind jedenfalls eindeutige Veränderungen nach der Bestrahlung in den ESR (electron spin resonance signal) und HPLC (high performance liquid chromatographie) Meßwerten feststellbar. Dies betrifft z. B. vierfach höhere Werte an NADH (Nicotinamid-Adenin-Dinukleotid-Hydrogen), einem besonders starken Antioxidationsmittel. Ohne hier weiter auf Details einzugehen, kann man festhalten, daß bei einer 500-fachen Strahlendosis gegenüber der Hintergrundstrahlung, bei verschiedenen Pilzen ein wesentlich schnelleres Wachstum mit mehr Kolonien und größerer Trockenmasse eintrat. Stark vereinfacht gesagt, scheint das Melanin ionisierende Strahlung zu nutzen, um CO2 in Biomasse zu verwandeln. Ferner schützt das Melanin die anderen Bauteile einer Zelle vor Strahlenschäden.

Der Kampf mit den Einheiten

Diese Untersuchungen und Erkenntnisse sind für einen Kerntechniker eher ein Randgebiet. Sie sind mit Sicherheit wichtiger für Biologen und Strahlenmediziner. Allerdings kann man sich damit eine gewisse Skepsis gegenüber dem Zahlenkrieg von „Atomkraftgegnern“ bezüglich „Atommüll“ etc. erhalten. Abschließend deshalb noch ein paar Worte zu den Einheiten und den Größenordnungen. Die Einheit Gray [Gy] beschreibt die pro Masse absorbierte Energie. 1 Gy entspricht einem Joule pro kg in SI-Einheiten. Früher verwendete man die Einheit [rad]. Wobei 100 rad einem Gy entsprechen. Eine sehr geringe Menge Energie. Sind doch rund 4200 J nötig, um 1kg Wasser um 1°C zu erwärmen. Will man die biologische Wirksamkeit unterschiedlicher Strahlung erfassen (z. B. Alphateilchen werden mit einem Strahlungs-Wichtungsfaktor von 20 multipliziert), geht man auf die Einheit Sievert [Sv] über. Die Energie von 1J/kg bleibt bei beiden Einheiten gleich. Nun zu einigen Eckwerten: Eine Ganzkörperdosis von 5 Sv führt bei 50% der Menschen innerhalb von 30 Tagen zum Tod (ohne medizinische Versorgung). Beruflich strahlenexponierte Menschen dürfen einer jährliche Dosis von 0,020 Sv ausgesetzt sein. Maximal in einem einzelnen Jahr von 0,050 Sv. Eine in Deutschland lebende Person erhält eine mittlere effektive Dosis von 0,0021 Sv pro Jahr.

In diesem Artikel wurden bewußt alle Ziffern einmal ausgeschrieben und auf die üblichen Dezimalvorsätze verzichtet. Damit soll die in der Natur vorkommende Bandbreite von „Strahlengefahr“ deutlich gemacht werden. Möge dies ein Hinweis sein, warum es in Tschernobyl nicht „Millionen Tote“, ausgestorbene Wälder und eine „Mutanten-Show“ gibt. Ganz im Gegenteil: Die Natur erobert sich bereits sogar die Reaktortrümmer zurück. Die reale Welt hat halt wenig mit der Phantasie – oder sollte man besser dem Wunschdenken sagen – von „Atomkraftgegnern“ gemein.

Der Beitrag erschien zuerst auf dem Blog des Autors hier