Erdgas oder Kernenergie? – Investitionskosten gegen Betriebskosten

In den letzten Monaten verschärft sich immer mehr die Diskussion um die zukünftige Gestaltung des Kraftwerkparks. Grundsätzlich ist die Fragestellung welcher Brennstoff zukünftig eingesetzt werden soll, so alt wie die Stromerzeugung und unterliegt immer noch dem gleichen Kräftedreieck unterschiedlicher Interessen:

1.      Welche Brennstoffe oder sonstige "Rohstoffe" (Wasserkraft, Wind etc.) sind am Standort zu welchen Preisen vorhanden?

2.      Wie hoch sind die erforderlichen Investitionskosten für die in Frage kommenden Kraftwerkstypen?

3.      Wie lauten die gesellschaftlichen Randbedingungen?

Den letzten Punkt könnte man auch als Politik bezeichnen. Er liegt zumeist weit außerhalb des Einflussbereichs von Investoren und kann sehr irrationale Gründe haben, wie die "Energiewende" eindrucksvoll zeigt. Er soll hier nicht weiter betrachtet werden. Allerdings kann er in seinen Auswirkungen die beiden ersten beiden Gesichtspunkte bei weitem übertreffen und kann äußerst kurzfristig wirken (z. B. Abschaltung der Kernkraftwerke nach Fukushima) und zerstörerisch sein. Oder anders ausgedrückt: Sachverstand ist gegen politischen Glauben völlig machtlos!

Stromerzeugung und -verteilung erfordert am Anfang sehr hohe Investitionen. Man muß über sehr lange Zeiträume Investitionsentscheidungen betrachten. Je weiter man aber in die Zukunft schauen muß, um so ungewisser sind die Randbedingungen. Will man akzeptable Preise für eine Energieeinheit erzielen, muß man sehr langsame Kapitalrückflüsse ansetzen. Dabei bewegt man sich auch noch in einem etablierten Markt: Anders, als z. B. bei der Erfindung von Computern oder Mobiltelefonen, hat man nicht die Nischen, für die auch ein extrem teures Produkt noch nutzen hat. Diese "Erstanwender" finanzieren dann die weitere Entwicklung. Elektrische Energie ist demgegenüber ein streng genormtes Produkt. Es macht für den Nutzer überhaupt keinen Unterschied, wie es erzeugt wurde. Technologische Fortschritte interessieren deshalb nur einseitig den Erzeuger.

Aus dem bereits etablierten Marktpreis ergibt sich folgendes Dilemma: Man muß den Anteil der Kapitalkosten möglichst gering halten, da ja die Brennstoffpreise ebenfalls festliegen. Je länger man jedoch den Amortisationszeitraum ansetzt, um so größer wird auch das Risiko steigender Brennstoffpreise. Dieses Risiko ist um so schlechter kalkulierbar, je breiter die Anwendung des Brennstoffs ist. Erdgas z. B. konkurriert auch mit Industrie und Gebäuden. Uran andererseits, ist praktisch nur in Kernkraftwerken nutzbar.

Betrachtet man die Investitionskosten für ein Kraftwerk, so bildet eine Gasturbine die untere Schranke und ein Kernkraftwerk die obere Schranke. Bei den Brennstoffpreisen verhält es sich genau umgekehrt. Eine Optimierung ist notwendig. Einfache Antworten können nur Laien liefern.

Preisschwankungen beim Brennstoff

Kraftwerke sind langlebige Investitionsgüter. Ihre technische Lebensdauer ist praktisch unendlich. Üblicherweise wird jedoch der Instandhaltungsaufwand und der technische Fortschritt nach vier bis sechs Jahrzehnten so groß, daß eine Verschrottung sinnvoll wird. Man muß also den Verlauf der Brennstoffpreise über so lange Zeiträume abschätzen. Bei den Kohlepreisen aus der nahen Grube ist dies noch einfach, bei frei handelbaren und auch anderweitig nutzbaren Brennstoffen, wie Öl und Gas, ist das weitaus schwieriger. So mußten beispielsweise Öl- und Gaskraftwerke vorzeitig (gemeint ist vor dem erreichen ihrer technischen Lebensdauer) ausscheiden.

Ein wichtiges Maß für das Investitionsrisiko ist die Volatilität der Brennstoffpreise (Schwankungen in der Höhe und zeitlichen Frequenz) in der Vergangenheit. Erdgas unterlag immer großen Schwankungen. In der Vergangenheit versuchte man diese, durch die sog. "Ölpreisbindung" im Griff zu behalten. Im letzten Jahrzehnt setzte sich immer mehr eine freie Preisbildung durch. Sinkende Preise waren sowohl für Anbieter (Marktanteil) als auch Nachfrager, einfach zu verlockend. Es lohnt sich daher, sich etwas näher mit den Einflussfaktoren zu beschäftigen.

Die Shale-Gas Revolution

Die typische Erdgaslagerstätte ist eine "Gasblase", die sich unterhalb einer undurchlässigen Schicht gebildet hat. Bohrt man diese an, strömt es meist unter hohem Druck aus. Bei entsprechend großen Vorkommen — wie z. B. in Rußland und dem Iran — kann das Jahrzehnte andauern, ohne daß die Fördermenge merklich absinkt. Weitaus größer sind jedoch die Vorkommen von sog. "unkonventionellem Gas". Darunter versteht man Erdgas, das in den feinen Poren von Schiefer (shale gas) oder tiefliegenden Kohlenflözen (coal seam gas) eingeschlossen ist. Ein nur senkrechtes Anbohren hilft da nicht weiter. Man muß waagerecht innerhalb dieser meist dünnen Schichten entlang bohren. Anschließend müssen die unzähligen Gasporen noch hydraulisch aufgebrochen werden. Eine sehr kostspielige Angelegenheit. Im Durchschnitt kostet eine einzelne Bohrung inclusive Fracking etwa 6 Millionen Dollar.

Führt man sich das Grundprinzip vor Augen: Eine zwar poröse, aber ziemlich undurchlässige Schicht wird durch künstliche Risse erschlossen, so wird eine charakteristische Eigenheit dieser Fördermethode erkennbar. Etwa 80 % der gesamten Ausbeute fallen in den ersten zwei Jahren nach dem Aufschluß an. Mit anderen Worten, will man aus einem Gasfeld eine langfristig konstante Ausbeute erzielen, muß man kontinuierlich immer neue Löcher bohren. Die älteren Bohrungen geben für Jahrzehnte nur noch einen kläglichen Gasstrom her, da das Gas aus den Poren nur sehr langsam zu den Rissen wandern kann.

Aus dieser technisch/geologischen Randbedingung wird klar, welche Investoren hier tätig werden. Es sind weniger die großen Mineralölkonzerne, als hochspekulative Kapitalanleger. In einer außergewöhnlichen Niedrigzinsphase kann man mit relativ wenig Eigenkapital große Geldmengen flüssig machen. Geht die Wette auf, fließt in kurzer Zeit das eingesetzte Kapital zurück. Man kann weitermachen oder sich der nächsten Geschäftsidee zuwenden. Parallelen zur Häuser-Spekulationsblase in USA sind auffällig. Auch der "Shale Gas Revolution" wohnt ein bischen Schneeballsystem inne. Die Sache läuft so lange weiter, wie die Gaspreise steigen (sollen). Welche Größenordnung das Ganze allein in USA angenommen hat, machen ein paar Zahlen deutlich: Um die derzeitige Gasförderung aufrecht zu erhalten, sind nach allgemeinen Schätzungen rund 42 Milliarden Dollar pro Jahr nötig. Bei den heute niedrigen Gaspreisen wird aber lediglich ein Umsatz von etwa 32 Milliarden Dollar jährlich erzielt. Die einschlägigen Gasproduzenten erzielen sogar nur einen cash flow von etwa 8 Milliarden Dollar. Die Reaktionen erfolgen prompt: So sind im Haynesville Shale nur noch 40 Bohrtürme im Einsatz. Man geht davon aus, daß unterhalb eines Gaspreises von 7 $/Mcf (1 Mcf entspricht rund 28,32 Kubikmeter) keine Bohrung mehr rentabel sein wird. Bereits 3500 Bohrungen sind im Süden der USA fast fertiggestellt, aber noch nicht in Betrieb gesetzt worden. Eine kurzfristige Steigerung ist noch möglich.

Die Transportfrage

Wenn man irgendwo Erdgas findet, ist es praktisch völlig wertlos, solange man keinen Anschluß an ein Rohrleitungsnetz hat. Dies ist ein ausschlaggebender Unterschied zu Kohle und Erdöl, die man notfalls mit dem LKW oder der Bahn bis zum nächsten Einspeisepunkt transportieren kann. Die schlechte Transportierbarkeit führt auch zu den regionalen Preisunterschieden. Ein einfaches umleiten eines Tankers oder Frachters ist nicht möglich. Derzeit ist Erdgas in Europa etwa 2,5 bis 3 mal teurer und in Asien sogar 4 bis 5 mal so teuer, als in den USA. Preisunterschiede — sofern sie hoch genug sind und längerfristig erscheinen — werden aber immer durch den Ausbau neuer Transportwege ausgeglichen. Ein typischer Ablauf findet derzeit in den USA statt. Ursprünglich wurden die großen Verbraucher an der Ostküste durch Ferngasleitungen vom Golf, aus Kanada und den Rockies versorgt. Seit die Förderung aus dem Marcellus und Utica Shale auf über 10 Bcf/d hochgeschossen ist, wird nun lokal mehr produziert als (zumindest im Sommer) verbraucht werden kann. Der Ausgleich geht über den Preis: Das "neue Gas" unterbietet lokal jeden Ferngaslieferanten, da es ohne Absatz ein wirtschaftlicher Totalverlust wäre. Der geringere Absatz in der Ferne, koppelt durch ein plötzlich entstandenes Überangebot in den Feldern des mittleren Westens, Kanadas und am Golf bis in weit entfernte Regionen zurück. Die Preise fallen weiträumig. Dies funktioniert aber nur, weil die USA über die erforderliche Infrastruktur verfügen und eine politische Einheit bilden.

In weiten Teilen der Welt sieht es gänzlich anders aus. Man könnte den Syrienkonflikt z. B. als den ersten Erdgaskrieg bezeichnen. Vordergründig handelt es sich um einen Bürgerkrieg zwischen Sunniten (unterstützt durch Qatar), Schiiten (unterstützt durch Iran) und dem Rest des Assad-Regimes (unterstützt durch Rußland). Was hat aber ein winziges Scheichtum am Persischen Golf mit Moskau und Teheran gemeinsam? Die Antwort ist simpel: Erdgas, in riesigen Mengen, zu extrem unterschiedlichen Preisen. Iran besitzt nach Rußland die zweitgrößten (konventionellen) Erdgasvorkommen der Welt. Anders als Rußland, ist es geografisch und politisch gefangen. Sein Erdgas ist wertlos. Es muß allein 1,4 Bcf/d Begleitgas aus der Erdölproduktion unter gewaltigen Umweltproblemen einfach abfackeln. Die einzigen potentiellen Märkte liegen in Pakistan (nur eingeschränkt möglich), der Türkei und Rußland und neuerdings im Irak mit Jordanien und Syrien im Anschluß. Über Syrien gelänge auch ein Anschluß an den lukrativen Markt Europa. Ein Albtraum für den roten Zaren aus Moskau. Der Kreis schließt sich mit Qatar. Qatar hat riesige Gasfelder gemeinsam mit Iran unter dem persischen Golf. Qatar kann diese solange allein nutzen, wie Iran — aus den vorgenannten Gründen — nichts damit anzufangen weis. Anders als Iran, konnte Qatar in gigantische Verflüssigungsanlagen (LNG) mit einer Transportkette nach Asien und die größten zwei Anlagen zur Erzeugung synthetischer Kraftstoffe (GTL) investieren. Es wäre doch wirklich schade, wenn diese Investitionen durch eine Pipeline nach Syrien entwertet würden.

Nachfrage erzeugen

Letztendlich entscheidend für die Nachfrage ist die Preisdifferenz zu Öl und Kohle. Sinkt der Erdgaspreis unter den Kohlepreis — wie in Teilen der USA — wird mehr Erdgas zur Stromerzeugung verfeuert. Steigt der Erdgaspreis über den (Braun)kohlepreis — wie in Deutschland und den Niederlanden — werden Erdgaskraftwerke stillgelegt. Ganz entscheidend, aber erst längerfristig wirksam, ist der Preisunterschied zu Erdöl. Das Energieäquivalent für Rohöl liegt aktuell bei etwa 17 $/Mcf. Es ist daher nicht verwunderlich, daß Sasol in Calcasieu Parish in Louisiana nach dem Muster von Qatar eine GTL-Anlage für 10 Milliarden Dollar baut. Diese Anlage soll 4 Millionen to Dieselkraftstoff und verwandte Produkte aus 305 Bcf/a herstellen. Das Erdgas soll aus dem Haynesville Shale stammen und etwa 1,3 bis 1,5 Milliarden Dollar kosten. Baubeginn war 2013, Fertigstellung soll 2018 sein. Ebenso plant Shell in Ascension Parish in Louisiana für 12,5 Milliarden Dollar eine weitere GTL-Anlage. Shell setzt damit seinen 1993 in Malaysia begonnen und in Qatar (Perl) weiter geführten Weg, der Erzeugung synthetischer Kraftstoffe aus Erdgas fort.

Kurzfristig läuft noch eine weitere Schiene, um die Erdgasproduktion in Nordamerika zu stabilisieren. Allein in den USA sind 12 LNG-Anlagen (Verflüssigung von Erdgas durch Abkühlung auf etwa – 170 °C) im Bau oder Betrieb. Vier weitere sind genehmigt (Dominion Resource in Cave Point Maryland, Lake Charles Export Houston, Cheniere Energy und Freeport LNG Expansion). Der Weltmarkt ruft. Toshiba hat allein mit Freeport einen 20 Jahresvertrag über jährlich 2,2 Millionen to LNG abgeschlossen. Hinzu kommen noch Anlagen in Kanada und Alaska. Als ein Abfallprodukt der Verflüssigungsanlagen, entsteht gerade ein weiterer Absatzmarkt. Der Einsatz von LNG als Treibstoff für Schwerlast LKW und Schiffe. Man baut gerade ein Tankstellennetz in den USA auf. LNG besitzt immerhin 60% des Energiegehaltes von Dieselkraftstoff. Somit eine echte Alternative zu irgendwelchen "Träumen vom Elektromobil".

Zusammenfassung

Erdgas unterliegt weit aus größeren Preisschwankungen als Öl und Kohle. Immer, wenn das Angebot die Nachfrage (in einer Region) übersteigt, sinkt der Preis. Die "Verwerter" kommen auf den Plan. Typische "Verwerter" sind Großverbraucher mit Gasanschluss aus Industrie und Kraftwirtschaft. Sie ersetzen (zeitweilig) Schweröl und Kohle. Steigt der Preis wieder, steigen sie ebenso schnell wieder aus. Darüber hinaus gibt es einen immer breiter werdenden Markt der ständigen Verbraucher, wie z. B. Gebäudeheizungen. Auch die chemische Industrie ersetzt immer mehr Öl durch Erdgas. Neu hinzu kommt der Verkehrssektor, sei es durch synthetische Kraftstoffe (GTL) oder verflüssigtes Erdgas (LNG). Teilweise flankiert durch Umweltschutzbestimmungen, wie z. B. in der Schifffahrt. Die Preise werden sich auf höherem Niveau wieder stabilisieren. Einerseits sind unkonventionelle Lagerstätten wesentlich teuerer zu erschließen, andererseits steigt die Nachfrage — insbesondere nach sauberen Energieträgern — weltweit weiter an. Wind- und Sonnenenergie sind ohnehin nur zur Stromerzeugung brauchbar und wegen ihrer Zufälligkeit auch dort nur zu höchstens 20% einsetzbar. Sollte sich der aus den USA kommende Trend verstärken, faktisch den Neubau konventioneller Kohlekraftwerke zu verbieten (EPA-Regel der Begrenzung auf 1000 lbs CO2 pro MWh) bleibt nur der Ausbau der Kernenergie. Energieversorger, die jetzt Investitionen in neue Kernkraftwerke versäumen, können schon in einem Jahrzehnt an explodierenden Kosten untergehen. Die Geschichten von Enron, Calpine und träumenden Politikern (wie einst in Kalifornien), können sich jederzeit wiederholen.

Dr. Klaus Dieter Humpich siehe auch unter Nuke-Klaus




IPCC Bericht von 2013 vs. Klimafakten

IPCC-Behauptung 1: Die Erwärmung unseres Klimasystems sei eindeutig. Seit den 1950-er Jahren seien viele Erscheinungen über Tausende von vergangenen Jahren noch nie vorgekommen. Insbesondere die Erwärmung der Nordhemisphäre von 1983 bis 2012 sei wahrscheinlich die wärmste 30-Jahresperiode der letzten 1400 Jahre.

Die Fakten zu 1: Das Klima in jeder Klimazone unserer Erde (von polar bis tropisch) war niemals konstant und hat sich seit jeher stets geändert. Konstantes Klima gibt es nicht. Regelmäßig kamen in allen Vergangenheitszeiten Klimaänderungen vor, die die des 20. Jahrhunderts an Stärke und Geschwindigkeit weit in den Schatten stellten. Bild 1 zeigt die globalen Mitteltemperaturen bis 11.000 Jahre vor heute.

 

Bild 1: Globale Mitteltemperaturen der letzten 11.000 Jahre [hier]

Man erkennt in Bild 1 die warme Römerzeit, ein warmes Mittelalter und davor ein noch wärmeres Holozän. Der Glaziologe Prof. Gernot Patzelt von der Universität Innsbruck weist an Hand von Gletscherfunden wie z.B. Baum- und Pflanzenresten nach, dass in 65 Prozent der letzten 10.000 Jahre die Alpengletscher kleiner und die Temperaturen höher waren als heute. Wald ist in Höhen gewachsen, die heute noch vergletschert sind – dies ohne alles menschliches Zutun [hier]. Alle Warmzeiten (Römerzeit, Hochmittelalter) waren übrigens kulturelle Blütezeiten.

Eine der qualitativ besten Temperaturkurven der letzten 2000 Jahre zeigt dann mehr Details (Bild 2):

Bild 2: Temperaturreihe von Christiansen/Ljungqvist [Chr], vom Verfasser aus den numerischen Originaldaten erstellt.

Man erkennt in Bild 2 den langfristigen Temperaturabfall vom sehr warmen Mittelalter bis herunter zur „kleinen Eiszeit“ im 17. Jahrhundert. Danach setzte die Wiedererholung der Temperaturen bis heute ein. Seit etwa 1995 stagnieren die Temperaturen wieder, bzw. es kühlt sich sogar leicht ab. Jeder von uns bemerkt dies an den zunehmend härteren Wintern (s. dazu Bild 3 weiter unten).

Man findet bei einer Analyse der in Bild 2 gezeigten Temperaturreihe zahlreiche Zeitspannen mit weit schnelleren und stärkeren Temperaturanstiegen (aber auch Temperaturabstiegen) als dem Anstieg in den letzten 30 Jahren des 20. Jahrhunderts, der vom IPCC so vehement als „Beweis“ für einen menschgemachten Einfluss angeführt wird. Die Aussage des IPCC von einer „noch nie seit tausenden Jahren vorgekommenen“ Temperaturentwicklung der letzten Jahrzehnte ist daher falsch.
 
Das ungewöhnlich warme Klima im Mittelalter ist nicht nur durch Messungen [hier] sondern auch durch historische Überlieferung bestens belegt. In dieser Warmperiode führten die großen deutschen Flüsse in den heißen Sommern kaum noch Wasser. Die Fundamente der berühmten Regensburger Steinbrücke konnten daher in der trockenen Donau gebaut werden, und zu Köln am Rhein überquerten die Leute den großen Fluss trockenen Fußes [Rei]. Der jüngste Rückgang der Gletscher in den Alpen wurde übrigens schon im Jahre 1885 im Alpinen Jahrbuch dokumentiert. Damals gab es praktisch noch kein menschgemachtes CO2. Die Beobachtungen begannen in 1881, berichtet wurde von Prof. Eduard Richter aus Salzburg, sie betrafen verschiedene Gletscher in den Ötztalern, Zillertalern und die Pasterze. Man findet die genannte Zeitschrift in der Bücherei des Deutschen Alpenvereins auf der Praterinsel in München (Jahrgang 1885, Band XVI, Seite 54 bis 65), eine Fortsetzung folgte im Jg. 1888 [Nie]. Auch die Publikation [Hol] legt davon Zeugnis ab.

Bild 3 lässt schließlich die erneute Stagnation/Abkühlung der letzten 15 Jahre erkennen. Seit Beginn der Industrialisierung und nicht nur die letzten 15 Jahre passt der Temperaturverlauf mit dem stetig ansteigenden CO2 Gehalt der Luft nicht zusammen, was der Behauptung des IPCC über einen maßgebenden menschgemachten Klimaeinfluss widerspricht.


Bild 3: Globale Abkühlung seit etwa Mitte der 1990-er Jahre [hier]

IPCC-Behauptung 2: Die globalen Mengen an Schnee und Eis hätten abgenommen. Und weiter: über die letzten beiden Jahrzehnte hätten sich die Eisschilde von Grönland und der Antarktis verringert. Gletscher fast überall weltweit würden fortfahren kleiner zu werden und die arktische See-Eisbedeckung sowie die Frühjahrsschneebedeckung der Nordhemisphäre würden sich in hohem Ausmaße verringern.

Die Fakten zu 2: Weil sie allen Messdaten widersprechen, erreichen diese Behauptungen des IPCC bereits das Ausmaß des Absurden. Insbesondere der antarktische Eisschild, der etwa 90% allen Süßwassers weltweit enthält, nimmt zumindest nicht ab. Das gleiche trifft für das antarktische Schelf-Eis zu. Der einzige Teil, der geringfügig Eis verliert, ist die Westantarktische Halbinsel, die weniger als 10% des antarktischen Gesamt-Eis ausmacht. Die Temperaturaufzeichnungen am Südpol zeigen seit Beginn der Messungen in 1957 keine Erwärmung! s. hierzu auch (hier) und (hier).

Das medienbeliebte arktische See-Eis dagegen ist seiner relativ geringen Dicke wegen klimatisch weitgehend unrelevant. Seine Ausdehnung gehört zu den Wetterphänomenen. Relevant ist dagegen der Grönländische Festland-Eispanzer mit einem Volumen von etwa 3 Millionen Kubikkilometern, das sich so gut wie nicht verändert hat. Das arktische See-Eis schwankt stark mit den Jahreszeiten, insgesamt übers Jahr gemittelt hat es sich in den letzten Jahrzehnten weder maßgebend verringert noch erhöht. Ausgerechnet in 2013, also dem Erscheinungsjahr des jüngsten IPCC-Berichts hat sich die arktische See-Eisbedeckung rekordverdächtig um 60% auf 1 Millionen Quadratkilometer erhöht [hier]. Alle diese Schwankungen des arktischen Meer-Eis liegen im natürlichen Bereich und haben mit einem Einfluss des Menschen nichts zu tun.

Bild 4 zeigt schließlich die Schneebedeckung der Nordhemisphäre in Millionen Quadratkilometern, die eine leichte Zunahme in den Dezembermonaten anzeigt.

Bild 4: Schneebedeckung der Nordhemisphäre in Millionen Quadratkilometern. Seit 1960 wird in bestimmten Monaten Zunahme, in anderen Abnahme gemessen. Von einer maßgebenden allgemeinen Abnahme kann keine Rede sein [hier] und [hier].

IPCC-Behauptung 3:  Meeresspiegel seien angestiegen. Und weiter im Einzelnen: Die Meeresspiegelanstiegsrate seit Mitte des 19. Jahrhunderts sei höher als die mittlere Anstiegsrate während der letzten 2000 Jahre. 

Die Fakten zu 3: Seit Ende der letzten Eiszeit, also seit etwa 12.000 Jahren ist der Meeresspiegel weltweit um rund 120 Meter angestiegen, insofern trifft die allgemeine Aussage des IPCC über einen Meeresspiegelanstieg zu. Die Ursachen sind schmelzendes Festlandeis sowie die Ausdehnung von Meerwasser infolge der Erwärmung nach Ende der Eiszeit. Bis heute hat sich dieser Anstieg fortgesetzt, allerdings inzwischen stark verlangsamt in einem Ausmaß von aktuell grob 3 mm/Jahr. Eine Beschleunigung dieses Anstiegs wird nicht gemessen. Im Gegenteil, die jüngsten Satelliten-Altimetrie-Messungen deuten eher auf eine temporäre Verlangsamung des Meeresspiegelanstiegs hin.

Bild 5: Meeresspiegelanstieg, gemessen von Satelliten [hier]

Allerdings ist Vorsicht bei Aussagen über Meeresspiegeländerungen angebracht. Der deutsche Geo-Forscher Prof. Karl-Ernst Behre (hier) hat die über mehrere tausend Jahre aufgetretenen Meeresspiegelveränderungen an den Nordseeküsten vermessen (Bild 6). Sie zeigen bei näherem Hinsehen Erstaunliches:

Bild 6: Meeresspiegeländerungen an den Nordseeküsten [Beh]

Man erkennt in Bild 6 immer wieder Zeiträume, in denen der Meeresspiegel sogar längerfristig abnahm und solche, in denen er in Übereinstimmung mit der ausklingenden Eiszeit erwartungsgemäß weiter anstieg. Die Ursachen für diese Schwankungen sind unbekannt, haben vermutlich auch mit Hebungen und Senkungen des Festlandes zu tu, sind aber keinesfalls dem Einfluss des Menschen zuzuschreiben. Aus den heutigen, modernen Meeresspiegelmessungen über die Dauer von wenigen Jahrzehnten auf einen allgemeinen Trend schließen oder gar auf menschgemachte Einflüsse spekulieren zu wollen, ist nicht zuletzt angesichts der Messungen von Behre als wissenschaftlich fragwürdig einzustufen. Die Aussage des IPCC über die Stärke des heutigen Anstiegs im Vergleich mit den letzten Tausenden Jahren widerspricht den Messungen und ist daher zurückzuweisen.

IPCC-Behauptung 4: die Konzentration an Treibhausgasen habe zugenommen.

Die Fakten zu 4: Diese Aussage trifft zu. Insbesondere die CO2-Konzentration in der Erdatmaosphäre hat seit 1960 von 317 ppm auf aktuell 400 ppm zugenommen. ppm bedeuten „parts per million“, 400 ppm entsprechen also 0,04 Volumenprozent. CO2 ist ein Spurengas in der Luft, sogar das Edelgas Argon kommt in der Luft häufiger vor. Die vom IPCC vermittelte suggestive Vorstellung, dass der CO2-Anstieg zu einem dramatischen globalen Temperaturanstieg führen müsse, ist falsch. Entscheidend ist nämlich nicht die Erwärmungswirkung des CO2 schlechthin, sondern der erwärmende Einfluss das ZUSÄTZLICHEN, vom Menschen in die Erdatmosphäre emittierten CO2. Dieser ist nach allen bisherigen Messergebnissen unmaßgeblich klein. Dies erscheint auf den ersten Blick ungewöhnlich, denn CO2 ist schließlich vermutlich das zweitstärkste Treibhausgas nach dem Wasserdampf.

Tatsächlich liegt der Grund für die geringe Erwärmungswirkung des zusätzlichen, menschgemachten CO2 darin, dass die Temperaturerhöhungswirkung des CO2 schon bei weit kleineren CO2 Konzentrationen fast vollständig ausgeschöpft ist, oder technisch ausgedrückt, die Infrarot-Absorption des CO2 steigt mit zunehmender CO2 Konzentration nur noch unmaßgeblich an. Als simple Veranschaulichung dieses Sachverhalts kann eine gut wärmende Pudelmütze dienen, die die Erwärmungswirkung des CO2 darstellt. Setzt man eine zweite Pudelmütze auf, d.h. verdoppelt man also die CO2 Konzentration, ist die zusätzliche Erwärmung vernachlässigbar. Zwei Pudelmützen übereinander wärmen auch nicht viel besser als eine.

Nur mit Klimacomputermodellen, in die physikalisch UNZULÄSSIGE, weil FIKTIVE, d.h. nicht sauber durch Messungen belegte Erwärmungsmechanismen eingesetzt werden, ist überhaupt eine stärkere Erwärmungswirkung des zusätzlich vom Menschen in die Atmosphäre eingebrachten CO2 theoretisch herleitbar. Entsprechend haben solche fiktiven Klimamodelle noch nicht einmal die Klimavergangenheit wiedergeben können und sie können auch nicht die Zeitpunkte der großen Oszillationen, wie z.B. des El Nino vorhersagen. Sie sind daher als Prognoseinstrumente unbrauchbar und nur zur Beantwortung spezieller Detailfragen für die Klimaforschung von Nutzen.

Ein menschgemachter Einfluss auf Klimawerte ist bis heute in der Fachliteratur nicht beweiskräftig nachgewiesen – was nicht bedeutet, dass es ihn nicht gibt. Er ist offenbar so klein, dass er im Rauschen der natürlichen Fluktuationen untergeht. Entsprechend sind alle einschlägigen Wahrscheinlichkeitsangaben des IPCC (ehemals 90%, inzwischen 95%) subjektive, der betriebenen Politik geschuldete Willkürlichkeitsangaben. In der Fachliteratur existieren solche belegte Wahrscheinlichkeitsangaben zum menschgemachten Einfluss nicht. Es gibt freilich Angaben in umgekehrter Richtung, stellvertretend (hier) und [Bee].

Eine Zunahme des CO2 in der Atmosphäre sollte nicht gefürchtet werden, sondern umgekehrt hoch ERWÜNSCHT sein! Sie sorgt nämlich für stärkeren Pflanzenwuchs, insbesondere von Nahrungspflanzen und hat bereits maßgebend zur besseren Ernährung der Weltbevölkerung beigetragen. Eine theoretische Verdoppelung der CO2 Konzentration lässt den Ertrag aus Nahrungspflanzen um ein Drittel ansteigen [hier], [hier]. Die bei den Medien beliebte Verteufelung des Naturgases CO2 als „Schmutzgas“ oder „Klimakiller“ ist absurd und irreführend.

Fazit zum IPCC-Report 2013

Die Aussagen des IPCC sind wissenschaftlich fragwürdig, rein ökopolitisch und daher sachlich unsinnig und wertlos.

Im Folgenden stichwortartig noch einige Ergänzungen, die im hier behandelten Zusammenhang von Interesse sein können.
 
Was weiß eigentlich die Klimawissenschaft über das „Klima“? Nüchtern betrachtet, trotz weltweiter, milliardenschwerer, jahrelanger Forschungsbemühungen so gut wie nichts! Die einzigen, weitgehend gesicherten Fakten sind die sehr langfristigen – mehrere 10.000 Jahre – veränderlichen Einflüsse der Milankovitch-Zyklen. Diese Einflüsse sind für die aktuelle Klima-Diskussion irrelevant. Ferner hat man die Abkühlungseffekte nach globalwirksamen Extrem-Vulkanausbrüchen messen und gut erklären können. Damit ist aber schon fast das Ende der Erkenntnis erreicht. Die Ursachen der großen dekadalen Oszillationen, zu denen auch der populär bekannte El Nino gehört, liegen immer noch im Dunkeln, denn Länge, Stärke, Eintritts- und Endzeitpunkte dieser klimabestimmenden Oszillationen können von der Wissenschaft bis heute nicht angegeben werden.

Die Ursachen der Klimafluktuationen – so etwa der inzwischen auch vielen Laien geläufige Übergang vom warmen Mittelalter bis herunter zur kleinen Eiszeit und danach die Wiedererwärmung bis heute – sind völlig ungeklärt. Der wahrscheinlichste Ursachenkandidat ist nach Einschätzung des Verfassers die Variation des Sonnenmagnetfeldes vermittels noch nicht endgültig geklärter, indirekter Einflüsse, bei denen die kosmische Partikelstrahlung eine Mittlerrolle spielt. Zur Bestätigung dieser Hypothese wurden bereits wissenschaftliche Fortschritte erzielt, von einem Durchbruch kann aber noch keine Rede sein. Auch die numerische Stärke des Treibhauseffekts des CO2 kann physikalisch nur grob berechnet werden. Die alles entscheidenden Einzelheiten und insbesondere Abschwächungs- oder Verstärkungsmechanismen verbergen sich hinter einer kaum zu bewältigenden Komplexität der Vorgänge in Atmosphäre und Ozeanen.

Zum IPCC: Das IPCC ist eine politische, keine wissenschaftliche Institution. Es wird von Ökoaktivisten und politischen Drahtziehern dominiert, die sich Advokatenforschern bedienen, deren ideologischen oder finanziellen Interessen wiederum mit der angekündigten „Klimakatastrophe“ verbunden sind. Die Politik hat die „Klimakatastrophe“ als wirksamstes und einfachstes Mittel zur Erhöhung von Steuern entdeckt, denn nichts ist einfacher als die Luft zu besteuern. Zu den  Hintergründen, Personen und Aktivitäten des IPCC sind die gut recherchierten, kritischen Bücher der kanadischen Journalisten Donna Lafromboise zu empfehlen.

An dieser Stelle sei der Vollständigkeit halber angemerkt, dass die hier verwendeten Bezeichnungen "Klimabericht des IPCC" nicht die offiziellen Bezeichnungen des IPCC sind. Die richtigen Bezeichnungen, Versionen und "time-tables" des IPCC können der Webseite des IPCC (Okt. 2013) entnommen werden (hier). So lautet beispielsweise die richtige Bezeichnung der hier vereinfacht als Klimabericht AR5 bezeichneten IPCC-Veröffentlichung "Bericht der Arbeitsgruppe 1 (Physikalische Grundlagen) in einer akzeptierten aber noch nicht endgültig verabschiedeten Fassung".

Allgemeines zum angeblichen wissenschaftlichen „Klimakonsens“: Konsens kann es in einer ordentlich funktionierenden Wissenschaft grundsätzlich niemals geben, dies wäre ihr Ende. Wissenschaftliche Erkenntnisse müssen jederzeit überprüfbar sein und in Frage gestellt werden können, andernfalls gibt es keinen wissenschaftlichen Fortschritt. Dies ignorieren viele Politiker und vor allem Advokatenforscher, wie es zuletzt auch die jüngsten Beispiele zeigen. IPCC-Meinungsvertreter versuchten in Verhandlungen, die Aussagen des IPCC über das mittelalterliche Wärmeoptimum oder die jüngste Temperaturstagnation aus dem SPM von 2013 herauszuhalten.

Tatsächlich übersteigt aber auch die messbare Qualität und Anzahl der Fachwissenschaftler, die anderer Auffassung als das IPCC sind, die der IPCC-Meinungsvertreter um Längen. Unter den „Klimaskeptikern“ befinden sich beispielsweise zwei Physik-Nobelpreisträger, Ivar Glaever und Robert Laughlin, ferner der weltberühmte Physiker Freeman Dyson. Von der Gegenseite ist solch eine fachliche Qualität unbekannt. Davon berichten die deutschen Medien freilich nichts. Inzwischen scheinen sich die Berichtsverhältnisse – als Vorreiter ist hier die große Schweizer Wochenzeitschrift "Weltwoche" lobend hervorzuheben – allmählich zu bessern [Wel]. Die unzähligen Petitionen und Manifeste von Fachleuten gegen die „IPCC-Wissenschaft“ werden allerdings bis heute von den bundesdeutschen Medien dem Publikum verschwiegen [hier].

Was muss die deutsche Politik tun? Sie sollte aufhören, kostspielige Maßnahmen mit „Klimaschutz“ zu begründen und gar in Gang zu setzen. Real in internationaler Zusammenarbeit lösbare Umweltprobleme gibt es genug. Es seien nur die Zerstörung des Fischbestands der Weltmeere, der Tropenwälder und der Artenvielfalt genannt. Eine Begrenzung der Weltbevölkerung könnte durch Hebung des Bildungsstandes junger Frauen in Entwicklungsländern sowie höheren Wohlstands dieser Länder erzielt werden. Jeder für solche vernünftigen Maßnahmen ausgegebene Euro ist sinnvoll, jeder für „Klimaschutz“ ausgegebene verloren. Leider bevorzugt die Politik Maßnahmen, deren Wirkungen UNMESSBAR sind – dies zu ihrem eigenen Schutz und zum leichteren Betrug des Wählers.

Prof. Dr. Horst-Joachim Lüdecke (Physiker), EIKE Pressesprecher

Quellen ohne Verlinkung

[Bee] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[Beh] C.-E. Behre: A new Holocene sea-level curve for the southern North Sea, Boreas 36, 82-102, Oslo. ISSN 0300-9483 (2007)

[Chr] B. Christiansen, F.C. Ljungqvist: The extra-tropical Nprthern Hemisphere temperature in the last two millenia: reconstructions of low-frequency variability, Clim. Past, 8, 765-786, 2012

[Hol] H. Holzhauser: Auf dem Holzweg der Gletschergeschichte, Sonderdruck aus „Mitteilungen der Naturforschenden Gesellschaft in Bern“, Band 66 (2009)

[Nie] Die Information verdankt der Verfasser Herrn Lutz Niemann

[Rei] J.H. Reichholf: Eine kurze Naturgeschichte des letzten Jahrtausends, S. Fischer (2007)

[Wel] Weltwoche, Nr. 39.13 (2013), „Wahrsager, nicht Wissenschaftler“ sowie „Skeptiker im Aufwind“

Related Files




Leuchten die Tiere in der Todeszone von Tschernobyl?

Eine wissenschaftliche Debatte über Europas unwahrscheinlichstes Tier-Reservat.

Valentina Sachepok stürmte los, und ich hetzte hinter ihr her durch einen Wald in der Sperrzone rund um das Kernkraftwerk von Tschernobyl.

Ein Kamerateam folgte uns, sie drehten einen Dokumentarfilm über die alten Frauen von Tschernobyl. Die Katastrophe im Jahr 1986 zwang zur dauerhaften Evakuierung von 300.000 Menschen, aber ein paar Frauen leben noch halblegal in ihrer alten Heimat.

Sachepok, eine über 60-jährige pensionierte Krankenschwester, deren graue Haare unter einem braunen Tuch hervorlugten, ging nicht, sondern trottete und sprintete abrupt davon, während der Rest von uns sich abmühte, ihr zu folgen. Nach dem Sammeln von dicken gelben Pilzen aus einem Klumpen von Moos führte sie mich zu einer Kiefer. "Das ist für den Igel ", sagte sie über das stachelige Lieblingstier in slawischen Märchen. Sie spießte einen Pilz auf einen Kiefernzweig in Bodennähe.

Das ist dort, wo heute die Radioaktivität am höchsten ist. Die Explosion und das Feuer spuckten hier das Strahlungsäquivalent von mindestens 20 Hiroshima-Bomben aus, das meiste verblieb innerhalb von etwa 25 Meilen um die Reaktorgebäude. Die meisten radioaktiven Isotope sind längst abgeklungen, und der Regen hat den Rest in den Boden und in der Nahrungskette ausgewaschen. Zwei der langlebigsten Isotope sind Cäsium-137, das chemisch mit dem Kalium verwandt ist, und Strontium -90, das wie Calcium in Lebewesen inkorporiert wird. Da diese Isotope von Pflanzen, Tieren, Pilzen und Bakterien aufgenommen wurden, ist die Radioaktivität nicht mehr auf der Zone , sondern auch im Umkreis verteilt.

Dies ist ein einzigartiges Ökosystem, mit ca. 8.000 km² etwa halb so groß wie Thüringen (doppelt so groß wie Rhode Island) und liegt je etwa zur Hälfte in Weißrussland und in der Ukraine. Eine Generation, nachdem die meisten Menschen das Gebiet verlassen haben, haben Wälder und Feuchtgebiete die einst gepflegten Felder, Dörfer und Städte zurückerobert. Nur die gelegentlichen Gerippe von verfallenen Gebäuden sind stumme Zeugen der ehemaligen Bewohner.

Sachepok steckte noch einen Pilz 30 cm höher in dem Baum. "Das ist für die Rehe. Es ist schwer für sie, Nahrung unter dem Schnee zu finden. " Der Tag war Ende Oktober noch warm, aber in der Ukraine sind die Winter kalt.

Nur wenige wilde Tiere lebten im Jahr 1986 in der Region, ihre Lebensräume war für sowjetische Milchviehbetriebe und Kiefernwaldpflanzungen zerstört worden. Aber große Säugetiere tauchten fast unmittelbar nach den Evakuierungen auf – und die Tierpopulationen ist bald explodiert.

Rehe und Wildschwein, die hier in den frühen 1990er Jahren gefangen wurden, waren mit mehr als dem 2.000-fachen der zulässigen Grenzwerte für Cäsium-137 in Fleisch belastet. Obwohl Strahlenbelastung seither dramatisch gesunken ist, überschritten einige Tiere, die vor kurzem in Weißrussland untersucht wurden, die zulässigen Grenzwerte noch einige Dutzende Male.

Aber es ist eine Überraschung für praktisch jeden – die Tiere sahen alle körperlich normal aus. Das gleiche galt für andere untersuchte Arten – sie waren radioaktiv, sahen aber normal aus. Die wenigen bekannten Ausnahmen sind Albino- Spots (Pigmentdefekte?) und einige Missbildungen bei Rauchschwalben.

Aufrecht stehend spießt Sachepok einen Pilz ganz weit oben auf. "Und der ist für den Elch."

Von dem Dutzend Elche, die ich in meinem Leben gesehen habe, befanden sich alle in der Sperrzone, wo ich im Laufe meiner vielen Reisen mehr als einen Monat Zeit mit Recherchen zu meinem Buch „Wormwood Forest: A Natural History of Chernobyl“ verbracht habe. Es ist ein seltsamer und schöner Ort, wo ich Wölfe am helllichten Tag beobachten konnte; Spuren von Luchsen im Schnee und riesige Herden von Wildschweinen, Rehen und Elchen. Es zieht mich nach wie vor dorthin.

Sachepok lächelte spitzbübischer, als man es von einer einsamen Frau in einem radioaktiven Niemandsland erwartet. "Die Tiere kennen mich alle", sagte sie, ein Goldzahn glänzte, bevor sie mir einen Vortrag über gesunde Lebensweise  hielt, eingeschlossen die Warnung vor dem, was sie die "Zombie- Box" nennt – dem Fernsehen.

Ich glaube, sie meinte das politisch, Ukrainisches Fernsehen ist reine Propaganda. Aber wenn es um Tschernobyl geht, ist es nur eine Frage der Zeit, bevor Zombies oder Mutanten auftauchen. Immer, wenn ich jemandem über meine Begegnungen mit Tschernobyls Tierwelt erzähle, sind die Fragen immer die gleichen: Haben sie zwei Köpfe? Leuchten sie? Leuchten Sie?

Tatsächlich fanden Forscher in den Anfangsjahren, als kontaminierter Staub alles überzogen hatte, unzählige Beispiele für die monströsen Mutationen, die man aus Horrorfilmen der 1950er Jahren erwartete: Fehlbildungen, Zwergwuchs , Riesenwuchs , seltsame Gewächse , und, ja – sogar einige leuchtende.

Aber diese Effekte wurden nur an Pflanzen festgestellt. Angriffe von Riesenblättern werden nicht so schrecklich gesehen wie das Unwesen mit dem Atom- Gehirn. In Wirklichkeit hat nach dem Unfall von Tschernobyl niemand jemals ernsthaft deformierte wilde Tiere (oder gar Zombies) gefunden. Mutierte Tiere, die in freier Wildbahn geboren  werden, sterben oder werden gefressen, bevor sie entdeckt werden. Welche biologischen Auswirkungen die Strahlung auch immer auf die Individuen hatten, die Fittesten überlebten.

Tschernobyls üppige und überraschend normal aussehenden Tierwelt hat das Verständnis der Biologen über die Auswirkungen von Radioaktivität durcheinandergewirbelt. Die Vorstellung, dass aus dem weltweit größten radioaktiven Ödland Europas größtes Naturschutzgebiet geworden ist, stellt das Weltbild von jedem auf den Kopf, der hier nukleare Dystopien erwartet.

Die Nachricht ist nicht gut für alle Tiere. Viele Arten, die menschliche Gesellschaft bevorzugen – Schwalben, Störche, Tauben – verließen überwiegend  die Region zusammen mit den Menschen. Auch scheinen kleine Kreaturen anfälliger für die Auswirkungen der Strahlung zu sein als große. Das mag der Grund sein, weshalb eine Studie über die Nagetiere in den 1990er Jahren in der Umgebung von Tschernobyl ein kürzeres Leben und kleinere Würfe aufwiesen als ihre Kollegen außerhalb der Zone. Hirschkäfer hatte ungleiche Hörner. Aber das hatte keinen Einfluss auf ihre Populationsgröße.

Und weil die Gesundheit der Wildtierarten in der Regel durch ihre Anzahl beurteilt wird, anstatt über den Zustand des einzelnen Tieres, gilt Tschernobyls Tierwelt als gesund. Allen Zählungen, die in der Ukraine und in Weißrussland in den letzten 27 Jahren durchgeführt wurden, zeigen eine enorme Vielfalt und Fülle an Tieren. Die vorherrschende wissenschaftliche Sicht der Sperrzone wurde die, dass es ein unbeabsichtigtes Naturschutzgebiet wurde. Diese Schlussfolgerung beruht auf der Prämisse, dass die Strahlung weniger schädlich für Wildbestände ist als wir Menschen.

In dem Bemühen, diese Ansicht in Frage zu stellen, haben Biologen Timothy Mousseau (University of South Carolina) und Anders Moller (Universität Paris) eine Reihe von Papieren veröffentlicht, dass die Populationen von Insekten, Vögeln und Säugetieren in den meisten kontaminierten Regionen Tschernobyl rückläufig seien. Sie behaupten auch, dass die Vögel es vermeiden, in hochradioaktiven Gebieten zu nisten. Gegenteilige Berichte über die Vielfalt von Tieren verweisen sie in das Reich der Fabeln..

Ihre Arbeit hat vor allem nach der nuklearen Katastrophe in Fukushima (Japan) die Aufmerksamkeit der Medien auf sich gezogen, vielleicht, weil es so gut mit der Zombie-/ Mutanten- Erwartung passt.

Eine Phalanx von Experten für Umweltradioaktivität hat jedoch die Methoden und Schlussfolgerungen von Mousseau und Moller in Frage gestellt. Der ukrainische Co-Autor, der die Arbeit vor Ort übernommen hatte, hat ihre Artikel zurückgewiesen, in denen sie behaupten, dass Vögel die radioaktiven Gebiete meiden. Er erzählte dem Magazin Wired im Jahr 2011, dass die Experimente nie darauf ausgelegt waren, um diese Hypothese zu untersuchen.

Ein Makel  der Forschungsarbeit der Wissenschaftler ist, dass sie den unpassendsten Ort untersucht haben. Moller und Mousseau behaupten, dass die größten negativen Auswirkungen auf die Wildbestände in Tschernobyl "an den am stärksten kontaminierten" Orten bestünden – die Verwendung des Plurals suggeriert, sie hätten viele Stellen untersucht. Während die Sperrzone von Tschernobyl viele "sehr belastete" Gebiete umfasst, enthält sie fünf "am stärksten kontaminierten" Reviere. Sie aber untersuchten daraus nur eine Stichprobe , die Roten Wald, eine Kiefernwaldfläche, der rot leuchtete, weil die hohe Strahlung das Chlorophyll zerstört hatte. Der Rote Wald war niedergewalzt, mit Sand überschüttet und es wurden neue Kieferbäumchen angepflanzt. Es ist einer der wenigen Orte, an denen man noch Pflanzenmissbildungen wie kurz nach der Katastrophe sehen kann. Die jungen Bäume sind klein und verkümmert, ähnlich wie verrückt verdrehte Büsche.

Die Fläche sieht überhaupt nicht wie ein natürlicher Kiefernwald aus. Die Vögel, von denen Mousseau und Moller behaupten, sie würden radioaktive Bereiche meiden, meiden eigentlich einen wirklich bizarr aussehenden Lebensraum. Es ist kaum möglich, um Tschernobyl einen Bereich zu finden, an dem es garantiert weniger Tiere gibt als diesen. Dann darauf zu verweisen, dass die wenigen Tiere im Roten Wald stellvertretend für die verbleibenden 99,098 Prozent des Sperrgebiets seien, ist so, als würde man behaupten, dass die Zahl der Tiere im Yellowstone- National Park abnimmt, weil man nur wenige Spinnen auf dem Parkplatz gefunden hat.

Tief im Inneren der Zone , wo die anderen "am stärksten kontaminierten" Bereiche sind und keine Menschen leben, gibt es in Belarus ein wieder entstandenes Moor, wo ich einmal eine erstaunliche Vielzahl von Enten, Reihern, Schwänen und ganz seltene Schwarzstörche in einer heiseren , kreischenden Wolke aufstieben sah, während ein Elch uns von der anderen Seite der Straße beobachtete. Der Hlyboke-See, der bei weitem radioaktivste Wasserweg der Welt, ist ein anderer "am stärksten kontaminierter" Ort. Dort entdeckte ich bei einem Besuch einen Birkhahn, eine Herde Rebhühner und drei Rehe innerhalb einer Stunde. Eine Studie ergab 2011, dass die Artenvielfalt dort größer ist als in jedem anderen See bei Tschernobyl.

Mousseau räumte in einer E-Mail ein, dass "es durchaus möglich ist, dass es mehr Tiere in den radioaktiven Bereichen" außerhalb der Orte gibt, die er und Moller untersucht haben. Aber er sagte gegenüber der New York Times, dass "insgesamt ein Mythos sei, zu behaupten, dass die Häufigkeiten von Tieren in der Sperrzone von Tschernobyl größer sei." Und per E-Mail fuhr er fort zu behaupten , wie er es viele Male tat, dass niemand jemals häufiger vor Ort war tatsächlich Tiere gezählt hat – das sogar, obwohl Weißrussland von 2005 bis 2007 systematische Untersuchungen und selektive Zählungen an Tieren durchgeführt hat.

Diese Studien fanden eine Vielfalt und Fülle an Säugetieren vergleichbar mit der eines Naturschutzgebietes mit seltenen Arten wie Bären, Luchse, Fischotter und Dachs sowie ausgewilderten Herden von Wisenten und Przewalski- Pferden. Die Vielfalt an Vögeln ist noch reichhaltiger und umfasst 61 seltene Arten. Singschwäne – nie zuvor in der Region beobachtet, sind jetzt dort regelmäßig zu finden.

Mousseau sagt, sie hätten ihre Forschungsprotokolle als Reaktion auf einige ihrer Kritiker abgeändert, aber nichtsdestotrotz haben er und Moller sich nicht aus dem Roten Wald herausgewagt, um tiefer in den anderen "am stärksten kontaminierten" Orten der evakuierten Zone um Tschernobyl zu forschen. Es wäre eine Schande für die Wissenschaft, wenn sie es nicht täten, da sie zu den wenigen westlichen Wissenschaftlern gehören, die in dieser Region Forschung betreiben. Bis sie einen sinnvolleren Zusammenhang zwischen der Auswirkung der Strahlung auf die Reichhaltigkeit der Fauna finden, gelten ihre umfassenden Behauptungen über eine abnehmende Tierpopulation wirklich nur für eine sehr wenig repräsentativen Ort.

Die Kontroversen werden idealerweise zu besser konzipierte Studien anspornen, vielleicht sogar von den Kritikern. Es ist Zeit für ein erneutes Interesse an den Auswirkungen der Strahlung auf Tschernobyls Tierwelt. Mehr als ein Vierteljahrhundert sind seit dieser Katastrophe vergangen. Fukushima hat uns gezeigt, es wird in der Zukunft noch weitere geben.

Wenn wir Entscheidungen über eine neue, intelligente Energieversorgung (smart energy) treffen wollen, muss die Wissenschaft eine Menge mehr über die Risiken lernen, welche mit der Umweltradioaktivität auf niedrigem Niveau zusammenhängen. Wir wissen noch nicht, wie sicher wirklich sicher ist. Das nukleare Ödland ist ein natürliches Laboratorium, um viele dieser Fragen zu stellen.

In der Zwischenzeit  ist aber Entspannung angesagt. Tschernobyls radioaktive Kreaturen sind nicht überall – wenn wir sie weiterhin in Ruhe lassen.

Mary Mycio ist die Verfasserin des Buches  Wormwood Forest: A Natural History of Chernobyl. Sie berichtete für die Los Angeles Times über die Ukraine. Ihr neuestes Buch Doing Bizness, ein Thriller über Nuklearschmuggel, ist als E-Book bei Amazon zu erhalten.

mit freundlicher Genehmigung von Mary Mycio Übersetzt von Rudolf Kohler




Fata Morgana: Potsdamer Hypothese überwiegend menschengemachter Hitzewellen bestätigt sich nicht

80 Prozent der beobachteten monatlichen Hitzerekorde wären ohne den Einfluss des Menschen auf das Klima nicht zustande gekommen, erklärt das Autoren-Team aus dem Potsdam-Institut für Klimafolgenforschung (PIK) und der Universidad Complutense de Madrid. „In den letzten zehn Jahren gab es beispiellose Hitzewellen wie 2012 in den USA, 2010 in Russland, 2009 in Australien oder 2003 in Europa“, sagt Leitautor Dim Coumou. […] „Statistiken allein können uns nichts über die Ursache einzelner Hitzewellen sagen, aber sie zeigen uns eine große und systematische Zunahme der Anzahl von Hitzerekorden durch den Klimawandel“, sagt Stefan Rahmstorf, Ko-Autor der Studie und Leiter des Forschungsbereichs Erdsystemanalyse am PIK. „Heute ist diese Zunahme schon so groß, dass die große Mehrheit monatlicher Hitzerekorde vom Klimawandel verursacht wird. Unsere Forschung zeigt klar, dass nur ein kleiner Teil aufgrund natürlicher Faktoren stattgefunden hätte“. 

Alarm aus Potsdam ist nichts Neues. Aber haben die PIK-Forscher mit den Hitzewellen diesmal vielleicht recht? Irgendwo muss sich dieser Klimawandel, von dem alle sprechen, doch bemerkbar machen. Schauen wir einmal nach, was die seriöse Wissenschaft zu den von Dim Coumou aufgezählten Hitzewellen sagt. Laut PIK-Statistik sollten mindestens drei der vier genannten Hitzewellen vom Menschen verschuldet worden sein.

Beginnen wir mit der Hitzewelle in den USA 2012. Hierzu erschien vor wenigen Monaten in den Geophysical Research Letters eine Studie eines NOAA-Teams um Arun Kumar. Das Ergebnis der Untersuchung fällt deutlich aus. Die Hitzewelle liegt im Bereich der natürlichen Schwankungsbreite, und es besteht kein Anlass, eine Beteiligung des CO2-Treibhauseffektes anzunehmen. In der Kurzfassung der Arbeit schreiben die Autoren:

…it is concluded that the extreme Great Plains drought did not require extreme external forcings and could plausibly have arisen from atmospheric noise alone. 

Weiter mit der nächsten Hitzwelle, der 2010 in Russland. Auch hierfür liegt eine NOAA-Studie vor, die 2011 in den Geophysical Research Lettersveröffentlicht wurde. Randall Cole und Kollegen fanden dabei, dass auch hier vor allem natürliche Prozesse eine Rolle spielten und der Mensch keinen signifikanten Anteil an der Entwicklung hatte. Die Kurzfassung der Arbeit lässt hieran keine Zweifel:

 Analysis of forced model simulations indicates that neither human influences nor other slowly evolving ocean boundary conditions contributed substantially to the magnitude of this heat wave. They also provide evidence that such an intense event could be produced through natural variability alone. Analysis of observations indicate that this heat wave was mainly due to internal atmospheric dynamical processes that produced and maintained a strong and long-lived blocking event, and that similar atmospheric patterns have occurred with prior heat waves in this region. We conclude that the intense 2010 Russian heat wave was mainly due to natural internal atmospheric variability. Slowly varying boundary conditions that could have provided predictability and the potential for early warning did not appear to play an appreciable role in this event.

Wieder spielte der Klimawandel offenbar keine große Rolle. Schauen wir daher auf die Hitzewelle 2009 in Australien. JoNova erarbeitete hierzu eine Aufstellung von acht Argumenten, weshalb die Hitzewelle nicht auf den menschlichen CO2-Ausstoss zurückgehen kann. Darunter findet sich auch eine beeindruckende Übersicht von australischen Hitzerekorden der letzten 100 Jahre, die durch die Hitzewelle von 2009 nicht gebrochen wurden.

Schließlich befassen wir uns noch mit der Hitzewelle in Europa 2003, die ebenfalls vom PIK als angeblicher Hinweis auf einen menschengemachten Klimawandel zitiert wird. Ein US-amerikanisch-französisches Team um Thomas Chase hatte die Hitzephase untersucht und berichtete in einem Artikel in den Geophysical Research Letters Erstaunliches:

(1) Extreme warm anomalies equally, or more, unusual than the 2003 heat wave occur regularly. […] (4) Natural variability in the form of El Niño and volcanic eruptions appear to be of much greater importance in causing extreme regional temperature anomalies than a simple upward trend in time. Extreme temperature anomalies in the wake of the 1997–98 El Niño were larger than the anomalies seen in summer 2003 both in area affected and SD extremes exceeded. (5) Regression analyses do not provide strong support for the idea that regional heat waves are increasing with time.

Böse Überraschung: Entgegen der PIK-Behauptung deutet keine der vom PIK zitierten Hitzewellen auf einen menschlichen Einfluss hin. Erneut bewegt sich das Potsdamer Institut fernab des wissenschaftlichen Mainstream und fällt durch wissenschaftlich unbelegbare, extreme Interpretationen aus dem seriösen Rahmen. Die PIK-Pressemitteilung wurde seinerzeit von einer Vielzahl von Medien ungeprüft einfach übernommen. Besonders eifrig tat sich dabei der “Versicherungsbote – Informationen für Versicherungsmakler” hervor. Sicher nicht ganz uneigennützig verbreitete man gerne die schlechte PIK-Nachricht. Denn je mehr Extremwetterangst in der Gesellschaft gesät werden kann, desto besser laufen dann auch die Extremwetter-Versicherungsgeschäfte, keine Frage. Es ist dabei sicher nur ein Zufall, dass Rahmstorf eng mit der Münchener Rück Versicherung verbandelt ist. Und auch heute noch fließen Fördergelder der Versicherungswirtschaft an das PIK, wie die offizielle Fördermittelliste des Instituts belegt.




PISA nur für Grüne. OECD Studie zur Bildung Erwachsener legt schwedische Kernkraftwerke einfach still !

Ein kurzer Blick in die schwedische Energiestatistik zeigt hingegen drei sehr aktive Kernkraftwerke und zwei stillgelegte. Die aktiven tragen ca. 39 % (1) zur schwedischen Stromerzeugung bei. Bei den Befragten wird damit der Eindruck erweckt Schweden hätte seine Kernkraftwerke stillgelegt.

Das im entscheidenden Satz von den Machern der Studie der Ort Barsebäck erwähnt wird, ändert an der erhofften Wirkung der Satzaussage nichts. Er gleicht darin in seiner raffinierten Konstruktion der Aussage der Tagesschau vom 11. März 2013 über die Fukushima Katastrophe. Auch die Macher der Tagesschau wussten sehr wohl was sie bezweckten als sie verkündeten:

„Japan gedenkt Opfer der verheerenden Erdbeben- und Tsunamikatastrophe vor 2 Jahren. Ein Beben der Stärke 9 hatte den Nordosten des Landes erschüttert und eine Tsunamiwelle ausgelöst. In der Folge kam es zu einem Reaktorunfall im Kernkraftwerk Fukushima. Fast 16.000 Menschen starben. Tausende gelten noch als vermisst.”

Sie manipulieren mit Sprache  um "Bildung" zu messen. Kein so verwegener Gedanke, seit George Orwells 1984.

Bild 1 Lage und Anzahl der schwedischen Kernkraftwerke.

Dagegen deckt die Einspeisung von Windenergie in Schweden trotz massiver Aufrüstung (2012) nur knapp 4 % des Verbrauches an Elektroenergie.

Vom Ersatz auch nur eines Kernkraftwerkes durch die Windenergie ist Schweden wegen der natürlichen Volatilität und dem Mangel an Speichern ebenso weit entfernt, wie der Mond von der Erde.

Und auch im vielgeliebten Vergleichen von Unvergleichbaren leistet die PIACC Studie Zeitgeist gesteuerte Desinformation. 

Die Frage 1 der Aufgabe 11 lautet nämlich:

"Wievieie Windkraftanlagen werden gebraucht, um den vom Atomreaktor erzeugten Strom zu ersetzen." 

Die fachlich richtige Antwort müsste lauten:

595 plus 1 Atomkraftwerk der Größe Barsebäck. Oder schlicht Null, denn auch die schwedischen WKA´s liefern bei Windstille keinen Strom.

Eine Kernkraftwerk dagegen immer, wenn man ihn braucht. 

Keinen Strom zu haben wäre für Schweden noch misslicher und teurer als hierzulande , denn dort liegt der Verbrauch mit ca. 15 MWh pro Kopf der Bevölkerung und Jahr (drittgrößter Verbraucher in Skandinavien.) um das 2,2 fache über den bundesdeutschen Durchschnitt. http://www.indexmundi.com/map/?v=81000&l=de.

Fazit:

Hier wird eine Studie vorgelegt, die vorgibt den Bildungsstand messen zu können, und deren Erstellung viele, viele Millionen Euro an Steuergeldern verschlungen hat. Jetzt stellt sich heraus, dass die Autoren den grünen Zeitgeist sehr viel höher bewerten, als echte Kenntnisse, zumindest im Bereich: Alltagsmathematische Kompetenz, die sie ja behaupten abzufragen. 

Bild 2: Leiter der OECD Gruppe zur Bildung Andreas Schleicher. Bild Wikimedia Commons

Die PIACC Autoren können vielleicht rechnen aber keinerlei naturwissenschaftlichen Zusammenhänge erkennen. Bildung sieht anders aus. Mit Sicherheit hat der Leiter dieser Studie der Deutsche Andreas Schleicher neben George Orwell seinen alten Schwanitz sehr verinnerlicht. Der meinte (aus seiner Sicht zu recht):

Naturwissenschaft gehören nicht zur (deutschen) Bildung.

Michael Limburg

(1) Quelle entsoe.eu unter publications/statistics. Mit Dank an Leser Stegner

mit Dank an Leser Franz und Hinweise auf diese Website