10. IKEK – Brexit – Großbritanniens Abschied von der Klimapolitik? -Vortrag von Dr. Benny Peiser

Nun waren es sogar zwei und beide gänzlich zumindest von Politik und Mainstream Medien wie auch Demoskopen völlig unerwartet.

Peiser ist Direktor der UK Think Tanks „Global Warming Policy Foundation“ (GWPF) und berichtet über die kommenden Auswirkungen, die seiner Meinung nach, beide Ereignisse auf die UK-Klima- und Energiepolitik haben werden.




Energiebilanz 2016

Wo bleibt das Positive? Nicht immer nur das Schlechte, das Negative sehen, bringt nur Magenverstimmung, sondern frisch den Blick gewendet und Erfolgsmeldungen gesucht.
Zum Beispiel hier: Die FAZ berichtet über ein positives Ergebnis an der Energiewendenfront. »Der Strom in Deutschland kommt immer häufiger aus erneuerbaren Energieträgern und immer weniger aus Kohle. Fachleute in Berlin haben dafür im vergangenen Jahr vor allem einen Grund gefunden.«
Schreiben sie klickhaschend über eine Bilanz für das Jahr 2016, wie sie jetzt in der Schrift »Die Energiewende im Stromsektor: Stand der Dinge 2016« vorgelegt wurde. Die Fachleute sind die von der Berliner Denkfabrik Agora Energiewende. Wem bei den Begriffen »Denkfabrik«, »Energiewende« und Berlin ein lautes Lachen überkommt, sollte sich doch bitte sehr strikt an das positive Denken halten und die feinsinnigen Sätze des Chefs genießen: »Bleibt das System der Abgaben und Umlagen, wie es ist, so ist bis 2023 ein weiterer Anstieg der Strompreise absehbar“, sagte Agora-Direktor Patrick Graichen. Erst danach kommen die »Ernte-Jahre« der Energiewende.« Wie alle Heilsversprechen: Und siehe, nach sieben mageren Jahren kommen fette.
Zunächst aber wird es noch magerer. Die »Fachleute« berichten von Strompreisen, die in diesem Jahr schon über 30 Cent pro Kilowattstunde liegen dürften. Das treibt dann die letzten Unternehmen aus Deutschland. Für den Sieg müssen Opfer gebracht werden.

WIRD WEITER BLIND GEGLAUBT?
Das ABC von Energiewende und Grünsprech 26: Energiewende 6
Energiewelt im Umbruch – alles unter Kontrolle oder ökoreligiöser Blindflug? Täglich…

Die »Fachleute« dieser Lobby-Organisation entpuppen sich als rechte Energiefachleute: Der Agora-Chef hat in Volkswirtschaft und Politikwissenschaft gemacht. Die stellvertretende Direktorin: Volkswirtschaft und Politikwissenschaft. Ein weiterer stellvertretender Direktor Wirtschaftsgeschichte, Politikwissenschaft. Erinnert an jene unselige »Ethikkommission für eine sichere Energieversorgung«, die 2011 den von Merkel erwünschten gesellschaftlichen Konsens produzierte, dass alle Kernkraftwerke sofort auszuschalten seien. Mitglieder waren damals unter anderen ein Bischof, ein Chef der deutschen Katholiken, ein umstrittener Soziologieprofessor, eine »Philosophin«. Nur war niemand dabei, der etwas von Kraftwerken verstand, von Energieerzeugung und Stromtransport, von Netzfrequenz. Blindleistung muss was aus der Optik sein. Auch beim Denktank stören niemanden mehr solche komplizierten präfaktischen Begriffe wie Energie und Leistung. Man kann erzählen, dass jede dritte Kilowattstunde Solaranlagen und Windräder lieferten. 32,3 Prozent – die Jubelmeldung der Energiewenden-Propaganda-Kompanie – so viel Anteile am Stromverbrauch kämen aus »erneuerbaren Energien«.
Nur wann? Das zeigt der Verlauf des vergangenen Jahres. Den überwiegenden Anteil an der Stromversorgung lieferten die konventionellen Kohle- und Kernkraftwerke. Mit der Lupe muss man den Anteil von Wind- und Wasserkraft suchen. Auffallend die heftigen Spitzen, wenn ein kräftiger Wind weht. Wenn der nicht die Windräder umwirft oder zum automatischen Abschalten zwingt, bringt er die Netzbetreiber zur Verzweiflung. Die wissen nicht wohin, mit dem plötzlichen vielen Strom, müssen viel Geld in die Hand nehmen und den Strom mit ein paar Millionen Euro versüßt irgendjemanden aufs Auge drücken, der etwas damit anfangen kann.
energieerzeugung_2016
Unter den Augen grüner Naturschützer werden dafür riesige Waldgebiete zerstört und mit Windrädern zugepflastert. Zudem eine beispiellose Zerstörung der Landschaft, um einigen wenigen Windrad-Haien fürstliche Renditen zu garantieren. Und dennoch stieg der Anteil aus Windrädern und Sonnenanlagen nur um 0,8 Prozentpunkte, also im Verhältnis zum extrem starken Ausbau ein sehr schwacher Zuwachs an »grüner« Stromlieferung.
Denn 2016 war ein »schlechtes« Wind- und Sonnenjahr. Also Industrieproduktion runterfahren? Nein, Deutschland noch weiter zupflastern, die Antwort des Denktank-Chefs Patrick Graichen: »Daraus können wir für die weitere Energiewende lernen, dass sich der Ausbau der erneuerbaren Energien an den regelmäßig auftretenden schlechten Windjahren orientieren sollte. Denn nur dann ist der Klimaschutz im Energiesystem wirklich gesichert.«
Doch Flaute mal Millionen von Windrädern liefert immer noch Flaute, null Strom. Nichts. Niente. OK, das ist vielleicht noch alten Ingenieuren und Kraftwerksexperten klar, die noch was von Energie und ihrer Erzeugung verstehen. Die wissen, dass für jede Kilowattstunde aus irgendeinem Windrad, aus irgendeiner Solarzelle Kapazitäten aus konventionellen Kraftwerken vorgehalten werden müssen, die also zunächst in der Landschaft stehen und natürlich bezahlt werden müssen. Wenn dann Wind und Sonne versiegen, müssen diese konventionellen Kraftwerke wieder ran.
Mist, wir aber wollten das Positive sehen.
Die Strompreise haben sich gegenüber früher nur vervierfacht. Doch »nach der Bundestagswahl sollte die Energiepolitik daher das System der Steuern, Abgaben und Umlagen auf Energie komplett überarbeiten. Denkbar wäre es etwa, die Stromkosten zu senken, und die Abgaben und Umlagen auf klimaschädliche Energieträger wie Kohle, Heizöl, Diesel, Benzin und Gas zu verlagern.« Meint Graichen. Dann dürften die Grünen nichts mehr zu sagen haben, SPD- »Energieexperten« und CDU-Energiewendegewinnler hoffentlich verstummt sein. Man kann darüber reden, wie man die Energieversorgung Deutschlands wieder auf die Füße stellt und kalkulieren, wie lange es dauert und was es kostet und wer es bezahlt, bis die Windräder wieder abgebaut sind und die Wälder sich erholt haben.
Wir wollten ja das Positive sehen.
Also: Wo bleibt es? Die Grünen jubeln: In Baden-Württemberg kommen schon beachtliche 1,1 Prozent des gesamten Stromverbrauches aus Wind und bereits 6,5 Prozent aus Photozellen. 30 Prozent liefert der letzte Kraftwerksblock des Kernkraftwerkes Philippsburg. Der rettet bisher die Stromversorgung, ist noch nicht abgeschaltet, wird aber bald. »Planmäßig«, wie das so schön heißt, volle Durchdachtheit und Kontrolle suggerierend.




Bitte zahlen, Klimaschutz kostet

Immer undurchschaubarer: Deutsche Energiepolitik

Freuen Sie sich. Jetzt im neuen Jahr wird der Strom noch teurer als schon bisher. Warum freuen? Ist doch klar. Klimaschutz kostet, der Glaube daran auch. Oder wollen Sie das Klima auf der Erde etwa nicht schützen – mit Strom aus Wind, Sonne und „Biogas“? Na also, dann greifen sie jetzt gefälligst tiefer in die Tasche, ohne zu jammern und zu klagen. Das gilt natürlich nur für die Klimaschutz-Gläubigen, denn die meisten meiner Leser gehören nach meinem Eindruck nicht dazu. Sie nämlich wissen, was es mit dem „Klimaschutz“ und der „Energiewende“ wirklich auf sich hat. Immerhin mit 94 Beiträgen seit 2008 habe ich versucht, zu diesem Thema aufklären zu helfen. Wahre Klimaschutz-Gläubige lesen so etwas nicht, wenden sich ab, sind unbelehrbar. Motto: Verwirr mich nicht mit Tatsachen. Unbelehrbar bin auch ich. Darum mache ich mit dem Aufklären weiter. Für Klimaschutz-Gläubige ist das Folgende natürlich nichts; es wird sie im wahren Glauben nur stören, nicht beirren. Ihre politischen Seelsorger werden sich ob dieser Tumbheit behaglich zurücklehnen.

Der Staatseingriff läuft ab wie im Lehrbuch

Mit Jahresbeginn 2017 haben die Altparteien im Bundestag das „Erneuerbare-Energien-Gesetz“ (EEG) verändert. Vor allem soll die Subventionierung (Fördersätze) per Ausschreibung ermittelt werden. Das gaukelt innerhalb des massiven Staatseingriffs in den Markt für Strom durch die unsägliche „Energiewende“ etwas Wettbewerb vor. Immerhin etwas. Aber was bedeuten die Ausschreibung und die anderen Änderungen in der praktischen Auswirkung für die Bürger? Die allermeisten von ihnen werden den Ein- und Überblick jetzt erst recht verlieren. Denn alles, was bisher schon überaus kompliziert war, ist nun noch komplizierter geworden. Der Staatseingriff nämlich läuft ab wie in einem ordnungspolitischen Lehrbuch der Nationalökonomie, wie es einst Ludwig von Mises beschrieben hat, der große Lehrmeister der „Wiener Schule“ der liberalen Nationalökonomie, auch „Österreichische Schule“ genannt.

Dem ersten Eingriff folgen immer weitere

Der unweigerliche Ablauf staatlicher Eingriffe in den Markt ist kurzgefasst und allgemein formuliert dieser: Die erste Intervention löst bei Marktteilnehmern Widerstands- und Ausweichbewegungen aus. Damit die Intervention nicht ins Leere läuft, muss der Gesetzgeber ergänzende Regelungen beschließen, um diese Reaktionen zu unterbinden. Da die Wirklichkeit und das Geschehen an Märkten sehr komplex sind und Politiker den Einfallsreichtum der Marktteilnehmer für Gegenreaktionen meist unterschätzen, ist der Gesetzgeber zur Erkenntnis gezwungen, dass er abermals etwas nicht berücksichtigt hat, und er muss wiederum eingreifen. Es kommt zu übergreifenden Folgen auf vor- und nachgelagerten Märkten, auch auf dem Markt für Arbeit mit Folgen für die beschäftigten Menschen.

Ludwig von Mises darf sich bestätigt sehen – wieder einmal

Marktreaktionen und Politikreaktionen schaukeln sich hoch, die anfängliche Intervention macht weitere Eingriffe nötig, sie gewinnt zwangsläufig immer mehr an Dichte. Die Unternehmen werden mit einem bürokratischen Tüftelwerk überschüttet und in ihrer eigentlichen Arbeit behindert, für die Bürger wird das Geschehen mehr und mehr unüberschaubar, und die eigentlichen Ursachen verschwimmen im dunstigen Nirgendwo. Zum Zustand vor der ersten Intervention zurückzukehren, was das Beste wäre, scheitert schon an der Furcht vor den Folgen, die zunächst auch eine Rückkehr mit sich bringt. Schlimmer noch: Weitet sich der staatliche Interventionismus über immer mehr Bereiche aus, führt er letztlich nicht nur in eine ganz andere wirtschaftliche, sondern auch in eine ganz andere politische Gesellschaftsordnung: in den Sozialismus. Ludwig von Mises darf sich bestätigt sehen – wieder einmal, auch wenn es ihn in seinem Grab graust.

Was die EEG-Novelle in ihrem Kern bedeutet

Zurück zur EEG-Novelle vom 1. Januar 2017. In ihrem Kern bedeuten deren Änderungen kurzgefasst dies: Mit dem subventionierten Aufstellen von Windkraftanlagen (WKA) geht es munter weiter. Strom aus Windkraft ist für die Investoren nach wie vor hochattraktiv. Billiger wird der Strom durch die Ausschreibung nicht, er verteuert sich weiterhin. Das Regelwerk ufert noch mehr aus, die EEG-Bürokratie wird zum Moloch.

Für die Bürger noch undurchschaubarer

Im einzelnen: Die Energiewende-Politiker wollen sich von ihrer Verantwortung für die zu hohen, staatlich durch das EEG festgelegten Strompreise wegstehlen. Sie gaukeln innerhalb des massiven Staatseingriffs in den Markt etwas Wettbewerb vor, indem sie die Subventionierung („Fördersätze“) per Ausschreibung „durch den Markt“ ermitteln lassen: Wer sich mit der geringsten Subvention (Fördersatz, Einspeisevergütung) zufriedengibt, erhält für den Bau den Zuschlag, also die Baugenehmigung. Auch wird das ganze Regelwerk nun noch umfangreicher und für die Bürger noch undurchschaubarer. Letztlich läuft das darauf hinaus, dass in deren Visier (wegen der weiteren Stromverteuerung) mehr die Stromerzeuger geraten und weniger die wirklich verantwortlichen (und verantwortungslosen) Wendepolitiker.

Windkraftanlagen für die Betreiber nach wie vor sehr attraktiv

Aber mit dem subventionierten Aufstellen von Windkraftanlagen (WKA) geht es weiter, der Ausbau wird nur etwas abgebremst. Vorerst. Dagegen ist das Errichten zusätzlicher Photovoltaik- und Biogasanlagen, seit Gabriel die Vergütungen gekürzt hat, quasi tot. Bei den Windkraftanlagen gibt es zwar ebenfalls eine Deckelung, doch soll sie „flexibel“ gehandhabt werden, zum Beispiel in dem, was schönfärberisch „Bürgerwindparks“ genannt wird. Doch ist Strom aus Windkraft für die Investoren nach wie vor hochattraktiv, vor allem an küstennahen Standorten (vergleichsweise viel Wind). Die WKA-Bauer hier können also bei der Ausschreibung mit geringerem Subventionsbedarf (mit geringeren Fördersätzen) punkten.

Die Sonderregelung für Schwachwindgebiete

In Schwachwindgebieten dagegen ziehen Investoren den Kürzeren. An sich. Denn eben darum gibt es für sie eine Sonderregelung („Referenzertragsmodell“). Der Sinn: Je schwächer der Wind, desto höher die Subvention. Warum? Weil sonst im Binnenland keine WKA mehr gebaut würden. Das gilt vor allem für Baden-Württemberg, wo es die 10H-Regelung (noch) nicht gibt – anders als in Bayern und Sachsen, wo diese Regelung den Ausbau massiv beschränkt. Daher konzentrieren sich die WKA-Bauer jetzt besonders auf Baden-Württemberg, solange dort diese Regelung nicht ebenfalls eingeführt ist. Geplant und errichtet wird hier „auf Deubel komm’ raus“.

Was die 10H-Regelung besagt

Die 10H-Regelung besagt: WKA müssen zu Wohngebäuden einen Mindestabstand einhalten, der das Zehnfache ihrer (Flügel‑) Höhe ausmacht, eingeführt in Bayern 2014. Großer Protest der WKA-Profiteure mit ihren einschlägigen Politikern: Das mache WKA – oh Schreck lass nach – auf nur noch 0,05 Prozent der Landesfläche sinnvoll – rechtlich, technisch und wirtschaftlich; der Ausbau werde weitgehend gestoppt. Eben das aber war und ist der Sinn.

Mit jeder neuen Windkraftanlage steigt die Subventionssumme

Billiger wird der Strom durch die Ausschreibung nicht, denn: Je mehr WKA entstehen, desto größer wird die Subventionssumme, und die wird umgelegt auf die Stromverbraucher. Für sie also wird der Strom zwangsläufig immer teurer, und billigen Strom aus den herkömmlichen Kraftwerken gibt es dann (im Strom-Mix mit dem EE-Strom) immer weniger (wegen der Vorrangeinspeisung für EE-Strom). Und weil diese herkömmlichen Kraftwerke nur produzieren dürfen, wenn die EE-Anlagen den Strombedarf nicht voll zu decken vermögen (kein Wind, keine Sonne), wird ihr Strom ebenfalls teurer. Sie erhalten Ausgleichszahlungen dafür, dass sie ihre Werke in Dauerbereitschaft halten müssen, aber Strom nur gelegentlich liefern dürfen. Auch diese Ausgleichszahlungen werden den Stromverbrauchern im Strompreis aufgeladen.

Heute 25.000 Windkraftanlagen, 2050 weit über 60.000

Derzeit tragen EE-Anlagen rund 33 Prozent zur deutschen Stromerzeugung bei. Dieser Anteil soll bis 2050 auf 80 Prozent steigen. Derzeit stehen in Deutschland rund 25.000 WKA. Im Jahr 2050 wären es dann weit über 60.000. Doch gibt es Wettersituationen, wo alle WKA überhaupt keinen Strom erzeugen, unabhängig davon, wieviele Anlagen es sind. Denn 25.000 WKA liefern bei Windstille genauso wenig Strom wie 60.000, nämlich null. Das gleiche gilt für Photovoltaik-Anlagen mit ihrem Strom aus Sonnenschein. Es kommt auch vor, dass Wind und Sonne gleichzeitig nicht verfügbar sind. Daher muss die Erzeugungskapazität der herkömmlichen Kraftwerke stets so ausgelegt sein und beibehalten werden, dass sie ohne Wind und Sonne auch die zeitweise höchstbenötigte Strommenge liefern können.

Die Energiewende-Politik zwingt eine doppelte Stromerzeugungs-Infrastruktur auf

Das gilt besonders von 2022 an, wenn das letzte Kernkraftwerk stillgelegt wird und statt ihrer zusätzliche herkömmliche Kraftwerke benötigt werden. Diese Kapazität der mit fossilen Rohstoffen betriebenen Kraftwerke wird auch weiterhin bestehenbleiben müssen – gleichgültig, wieviel WKA und Solarstromanlagen auch immer sonst noch errichtet werden. Deutschland wird also ohne seine heutige fossile Kraftwerkskapazität nicht auskommen und sie im Stand-by-Betrieb weiterlaufen lassen müssen. Deshalb zwingt uns die Energiewende-Politik eine weiterhin doppelte Stromerzeugungs-Infrastruktur auf, als wenn wir uns die leisten könnten. Sonst wäre die Sicherheit unseres Stromnetzes dahin. Aber bei Starkwind und immer mehr WKA wird der Windstromüberschuss immer mehr zunehmen und damit auch dessen Kosten für die Verbraucher.

Woran die EEG-Novelle kein bisschen ändert

Erstens ist Strom aus „Erneuerbaren Energien“ (EE) – zutreffender: „alternative Energien“, denn Energie ist nicht erneuerbar, nur umwandelbar in andere Energieformen – technisch nicht sinnvoll (zu geringe Energie- und Leistungsdichte sowie nicht ständig nach Bedarf verfügbar), denn: Wind weht unregelmäßig oder auch gar nicht (in ganz Deutschland gibt es jeden Monat Tage, an denen tatsächlich kein Wind weht); nachts scheint üblicherweise überhaupt keine Sonne und tagsüber auch nicht immer; und Strom kann man in der nötigen Größenordnung ökonomisch sinnvoll nicht speichern. (Technisch zwar geht fast alles, es ist aber viel zu teuer und damit also wirtschaftlich Unsinn. Alle diesbezüglichen Versuche sind erfolglos geblieben.)

Zweitens ist EE-Strom wirtschaftlich unnötig teuer. Das ursprünglich einmal verkündete Ziel der Bezahlbarkeit hat sich ins Gegenteil verkehrt.

Drittens vermindert die Erzeugung von EE-Strom den Ausstoß von menschenverursachtem (anthropogenem) CO2 nicht.

Die Menschen werden an der Nase herumgeführt und lassen es mit sich geschehen

Lassen Sie sich also von den Energiewende-Politikern und den ihnen folgsamen, kritiklosen Medien nichts vormachen, nichts vorgaukeln. Deren Politik ist ein verantwortungsloses Abenteuer, das von der einst verlässlichen und preiswerten Stromerzeugung in eine überregulierte, unwirtschaftliche und für die privaten Stromverbraucher viel zu teure Stromerzeugung schon jetzt geführt hat. Dazu kommen die vielen Kollateralschäden, darunter die Zerstörung von Landschaften, von fliegendem Getier, von Küstengewässern, von Wohngebieten vieler Menschen, denen die Windkraftanlagen trotz Hunderter von Bürgerinitiativen vor die Nase gesetzt werden. Politiker, Medien und Profiteure führen die Menschen an der Nase herum, und die meisten der Getäuschten merken es noch immer nicht oder vermögen sich zur großen Auflehnung nicht aufzuraffen.

Dieser Artikel erschien zuerst auf dem Blog des Autors.




Schreckliche Gefahren durch geringe Strahlendosen?

Verfasser ist eine Frau Jacqueline Roussety. Sie hat eine Schauspiel- und Regieausbildung hinter sich gebracht und dann noch etwas Deutsche Literatur und ähnliches studiert. Jetzt bezeichnet sie sich als Journalistin.
Soll man sich überhaupt darum kümmern, was eine ganz unbekannte Journalistin in einer ziemlich unbekannten online-Zeitschrift (EPOCH TIMES) an Unzutreffendem über biologische Strahlenwirkungen schreibt, oder kommt es in seiner Bedeutung dem in China umgefallenen Sack Reis gleich?
Für sich betrachtet schon, aber leider ist solches Geschreibsel eine Massenerscheinung. Die inkompetentesten Menschen äußern sich zu diesem Thema, und das auch in bedeutenden Medien. Stets stützen sie sich auf angebliche oder auch wirkliche Wissenschaftler, wählen aber nur Anti-Atom-Leute aus. Tatsächlich gibt es ein weites Spektrum, nachfolgend einige Beispiele:

  1. In Taiwan wurden etwa 10.000 Personen in Wohnungen unabsichtlich einer Strahlendosis von je 400 Millisievert (mSv) ausgesetzt. Anstatt der normalerweise erwarteten 232 Krebsfälle gab es nur 7 (Chen, W.L. u.a. 2004).
  2. Amerikanische Werftarbeiter erhielten beim Bau von Atomschiffen jeweils Dosen um 100 mSv. Deren Krebsrate war um 15 % niedriger als bei Arbeitern in nicht-nuklearen Werften.
  3. Über Beschäftigte in kerntechnischen Anlagen gibt es eine Vielzahl von Studien, immer mit mehreren 100.000 Personen. Die Auswertungen, weitgehend bezogen auf dieselben Personengruppen, ergaben Krebsraten von 60 % bis 110 % gegenüber nicht strahlenexponierten Vergleichsgruppen.
  4. In Fukushima sind aufgrund der äußeren Strahlenbelastung zwischen 20.000 und 80.000 Krebsfälle zu erwarten (IPPNW, International Physicians for the Prevention of Nuclear War). Anmerkung: Höheren Strahlendosen als 30 mSv waren nur einige Arbeiter ausgesetzt.
  5. Es gibt keine Dosis-Wirkungs-Beziehung. Strahlung aus Kernkraftwerken wirkt auch dort, wo man nichts messen kann. Sie tötet vor allem weibliche Embryos und hat in Deutschland und der Schweiz die Geburt von 20.000 Mädchen verhindert (Dr. Hagen Scherb, Mitarbeiter des Helmholtz-Zentrums München. Man duldet ihn dort als eine Art Hofnarr, oder, weil man ihn aus arbeitsrechtlichen Gründen nicht loswerden kann.)

 
„Wer vieles bringt, wird manchem etwas bringen“, sagte schon Goethe. Jede und jeder kann sich aussuchen, was ihr oder ihm am besten gefällt. Wer aber vom Fach und außerdem ehrlich ist, sagt: Unter 100 Millisievert (mSv) findet man keine biologischen Wirkungen, und unter 250 mSv keine, welche die Gesundheit beeinträchtigen. Dies gilt für kurzzeitige Einwirkungen. Über längere Zeiten verteilt, dürfen die Dosen sogar höher sein, ohne Wirkungen zu erzielen.

Aber wie können sich da Fachfremde zurechtfinden?

Ein wenig Logik hilft da weiter. So schreibt Frau Roussety: „dass das Risiko an Dickdarmkrebs zu erkranken mehr als wahrscheinlich ist, und sich um fast fünf Prozent pro 100 mGy erhöht.“ Man beachte die Worte „wahrscheinlich, fast“ und die Angabe, dass die durchschnittliche Dosis „mindestens 21 mGy“ betrug. mGy kann man ungefähr mit mSv gleichsetzen. 100 mGy hat nur ein kleiner Teil der Beschäftigten erreicht.
Also ist das „wahrscheinliche“ Krebsrisiko sehr viel kleiner. Von Natur aus liegt es zwischen 20 und 30 %, eine Steigerung um 5 % würde es ungefähr von 25 % auf 26,25 % steigern. Da aber, wie gesagt, die Dosen der allermeisten Beschäftigten weit unter 100 mSv liegen, gibt es zu den 25 % nur noch ein paar Zahlen hinter dem Komma. Kann man daraus wirklich eindeutige Schlüsse ziehen?
Das wird sogar im Ökoinstitut Freiburg bezweifelt. Ein Mitarbeiter schrieb mir: „Das Stochern in Unsicherheitsbandbreiten, das epidemiologischen Studien immer so eigen ist, ist in der Tat etwas, da eher in Richtung Glauben geht.“
 
Die Sache ist noch viel zweifelhafter. Dank Herrn Dr. Lutz Niemann habe ich die Originalarbeit. Wir wollen es Frau Roussety nicht übelnehmen, dass sie mit Begriffen wie Median, Mittel, Perzentile nicht zurechtkommt. Sie schreibt, die Dosen der Arbeiter lägen bei mindestens 21 mGy (=mSv), das ist schlicht falsch abgeschrieben. Tatsächlich hatte die Hälfte der Beschäftigten weniger als 4,1 mSv abbekommen, und 21 mSv war der Mittelwert. Ich denke, Ihnen ist der Unterschied klar: Wer z.B. ein mittleres Einkommen hat, gehört zu den Besserverdienenden. Die allermeisten sind unter ihm, denn Einzelne wie Winterkorn ziehen den Durchschnitt nach oben. So gab es auch unter den Kernkraftarbeitern einige mit recht hohen Strahlendosen, aber das waren zu wenige für eine zuverlässige Statistik.
Wenden wir den Durchschnitt von 21 mSv an und rechnen mit der mittlerweile stark angezweifelten LNT-Hypothese, dann hätten wir einen Anstieg des Krebsrisikos von 25 auf 25,25 %. Kann das jemand ermitteln? Selbst wenn, wen würde es abschrecken, einen bestimmten Beruf oder Wohnort zu wählen, bei dem das rechnerische Krebsrisiko nicht 25, sondern 25,25 % ist?
Frau Roussety hat außerdem noch nicht verstanden, dass es keinen Unterschied zwischen natürlicher und künstlicher Strahlung gibt. Ihre Gesinnungsgenossen sind da im Allgemeinen weiter, schon um gegen den Uranbergbau demonstrieren zu können, bei dem ja nur Naturstoffe an die Oberfläche geschafft werden. Frau Roussety schreibt: „Heute zeigt sich, wie lange die negativen Auswirkungen anhalten. Denn nun beginnen die Strahlen auch die Westküste der USA zu beeinflussen. Obwohl die Strahlung durch das Meer verdünnt wurde, wird es für Jahrzehnte die Umwelt negativ beeinflussen und belasten. Und wie die Ergebnisse dieser Studien verdeutlichen und klar belegen, werden die kontinuierlichen Expositionen gegenüber selbst geringerer Mengen an Strahlungen weiterhin eine schädliche und gesundheitsgefährdende Wirkung auf Menschen, Tieren und Natur haben.“
Die armen Kalifornier, und vor allem die Seelöwen, welche fast ständig im Wasser sind! Aber jedem sollte doch klar sein: Die Radioaktivität des ganzen Pazifik kann durch Fukushima nicht merklich erhöht werden.
In Mexiko und den USA kommt nur das leicht lösliche und genügend langlebige radioaktive Caesium an. Freigesetzt wurden etwa 2∙1016Bq, nach der alten Einheit eine halbe Million Curie. Der Pazifik enthält von Natur aus an Radioaktivität 2,2∙1011 Curie, also 400.000mal mehr. Dabei ist Seewasser gar nicht besonders radioaktiv. Die Aktivität pro l beträgt etwa 13 Bq, wesentlich weniger als z.B. Milch, welche etwas über 50 Bq/l hat.
Nun hat sich das radioaktive Caesium, was übrigens nicht vollständig in den Pazifik gelangt ist, dort noch nicht gleichmäßig verteilt. Es gibt eine Strömung von Japan nach Amerika. Weit vor der kalifornischen Küste, 1.600 Meilen, wurde tatsächlich eine Konzentration von 0,011 Bq/l gefunden. Bis zur Küste wird sich das weiter verdünnt haben. Die Erhöhung der Radioaktivität im Meerwasser von 13 auf weniger als 13,011 Bq wird nun nach Frau Roussety „weiterhin eine schädliche und gesundheitsgefährdende Wirkung auf Menschen, Tiere und Natur haben.“ Da wäre es aber wesentlich wichtiger, die Bevölkerung der USA umzusiedeln. Wie das Bild zeigt, gibt es messbare Unterschiede. 21 mSv mehr wie die KKW-Arbeiter bekommt man in einigen Staaten innerhalb weniger Jahre.
Sie stellt die Frage: „Hat hier eigentlich irgendjemand aus dieser Sache gelernt?“ Ich nicht. Ihre Arbeit bestätigt nur den alten Spruch: „Schuster, bleib bei deinen Leisten.“ Frau Roussety hat doch eine Schauspielausbildung vorzuweisen. Sicherlich ist sie eine ganz passable Schauspielerin. Wie wäre es mit einer Neuverfilmung eines alten Klassikers, diesmal mit weiblichen Hauptrollen, von „Dick und Doof“?
 
Hannover, den 06.01.2017




Meeresspiegelexperten des IPCC erteilen Sintflutszenarien von Anders Levermann (PIK) klare Absage

Hamburg wird absaufen (EIKE berichtete hier). Und zwar noch in diesem Jahrhundert, wenn der Treibhausgas-Ausstoß nicht gestoppt wird. Davon ist Klimaforscher Anders Levermann (43) überzeugt. In einem Interview mit „Spiegel Online“ sagte er: „Mit jedem Grad Erderwärmung steigt der Meeresspiegel um mehr als zwei Meter.“ Wenn die Zwei-Grad-Grenze der globalen Erwärmung nicht eingehalten wird, „wird es irgendwann die Norddeutsche Tiefebene nicht mehr geben. Hamburg auch nicht“.

Das vollständige Originalinterview kann man bei SPON für 39 cent lesen, sozusagen Gruselsteuer. Auszug aus dem MOPO-Artikel:

“Levermann ist besorgt. Anfang Dezember lagen die Temperaturen am Nordpol 20 Grad über dem Normalwert. Auch am Südpol wird das Eis instabil. „Die Antarktis ist ein schlafender Riese, der gerade aufwacht“, sagt der Klimaforscher. „Ihr Schmelzwasser kann den Meeresspiegel langfristig um viele Meter erhöhen – nur das Tempo ist noch unklar.“ Zeit bleibe nicht mehr. “

So, so… die Antarktis. Wie gestaltet sich dieses “Aufwachen” bzw. angebliche allmähliche Auftauen? Eine Studie von Jay Zwally und Kollegen 2015 im Journal of Glaciology 2015 dokumentierte, dass das antarktische Inlandeis derzeit anwächst, nicht schmilzt. Das Wachstum soll sogar die nächsten 20 Jahre lang andauern. Danach ist die weitere Entwicklung unklar. Es ist nicht ausgeschlossen, dass zunehmender Schneefall den Eis-Wachstumstrend weiter unterstützen wird. Hier die Kurzfassung der Arbeit:

Mass gains of the Antarctic ice sheet exceed losses

Mass changes of the Antarctic ice sheet impact sea-level rise as climate changes, but recent rates have been uncertain. Ice, Cloud and land Elevation Satellite (ICESat) data (2003–08) show mass gains from snow accumulation exceeded discharge losses by 82 ± 25 Gt a–1, reducing global sea-level rise by 0.23 mm a–1. European Remote-sensing Satellite (ERS) data (1992–2001) give a similar gain of 112 ± 61 Gt a–1. Gains of 136 Gt a–1 in East Antarctica (EA) and 72 Gt a–1 in four drainage systems (WA2) in West Antarctic (WA) exceed losses of 97 Gt a–1 from three coastal drainage systems (WA1) and 29 Gt a–1 from the Antarctic Peninsula (AP). EA dynamic thickening of 147 Gt a–1 is a continuing response to increased accumulation (>50%) since the early Holocene. Recent accumulation loss of 11 Gt a–1 in EA indicates thickening is not from contemporaneous snowfall increases. Similarly, the WA2 gain is mainly (60 Gt a–1) dynamic thickening. In WA1 and the AP, increased losses of 66 ± 16 Gt a–1 from increased dynamic thinning from accelerating glaciers are 50% offset by greater WA snowfall. The decadal increase in dynamic thinning in WA1 and the AP is approximately one-third of the long-term dynamic thickening in EA and WA2, which should buffer additional dynamic thinning for decades.

Aus dem Text:

“If dynamic thinning continues to increase at the same rate of 4 Gt a–2 with no offset from further increases in snowfall, the positive balance of the AIS will decrease from the recent 82 Gt a–1 to zero in 20 years. However, compensating increases in snowfall with climate warming may also be expected (Gregory and Huybrechts, 2006;Winkelmann and others, 2012).”

Wie kommt Levermann auf seine abstrusen Thesen? Gelten in Potsdam vielleicht andere naturwissenschaftliche Gesetze, herrscht dort ein geistiges Sonderklima? Die neue Fakenews-Stelle der Bundesregierung wird den Potsdamern in Zukunft etwas genauer auf die Finger schauen müssen.

Konzentrieren wir uns lieber auf die harten Fakten, die Ole Humlum auf Climate4You zusammengetragen hat (siehe auch globale Meeresspiegelkurven auf der NASA-Webseite und AVISO). Laut Satellitenmessungen steigt der Meeresspiegel um 3,4 mm pro Jahr an.

Abbildung: Meeresspiegelanstieg seit 1992 laut Küstenpegelmessungen. Graphik: Climate4You.

Abbildung: Meeresspiegelanstieg seit 1992 laut Satellitenmessungen. Graphik: Climate4You. 

Die Auswertung der Küstenpegelmessungen hingegen ergibt lediglich einen Anstieg von 2,1 mm pro Jahr. Der Grund ist ein künstlicher Streckfaktor, mit dem die Satellitenwerte erhöht werden. Die NOAA ermittelt auf Basis von Küstenpegeldaten einen globalen Meeresspiegelanstoeg von 1,7-1,8 mm pro Jahr.

Abbildung: Meeresspiegelanstieg seit 1992 laut Küstenpegelmessungen. Graphik: Climate4You.

Eine spürbare Beschleunigung des Meeresspiegelanstiegs ist in den Daten nicht zu erkennen, wenn man von den kurzmaßstäblichen Zyklen einmal absieht. Zum gleichen Ergebnis kommen auch Auswertungen von Albert Parker und Jan Kjetil Andersen. Eine Studie von Ocana et al. 2016 hält es zudem für möglich, dass natürliche interne Klimavariabilität als extern gesteuerter Klimatrend fehlgedeutet wurde.

Ein Forscherteam um Hans Visser ging im Juni 2015 im Journal of Geophysical Research der Frage nach, ob sich der Meeresspiegel in den letzten 100 Jahren nun beschleunigt hat oder nicht. Das Resultat lässt aufhorchen: Die Sichtweise hängt stark von der verwendeten statistischen Methode, Datenunsicherheiten sowie der Behandlung natürlicher Schwankungen ab:

A review of trend models applied to sea level data with reference to the “acceleration-deceleration debate”

Global sea levels have been rising through the past century and are projected to rise at an accelerated rate throughout the 21st century. This has motivated a number of authors to search for already existing accelerations in observations, which would be, if present, vital for coastal protection planning purposes. No scientific consensus has been reached yet as to how a possible acceleration could be separated from intrinsic climate variability in sea level records. This has led to an intensive debate on its existence and, if absent, also on the general validity of current future projections. Here we shed light on the controversial discussion from a methodological point of view. To do so, we provide a comprehensive review of trend methods used in the community so far. This resulted in an overview of 30 methods, each having its individual mathematical formulation, flexibilities, and characteristics. We illustrate that varying trend approaches may lead to contradictory acceleration-deceleration inferences. As for statistics-oriented trend methods, we argue that checks on model assumptions and model selection techniques yield a way out. However, since these selection methods all have implicit assumptions, we show that good modeling practices are of importance too. We conclude at this point that (i) several differently characterized methods should be applied and discussed simultaneously, (ii) uncertainties should be taken into account to prevent biased or wrong conclusions, and (iii) removing internally generated climate variability by incorporating atmospheric or oceanographic information helps to uncover externally forced climate change signals.

Anerkannte Meeresspiegelexperten erteilen den Sintflutszenarien von Anders Levermann eine klare Absage. Eine Forschergruppe um Peter Clark überprüfte im Dezember 2015 die Aussagen des 5. IPCC-Berichts zum Meeresspiegelanstieg. Der Bericht hatte seinerzeit einen Anstieg von etwa einem halben Meter bis 2100 vorhergesagt, mit leichten Unterschieden je nach verwendetem Emissionsszenario. Haben zwei weitere Jahre Forschung die IPCC-Prognose grundlegend verändert? Clark und Kollegen kommen zu einem deutlichen Ergebnis: Nein, die IPCC-Prognose von 2013 gilt weiter unveränderlich. Pech für Levermann und andere klimaaktivistische Kollegen, die der Öffentlichkeit lieber Anstiegsbeträge im Bereich von einem Meter und mehr vorgaukeln. Hier ein Auszug aus der Kurzfassung des Artikels von Clark et al. 2015, der im Fachblatt Current Climate Change Reports erschien:

Recent Progress in Understanding and Projecting Regional and Global Mean Sea Level Change

[…] These new results increase confidence in the AR5 likely range, indicating that there is a greater probability that sea level rise by 2100 will lie in this range with a corresponding decrease in the likelihood of an additional contribution of several tens of centimeters above the likely range. In view of the comparatively limited state of knowledge and understanding of rapid ice sheet dynamics, we continue to think that it is not yet possible to make reliable quantitative estimates of future GMSL rise outside the likely range. Projections of twenty-first century GMSL rise published since the AR5 depend on results from expert elicitation, but we have low confidence in conclusions based on these approaches. New work on regional projections and emergence of the anthropogenic signal suggests that the two commonly predicted features of future regional sea level change (the increasing tilt across the Antarctic Circumpolar Current and the dipole in the North Atlantic) are related to regional changes in wind stress and surface heat flux. Moreover, it is expected that sea level change in response to anthropogenic forcing, particularly in regions of relatively low unforced variability such as the low-latitude Atlantic, will be detectable over most of the ocean by 2040. The east-west contrast of sea level trends in the Pacific observed since the early 1990s cannot be satisfactorily accounted for by climate models, nor yet definitively attributed either to unforced variability or forced climate change.

Eine klare Watsche in Richtung Potsdam und den Versuch, die IPCC-Ergebnisse zu ignorieren und mit eigenfabriziertem Meeresspiegelzauber zu ersetzen. Ein unglaublicher Vorgang, auf den die deutschen Journalisten hereingefallen sind, ja vielleicht hereinfallen wollten.

Übernommen von Die kalte Sonne