Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: “So wenig Strahlung, als vernünftig erreichbar”. Das Wort “vernünftig” wird – wegen der angeblichen Krebsgefahr – als “so gering wie möglich” überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine “normale” Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen, durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn, ist jedoch die Außerkraftsetzung des Grundsatzes : “Die Dosis macht’s”. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche “auf ex” haben soll. Bestenfalls ist dieser Irrglaube auf ein “physikalisches” Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie, war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz “eine Mutation = ein Krebs” ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der “Strahlenschutz” ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der “Walschützer” ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen “Klimaschutz” und andere Machenschaften der “Ökoindustrie” ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle “Gutmenschen” mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich “harte moralische Fakten” von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus “Angst vor Strahlung” verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die “Strahlung” so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von “Strahlenkrankheiten”. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon, als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im “kalten Krieg” die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein “gut” und kein “schlecht”, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis “die Dosis macht’s”, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der “Angstmensch” als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den “Klimawissenschaften”, bei denen “Welt-Temperaturen” mit (bekannt fehlerhaften) “Weltmodellen” berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Der Beitrag erschien zuerst bei NUKEKLAUS hierhttp://nukeklaus.de/home/mediziner-gegen-lnt/




Dr. Judith Curry redet Klartext bzgl. der verhängnis­vollen Fehler der Klima­wissenschaft – sowie deren Scheitern bei der Erkundung und dem Verständnis von Unsicher­heiten

Video nicht mehr verfügbar

Im Verlauf ihres Interviews sprach Dr. Curry die zugrunde liegenden Hypothesen an, die von Anfang an ohne jeden wissenschaftlichen Beweis dafür, dass anthropogene Aktivitäten die „globale Erwärmung“ antrieben, vom IPCC einfach in den Raum gestellt wurden (der Terminus „globale Erwärmung“ wurde später zu „Klimawandel“ modifiziert nach dem „Stillstand“ der globalen Temperatur).

Dieses Thema wurde von ihr effektiv behandelt mittels ihrer Charakterisierung während der Sendung, als sie das völlige Versagen der Klimamodelle ansprach, die natürlichen Klimavariationen vor dem Jahr 1950 darzustellen: „Falls die Wissenschaft Klimaänderungen vor 1950 nicht erklären kann, wie können wir dann den heutigen Klimamodellen vertrauen?“

Sie sagte, dass sich das IPCC niemals die Mühe „harter Arbeit“ gemacht habe, um zu bestimmen, wie natürliche Klimavariationen Klimawandel beeinflussten. Stattdessen verließ es sich auf „Experten-Beurteilungen“, denen zufolge menschliche Aktivitäten dafür ursächlich seien. Damit wurde folglich jede Gelegenheit zunichte gemacht, die Klimawissenschaft in diesem wichtigen Bereich voranzubringen.

Dr. Curry hat dieses Thema bereits in früheren Artikeln angesprochen (hier), in denen sie die höchst fragwürdigen Computer-Modellierungs-Verfahren angesprochen hatte, die versuchen, eine Divergenz zu fabrizieren zwischen Klimamodell-Ensemble-Läufen ohne Antrieb bzw. mit anthropogenem Antrieb.

In diesen früheren Artikeln kam sie zu dem Ergebnis, dass mit der Wahl dieses vom Modell getriebenen Erkennungs- und Zuordnungsverfahrens „das IPCC es nicht vermocht hat, überzeugend eine ,Erkennung‘ zu zeigen“.

„Weil historische Aufzeichnungen nicht lang genug und Paläo-Rekonstruktionen nicht zuverlässig sind, ,erkennen‘ die Klimamodelle AGW mittels Vergleichen von Simulationen mit natürlichen Antrieben mit solchen mit anthropogenen Antrieben“.

Und weiter:

„Das IPCC betrachtet die Divergenz zwischen natürlich getriebenen und anthropogen getriebenen Simulationen nach etwa dem Jahr 1980 als das Zentrum ihres Erkennungs- und Zuordnungs-Argumentes. Siehe Abbildung 10.1 aus dem AR 5 (WG1): a) mit natürlichem und anthropogenen Antrieb, b) ohne anthropogenen Antrieb“:

Dr. Curry verwies folgendermaßen auf eine Anzahl kritischer Fehler in diesen Vergleichen:

„Man beachte besonders, dass die Modelle darin scheitern, die Erwärmung zwischen 1910 und 1940 zu zeigen.

Der schreiende Fehler in seiner [des IPCC] Logik ist Folgender: Falls man versucht, die Erwärmung über einen kurzen Zeitraum, z. B. seit 1980, irgendetwas zuzuordnen, erfordert dies die explizite Berücksichtigung, in welcher Phase der multidekadischen natürlichen internen Variabilität dieser Zeitraum der Erwärmung liegt (z. B. AMO, PDO).

Bei der Zuordnung der Erwärmung zum Ende des 20. Jahrhunderts hat man für das Erkennen derselben nicht berücksichtigt, in welcher Phase von AMO und PDO diese Zeitperiode liegt.

Typischerweise wird argumentiert, dass diese Oszillationen auf und ab schwingen, sich insgesamt aber ausgleichen. Vielleicht, aber sie gleichen sich NICHT aus, wenn man einen Zeitraum heranzieht, der kürzer ist als die multidekadischen Zeitmaßstäbe in Verbindung mit diesen Oszillationen.

Außerdem erfordert es eine überzeugende Zuordnung angesichts der Gegenwart multidekadischer Oszillationen mit einem nominellen Zeitrahmen von 60 bis 80 Jahren, dass man die Variabilität einem Zeitraum von mehr als 60 bis 80 Jahren zuordnen kann, vorzugsweise bis zurück zur Mitte des 19. Jahrhunderts.

Wenn man nicht in der Lage ist, die Zuordnung der Änderung zu Anfang des 20. Jahrhunderts einzuordnen, ist meiner Ansicht nach jede zuverlässige Zuordnung der Änderung zum Ende des 20. Jahrhunderts ausgeschlossen“.

In diesen früheren Artikeln kommt Dr. Curry zu dem Ergebnis, dass die IPCC-Klimamodelle für diesen Zweck nicht geeignet sind, dass sie Zirkelschlüsse bemühen bei der behaupteten Erkennung, und dass sie daran scheitern, den Einfluss von Antriebs-Unsicherheiten hinsichtlich Vermutungen der Zuordnung abzuschätzen.

Während der Sendung sagte Dr. Curry weiter, dass Klimamodelle wie die vom IPCC verwendeten Modelle, welche versuchen, Klimaauswirkungen in Verbindung zu bringen mit menschlichen Aktivitäten, in viele Fällen „sich selbst erfüllende Prophezeiungen“ repräsentieren aus einer politisch getriebenen Agenda, die „jede Objektivität verloren hat“, weil deren Bias bzgl. der Missachtung der natürlichen Klimavariabilität dazu führte, dass sie sich ausschließlich auf anthropogenen Klimawandel konzentrierte.

Dr. Curry sprach während der Sendung auch das jüngste Daten-Debakel der NOAA an. Diese Organisation, welche maßgeblich bei der Messung und Evaluierung globaler Temperaturdaten sein sollte, war extrem schlampig und inkompetent bei der Verwaltung ihrer Temperaturdaten.

Sie sprach im Zusammenhang mit dem Daten-Debakel der NOAA an, dass dieses durch politischen Druck der Obama-Regierung zustande gekommen sei, weil diese Ergebnisse wünschte zur Unterstützung ihrer Aktivitäten auf der Pariser Klimakonferenz.

Sie erwähnte, dass sie während der letzten 18 Monate in Kontakt mit dem NOAA-Wissenschaftler Dr. John Bates stand, mit welchem sie über seine Erfahrungen bzgl. des Fehlens wissenschaftlicher Sorgfalt bei der Behandlung der Datensätze seitens der NOAA diskutierte. Kritische Temperaturdaten wurden nicht angemessen archiviert, eine dokumentierte oder evaluierte Konsistenz mit den von der NOAA selbst etablierten Standards fand nicht statt. Sie bemerkte, dass sie mit Dr. Bates eine extensive Diskussion dieser Datenprobleme der NOAA auf ihrem Blog Climate etc. hatte.

Sie bemerkte weiter, dass angesichts der Bedeutung, welche die NOAA-Temperaturdaten bei der globalen und nationalen Gesetzgebung und politischer Entscheidungen bzgl. Klima-Belange spielen, die Billionen Dollar teuer werden konnten, diese Daten allen Standards der Verwaltung von Daten zu 100% genügen müssen, was hier eindeutig nicht der Fall war.

Sie glaubt, dass die Finanzierung der Studie zur natürlichen Klimavariation erheblich aufgestockt werden muss und dass der politische Druck seitens der Regierungen dafür gesorgt hatte, dass fast die gesamte Finanzierung an anthropogen ausgerichtete Studien geflossen war.

Ihrer Einschätzung nach bewegen sich die Klimaauswirkungen menschlicher CO2-Emissionen im „Winzig-Maßstab“.

Sie ermutigte alle diejenigen, die Bedenken hinsichtlich der Validität von Argumenten für einen vermeintlich anthropogen verursachten Klimawandel hegen, diese ihre Bedenken laut zur Sprache bringen.

Link: https://wattsupwiththat.com/2017/02/09/dr-judith-curry-speaks-out-on-climate-sciences-fatal-flaw-the-failure-to-explore-and-understand-uncertainty/
Übersetzt von Chris Frey EIKE




Daten zur deutschen Stromversorgung 2016

Zur Übersicht: die Nettostromerzeugung im Jahr 2016 betrug in Deutschland ca. 550 Terawattstunden (TWh). Das ist der Strommix, welcher tatsächlich aus der Steckdose kommt. Bei der Bruttostromerzeugung – ca. 650 TWh – berücksichtigt man auch die Eigenerzeugung der Industrie, beispielsweise im Bergbau und in der Chemie; diese hat in den folgenden grafischen Darstellungen keinen Eingang gefunden. Bei den Daten stütze ich mich vor allem auf Erhebungen des Fraunhoferinstituts ISE in Freiburg, auf die Plattform Agora Energiewende in Berlin sowie auf Veröffentlichungen des Bundesministeriums für Wirtschaft und Energie.

In Europa ist Deutschland der größte Stromerzeuger. Die jetzt verfügbaren Zahlen der Nettoproduktionen für das Jahr 2014 ergibt folgende Reihung: Deutschland (592 TWh), Frankreich (539), Großbritannien (322),  Italien (269), Spanien (268), Schweden (150), Polen (145). Die in diesem Blog zitierten Zahlen der verschiedenen Quellen sind (im niedrigen Prozentbereich) leicht different, ohne dass dafür ein Grund angegeben werden kann.

Merke:  1 TWh =1 Terawattstunde

                          =1000 Gigawattstunden (GWh)

                          =1 Million Megawattstunden (MWh)

                          =1 Milliarde Kilowattstunden (KWh)

Einige Grafiken zur Stromwirtschaft

Abb.1: Verteilung der Nettostromerzeugung auf die verschiedenen Energieträger (ISE)

Die Grafik zeigt die acht wichtigsten deutschen Energieträger. Kernenergie, Braunkohle, Steinkohle und Gas werden den konventionellen Energien zugerechnet und liefern insbesondere Konstantstrom im Bereich der Mittel-und Grundlast. Wasserkraft, Biomasse, Wind und Solar gehören zu den erneuerbaren Energien; ihr Beitrag zur gesamten Stromversorgung ist unstetig und u. a. abhängig von Wetter und Standort.

Abb. 2: Veränderung der Nettostromerzeugung 2016 gegenüber Vorjahr 2015 (ISE)

Die Stromproduktion aus Kernkraft ging 2016 – im Vergleich zu 2015 – um 7,8 % zurück; ursächlich war die Abschaltung des KKW Grafenrheinfeld im Juni 2015.

Die Gaskraftwerke haben 2016  ca. 44 TWh netto für die öffentliche Stromversorgung produziert. Dieser markante Aufwärtstrend von 46 % resultiert hauptsächlich aus den niedrigen Gaspreisen. Die Energieeinspeisung aus Braunkohle. Steinkohle, Wind und Solar ging entsprechend zurück.

Abb. 3: Anteile der verschiedenen Stromerzeuger im Jahr 2016 (ISE)

Die wichtigsten Energieträger in Kreisdarstellung.

Merke: im Jahr 2016 haben die erneuerbaren Energien mit ca. einem Drittel zur deutschen Stromversorgung beigetragen.

Abb. 4: Stromexportsaldo 2010 bis 2016 (ISE)

Im Jahr 2016 wurde bei Strom ein Exportüberschuss von ca. 50 TWh erzielt. Dieser Wert stellt nach den alten Rekordjahren 2012 bis 2015 wieder einen neuen Spitzenwert dar und liegt um etwa 2 TWh bzw. 4% über dem Niveau von 2015. Der Großteil der Exporte floss in die Niederlande, die einen Teil nach Belgien und Großbritannien weiter leiteten. Auf Rang zwei folgt die Schweiz, die hauptsächlich als Transitland nach Italien dient. An dritter Stelle liegt Frankreich, wo einige Kernkraftwerke aus Sicherheitsgründen abgeschaltet werden mussten. Rang vier belegt Polen, das einen Teil des Stroms aus den neuen Bundesländern über Tschechien nach Süddeutschland transportiert.

Eingeführter Strom kostet durchschnittlich 37, ausgeführter 35 Euro/MWh. Der durchschnittliche (day-ahead) Börsenstrompreis ist auf 28 Euro/MWh gefallen und liegt inflationsbereinigt ungefähr auf dem Niveau von 2002.

Abb. 5: Stromerzeugung im ersten Quartal 2016 (Agora)

Die Stromerzeugung im ersten Quartal 2016:

hohe Last und Winterstürme zu Beginn des Jahres.

Abb. 6: Stromerzeugung im dritten Quartal 2016 (Agora)

Die Stromerzeugung im dritten Quartal 2016:

ein sonniger Sommer mit wenig Wind

Abb. 7: Haushaltsstrompreise 2007 bis 2017 (Agora)

Die Haushaltsstrompreise werden im Jahr 2017 erstmals die 30-Cent-Marke überschreiten.

Die Ursachen sind gestiegene Netzentgelte, gestiegene EEG-Umlage und hohe Vertriebsmargen.

Ausblick

Die Zukunft der deutschen Stromwirtschaft – für die kommenden 10 bis 15 Jahre – ist schwer einzuschätzen. Relativ gesichert ist die Abschaltung der noch laufenden 8 Kernkraftwerke bis 2022; dafür wurde im Sommer 2011 eigens ein Bundesgesetz erlassen. Demnach wird noch in diesem Jahr  das Kernkraftwerk Gundremmingen B vom Netz genommen werden. Ob man es wagen wird  (im Jahr 2022!) auf einem Schlag die drei leistungsstarken  KKW Isar 2, Emsland und Neckarwestheim II abzuschalten, hängt vom Ausbau der großen Nord-Süd-Gleichstromleitungen ab. Die Inbetriebnahme dieser Trassenprojekte hat sich von 2019 auf 2021/22 verzögert. Außerdem werden sie, wegen des Übergangs auf Erdverkabelung, um den Faktor 5 bis 10 teurer. Damit steigen auch weiterhin die Stromkosten für die Privathaushalte.

Der Ausbau der erneuerbaren Energien (EE), insbesondere für Wind und Solar wird sich wohl verlangsamen, weil künftige Genehmigungen dem Wettbewerb via Auktionen unterliegen. Die gesteckten Ziele – 2030:50 %,  2040:65 % und 2050: 80 % – sind sehr ambitioniert; man darf zweifeln, ob sie erreicht werden. Die Klimaziele, wie in Paris vereinbart, werden sicherlich verfehlt werden, da die Grundversorgung mit Strom (in Abwesenheit von Kernkraftwerken und Großspeichern) und die Stabilhaltung der Netze nur über die CO2-haltigen Energieträger Braunkohle, Steinkohle und Erdgas geschehen kann. Wobei das Zertifikatesystem der Europäischen Union keinen Beitrag zum Klimaschutz liefert, weil es die CO2-Freisetzungen nur räumlich verlagert.

Entscheidend für den Fortgang der Energiewende sind unter anderem die hohen, sich abzeichnenden Kosten. Bei der Einführung des EEG im Jahr 1990 versprach der damalige Umweltminister Jürgen Trittin „Mehrkosten von gerade mal  1 Euro pro Familie und Monat, etwa so viel wie eine Kugel Eis“. Heute beträgt die EEG-Umlage für eine Durchschnittsfamilie allein das 20fache, nämlich ca. 20 Euro pro Monat. Die jährlichen Kosten für die Einspeisevergütung liegen bei 25 Milliarden Euro – die 2 Milliarden für die eingesparten Brennstoffkosten bereits gegen gerechnet. Tendenz: stark steigend! Die Gesamtkosten der Energiewende bezifferte der heutige Kanzleramtsminister Peter Altmeier in seiner früheren Funktion als Umweltminister auf 1 Billion Euro.

Fazit: Eines fernen Tages könnten die Menschen vielleicht nicht mehr bereit (oder in der Lage) sein, diese hohen Kosten zu tragen.

Die deutsche Energiewende würde auf halbem Wege stecken bleiben.




Wie die neue Software der NOAA die regionale Erwärmung antreibt.

Die Offenlegungen von Dr. Bates über Karls ‚Pausebuster‘ der NOAA NCEI Studie haben das ganze Klima Brimborium geschaffen und Rep. Smith sogar dazu getrieben, die Vorlage der NOAA E-Mails erneut zu fordern. Dabei ist die Karl Studie im Vergleich zu anderen NOAA-Betrügereien ziemlich harmlos. Es hat kaum die Erwärmungspause entfernt und zeigt immer noch, dass die CMIP5 Klimamodelle im Vergleich zur Realität zu heiß laufen. Das Wichtigste war vor allem, dass die Politiker im Vorfeld zu Paris über die Widerlegung der Erwärmungspause sprachen.
Hier ist ein Beispiel für einen viel krasseren Vorgang, aber ein weniger beachteter. Es ist ein Auszug aus einem viel längerem Essay: „Wenn keine Daten vorhanden sind“, zu lesen im ebook „Blowing Smoke“. Es ist nicht global und betrifft nur die kontinentalen Vereinigten Staaten (CONUS). Aber es öffnet einem die Augen und ist unwiderlegbar.

NOAA’s USHCN  [U.S. Historical Climatology Network] Stationen werden verwendet, um den US-Teil von GHCN [Global Historical Climatology Network].zu erstellen. Sie werden auch verwendet, um die Temperaturhistorie der Bundesstaaten zu erstellen, die auf der NOAA Webseite zugänglich sind. Eine Studie aus dem Jahr 2011 [1] gab bekannt, dass NOAA bis Ende 2013 auf die aktualisierte und verbesserte CONUS-Software umgestellt wird. Das Programm, das bis zum Upgrade verwendet wurde, heißt Drd964x. Das Upgrade wurde von Ende 2013 bis 2014 in zwei Tranchen gestartet. Ende 2013 kamen die neuen grafischen Schnittstellen, die eine Verbesserung sind. Dann kam im Februar 2014 die neue Datenausgabe, die eine überarbeitete Stationsvorwahl, Homogenisierung und Rasterung beinhaltet. Die neue Version heißt nClimDiv.

Hier sind die Temperaturhistorien von drei Bundesstaaten.
Die erste ist Maine, wobei die Vorher / Nachher-Daten im neuen graphischen Format dargestellt werden.

Quelle WUWT


[Die Grafiken sind leider auch im Original nicht schärfer. Die X-Achse beginnt im gleichen Jahr
 

Quelle WUWT


Die zweite ist Michigan, die die grafischen Unterschiede von alter zu neuer Software zeigt.
 

Quelle WUWT


Und zum Schluss: Kalifornien
 
In jedem dieser Bundesstaaten wurde Null oder sehr geringe Erwärmung in deutliche Erwärmung konvertiert.
Eine selbstverständliche Frage könnte sein, ob eine verbesserte Homogenisierung (unter anderem „Entfernen“ städtischer Wärmeinsel (UHI) -Effekte) verantwortlich ist?

>> Einschub vom Übersetzer:

Der Autor schreibt im englischen Original:

No from first principles, because the NOAA/NASA UHI policy is to warm the past so that current temperatures correspond to current thermometers.

Übersetzen tue ich das mit:

Nein. Weil es zu den ersten politischen Grundsätzen von NOAA / NASA UHI gehört, die Vergangenheit zu erwärmen, damit gegenwärtige Temperaturen den gegenwärtigen Thermometern entsprechen.

Problem:

Nach meiner Meinung werden jedoch die Temperaturen der Vergangenheit abgesenkt, damit heute eine höhere Erwärmung sichtbar wird – so interpretiere ich auch die gezeigten Grafiken.

Vielleicht kann einer unserer Leser hierzu helfen, Danke

Ende Einschub <<

…  (erläutert mit NASA GISS Tokyo in dem viel längeren Buchaufsatz). Dies könnte in Kalifornien angemessen sein, dessen Bevölkerung sich von 1960 bis 2010 (138%) mehr als verdoppelte mit aktueller Dichte von ~ 91 Personen / km2. Maine repräsentiert einen ähnlichen Ozean und Berge Bundesstaat, ist aber viel ländlicher. Mains Bevölkerung wuchs nur um ein Drittel (34%) von 1960 bis 2010 und seine aktuelle Bevölkerungsdichte beträgt nur 16,5 Personen / km2. Maine sollte nicht die gleiche Notwendigkeit oder den Grad der Homogenisierung erfordern. Ohne die neueste Version des US-Teils von GHCN hätte Maine keine Erwärmung; Sein ‚AGW‘ wurde von nClimDiv produziert.
Es ist zwar ermüdend, alle 48 CONUS-Zustände hinsichtlich des Übergangs von Drd964x zu nClimDiv zu analysieren. NOAA gab 40 von 48 Staaten ’neue‘ AGW. Die Drd964x mittelfristige CONUS Erwärmung von 1895 bis 2012 war 0,088F / Jahrzehnt [~ 0,05K] Die neue nClimDiv-Rate von 1895 bis 2014 beträgt 0,135 F / Jahrzehnt, fast doppelt so hoch. Definitiv anthropogen, aber vielleicht keine wirkliche Erwärmung.
[1] Fennimore et. al., Transitioning…, NOAA/NEDIS/NCDC (2011) available at ftp.ncdc.noaa.gov/pub/data/cmb/GrDD-Transition.pdf
Erschienen auf WUWT am 07.02.2017
Übersetzt durch Andreas Demmig
https://wattsupwiththat.com/2017/02/07/even-more-on-the-david-rose-bombshell-article-how-noaa-software-spins-the-agw-game/
 




Selbsternannte Klimaapostel sägen an Deutschlands Klimaeichen

Mit ihren NGOs im Hintergrund betrachten diese Deutschland als Spielwiese für ihre Sehnsüchte und sind überzeugt, dass die Bürger sich nach ihren Vorstellungen zu verhalten haben. Um es zu erzwingen, versuchen sie, der Politik ihren Willen vorzuschreiben.
Leider werden sie nicht etwa in die Schranken verwiesen, sondern von den Medien und BeraterInnen unserer Regierung unterstützt, selbst wenn damit rechtswidrige Aktionen verbunden sind, was natürlich kein Zufall ist, denn verschiedene Parteien in Berlin sind ja selbst stolz darauf, zur Durchsetzung ihrer Ideologie Rechtsbrüche zu unterstützen.
Ein Beispiel kann man wieder auf dem bekannten (Des-)Informationsportal unserer offiziellen Regierungs-Klimaberaterin lesen, welches bekannt hemmungslos [4][5] einem reinsten Aktivisten und Klima-Demagogen [3] [2] regelmäßig ihre Plattform anbietet.
[1] klimaretter.info, Hendrik Sander: Deutschlands Klimaretter-Mythos zerstören
Damit der „klimaretter“-Leser gleich weiß, um was es geht, wird zum Artikel die Intention des Autors mitgeliefert:
Dem Aktivisten und Politikwissenschaftler Hendrik Sander geht es beim Klimaschutz nicht nur um die technische Revolution, sondern auch um die soziale. Darauf wartet er nicht gern auf dem Sofa – lieber geht er auf die Straße
Herr Sander ist kein unbeschriebenes Blatt, sondern schreibt öfters unter „Sander in Bewegung“ für „klimaretter“ und er beschreibt dort auch regelmäßig und unverblümt seine Einstellung:
Tagebau Garzweiler im Rheinischen Braunkohlerevier stürmten. Auf dem Climate March konnten wir sie an ihren weißen Schutzanzügen erkennen. Sie luden die Mitdemonstrierenden ein, es nicht bei mahnenden Worten an die Regierungen zu belassen, sondern den Klimaschutz selbst in die Hand zu nehmen.

Der Rundumschlag

Aufhänger des Rundumschlages von Hern Sander gegen Deutschlands Klimapolitik ist die nächste Klimakonferenz in Bonn.
H. Sander: [1] Es scheint das perfekte Paar zu sein: Der vom Untergang bedrohte Inselstaat Fidschi leitet offiziell die nächste Weltklimakonferenz im November 2017 und der scheinbare Klimaschutzvorreiter Deutschland fungiert als Gastgeber und Schirmherr des Treffens.
Dieses Märchen verfängt überraschend gut in der internationalen Klimaszene. Selbst von kritischen Klima-Aktivisten aus dem globalen Süden ist immer wieder zu hören, die Bundesrepublik habe doch schon den Umstieg auf 100 Prozent erneuerbare Energien geschafft. Ich bin immer wieder überrascht, wie sehr dieses Traumbild verfängt, obwohl doch Deutschland nach wie vor zu den globalen
„Carbon Majors“ zählt.
Aus dieser Einleitung heraus „zerpflückt“ der Aktivist sodann Berlins Klimapolitik und prangert sie – wie sollte anders sein -, als absolut unzureichend an. Damit ist es aber nicht getan, denn gegen das Klima-Böse – in seinen Augen die nicht ausreichende Klimawandel-Politik – muss unverdrossen und rücksichtslos gekämpft werden.
mal wieder vor die zerstörerischen Riesenbagger zu setzen. Und tatsächlich planen die Aktivisten von Ende Gelände, parallel zum Gipfelmarathon einen nahegelegenen Tagebau zum Stillstand zu bringen … “.
Den Blog klimaretter.info stören solche Aufrufe auf ihrer Homepage nicht, denn die Betreiber befürworten solche Aktionen ausdrücklich [5][6][7].

Für einen Aktivisten mit Politikstudium – und klimaretter.info – reicht es nachzuplappern

Es fällt auf, wie viele Aktivisten ein Politikstudium haben und mit diesem „Ausbildungswissen“ den Klimawandel beurteilen. Im Kern läuft diese Beurteilung aber immer auf das Gleiche hinaus:
CO2 ist ein Klimagift und darf vom Menschen nicht mehr emittiert werden. Das gilt als ökoheiliges Dogma, welches zu hinterfragen nicht erlaubt ist. Entsprechend tut jeder Gutes, der mit allem Einsatz für eine CO2-Reduzierung kämpft und umgekehrt. Und zu diesem Ökokreuzzug wird bedingungslos aufgerufen.
H. Sander: [1]CO2-Äquivalent frei, obwohl perspektivisch nur zwei Tonnen global verallgemeinerbar sind ...
Um das zu rechtfertigen, werden alle Metaphern des Klimawandels endlos wiederholt:
H. Sander: [1]
Ich gehe jede Wette ein, dass sich die neue Bundesregierung dann als Retterin der gefährdeten Inselrepublik inszenieren wird, obwohl wir hier mit jedem verbrannten Kilo Kohle, mit jedem neu produzierten Mercedes, mit jedem Fernflug in nach Lateinamerika den Pazifischen Ozean anschwellen lassen, der das Heimatland unserer Gäste schon bald überschwemmen könnte.
Klar, dass die Argumentation nicht nachgeprüft wird. Was einmal auf „klimaretter“ erschien, ist zur „Wahrheit“ mutiert. Und ökologische Betrachtungen zur Sinnhaftigkeit sind dem Aktivisten sowieso vollkommen fremd.
Wie man wirklich leicht nachrechnen kann, verursacht Deutschland mit der aktuellen Emission einen „Erwärmungsbeitrag“ von 0,094 °C in 100 Jahren [8]. Bestätigt wird dies durch einen aktuellen EIKE-Beitrag:
EIKE: Statistiker: UN-Klimavertrag wird 100 Billionen Dollar kosten – und keine Auswirkungen haben – Verschiebung der Erwärmung bis 2100 um weniger als vier Jahre!
Daraus abzuleiten, dass Deutschland „ … mit jedem verbrannten Kilo Kohle, mit jedem neu produzierten Mercedes, mit jedem Fernflug in nach Lateinamerika den Pazifischen Ozean anschwellen lassen … „ ist nicht nur vollkommen falsch, sondern bewusste … Anmerkung: war ein Ausdruck vorgesehen, der nach den neuen Regeln aber unter hate-speech fallen könnte, was inzwischen nur noch bei Zustimmung zur offiziellen Vorgabemeinung oder von Politikern in Richtung Volk erlaubt ist. Dazu gibt es schon ein Gerichtsurteil: „Darf man Claudia Roth als „ekelhaft“ bezeichnen?“; darf man natürlich nicht, aber C. Roth durfte in einer Talkshow sagen „ … wer den Klimawandel leugnet, kann nicht intelligent sein“.

Die gleichen, falschen Berichte endlos kopiert, werden zu Belegen

Was schon Herr Limburg kürzlich auf EIKE angeprangert hat: „Man muss eine Lüge nur oft genug wiederholen, und sie wird zur Wahrheit“, wendet auch der Aktivist Sander konsequent an. Beispielhaft weist die verlinkte „Belegung“: “, auf einen (klimaretter-) Artikel, in welcher sich ein Einheimischer Fidschi– selbstverständlich ein NGO-Vertreter – bitter über die Probleme durch den Klimawandel beklagt.
Wie es um die Probleme dort steht, wurde allerdings in einer umfangreichen Artikelreihe gezeigt. Es gibt viele, aber keine wegen eines Klimawandels:
EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
EIKE 26.11.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2
EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven
Auch das Fidschi-Atoll und weitere in dieser Region des Pazifik wurden erst kürzlich „angesehen“:
EIKE 20.12.2016: Der Klimawandel wird bildlich gesprochen immer schöner, die Daten darüber nicht
Ein Bild daraus zeigt die Pegelverläufe in dieser Region über die letzten 60 Jahre.

Pegeldaten von Fidschi und weiterer Messstationen im Süd-Pazifik (ohne Normierung). Grafik vom Autor anhand der PSMSL Pegeldaten erstellt


Die Aussage dazu: „ … obwohl wir hier mit jedem verbrannten Kilo Kohle … “ sinngemäß den Untergang der in dieser Region liegenden Inseln hervorrufen, ist eindeutig mehr als falsch. Um jedoch trotzdem den Eindruck zu erzeugen, ist jedes Mittel recht:
EIKE: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht: Aus dem Lehrbuch für (Klima-)Statistikbetrug

Es geht auch nicht wirklich um Klima, sondern um die neue sozialistische Revolution im Ökogewand

Dem Aktivisten Sander ist das im Kern wohl auch vollkommen egal, denn ihm geht es um die Zerstörung des verhassten Kapitalismus. Und wäre dazu eine andere Begründung hilfreicher, würde er sicher sofort diese nehmen.
[2] Hendrik Sander, Buch: Auf dem Weg zum grünen Kapitalismus. Die Energiewende nach Fukushima
… Sander sieht in seinem Fazit „keine Kräfte im integralen Staat, die willens und in der Lage wären, eine Transformation in Richtung eines grünen Kapitalismus in der deutschen Energiewende anzuführen“ (263). Abschließend beschreibt er daher „Strategien für einen grünen Sozialismus“ (273). Der Politologe betont am Ende, dass er sich neben den wissenschaftlichen Kriterien in seiner Arbeit auch Zielen wie dem „grundlegenden sozialen, ökologischen und demokratischen Umbau der deutschen Energieversorgung sowie [… der] Entwicklung einer emanzipatorischen, postkapitalistischen Gesellschaft“ „parteilich“ (322) verpflichtet fühle.
Gefördert wurde Sanders Arbeit durch Stipendien der Hans Böckler und der FAZITStiftung. Das Buch ist als erster Band der Reihe „Kritische Wissenschaft“ erschienen.

Nun interessiert Herr Sander bisher niemanden. Dass aber Personen, welche solchen Aktivisten bedenkenlos ihre Plattform bieten, als RegierungsberaterIn ernannt werden [9] und es bleiben, ist das wirklich Erschreckende, wird sich jedoch leider kaum mehr ändern. Denn wer Missstände in seiner Partei nicht bedenkenlos mitträgt, sondern protestiert, sitzt ganz schnell verdammt einsam (Artikel, Bild dazu).
Quellen
[1] klimaretter.info, Hendrik Sander, 03. Februar 2017: Deutschlands Klimaretter-Mythos zerstören
http://www.klimaretter.info/meinungen/kolumnen/sander-in-bewegung/22633-deutschlands-klimaretter-mythos-zerstoeren
[2] Portal für Politikwissenschaft, Buchrezension: Hendrik Sander, Auf dem Weg zum grünen Kapitalismus. Die Energiewende nach Fukushima
[3] Rosa Luxemburg Stiftung, Autorenprofil Hendrik Sander: Hendrik Sander ist Sozialwissenschaftler und lebt in Berlin. Er promoviert zum Thema «Energiewende in Deutschland» und engagiert sich bei Attac und FelS (Für eine linke Strömung).
[4] EIKE 11.10.2016: C. Kemfert, Professorin und Politik-Beraterin für Umwelt und Energie, bekommt Ehrenpreise für Agitation
http://www.eike-klima-energie.eu/news-cache/c-kemfert-professorin-und-politik-beraterin-fuer-umwelt-und-energie-bekommt-ehrenpreise-fuer-agitation/
[5] EIKE 23.07.2016: Der Unterschied in der Klimawandel-Berichterstattung
Kritik an der Berichterstattung des Portals Klimaretter.Info
http://www.eike-klima-energie.eu/news-cache/der-unterschied-in-der-klimawandel-berichterstattung/
betrug
[6] EIKE 20.05.2016: Berichterstattung von Klimaretter.Info über die am Pfingstwochenende durchgeführten Agitationen im Braunkohlerevier
http://www.eike-klima-energie.eu/news-cache/berichterstattung-von-klimaretterinfo-ueber-die-am-pfingstwochenende-durchgefuehrten-agitationen-im-braunkohlerevier/
[7] klimaretter.info, Hendrik Sander: Wir müssen groß, bunt und radikal sein
[8] EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage
http://www.eike-klima-energie.eu/klima-anzeige/mit-co2-reduzierung-retten-wir-die-welt-einige-rechenspiele-nicht-nur-fuer-regnerische-nachmittage/
[9] EIKE 14.05.2016: Umweltgutachten 2016 des Sachverständigenrates für Umweltfragen (SRU) der Bundesregierung