Erneuer­bare Energie ist kein Allheil­mittel

Ein Stopp der Verfügungen und Subventionen für erneuerbare Energie, welche unsere ökonomischen Konkurrenten weiterhin fördern (wenngleich auch weniger als früher) wird unsere weitere globale ökonomischen Führerschaft zementieren. Fossile Treibstoffe, über die Amerika üppig verfügt, sind und werden mindestens noch bis zum Jahr 2050 und wahrscheinlich sogar noch darüber hinaus billiger sein als jedwede Form erneuerbarer Energie. Und fossile Treibstoffe sind auch die zuverlässigste Energiequelle. Falls Energie in den USA relativ billig bleibt und das Land aus dem Pariser Klimaabkommen aussteigt, wie es Präsident Trump versprochen hat, dann erwarte man, dass immer mehr Produzenten ihre Operationen in die USA verlagern.

Europa kürzt bereits seine Unterstützung für erneuerbare Energie. Falls Amerika dem folgt und Subventionen und Anreize für Wind- und Solarenergie kürzt, dann wird der größte Markt für Chinas Erzeugnisse für Erneuerbare austrocknen. Falls China mit seiner Erneuerbaren-Expansion fortfährt, wird es allein die hohen Kosten jener Technologien zahlen müssen, wenn diese im Ausland nicht mehr subventioniert werden. Chinas Wirtschaft schrumpft schon jetzt. Ohne die Märkte in den USA und Europa wird es interessant sein zu sehen, wie lange China noch „führend in der Welt“ bzgl. erneuerbarer Energie sein wird, falls dessen zunehmender Gebrauch sich als Bremsklotz der chinesischen Wirtschaft erweist, wie es bereits in Europa und in geringerem Umfang in den USA der Fall war.

Während China beschlossen hat, die Anzahl neu geplanter Kohlekraftwerke für die kommenden Jahre um über 100 zu reduzieren, sind immer noch über 100 in der Planung. Gebaut werden sie mit einer Rate von etwa einem Werk alle zwei Wochen. Ja doch, Indien errichtet Solarparks im Hinterland, aber es werden gleichzeitig ebenfalls rasch neue Kohlekraftwerke gebaut, ebenso wie in anderen Ländern in Asien und Afrika – wo fast 1000 Kohlekraftwerke sich in verschiedenen Stadien des Baus und der Planung befinden.

Sogar Japan, das Land also, welches in vielfacher Hinsicht den Kampf gegen den vermeintlich gefährlichen, vom Menschen verursachten Klimawandel angeführt hat, indem es entwickelte Länder drängte, deren Treibhausgas-Emissionen zu reduzieren, hat Pläne bekannt gegeben, 45 neue Kohlekraftwerke zu errichten, um den Ausfall der Kernkraftwerke nach dem Unfall in Fukushima zu kompensieren.

Aber was ist mit Google, Facebook und Amazon? Wollen sie sich nicht von Fossilen befreien? Kaum. Wie meine Freunde Isaac Orr und Paul Driessen erklären und wie es natürlich auch der gesunde Menschenverstand sagt, weht der Wind nicht immer und scheint die Sonne nicht immer. Wenn das der Fall ist, wird Google sich fossiler Treibstoffe bedienen (oder eventuell in einigen Fällen Kern- oder Wasserkraft), genau wie jeder andere auch. Driessen schreibt: „Kein Unternehmen, dass ununterbrochen 365 Tage im Jahr rund um die Uhr aktiv ist, kann zu 100% mit erneuerbarer Energie betrieben werden … 5 bis 25% über das Jahr verteilt sind weit realistischer. Die restliche Zeit muss der Strom von ,Backup‘-Systemen kommen, welche in der Tat die primären Energiequellen sind“. Orr beschreibt die Verkündung von „100% erneuerbar“ seitens Google als ein „Mätzchen“ und erklärt:

Googles eigener Erklärung seines Planes zufolge läuft es darauf hinaus, dass Google Zertifikate erneuerbarer Energie kauft, was es Google erlaubt, erneuerbare Energie zum Großhandelspreis zu kaufen, was bedeutend billiger ist als die Einzelhandelspreise, und jene Energie dann zum Einzelhandelspreis wieder in das Netz zu speisen.

Googles Ausflug in erneuerbare Energie ist kein altruistisches Unterfangen, um die Welt zu retten. Sondern es ist ein billiger Marketing-Trick, um „grün“ auszusehen, was es dem Unternehmen erlaubt, Profite mit politischen Maßnahmen zu machen, welche erneuerbare Energie subventionieren.

Die Zertifikate erneuerbarer Energie von Google sind nur solange wertvoll, wie sie die Politik unterstützt. Falls die Verordnungen und Subventionen verschwinden, wird der Markt und der Wert der Google’schen Zertifikate kollabieren. Falls dies so kommt, wollen wir um der Steuerzahler willen hoffen, dass die Regierung Google nicht als „too big to fail“ einstuft.

Quellen: Wired.com; Isaac Orr; Paul Driessen und Andrew Follett

—————————————————-

Kurzmeldungen der GWPF zu Kohlekraftwerken in Deutschland:

Hier folgen noch zwei Meldungen aus dem Rundbrief der GWPF über neue Kohlekraftwerke in Deutschland. Offenbar ist man hierzulande mit Hochdruck dabei, das unter dem Teppich zu halten. Aber jeder sollte es wissen:

Gut verborgen: Verbrauch von Strom aus Kohle- und Gaskraftwerken in Deutschland auf 5-Jahre-Hoch

Der Output von Kohle- und Gaskraftwerken in Deutschland hat im Januar den höchsten Stand seit fast fünf Jahren erreicht. Ursachen waren kaltes Wetter, dass der Nachfrage einen kräftigen Schub verlieh, und eine rekord-reduzierte Verfügbarkeit von Kernkraft. Dies geht aus Daten hervor, die das Institut für Solare Energiesysteme der Fraunhofer-Gesellschaft in Freiburg veröffentlicht hat. – Platts, 3 February 2017

—————————————————-

Und zu guter Letzt: Deutschland nimmt demnächst ein weiteres neues Kohlekraftwerk in Betrieb

Das Bezirksgericht Münster genehmigte eine Emissionskontrolle für das Kraftwerk Datteln 4, ein Steinkohlekraftwerk, welches von dem Unternehmen Uniper errichtet wird. Intensive Gerichtsverfahren mit Umweltaktivisten hatten den Bau stark verzögert. Uniper sagte, dass die Strom- und Wärmeerzeugung des 1050-Megawatt-Kraftwerkes in der ersten Hälfte des Jahres 2018 aufgenommen werden soll. Reuters, 19 January 2017

Alles übersetzt von Chris Frey EIKE




Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: “So wenig Strahlung, als vernünftig erreichbar”. Das Wort “vernünftig” wird – wegen der angeblichen Krebsgefahr – als “so gering wie möglich” überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine “normale” Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen, durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn, ist jedoch die Außerkraftsetzung des Grundsatzes : “Die Dosis macht’s”. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche “auf ex” haben soll. Bestenfalls ist dieser Irrglaube auf ein “physikalisches” Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie, war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz “eine Mutation = ein Krebs” ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der “Strahlenschutz” ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der “Walschützer” ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen “Klimaschutz” und andere Machenschaften der “Ökoindustrie” ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle “Gutmenschen” mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich “harte moralische Fakten” von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus “Angst vor Strahlung” verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die “Strahlung” so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von “Strahlenkrankheiten”. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon, als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im “kalten Krieg” die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein “gut” und kein “schlecht”, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis “die Dosis macht’s”, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der “Angstmensch” als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den “Klimawissenschaften”, bei denen “Welt-Temperaturen” mit (bekannt fehlerhaften) “Weltmodellen” berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Der Beitrag erschien zuerst bei NUKEKLAUS hierhttp://nukeklaus.de/home/mediziner-gegen-lnt/




Dr. Judith Curry redet Klartext bzgl. der verhängnis­vollen Fehler der Klima­wissenschaft – sowie deren Scheitern bei der Erkundung und dem Verständnis von Unsicher­heiten

Video nicht mehr verfügbar

Im Verlauf ihres Interviews sprach Dr. Curry die zugrunde liegenden Hypothesen an, die von Anfang an ohne jeden wissenschaftlichen Beweis dafür, dass anthropogene Aktivitäten die „globale Erwärmung“ antrieben, vom IPCC einfach in den Raum gestellt wurden (der Terminus „globale Erwärmung“ wurde später zu „Klimawandel“ modifiziert nach dem „Stillstand“ der globalen Temperatur).

Dieses Thema wurde von ihr effektiv behandelt mittels ihrer Charakterisierung während der Sendung, als sie das völlige Versagen der Klimamodelle ansprach, die natürlichen Klimavariationen vor dem Jahr 1950 darzustellen: „Falls die Wissenschaft Klimaänderungen vor 1950 nicht erklären kann, wie können wir dann den heutigen Klimamodellen vertrauen?“

Sie sagte, dass sich das IPCC niemals die Mühe „harter Arbeit“ gemacht habe, um zu bestimmen, wie natürliche Klimavariationen Klimawandel beeinflussten. Stattdessen verließ es sich auf „Experten-Beurteilungen“, denen zufolge menschliche Aktivitäten dafür ursächlich seien. Damit wurde folglich jede Gelegenheit zunichte gemacht, die Klimawissenschaft in diesem wichtigen Bereich voranzubringen.

Dr. Curry hat dieses Thema bereits in früheren Artikeln angesprochen (hier), in denen sie die höchst fragwürdigen Computer-Modellierungs-Verfahren angesprochen hatte, die versuchen, eine Divergenz zu fabrizieren zwischen Klimamodell-Ensemble-Läufen ohne Antrieb bzw. mit anthropogenem Antrieb.

In diesen früheren Artikeln kam sie zu dem Ergebnis, dass mit der Wahl dieses vom Modell getriebenen Erkennungs- und Zuordnungsverfahrens „das IPCC es nicht vermocht hat, überzeugend eine ,Erkennung‘ zu zeigen“.

„Weil historische Aufzeichnungen nicht lang genug und Paläo-Rekonstruktionen nicht zuverlässig sind, ,erkennen‘ die Klimamodelle AGW mittels Vergleichen von Simulationen mit natürlichen Antrieben mit solchen mit anthropogenen Antrieben“.

Und weiter:

„Das IPCC betrachtet die Divergenz zwischen natürlich getriebenen und anthropogen getriebenen Simulationen nach etwa dem Jahr 1980 als das Zentrum ihres Erkennungs- und Zuordnungs-Argumentes. Siehe Abbildung 10.1 aus dem AR 5 (WG1): a) mit natürlichem und anthropogenen Antrieb, b) ohne anthropogenen Antrieb“:

Dr. Curry verwies folgendermaßen auf eine Anzahl kritischer Fehler in diesen Vergleichen:

„Man beachte besonders, dass die Modelle darin scheitern, die Erwärmung zwischen 1910 und 1940 zu zeigen.

Der schreiende Fehler in seiner [des IPCC] Logik ist Folgender: Falls man versucht, die Erwärmung über einen kurzen Zeitraum, z. B. seit 1980, irgendetwas zuzuordnen, erfordert dies die explizite Berücksichtigung, in welcher Phase der multidekadischen natürlichen internen Variabilität dieser Zeitraum der Erwärmung liegt (z. B. AMO, PDO).

Bei der Zuordnung der Erwärmung zum Ende des 20. Jahrhunderts hat man für das Erkennen derselben nicht berücksichtigt, in welcher Phase von AMO und PDO diese Zeitperiode liegt.

Typischerweise wird argumentiert, dass diese Oszillationen auf und ab schwingen, sich insgesamt aber ausgleichen. Vielleicht, aber sie gleichen sich NICHT aus, wenn man einen Zeitraum heranzieht, der kürzer ist als die multidekadischen Zeitmaßstäbe in Verbindung mit diesen Oszillationen.

Außerdem erfordert es eine überzeugende Zuordnung angesichts der Gegenwart multidekadischer Oszillationen mit einem nominellen Zeitrahmen von 60 bis 80 Jahren, dass man die Variabilität einem Zeitraum von mehr als 60 bis 80 Jahren zuordnen kann, vorzugsweise bis zurück zur Mitte des 19. Jahrhunderts.

Wenn man nicht in der Lage ist, die Zuordnung der Änderung zu Anfang des 20. Jahrhunderts einzuordnen, ist meiner Ansicht nach jede zuverlässige Zuordnung der Änderung zum Ende des 20. Jahrhunderts ausgeschlossen“.

In diesen früheren Artikeln kommt Dr. Curry zu dem Ergebnis, dass die IPCC-Klimamodelle für diesen Zweck nicht geeignet sind, dass sie Zirkelschlüsse bemühen bei der behaupteten Erkennung, und dass sie daran scheitern, den Einfluss von Antriebs-Unsicherheiten hinsichtlich Vermutungen der Zuordnung abzuschätzen.

Während der Sendung sagte Dr. Curry weiter, dass Klimamodelle wie die vom IPCC verwendeten Modelle, welche versuchen, Klimaauswirkungen in Verbindung zu bringen mit menschlichen Aktivitäten, in viele Fällen „sich selbst erfüllende Prophezeiungen“ repräsentieren aus einer politisch getriebenen Agenda, die „jede Objektivität verloren hat“, weil deren Bias bzgl. der Missachtung der natürlichen Klimavariabilität dazu führte, dass sie sich ausschließlich auf anthropogenen Klimawandel konzentrierte.

Dr. Curry sprach während der Sendung auch das jüngste Daten-Debakel der NOAA an. Diese Organisation, welche maßgeblich bei der Messung und Evaluierung globaler Temperaturdaten sein sollte, war extrem schlampig und inkompetent bei der Verwaltung ihrer Temperaturdaten.

Sie sprach im Zusammenhang mit dem Daten-Debakel der NOAA an, dass dieses durch politischen Druck der Obama-Regierung zustande gekommen sei, weil diese Ergebnisse wünschte zur Unterstützung ihrer Aktivitäten auf der Pariser Klimakonferenz.

Sie erwähnte, dass sie während der letzten 18 Monate in Kontakt mit dem NOAA-Wissenschaftler Dr. John Bates stand, mit welchem sie über seine Erfahrungen bzgl. des Fehlens wissenschaftlicher Sorgfalt bei der Behandlung der Datensätze seitens der NOAA diskutierte. Kritische Temperaturdaten wurden nicht angemessen archiviert, eine dokumentierte oder evaluierte Konsistenz mit den von der NOAA selbst etablierten Standards fand nicht statt. Sie bemerkte, dass sie mit Dr. Bates eine extensive Diskussion dieser Datenprobleme der NOAA auf ihrem Blog Climate etc. hatte.

Sie bemerkte weiter, dass angesichts der Bedeutung, welche die NOAA-Temperaturdaten bei der globalen und nationalen Gesetzgebung und politischer Entscheidungen bzgl. Klima-Belange spielen, die Billionen Dollar teuer werden konnten, diese Daten allen Standards der Verwaltung von Daten zu 100% genügen müssen, was hier eindeutig nicht der Fall war.

Sie glaubt, dass die Finanzierung der Studie zur natürlichen Klimavariation erheblich aufgestockt werden muss und dass der politische Druck seitens der Regierungen dafür gesorgt hatte, dass fast die gesamte Finanzierung an anthropogen ausgerichtete Studien geflossen war.

Ihrer Einschätzung nach bewegen sich die Klimaauswirkungen menschlicher CO2-Emissionen im „Winzig-Maßstab“.

Sie ermutigte alle diejenigen, die Bedenken hinsichtlich der Validität von Argumenten für einen vermeintlich anthropogen verursachten Klimawandel hegen, diese ihre Bedenken laut zur Sprache bringen.

Link: https://wattsupwiththat.com/2017/02/09/dr-judith-curry-speaks-out-on-climate-sciences-fatal-flaw-the-failure-to-explore-and-understand-uncertainty/
Übersetzt von Chris Frey EIKE




Daten zur deutschen Stromversorgung 2016

Zur Übersicht: die Nettostromerzeugung im Jahr 2016 betrug in Deutschland ca. 550 Terawattstunden (TWh). Das ist der Strommix, welcher tatsächlich aus der Steckdose kommt. Bei der Bruttostromerzeugung – ca. 650 TWh – berücksichtigt man auch die Eigenerzeugung der Industrie, beispielsweise im Bergbau und in der Chemie; diese hat in den folgenden grafischen Darstellungen keinen Eingang gefunden. Bei den Daten stütze ich mich vor allem auf Erhebungen des Fraunhoferinstituts ISE in Freiburg, auf die Plattform Agora Energiewende in Berlin sowie auf Veröffentlichungen des Bundesministeriums für Wirtschaft und Energie.

In Europa ist Deutschland der größte Stromerzeuger. Die jetzt verfügbaren Zahlen der Nettoproduktionen für das Jahr 2014 ergibt folgende Reihung: Deutschland (592 TWh), Frankreich (539), Großbritannien (322),  Italien (269), Spanien (268), Schweden (150), Polen (145). Die in diesem Blog zitierten Zahlen der verschiedenen Quellen sind (im niedrigen Prozentbereich) leicht different, ohne dass dafür ein Grund angegeben werden kann.

Merke:  1 TWh =1 Terawattstunde

                          =1000 Gigawattstunden (GWh)

                          =1 Million Megawattstunden (MWh)

                          =1 Milliarde Kilowattstunden (KWh)

Einige Grafiken zur Stromwirtschaft

Abb.1: Verteilung der Nettostromerzeugung auf die verschiedenen Energieträger (ISE)

Die Grafik zeigt die acht wichtigsten deutschen Energieträger. Kernenergie, Braunkohle, Steinkohle und Gas werden den konventionellen Energien zugerechnet und liefern insbesondere Konstantstrom im Bereich der Mittel-und Grundlast. Wasserkraft, Biomasse, Wind und Solar gehören zu den erneuerbaren Energien; ihr Beitrag zur gesamten Stromversorgung ist unstetig und u. a. abhängig von Wetter und Standort.

Abb. 2: Veränderung der Nettostromerzeugung 2016 gegenüber Vorjahr 2015 (ISE)

Die Stromproduktion aus Kernkraft ging 2016 – im Vergleich zu 2015 – um 7,8 % zurück; ursächlich war die Abschaltung des KKW Grafenrheinfeld im Juni 2015.

Die Gaskraftwerke haben 2016  ca. 44 TWh netto für die öffentliche Stromversorgung produziert. Dieser markante Aufwärtstrend von 46 % resultiert hauptsächlich aus den niedrigen Gaspreisen. Die Energieeinspeisung aus Braunkohle. Steinkohle, Wind und Solar ging entsprechend zurück.

Abb. 3: Anteile der verschiedenen Stromerzeuger im Jahr 2016 (ISE)

Die wichtigsten Energieträger in Kreisdarstellung.

Merke: im Jahr 2016 haben die erneuerbaren Energien mit ca. einem Drittel zur deutschen Stromversorgung beigetragen.

Abb. 4: Stromexportsaldo 2010 bis 2016 (ISE)

Im Jahr 2016 wurde bei Strom ein Exportüberschuss von ca. 50 TWh erzielt. Dieser Wert stellt nach den alten Rekordjahren 2012 bis 2015 wieder einen neuen Spitzenwert dar und liegt um etwa 2 TWh bzw. 4% über dem Niveau von 2015. Der Großteil der Exporte floss in die Niederlande, die einen Teil nach Belgien und Großbritannien weiter leiteten. Auf Rang zwei folgt die Schweiz, die hauptsächlich als Transitland nach Italien dient. An dritter Stelle liegt Frankreich, wo einige Kernkraftwerke aus Sicherheitsgründen abgeschaltet werden mussten. Rang vier belegt Polen, das einen Teil des Stroms aus den neuen Bundesländern über Tschechien nach Süddeutschland transportiert.

Eingeführter Strom kostet durchschnittlich 37, ausgeführter 35 Euro/MWh. Der durchschnittliche (day-ahead) Börsenstrompreis ist auf 28 Euro/MWh gefallen und liegt inflationsbereinigt ungefähr auf dem Niveau von 2002.

Abb. 5: Stromerzeugung im ersten Quartal 2016 (Agora)

Die Stromerzeugung im ersten Quartal 2016:

hohe Last und Winterstürme zu Beginn des Jahres.

Abb. 6: Stromerzeugung im dritten Quartal 2016 (Agora)

Die Stromerzeugung im dritten Quartal 2016:

ein sonniger Sommer mit wenig Wind

Abb. 7: Haushaltsstrompreise 2007 bis 2017 (Agora)

Die Haushaltsstrompreise werden im Jahr 2017 erstmals die 30-Cent-Marke überschreiten.

Die Ursachen sind gestiegene Netzentgelte, gestiegene EEG-Umlage und hohe Vertriebsmargen.

Ausblick

Die Zukunft der deutschen Stromwirtschaft – für die kommenden 10 bis 15 Jahre – ist schwer einzuschätzen. Relativ gesichert ist die Abschaltung der noch laufenden 8 Kernkraftwerke bis 2022; dafür wurde im Sommer 2011 eigens ein Bundesgesetz erlassen. Demnach wird noch in diesem Jahr  das Kernkraftwerk Gundremmingen B vom Netz genommen werden. Ob man es wagen wird  (im Jahr 2022!) auf einem Schlag die drei leistungsstarken  KKW Isar 2, Emsland und Neckarwestheim II abzuschalten, hängt vom Ausbau der großen Nord-Süd-Gleichstromleitungen ab. Die Inbetriebnahme dieser Trassenprojekte hat sich von 2019 auf 2021/22 verzögert. Außerdem werden sie, wegen des Übergangs auf Erdverkabelung, um den Faktor 5 bis 10 teurer. Damit steigen auch weiterhin die Stromkosten für die Privathaushalte.

Der Ausbau der erneuerbaren Energien (EE), insbesondere für Wind und Solar wird sich wohl verlangsamen, weil künftige Genehmigungen dem Wettbewerb via Auktionen unterliegen. Die gesteckten Ziele – 2030:50 %,  2040:65 % und 2050: 80 % – sind sehr ambitioniert; man darf zweifeln, ob sie erreicht werden. Die Klimaziele, wie in Paris vereinbart, werden sicherlich verfehlt werden, da die Grundversorgung mit Strom (in Abwesenheit von Kernkraftwerken und Großspeichern) und die Stabilhaltung der Netze nur über die CO2-haltigen Energieträger Braunkohle, Steinkohle und Erdgas geschehen kann. Wobei das Zertifikatesystem der Europäischen Union keinen Beitrag zum Klimaschutz liefert, weil es die CO2-Freisetzungen nur räumlich verlagert.

Entscheidend für den Fortgang der Energiewende sind unter anderem die hohen, sich abzeichnenden Kosten. Bei der Einführung des EEG im Jahr 1990 versprach der damalige Umweltminister Jürgen Trittin „Mehrkosten von gerade mal  1 Euro pro Familie und Monat, etwa so viel wie eine Kugel Eis“. Heute beträgt die EEG-Umlage für eine Durchschnittsfamilie allein das 20fache, nämlich ca. 20 Euro pro Monat. Die jährlichen Kosten für die Einspeisevergütung liegen bei 25 Milliarden Euro – die 2 Milliarden für die eingesparten Brennstoffkosten bereits gegen gerechnet. Tendenz: stark steigend! Die Gesamtkosten der Energiewende bezifferte der heutige Kanzleramtsminister Peter Altmeier in seiner früheren Funktion als Umweltminister auf 1 Billion Euro.

Fazit: Eines fernen Tages könnten die Menschen vielleicht nicht mehr bereit (oder in der Lage) sein, diese hohen Kosten zu tragen.

Die deutsche Energiewende würde auf halbem Wege stecken bleiben.




Wie die neue Software der NOAA die regionale Erwärmung antreibt.

Die Offenlegungen von Dr. Bates über Karls ‚Pausebuster‘ der NOAA NCEI Studie haben das ganze Klima Brimborium geschaffen und Rep. Smith sogar dazu getrieben, die Vorlage der NOAA E-Mails erneut zu fordern. Dabei ist die Karl Studie im Vergleich zu anderen NOAA-Betrügereien ziemlich harmlos. Es hat kaum die Erwärmungspause entfernt und zeigt immer noch, dass die CMIP5 Klimamodelle im Vergleich zur Realität zu heiß laufen. Das Wichtigste war vor allem, dass die Politiker im Vorfeld zu Paris über die Widerlegung der Erwärmungspause sprachen.
Hier ist ein Beispiel für einen viel krasseren Vorgang, aber ein weniger beachteter. Es ist ein Auszug aus einem viel längerem Essay: „Wenn keine Daten vorhanden sind“, zu lesen im ebook „Blowing Smoke“. Es ist nicht global und betrifft nur die kontinentalen Vereinigten Staaten (CONUS). Aber es öffnet einem die Augen und ist unwiderlegbar.

NOAA’s USHCN  [U.S. Historical Climatology Network] Stationen werden verwendet, um den US-Teil von GHCN [Global Historical Climatology Network].zu erstellen. Sie werden auch verwendet, um die Temperaturhistorie der Bundesstaaten zu erstellen, die auf der NOAA Webseite zugänglich sind. Eine Studie aus dem Jahr 2011 [1] gab bekannt, dass NOAA bis Ende 2013 auf die aktualisierte und verbesserte CONUS-Software umgestellt wird. Das Programm, das bis zum Upgrade verwendet wurde, heißt Drd964x. Das Upgrade wurde von Ende 2013 bis 2014 in zwei Tranchen gestartet. Ende 2013 kamen die neuen grafischen Schnittstellen, die eine Verbesserung sind. Dann kam im Februar 2014 die neue Datenausgabe, die eine überarbeitete Stationsvorwahl, Homogenisierung und Rasterung beinhaltet. Die neue Version heißt nClimDiv.

Hier sind die Temperaturhistorien von drei Bundesstaaten.
Die erste ist Maine, wobei die Vorher / Nachher-Daten im neuen graphischen Format dargestellt werden.

Quelle WUWT


[Die Grafiken sind leider auch im Original nicht schärfer. Die X-Achse beginnt im gleichen Jahr
 

Quelle WUWT


Die zweite ist Michigan, die die grafischen Unterschiede von alter zu neuer Software zeigt.
 

Quelle WUWT


Und zum Schluss: Kalifornien
 
In jedem dieser Bundesstaaten wurde Null oder sehr geringe Erwärmung in deutliche Erwärmung konvertiert.
Eine selbstverständliche Frage könnte sein, ob eine verbesserte Homogenisierung (unter anderem „Entfernen“ städtischer Wärmeinsel (UHI) -Effekte) verantwortlich ist?

>> Einschub vom Übersetzer:

Der Autor schreibt im englischen Original:

No from first principles, because the NOAA/NASA UHI policy is to warm the past so that current temperatures correspond to current thermometers.

Übersetzen tue ich das mit:

Nein. Weil es zu den ersten politischen Grundsätzen von NOAA / NASA UHI gehört, die Vergangenheit zu erwärmen, damit gegenwärtige Temperaturen den gegenwärtigen Thermometern entsprechen.

Problem:

Nach meiner Meinung werden jedoch die Temperaturen der Vergangenheit abgesenkt, damit heute eine höhere Erwärmung sichtbar wird – so interpretiere ich auch die gezeigten Grafiken.

Vielleicht kann einer unserer Leser hierzu helfen, Danke

Ende Einschub <<

…  (erläutert mit NASA GISS Tokyo in dem viel längeren Buchaufsatz). Dies könnte in Kalifornien angemessen sein, dessen Bevölkerung sich von 1960 bis 2010 (138%) mehr als verdoppelte mit aktueller Dichte von ~ 91 Personen / km2. Maine repräsentiert einen ähnlichen Ozean und Berge Bundesstaat, ist aber viel ländlicher. Mains Bevölkerung wuchs nur um ein Drittel (34%) von 1960 bis 2010 und seine aktuelle Bevölkerungsdichte beträgt nur 16,5 Personen / km2. Maine sollte nicht die gleiche Notwendigkeit oder den Grad der Homogenisierung erfordern. Ohne die neueste Version des US-Teils von GHCN hätte Maine keine Erwärmung; Sein ‚AGW‘ wurde von nClimDiv produziert.
Es ist zwar ermüdend, alle 48 CONUS-Zustände hinsichtlich des Übergangs von Drd964x zu nClimDiv zu analysieren. NOAA gab 40 von 48 Staaten ’neue‘ AGW. Die Drd964x mittelfristige CONUS Erwärmung von 1895 bis 2012 war 0,088F / Jahrzehnt [~ 0,05K] Die neue nClimDiv-Rate von 1895 bis 2014 beträgt 0,135 F / Jahrzehnt, fast doppelt so hoch. Definitiv anthropogen, aber vielleicht keine wirkliche Erwärmung.
[1] Fennimore et. al., Transitioning…, NOAA/NEDIS/NCDC (2011) available at ftp.ncdc.noaa.gov/pub/data/cmb/GrDD-Transition.pdf
Erschienen auf WUWT am 07.02.2017
Übersetzt durch Andreas Demmig
https://wattsupwiththat.com/2017/02/07/even-more-on-the-david-rose-bombshell-article-how-noaa-software-spins-the-agw-game/