Amerikas Windindustrie jault auf – die Republikaner wollen die grünen Subventionen beschneiden

Die Steuerreform der Republikaner zielt darauf ab, die Abzocke der Grünen Energie aus dem Gleis zu bringen

Kommentatoren, wie auch die Demokraten im Kongresses , haben das republikanische Steuergesetz dafür kritisiert, dass es nach einer Marathonsitzung durch das Repräsentantenhaus und den Senat beschlossen wurde.

verschwenderische Förderung von Wind- und Solarenergie auf ein vernünftiges Maß zurechtstutzen.

Während die letzten Details der Steuerreform im Konferenzkomitee ausgearbeitet werden müssen, zielen sowohl die Regierungs- als auch die Rechnung im Senats darauf ab, die Subventionen für Wind- und Solarenergie zu kürzen. Diese Steuervergünstigungen verzerren die Stromgroßhandelsmärkte und kosteten den Steuerzahler Dutzende von Milliarden Dollar.

 

Im Januar ermittelte der Ausschuss für Steuerschätzung, dass die Subventionen des Bundes nur für Windenergie die Bundeskasse zwischen 2016 und 2020 mit 23,7 Milliarden US-Dollar belastet haben wird. Die solaren Subventionen werden im selben Zeitraum 12,3 Milliarden US-Dollar erreichen.

Das ist nicht nur eine Menge Geld, es ist auch mehr als großzügig gegenüber dem,  was die Bundesregierung den Kohlenwasserstoff- und Nuklearsektoren zur Verfügung stellt, auf einer energieäquivalenten Basis

Im Mai veröffentlichte der überparteiliche wissenschaftliche Dienst des Kongresses, einen Bericht über energiebezogene Steuervorschriften. Es stellte fest, dass Solar- und Windenergie im Jahr 2016 mehr Bundessteuergelder (6 Milliarden US-Dollar) erhielten als die Sektoren Öl, Kohle und Erdgas (5,2 Milliarden US-Dollar) zusammen – und dass, obwohl Kohle, Öl und Gas im vergangenen Jahr 24 Mal so viel Energie produziert haben wie Wind und Sonne zusammen.

Das sind erschreckende Zahlen, zumal der heimische Nuklearsektor, der zur Verringerung der Kohlendioxidemissionen beiträgt, in einer ausgewachsenen Krise steckt: In den letzten Jahren mussten zahlreiche Reaktoren vom Netz genommen werden und viele weitere, darunter auch das Kernkraftwerk Indian Point [etwa 55 Kilometer nördlich von New York City in  Buchanan am Hudson River], wahrscheinlich dauerhaft abgeschaltet werden.

 

Das Jammern der Anleger kann von der östlichen Spitze der Vereinigten Staaten [State New York] bis zu Jerry Browns Küche in Sacramento [grün-missionarischer Gouverneur von Kalifornien] gehört werden.

Aber Sie erinnern sich, dass die Wind-Subventionen den Bundeshaushalt zwischen 2016 und 2020 23,7 Milliarden US-Dollar kosten werden. Damit kostet jeder windbedingte Arbeitsplatz den Steuerzahler ungefähr 474.000 US-Dollar. Das ist ein teures Konzert, besonders wenn man bedenkt, dass das durchschnittliche Haushaltseinkommen in den Vereinigten Staaten im letzten Jahr bei 57.600 US-Dollar lag.

 

Eine weitere gute Nachricht über die drohenden Steueränderungen: Die Version der Regierung will den Bundeskredit für Elektrofahrzeuge verschrotten. Die aktuelle Bundespolitik bietet E-Auto-Käufern einen Zuschuss von bis zu 7.500 US-Dollar. Wer kauft diese Autos? Reiche Leute. Eine Analyse aus dem Jahr 2013 ergab, dass Tesla-Käufer über ein durchschnittliches Haushaltseinkommen von 293.000 Dollar verfügen.

Seit Jahren erzählen uns Befürworter erneuerbarer Energien, dass Wind und Solar billiger werden. Wir hören das Gleiche von den Elektroautos. Aber da diese Industrien nun sehen, dass ihre Absahnerei aus der Bahn gekommen ist, werden wir bald herausfinden, wie wettbewerbsfähig sie wirklich sind.

New York Post

Erschienen auf stopthesethings am 03.01.2018

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2018/01/03/americas-wind-industry-squeals-as-republicans-slash-massive-wind-power-subsidies/

 

 

* * *

gemünzt auf USA und Trump

Hillary Clinton im Wahlkampf:
Man kann die Hälfte der Trump-Unterstützer da hineinstecken, was ich einen Sack von Kläglichen (basket of deplorables) nenne.”

 

 




Das Grüne U-Boot

An langen Winterabenden klickt man sich öfter als sonst durch die Netzwelt und lässt sich Fragen beantworten, die man sich zu Zeiten schönen Wetters nicht erst gestellt hätte. Mehr als drei Monate nach der Bundestagswahl hockt eine historisch große Zahl an Parlamentariern in den Bundestagsfraktionen, bildet wie in U-Booten selbstreflektive Echokammern der Beschäftigung mit sich selbst und ist nicht ausgelastet. Ob sie eine Elite sind, lässt sich nicht mit Gewissheit sagen, auf jeden Fall gehören sie nicht zum intellektuellen und finanziellen Prekariat im Lande. Die kreative Pause, die sich für die Mehrheit von ihnen wohl noch einige Zeit hinziehen wird, ist jedenfalls nicht schlecht vergütet, 9.541,74 Euro monatlich plus 4.318,38 steuerfrei. Da muss Oma lange für stricken, allerdings haben die Schals dann auch einen Gebrauchswert.

Wer sind diese Leute? Besonders die, die in vergangenen Legislaturperioden Konfetti warfen, als ein Gesetz mehrheitlich beschlossen wurde? Die Opposition spielten und am Ende doch die Kanzlerinnenpolitik stützten? Die entgegen ihrem Gründungsmythos als Friedenspartei einem Krieg gegen Serbien zustimmten? Die nicht weniger als die Welt retten wollen, denen Schmetterlinge wichtiger sind als Menschen?

Ein Blick in die Biografien der jetzt 67 Abgeordneten von Bündnis 90 / Die Grünen zeigt eine Gruppe mit spezifischen Lebensläufen und Karrieren, eine Mischung verschiedener Qualifikationen, die sich am Ende doch ähneln und in der sich das Spektrum der Gesellschaft nicht wiederfindet.
Ein einziges Gewimmel bilden Politikwissenschaftler (27%), vor VWLern und BWLern (19%), Soziologen (16%), Pädagogen (13%) und Juristen (12%), weiterhin treffen wir auf Verwaltungswissenschaftler, Religionswissenschaftler, Landschaftsökologen, Biologen, Philologen, Philosophen, Psychologen, Germanisten, Umweltwissenschaftler, Religionswissenschaftler, Kunstwissenschaftler, Mediziner. Immerhin sieben von ihnen (10,5%) haben einen Beruf erlernt.

Oft haben Studienrichtung und –abschluss, so vorhanden, nicht viel mit der später ausgeübten Tätigkeit zu tun. Zumeist ausgeübte Tätigkeiten waren Politiker, Projektmitarbeiter, Kulturreferent, Büroleiter, wissenschaftlicher Angestellter, Lehrer/Referent/Dozent, Verwaltungsmitarbeiter, Anwalt, Manager, studentische Hilfskraft. Eine Polizistin mutet schon exotisch an.
Auffällig in ihren Viten ist die oftmalige Tätigkeit bei NGO`s oder als Referenten und Mitarbeiter von Landtags- und Bundestagsabgeordneten. Das schafft Kenntnisse der Abläufe und man kann gut netzwerken. Wer will schon das raue Leben in Wirtschaft und Praxis durchackern? Der gerade Weg in den Bundestag beginnt an der Parteibasis und führt über die Gremien. Einige der Abgeordneten waren bereits im Bundestag (39%) oder hatten Mandate in Landtagen (7,5%).
Auffällig ist das Fehlen von Vertretern aus Industrie und Ökonomie, Gewerbe und Bundeswehr, es gibt nur wenige Selbständige, keine Unternehmer oder Arbeitnehmer im traditionellen Sinn.

Plötzlich wundert man sich nicht mehr über grüne Politik, die nicht den selbstbewussten eckigen und kantigen Bürger akzeptiert, sondern den zukunftsverängstigten Staatsgläubigen zum Ziel hat, der von einer Regierung erzogen, besser noch, therapiert werden muss. Die die Marktwirtschaft nicht schätzt, weil in ihr Menschen selbstverantwortlich handeln und grüner Einflussnahme nicht bedürfen. Die Menschen nach ihrem Bild des höheren Ökologismus erziehen will, nicht mit kuscheliger Waldorfpädagogik, sondern mit grünem Frontalunterricht, der mit Schuld und Sühne arbeitet. Für die Technikphobie, Naturesoterik, Atomangst und Klimareligion die Grundlagen sind, die in ihre einzigen politischen Instrumente münden: Umverteilung, Verbote und Subventionen.
Ihre fehlende Lebensnähe ist ein Grund für die Maßlosigkeit in ihren ökologistischen Zielen. Da Unternehmer und Arbeitnehmer, die die Grundlagen für unsere Industriegesellschaft bilden, in der Fraktion praktisch nicht zu finden sind, wird das Grüne Wolkenkuckucksheim üppig ausgebaut.

Abseits der Realitäten

Ausgerechnet der grünen Fraktionsführung kann man ein gerütteltes Maß an realer Lebenserfahrung wirklich nicht vorwerfen. Respekt vor der Ausbildung und Promotion von Dr. Hofreiter. Allerdings arbeitete auch er nur wenig im Fachgebiet Biologie und wechselte 2005 als Politprofi in den Bundestag.
Über Referenzen von Frau Göring-Eckhardt zu sprechen, erübrigt sich. Es gibt sie nicht, sie ist Funktionärin in Partei und Kirche. Sie denkt an Karl den Käfer, aber nicht an Robert, den Rotmilan. Sie beklagt schwindende Artenvielfalt, tut aber nichts gegen Monokulturen von Energiemais. Sie geißelt Rodungen des Regenwaldes, tut aber nichts gegen die Rodung von Bäumen bei uns für Windkraftwälder. Selten hatten Politiker weniger Charakter.

Während es in der FDP über Jahrzehnte zum guten Ton gehörte, die Bundestagsdiät nur als Zubrot zum „richtigen“ Job zu kassieren, würde der größte Teil der Grünen- Abgeordneten im Leben außerhalb der Politik nicht annähernd das Einkommen erzielen können, das ihnen der Abgeordnetensitz einbringt. Das erklärt die sehr hohe Flexibilität in den Schwampel-Sondierungen. Bei positivem Ausgang wäre ein Arbeitsbeschaffungsprogramm für die eigene Klientel die Folge gewesen.
Nun leiden sie unter akutem „Jamaika-Entzugsfieber“ (Wolfram Weimer), nachdem sie doch schon die Disziplin „huldvolles Winken vom Balkon“ so gekonnt zelebrierten.

Keine Abgeordneten ohne Wähler. Es gilt als sicher, dass Grünen-Wähler eher jung, gut verdienend, verbeamtet oder im Öffentlichen Dienst tätig sind. Auffällig die große Spreizung zwischen den Großstädten und dem Rest des Landes. Liegen in den Zentren wie Berlin, Hamburg und München die Grünen-Ergebnisse zwischen 11 und 18 Prozent (stadtteilbezogen bis 25 Prozent), ist die Partei in der Fläche im Osten oft unter der 5-Prozent-Hürde, auch im Westen vielmals nur knapp drüber. Die von Windkraftanlagen umstellte Landbevölkerung hat die Grünen inzwischen als existenzielles Problem erkannt.
Auch innerhalb der großen Städte kann es große Unterschiede geben: Stimmten in Berlin-Kreuzberg/Friedrichshain die Hipster mit 26/20 Prozent (Erst-/Zweitstimme) für Grün, waren in Marzahn/Hellersdorf die dort mehrheitlich wohnenden Proleten und Dienstleister nur zu 3,2/4,1 Prozent für diese. Wo der Mindestlohn eine große Rolle spielt, wird wenig gegendert.

Selbst in mittleren Städten wie in Aachen II konnte die 5-Prozent-Hürde nicht genommen werden. In Cottbus/Spree-Neiße landen die Grünen ein stattliches halbes Prozent vor Sonneborns „Die Partei“.
So bleiben die Großstädter der Grünen verlässlichste Anhänger. Für sie kommt der Strom kommt aus der Steckdose, das Fleisch vom Biomarkt. Die Ursprungstiere wurden Zeit ihres Lebens gestreichelt und an dessen Ende nicht gewaltsam gemeuchelt sondern vom tierflüsternden Biobauern totgequatscht.

Parlament und Gesellschaft

Sind denn die Qualitätsabgeordneten der anderen Fraktionen so viel besser? Die Blauen sind natürlich fast alle neu in der Politik, sieht man von ehemaligen CDU-Mitgliedern ab. Die Lebensläufe sind sehr verschieden, die Qualifikationen breiter gestreut. Hier gibt es den Landwirt wie den Malermeister. Unter den 92 Abgeordneten sind auch hier Juristen reichlich vertreten (fast 22%), vor Wirtschaftsleuten (17%), Lehrern/Pädagogen (12%) und – größtenteils ehemaligen – Bundeswehrangehörigen (9%). Ingenieure (12%) sind auch vorhanden wie einige Naturwissenschaftler, IT-Spezialisten (5%), Mediziner, Piloten und Polizisten. 31 Prozent haben einen Berufsabschluss, knapp 22 Prozent sind Promovierte (bei den Grünen knapp 20 Prozent). Die Tätigkeiten reichen vom höheren Staatsbediensteten über Berater, Unternehmer und Handwerksmeister bis zum Angestellten. Die Breite der Gesellschaft zeigt sich deutlicher.

Es ist der bleibende Verdienst der Grünen, Umweltbewusstsein in der Gesellschaft verankert zu haben. Allerdings ist dies heute kein Alleistellungsmerkmal mehr, denn alle anderen Parteien denken in ihren Entscheidungen inzwischen Umweltschutz mit. Im Gegensatz zu den Grünen, die auf Grund ihres ökoesoterisch praktizierten Klimaschutzes den Umweltschutz aus dem Auge verloren haben und andere Aspekte wie Wirtschaft und Soziales ohnehin nur am Rande betrachten.

Neben dem grünen gibt es noch ein schwarzes, zwei rote, ein blaues und ein yellow submarine im Bundestag. Wie tief sie in der verbleibenden Legislaturperiode vor der Wirklichkeit abtauchen, werden die Wähler 2021 zu honorieren wissen. Vielleicht auch eher. Das grüne U-Boot wird wieder besonders tief tauchen.

Daten aus: http://www.bundestag.de/abgeordnete/




Künstlich fabrizierter Konsens: Historie der Anfänge des IPCC

Bernie Lewin hat ein bedeutendes neues Buch geschrieben: SEARCHING FOR THE CATASTROPHE SIGNAL:The Origins of The Intergovernmental Panel on Climate Change

Die Bedeutung dieses Buches manifestiert sich in den Danksagungen sowie im Zusammenhang von Assistenz und Beiträgen von frühen Führern und Teilnehmern am IPCC:

Dieses Buch hätte nicht geschrieben werden können ohne die Dokumente, welche ich über Mike MacCracken und John Zillman erhalten habe. Ihr fortwährendes Interesse an einer wahren und genauen Präsentation der Fakten verhinderte, dass ich im Zuge meiner Recherchen vom Weg abkomme. Viele von denen, die an den hier beschriebenen Ereignissen teilhatten, widmeten großzügig ihre Zeit der Beantwortung meiner Anfragen. Darunter waren Ben Santer, Tim Barnett, Tom Wigley, John Houghton, Fred Singer, John Mitchell, Pat Michaels … und noch viele mehr.

Vielleicht erinnert sich der eine oder andere an einen früheren Beitrag hier auf Climate etc. mit dem Titel Consensus by Exhaustion, an Lewins 5-teilige Reihe über Madrid 1995: The last day of climate science.

Das Buch ist lesenswert. Der Schwerpunkt meiner Zusammenfassung des Inhalts dieses Buches liegt bei den Kapiteln 8 bis 16 im Zusammenhang mit dem Thema ,Erkennung und Zuordnung‘, ,politischer Karren vor dem wissenschaftlichen Pferd‘ und ,Fabrikation des Konsens‘.

Hier also Auszüge aus dem Buch:

Die Energiekrise der siebziger Jahre

Mit einer Verbindung, die ich zuvor nicht hergestellt hatte, zeigt Lewin den historischen Kontext des Schwerpunktes auf der CO2-Forschung in den siebziger Jahren, angeblich wegen der „Ölkrise“, und Bedenken hinsichtlich Energiesicherheit. Es gab eine bedeutende Debatte darüber, ob Kohle oder Kernkraft das Öl ersetzen sollten. Aus dem 8. Kapitel:

Aber in dem Streit zwischen Kernkraft und Kohle hatten die Befürworter der Kernkraft einen bedeutenden Vorteil. Dieser ergab sich als Folge der Neuausrichtung des riesigen Netzwerkes der von der Regierung finanzierten R&D-Laboratorien [=Forschung und Entwicklung] innerhalb der bürokratischen Maschinerie. Es waren diese ,nationalen Laboratorien‘ jener Zeit, in denen das Kohlendioxid-Programm ins Leben gerufen worden ist. Diese Flutwelle neuer Ergebnisse bedeutete, dass die Forschung bzgl. eines spezifischen menschlichen Einflusses auf das Klima zu einem Hauptbereich der Klimaforschung allgemein werden würde. Heute könnten wir das übersehen, und zwar aus dem einfachen Grund, dass die ,Kohlendioxid-Frage‘ schon lange den gesamten Bereich der Klimaforschung dominiert – wobei die wörtliche Bedeutung des Terminus‘ ,Klimawandel‘ gleichzeitig auf diesen Bereich eingeengt wurde.

Dieser Schwerpunkt wurde NICHT von Atmosphären-Wissenschaftlern gesetzt:

Das stärkste Interesse an Klima unter den atmosphärischen Wissenschaftlern war eine internationale Klimakonferenz in Stockholm im Jahre 1974 sowie eine Publikation des ,US-Komitees für GARP‘ (GARP = Global Atmospheric Research Programme) im darauf folgenden Jahr. Der GARP-Report erhielt das Motto [übersetzt] ,Klimawandel verstehen: Ein Programm für Maßnahmen‘, wobei sich der ,Klimawandel auf den natürlichen Klimawandel bezog, und mit ,Maßnahmen‘ war ein ambitioniertes Forschungsprogramm gemeint.

Es gab ein koordiniertes und gut ausgestattetes Forschungsprogramm bzgl. katastrophaler Auswirkungen, bevor es irgendwelche einzelnen Bedenken innerhalb der meteorologischen Gemeinschaft hinsichtlich dieser Auswirkungen gab und bevor es irgendwelche signifikanten öffentlichen oder politischen Ängste gab, die diesen Bedenken Vorschub leisteten. Es begann mitten in einer Debatte über die relativen Vorzüge der Energieerzeugung durch Kohle oder durch Kernkraft (nach der Ölkrise der siebziger Jahre). Es wurde koordiniert durch Wissenschaftler und Manager mit Interessen an der Kernkraft-Seite dieser Debatte, wobei die Finanzierung infolge Ängsten bzgl. der Energiesicherheit kanalisiert wurde hin zu einer Untersuchung eines potentiellen Problems mit Kohle, um mehr Unterstützung für die Option Kernkraft zu gewinnen.

Das Auftauchen der ,globalen Erwärmung‘

Im Februar 1979, auf der ersten Weltklimakonferenz jemals, erhoben Meteorologen zum ersten Mal Bedenken bzgl. Erwärmung. Die Weltklimakonferenz mag den Abkühlungs-Alarm beseitigt haben, aber sie hat nicht die Erwärmungs-Angst losgetreten.

Während die Führung des UN-Umweltprogramms UNEP stur blieb hinsichtlich globaler Erwärmung, lag die Last vorherrschend bei der Weltwetterorganisation WMO. Als die UNEP-Forderung nach der Modellierung von Klima-Szenarien pünktlich das WCRP (World Climate Research Programme)-Komitee erreichte, scheute man diesen Gedanken: Computer-Modellierungen waren zu primitiv, und besonders auf regionaler Ebene könnten damit keine bedeutenden Ergebnisse gewonnen werden. Das Voranschreiten bei der Entwicklung von Klima-Szenarien würde lediglich die Entwicklung irreführender Abschätzungen der Auswirkungen riskieren.

Es dauerte nicht lange, bis die wissenschaftliche Forschung bzgl. Klimawandel im politischen Prozess marginalisiert wurde, und zwar im Kontext mit dem Vorsorgeprinzip:

Zu Beginn der Klimavertrag-Bewegung im Jahre 1985 in Villach entfernte sich die Rhetorik der politischen Bewegung bereits von seiner Verankerung in der Wissenschaft. Zweifel hinsichtlich der wildesten Spekulationen wurden gewendet in einer Rhetorik von Vorsorgemaßnahmen: wir sollten in jedem Falle aktiv werden, nur für den Fall. Mit der Umkehrung der Beweislast kann die Forschung weitergehen, während die Frage weiterhin offen bleibt.

Ursprünge des IPCC

Hinsichtlich der Ursprünge des IPCC:

Jill JÅNager äußerte ihre Ansicht, dass einer der Gründe der aktiven Unterstützung der USA für ein zwischenstaatliches Gremium zu Klimawandel war, dass das US State Department befürchtet hatte, dass die Lage ,außer Kontrolle gerät‘, wobei ,frei stehende Kanonen potentiell die Agenda festlegen‘ konnten, obwohl dies den Regierungen vorbehalten bleiben sollte. Ein Gremium zwischen Regierungen, so diese Denkrichtung, würde die politische Diskussion wieder unter die Kontrolle der Regierungen bringen. Es würde außerdem die Wissenschaft den Politikern näher bringen, ohne dass Politik-Unternehmer [policy entrepreneurs ?] dazwischen funken. Nachdem sich ein solches Gremium über die Wissenschaft geeinigt hatte, so dieser Gedanke weiter gesponnen, kann man zu einer Diskussion über irgendwelche politischen Implikationen kommen.

Während die Politik bereits die Wissenschaft zunehmend irrelevant machte, brachten Bert Brolin und John Houghton den Schwerpunkt zurück in die Wissenschaft:

Innerhalb eines Jahres der ersten IPCC-Sitzung würde sich der Abschätzungs-Prozess transformieren von einem Report der Repräsentanten eines Landes im Volumen eines Pamphlets zu einem Prozess, welcher drei dicke Bände hervorbringt, geschrieben von unabhängigen Wissenschaftlern und Experten am Ende des komplexesten und teuersten Verfahrens, das jemals von einem UN-Gremium zu einem einzelnen meteorologische Thema durchgeführt worden ist. Die Ausdehnung der Abschätzung und die Machtverschiebung zurück zu den Wissenschaftlern erfolgte ziemlich genau zu der Zeit, als eine Welle des politischen Enthusiasmus‘ erfolgreich kanalisiert werden konnte hin zu Investitionen in den UN-Prozess mit dem zwischenstaatlichen Gremium im Zentrum.

John Houghton, Vorsitzender der Arbeitsgruppe I, brachte das IPCC näher an die Linien einer von Experten gesteuerten Begutachtung: er nominierte einen oder zwei wissenschaftliche Experten – ,Leitautoren‘ – um individuelle Kapitel zu entwerfen, und er etablierte ein Verfahren, mittels welchem diese Entwürfe auf Treffen der Leitautoren begutachtet werden.

Die Hauptänderung war, dass er die Verantwortung von den Delegierten der Regierungen zu praktizierenden Wissenschaftlern verschob. Die Entscheidung, Assessoren zu rekrutieren, welche führend in ihrer jeweiligen Wissenschaft waren, brachte jedoch ein anderes Problem mit sich, nämlich dass die Tendenz dieser Wissenschaftler zutage trat, aus ihren eigenen Arbeiten zu zitieren, selbst wenn diese noch gar nicht veröffentlicht waren.

Das Problem der Marginalisierung der Wissenschaft blieb jedoch bestehen:

Das Vertrags-Verfahren lag jetzt in den Händen von Karriere-Diplomaten und dürfte wahrscheinlich dominiert werden von unfreundlichen südlichen politischen Agitatoren. Daher standen die Wissenschaftler vor der sehr realen Perspektive, dass ihr Klima-Gremium aufgelöst und ersetzt wird, sowie die Framework Convention on Climate Change ihre Arbeit aufnehmen würde.

Und viele Wissenschaftler waren skeptisch:

Mit der Erkenntnis, dass es eine unaufhaltsame Bewegung hin zu einem Vertrag gab, kam von der wissenschaftlichen Gemeinschaft eine Welle des Skeptizismus‘. Dieser Chor der Bedenken war jedoch durch den Lärm auf dem Weg zu einem neuen Vertrag kaum zu hören und ist jetzt weitgehend in Vergessenheit geraten.

Zu jener Zeit legte John Zillman einem Politikforum eine Studie vor, in der er versuchte, all jenen, die in die politische Debatte verstrickt waren, ein wenig mehr Einsicht zu geben, welch großer Unterschied bestand zum Standpunkt innerhalb der Forschungsgemeinschaft. Zillmann stellte dazu fest, dass…

…die Treibhausgas-Debatte jetzt abgekoppelt wurde von wissenschaftlichen Betrachtungen, welche diese ausgelöst hatte; dass es viele Agenden gab, dass darin jedoch höchstens peripher enthalten war zu ergründen, ob Wetter- und Klimaänderungen für die Welt gut oder schlecht waren“

Beispielhaft für das Ausmaß der grassierenden Frustration unter den Klimaforschern jener Zeit zitierte Zillman den Direktor des WCRP [World Climate Research Programme, ein Projekt der WMO. Anm. d. Übers.]. Das war damals Pierre Morel, erklärter er, welcher ,die internationale Klimaforschung über das vergangene Jahrzehnt vorangetrieben hatte‘. Einige Monate, bevor Zillman mit der Studie aufwartete, hatte Morel dem WCRP-Komitee einen Report zugeleitet, in welchem er die Lage wie folgt beschrieb:

„Die zunehmende direkte Einmischung der Vereinten Nationen in Angelegenheiten des globalen Klimawandels, in Umwelt und Entwicklung war Ausdruck des Erfolges derjenigen Wissenschaftler, die um #politische Aufmerksamkeit‘ wetteiferten und einer ,Kenntnisnahme der Öffentlichkeit‘ der Probleme in Verbindung mit dem Weltklima. Das Thema Klimawandel hat jetzt ein Niveau erreicht, auf dem es in den Händen professioneller Unterhändler für auswärtige Angelegenheiten liegt und damit die grenzen wissenschaftlicher Erkenntnisse (und Unsicherheiten) verlassen hat“

Die Unterhänlder, so Morel, hatten kaum Interesse an weiteren Informationen von wissenschaftlichen Agenturen einschließlich des IPCC und sogar noch weniger Interesse für die komplizierten Statements seitens der wissenschaftlichen Gemeinschaft.

Es tat sich eine immer größer werdende Kluft auf zwischen der Politik/den Politikern einerseits und der Wissenschaft andererseits:

Das allgemeine Gefühl in der Forschungsgemeinschaft, dass der politische Prozess die Wissenschaft breit überholt hat, hatte oftmals eine andere Auswirkung auf jene Wissenschaftler, die mit dem Thema globale Erwärmung mittels der üppigen Finanzierung desselben zu tun hatten. Für sie war die Lage so wie von Präsident Bush zu verstehen gegeben hatte, als er mehr Förderung versprochen hatte: die Tatsache, dass ,Politik und Meinung die Wissenschaft hinter sich gelassen haben‘, brachte die Wissenschaftler unter Druck, ,die Kluft zu überbrücken‘.

Tatsächlich gab es jede Menge Skeptizismus hinsichtlich der Modellierung, die innerhalb und um das Carbon Dioxide Program frei ausgesprochen wurde während jener Tage, bevor das Klimavertrags-Verfahren begann. Jene, die darauf bestanden, sich weiter um wissenschaftliche Validierung zu bemühen, blieben stecken vor dem Problem, die natürliche Variabilität im Hintergrund besser herauszuarbeiten.

Die Herausforderung von ,Erkennung und Zuordnung‘

Hinsichtlich der Aussage von Jim Hansen vor dem Kongress-Komitee im Jahre 1998:

Ein Beitrag im Magazin Science im folgenden Frühjahr eröffnete Einblicke in den Aufruhr. Bei ,Hansen gegen die Welt bzgl. Treibhaus-Bedrohung‘ erklärte der Wissenschaftsjournalist Richard Kerr: ,während Wissenschaftler die Aufmerksamkeit des Capitol Hill bzgl. Treibhauseffekt begrüßten‘, distanzierten sie sich jedoch ,von der wiederholt unwissenschaftlichen Art und Weise, mit der ihr Kollege James Hansen diese Aufmerksamkeit zu errungen hatte‘.

Eindeutig war die wissenschaftliche Opposition gegen jedwede Erkennungs-Behauptungen im Jahre 1989 erheblich, als die IPCC-Abschätzung im Gange war.

Erkennung und Zuordnung des anthropogenen Klimasignals war das Entscheidende:

Während des IPCC-Begutachtungsprozesses (zum 1. Zustandsbericht) wurde Wigley aufgefordert, eine Frage zu beantworten: Wann wird die Erkennung erreicht werden? Er antwortete mit einem Zusatz zu dem IPCC-Kapitel, in welchem erklärt wird, dass wir warten müssten, bis das halbe Grad Erwärmung, zu dem es bereits im Laufe des 20. Jahrhunderts gekommen war, sich wiederholt. Nur dann haben wir gute Aussichten herauszufinden, wie viel dieser Erwärmung dem Menschen geschuldet ist. Falls die von Kohlendioxid getriebene Erwärmung am oberen Ende der Prophezeiungen liegt, wäre das Anfang des 21. Jahrhunderts, aber bei geringer Erwärmung dürften wir kaum Erkenntnisse dazu vor dem Jahr 2050 haben.

Der erste IPCC-Zustandsbericht war für die ,Kausa‘ der Politiker keine Hilfe. Auf dem Weg zum Erdgipfel von Rio:

Um die Diskussionen der Framework Convention auf dem Erdgipfel von Rio zu stützen, stimmte man dafür, dass der IPCC eine ergänzende Einschätzung abgab. Diese ,Rio-Ergänzung‘ erklärte:

„…das Klimasystem kann auf viele Antriebe reagieren, und es muss noch bewiesen werden, dass das Treibhaus-Signal ausreichend unterscheidbar ist von anderen noch zu entdeckenden Signalen, es sei denn, es erfolgt eine so erhebliche Zunahme der troposphärischen Temperatur, dass andere Erklärungen dafür unwahrscheinlich sind“.

Nun ja, diese Zusatz-Einschätzung half auch nicht viel. Die Wissenschaftler unter Leitung von Bolin und Houghton waren gehalten, sich Druck nicht zu beugen. Aber das IPCC riskierte die Marginalisierung in diesem Vertragsverfahren.

Auf dem Weg zur COP1 in Berlin bedrängte das IPCC selbst das Verhandlungs-Komitee, es in dem politischen Prozess zu halten, aber Spannungen ergaben sich, als es sich weigerte, seine eigenen Verfahren zurückzufahren, um den politischen Erfordernissen zu genügen.

Allerdings blieb der Schub für Maßnahmen auf dem Weg zu Rio ausreichend stark, dass diese Schwierigkeiten mit der wissenschaftlichen Rechtfertigung ignoriert werden konnten.

Der zweite Zustandsbericht:

Im Zusammenhang mit den Vertrags-Aktivitäten wurde der zweite IPCC-Zustandsbericht als sehr wichtig erachtet, um Implementationen in das Kyoto-Protokoll zu rechtfertigen.

Im Jahre 1995 saß das IPCC zwischen den Stühlen Wissenschaft einerseits und Politik andererseits. Der einzige Weg, sich aus dieser realen Gefahr, politisch in Vergessenheit zu geraten zu befreien war, dass man die wissenschaftliche Diagnose in eine positive Richtung lenken und sie in Übereinstimmung mit politischen Maßnahmen bringen konnte.

Das entscheidende wissenschaftliche Thema war Erkennung und Zuordnung:

Die Abfassung von Kapitel 8 (in dem es um Entdeckung und Zuordnung geht) verspätete sich wegen der späten Ernennung von dessen koordinierendem Leitautor. Es dauerte bis zum April, dass jemand sich bereit erklärte, diese Position zu übernehmen. Das war Ben Santer, ein junger Klima-Modellierer am Lawrence Livermore Laboratory.

Das Kapitel, das Santer zu entwerfen begann, wurde erheblich beeinflusst von einer Studie, die im Wesentlichen von Tim Barnett geschrieben worden war, bei der jedoch auch Santer als Autor gelistet war. Es war diese Studie, die in Kurzform all die Schwierigkeiten beschrieb hinsichtlich des Strebens nach ,Erkennung‘. Es war ein neuer Versuch, den alten hinderlichen Block zu überwinden der ,First Detection-Forschung‘: nämlich angemessen den ,Maßstab‘ der natürlichen Klima-Variabilität zu etablieren. Die Studie beschreibt, wie dieses Projekt gescheitert ist, und das fabelhaft.

Im von Santer für das IPCC verfassten Erkennungs-Kapitel gibt es viele Querverweise auf diese Studie. Mehr als alle anderen in Kapitel 8 genannten Referenzen ist sie der Spoiler sämtlicher Behauptungen bzgl. Zuordnung, finden sich diese nun in Verteilungsstudien oder in einer Analyse des globalen Mittels. Sie ist die prinzipielle Grundlage der Schlussfolgerung des Kapitels 8:

„…bis auf den heutigen Tag hat keine Studie eine signifikante Klimaänderung ausgemacht und diese Änderung ganz oder teilweise mit anthropogenen Ursachen in Verbindung gebracht“.

Das finale Treffen der 70 Leitautoren der WG I für den zweiten Zustandsbericht sollte den Entwurf für die Summary for Policymakers absegnen und diesen der zwischenstaatlichen Begutachtung zuleiten. Der von Houghton für das Treffen vorbereitete Entwurf war nicht so skeptisch hinsichtlich der Erkennungs-Wissenschaft wie der Haupttext des Erkennungs-Kapitels von Santer; tatsächlich enthielt er eine schwache Behauptung bzgl. Erkennung.

Diese Behauptung bzgl. Erkennung schien unvereinbar mit dem Skeptizismus im gesamten Haupttext des Kapitels und stand in direktem Widerspruch zu dessen zusammenfassender Schlussfolgerung. Sie repräsentierte eine Änderung des Standpunktes, zu der Santer erst vor Kurzem gekommen war aufgrund eines Durchbruchs in seinen eigenen ,Fingerabdruck‘-Untersuchungen. Diese Ergebnisse waren so neu, dass sie noch nicht veröffentlicht oder auf andere Weise verfügbar waren, und tatsächlich hatte Santer zum ersten Mal die Gelegenheit, diese Ergebnisse einer breiteren wissenschaftliche Bewertung vorzustellen, als Houghton ihn aufforderte, auf dem Treffen der Leitautoren einen Sondervortrag zu halten.

Allerdings wurden auch die Ergebnisse bei diesem Treffen auf den Prüfstand gestellt: Santers Fingerabdruck-Ergebnis und der neuen Erkennungs-Behauptung wurde von vielen Experten in dem Fachbereich heftig widersprochen.

Am ersten Tag der WG I-Sitzung in Madrid im November 1995 hielt Santer erneut einen erweiterten Vortrag über sein neues Ergebnis, dieses Mal vor Delegierten, die zumeist keine Experten waren. Als er geendet hatte, erklärte er, dass das Kapitel im Lichte seiner neuen Ergebnisse überholt war und geändert werden muss. Nach einiger Diskussion forderte John Houghton eine Ad-Hoc-Gruppe, um sich hinsichtlich des Themas Erkennung zu einigen im Lichte dieser bedeutenden neuen Ergebnisse und die entsprechende Passage in der Summary for Policymakers zu ändern, so dass sie anschließend erneut der Vollversammlung zur Genehmigung vorgelegt werden kann. Während dieser Verlauf des Ganzen weitgehend auf Zustimmung stieß, sprachen sich ein paar Delegationen heftig dagegen aus, vor allem, als klar wurde, das Kapitel 8 geändert werden musste. Der Widerstand gegen die Änderungen dominierte weiterhin das dreitägige Treffen. Nach weiterer Debatte entschloss man sich zu einer finalen Version der Erkennungs-Behauptung ,unter dem Strich‘:

„Die Gesamtheit der Beweise zeigt einen erkennbaren menschlichen Einfluss auf das globale Klima.

All das löste Vorwürfe der ,Schwindelei‘ aus:

Ein Meinungsartikel von Frederick Seitz mit dem Titel [übersetzt] ,Großer Schwindel bzgl. „globaler Erwärmung“‘ erschien am 12. Juni 1996 im Wall Street Journal:

„Dieser IPCC-Bericht wird wie alle anderen deshalb so hoch gehängt, weil er begutachtet ist. Das heißt, er wurde gelesen, diskutiert, modifiziert und genehmigt von einem internationalen Experten-Gremium. Diese Wissenschaftler haben ihren Ruf eingebracht. Aber dieser Bericht ist nicht das, was er zu sein vorgibt – es ist nicht die Version, welche die auf der Titelseite gelisteten beitragenden Wissenschaftler genehmigt haben. Während meiner über 60 Jahre Mitgliedschaft in der amerikanischen wissenschaftlichen Gemeinschaft einschließlich meiner Funktion als Präsident der NAS und der American Physical Society habe ich niemals eine noch verstörendere Korruption des Begutachtungsprozesses erlebt als die, welcher zu diesem IPCC-Report geführt hat.

Beim Vergleich des finalen Entwurfs des Kapitels mit der gerade veröffentlichten Version erkannte er, dass grundlegende Feststellungen skeptisch gegenüber irgendeinem menschlichen Einfluss verändert oder gelöscht worden waren. Er führte folgende Beispiele gelöschter Passagen an:

Keine der o. g. Studien hat klare Beweise erbracht, dass wir die beo bachteten (Klima-)Änderungen dem spezifischen Grund Zunahme der Treibhausgase zuordnen können.

Keine Studie hat bis auf den heutigen Tag den (bis heute beobachteten Klimawandel) ganz oder teilweise anthropogenen Ursachen zugeordnet.

Jedwede Behauptung einer positiven Erkennung eines bedeutenden Klimawandels wird wahrscheinlich kontrovers bleiben, bis die Unsicherheiten der natürlichen Gesamt-Variabilität Klimasystems reduziert sind.

Am 4. Juli schließlich veröffentlichte Nature Santers Studie bzgl. des menschlichen Fingerabdrucks. In Science zitierte Richard Kerr Barnett mit den Worten, dass er nicht völlig überzeugt davon ist, dass das Treibhaus-Signal erkannt worden ist und dass eine ,Anzahl nagender Fragen‘ verbleibt. Später im Jahr würde eine ins Herz von Santers Erkennungs-Behauptung zielende Kritik als Erwiderung veröffentlicht.

Der künstlich fabrizierte Konsens des IPCC

Was man aus all diesen Aktivitäten seitens der Wissenschaftler in der engeren Umgebung des zweiten und dritten Zustandsberichtes des IPCC erkennen kann, ist die Existenz eines bedeutenden Meinungschores, der mit der IPCC-Botschaft einer Erkennung eines Katastrophensignals nur schwer in Übereinstimmung zu bringen ist, welcher die Grundlage für politische Maßnahmen darstellt.

Die wissenschaftliche Debatte um Erkennung und Zuordnung wurde effektiv im 2. IPCC-Bericht unterdrückt:

Kritik wird weiterhin insgesamt ausgespart, ist sie doch eine Politisierung der Wissenschaft seitens Interessengruppen, während die mächtigen politischen Unterstützer des Gremiums sicherstellen, dass dessen Rolle als wissenschaftliche Autorität bei den weiter gehenden Klimavertrags-Verhandlungen niemals wieder ernsthaft bedroht werden darf.

Und natürlich wurde der ,Totenglocke‘ wissenschaftlicher Argumente mit Bedenken hinsichtlich der Erkennung im Dritten Zustandsbericht Rechnung getragen, in welchem die Hockeyschläger-Analyse des Paläoklimas auf der Nordhemisphäre effektiv die Existenz einer hemisphärischen mittelalterlichen Warmzeit ebenso wie die Kleine Eiszeit eliminiert hatte. Damit war der gordische Knoten bzgl. Erkennung durchschlagen.

Bemerkungen der Autorin Judith Curry

Das Buch von Bernie Lewin ist eine wirklich wichtige und gut dokumentierte Historie des Zusammenhangs und der frühen Historie des IPCC.

Ich sprach über Lewins Buch mit Garth Partridge, der in den frühen Jahren des IPCC in denselben involviert war, und er sandte mir per E-Mail folgenden Kommentar:

Ich bin schon etwas erbost, weil ich von die siebziger bis Anfang der neunziger Jahre dabei war, weil ich an einer ganzen Reihe der Treffen teilgenommen habe, über die Lewin spricht, weil ich ein Jahr in Genf zugebracht habe als ein Mitglied der „Belegschaft“ des frühen WCRP und ein weiteres Jahr (1990) als Mitarbeiter beim US National Program Office in Washington DC, weil ich die meisten der Leute getroffen habe, über die Lewin spricht … und ich kann mich einfach nicht daran erinnern, was vor sich ging, soweit es die Politik betraf. Wie naiv kann man sein?? Ich habe den Verdacht, dass der Grund dafür darin zu suchen ist, dass viele Menschen meiner Zeit darin geübt (??) waren, absichtlich all den Müll zu ignorieren und/oder darüber zu lachen, der mit den politischen Betrügereien der internationalen Politik in der wissenschaftlichen Welt verbunden war. Offensichtlich kann die Arroganz von Wissenschaftlern ziemlich außerordentlich sein!

Wissenschaftlicher Skeptizismus hinsichtlich AGW war vor dem Jahr 1995 lebendig und in guter Form; brach aber ein nach der Veröffentlichung des 2. Zustandsberichtes. Danach trug man dem Skeptizismus im 3. Zustandsbericht und mit der Hockeyschläger-Graphik Rechnung in der Hoffnung, diesem Skeptizismus den Todesstoß zu versetzen.

Ein ziemlich fadenscheiniges Gebäude für eine überzeugende Zuordnung der jüngsten Erwärmung zum Menschen.

Ich denke, dass Bernie Lewin recht hat, wenn er das Treffen in Madrid 1995 als den Wendepunkt ausmacht. Es war John Houghton, der die Zuordnungs-Behauptung in den Entwurf der Summary for Policymakers einfügte, was im Gegensatz zu den in Kapitel 8 beschriebenen Ergebnissen stand. Typischerweise wird Ben Santer dafür verantwortlich gemacht, aber es ist eindeutig Houghton, der dies wollte und ermöglicht hat, so dass er und das IPCC einen Sitz am Tisch der Großen Politik erhalten konnte, welche in den Vertrag involviert war.

Man kann den IPCC-Führern ihren Umgang mit neuer Wissenschaft und einer sehr schwierigen politischen Lage im Jahre 1995 nachsehen, worin sie ihr Wirken übertreiben. Allerdings ist es dem 3. Zustandsbericht vorbehalten, in welchem Houghtons Betrügereien mit dem Hockeyschläger wirklich enthüllten, was los war (einschließlich der Selektion von Michael Mann als Leitautor, obwohl dieser gar nicht von der US-Delegation nominiert war). Der Hockeyschläger machte Schluss mit jenem ,nervtötenden‘ Erkennungs-Problem.

Ich vermute, dass die Zurückweisung von all dem seitens der ,wirklich AGW-Gläubigen‘ erfolgte, weil Politik chaotisch ist, aber seht mal, die Klimawissenschaftler hatten von Anfang an recht, und die Temperatur steigt weiter. Jüngste Forschungen lassen das Vertrauen bzgl. der Zuordnung zunehmen, welche uns schon seit Jahrzehnten ,bekannt‘ ist.

Nun, zunehmende Temperaturen sagen nichts über die Ursachen von Klimawandel. Wissenschaftler diskutieren immer noch über den ,Hot Spot‘ in der oberen Troposphäre über den Tropen, welcher die von Santer 1995 identifizierte ,smoking gun‘ war (hier). Und es gibt immer mehr Beweise, dass die natürliche Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten viel größer ist als bisher gedacht (und größer auch als die Simulationen der Klimamodelle hergeben; hier).

Ich müsste wirklich weitere Blogbeiträge schreiben über Erkennung und Zuordnung und werde mich bemühen, mir die Zeit dafür zu nehmen.

Und schließlich, diese gesamte Geschichte scheint die Merton’sche Norm von Universalismus zu verletzen:

Universalismus: Wissenschaftliche Validität ist unabhängig vom soziopolitischen Status/persönlichen Zuordnungen von den daran Teilhabenden

Man stelle sich vor, wie sich all das entwickelt hätte, wenn Pierre Morel oder John Zillman Leiter der WG I gewesen wären, oder falls Tom Wigley oder Tim Barnett oder John Christy beitragende Leitautoren zum Kapitel 8 gewesen wären. Und wie die Klimawissenschaft dann heute aussehen würde.

Ich hoffe, dass dieser Ablauf der künstlichen Fabrizierung des Konsens‘ vernünftigen Menschen Gründe gibt innezuhalten, bevor man Argumenten hinsichtlich eines Konsens‘ über Klimawandel akzeptiert.

Link: https://judithcurry.com/2018/01/03/manufacturing-consensus-the-early-history-of-the-ipcc/

Übersetzt von Chris Frey EIKE




Ministerin Hendricks: Wir haben im Gegenteil sogar gigantische Stromüber­schüsse

Pressemitteilung Nr. 391/17 Endlagerprojekte

Herr Trump twittert, bei uns gibt es noch die bekannten Pressemitteilungen zu wichtig erachteten Themen.
Frau Hendricks gab eine solche zur Abschaltung von Block B des KkW Grundremmingen heraus:
29.12.2017 | Pressemitteilung Nr. 391/17 Endlagerprojekte (Hervorhebungen durch den Autor): Hendricks: Wichtiger Schritt beim Atomausstieg
AKW Gundremmingen B geht am 31. Dezember 2017 vom Netz
… Bundesumweltministerin Barbara Hendricks: „Ich bin froh über das Abschalten des Atomkraftwerks Gundremmingen B. Der Atomausstieg in Deutschland kommt damit einen wichtigen Schritt voran. Die Atomkraft war ein technologischer Irrweg – sowohl Fehlerfreiheit als auch Kostengünstigkeit waren Versprechen, die nie eingehalten wurden. Ich bin um jedes AKW froh, das nicht mehr in Betrieb ist. Mit der Abkehr von dieser gefährlichen und nicht nachhaltigen Energieform haben wir den Grundstein für eine international wettbewerbsfähige Energiestruktur in Deutschland gelegt.
Auch für die Stromversorgung ist das schrittweise Abschalten der Atomkraftwerke richtig. Anders als von einigen prophezeit wurde, leiden wir in Deutschland nicht unter einer Stromlücke. Wir haben im Gegenteil sogar gigantische Stromüberschüsse. Unsere Stromversorgung ist sicher, daran wird auch die Abschaltung von Gundremmingen B nichts ändern.“

Die Suche nach den „gigantischen Stromüberschüssen“

Der Autor hat sich aufgemacht und nach den von Frau Hendricks in ihrer Pressemitteilung ausgewiesenen, „gigantischen Stromüberschüssen“ gesucht. Anbei der Bericht.

Als Erstes hat er dazu Agora nach den Stromdaten 2017 gesehen und im Bild 1 eine Zusammenfassung über die EEG-Versorgung im Jahr 2017 Jahr zusammengestellt.

Bild 1 Ganglinienverlauf Ökoenergien und Verbrauch im Jahr 2017. Quelle: Agora Viewer

Um die Suche zu präzisieren, dazu noch eine Tabelle der aktuellen Energie- und Leistungsdaten. Dabei beachten, dass mangels überall aktueller Daten diese wechselnd von 2016 / 2017 stammen. Dadurch bedingte Fehler sind für die folgenden Betrachtungen allerdings zu vernachlässigen.

Bild 2 Energiedaten Deutschland eines Jahres. Einspeisungen 2016, Leistungen 2017 Daten installierte Leistung: Bundesnetzagentur Startzeitpunkt 01.1.2017 Daten Einspeisung 2016: Fraunhofer ISE: Stromerzeugung in Deutschland im Jahr 2016

Zum Schluss im Bild 3 Ganglinien von 2016 mit den zusätzlichen Verläufen der Kernkraft und dem Strom-Exportsaldo.

Bild 3 Ganglinienverläufe 2016: Verbrauch, Erzeugung Kohle+Gas, Kernkraft, Exportsaldo. Quelle: Agora Datensatz. Grafik vom Autor erstellt

Ganglinien ergeben zwar anschauliche Bilder. Daten erhält man aber erst mittels dem Histogramm. Bild 4 zeigt dieses die EEG-Leistungsbereitstellung im Jahr 2016.

Bild 4 Histogramm der EEG-Einspeisung 2016. Bezug: 100 % = Anschlussleistung. Roter Balken: Installierte Leistung. Grafik vom Autor aus den Daten von Agora erstellt

Bild 5 Datentabelle zu Bild 4

Bild 6 Parallel die Histogramme EEG-Leistung und Kernkraft im Jahr 2016. Bezug: 100 % = Anschlussleistung. Grafik vom Autor aus den Daten von Agora erstellt

Die parallele Darstellung zeigt, wie sich der Unterschied im Histogramm:
– eines „Flatterstromerzeugers“, hier die gesamte EEG-Versorgung
– eines stabilen, planbaren Kraftwerkes, hier Kernkraftwerk (gilt für Kohle und Gas natürlich auch),
darstellt.

Dunkelflaute“

Ergänzend zum Bild 1 ein Beispiel für die Begriffe „Zappelstrom“ und „Dunkelflaute“. Dass Solar nachts keinen Strom liefert, hat sich so langsam herumgesprochen. Wie groß der Unterschied zwischen Sommer und Winter sein kann, zeigt Bild 7. Wenn während solcher „Durstmonate“ auch noch der Wind etwas schwächelt, kann das gesamte EEG nichts liefern,selbsr wenn man die installierte Leistung vervielfacht.
Eine Aussage: [9] „Schon heute werden Windparks zweitweise wegen Überkapazitäten vom Netz genommen – und die Stromkunden müssen den Ausfall bezahlen … was sie nicht müssten, wenn die Leitungen frei wären und nicht durch den überschüssigen Kohlestrom belegt. Fakt ist: Wir haben in Deutschland einen Stromangebotsüberschuss, weil noch immer zu viel konventioneller Strom im System ist …“,
getätigt von Frau C. Kemfert, zeigt, wie auch von angeblichen „Fachpersonen“ bewusster Unsinn erzählt (und begierig aufgenommen) wird, sofern er zu ihren politischen Zielen passt. Natürlich gibt es „Überschussstrom“. Aber nur für kurze Zeiten im Jahr und selbst diese vollkommen unplanbar. Leider lässt sich gerade Frau Hendricks wohl gerne von solchen Personen in ihren Überzeugungen „bestärken“.

Bild 7 Solarangebot im Juni und im Dezember 2017 im Vergleich. Quelle: Agora Viewer

Das Suchergebnis

Nach Tabelle 2 ist die Installierte Leistung der konventionellen Kraftwerke gerade (noch) groß genug, um die in „EEG-Dunkelflauten“ (rote, gestrichelte Pfeile im Bild 1) benötigte Energie liefern zu können. Das in Bild 1 anhand der Ganglinien Dargestellte, ist in Bild 4 als Histogramm, in Bild 5 tabelliert zu sehen.

Fazit: Alle verbliebenen, konventionellen Kraftwerke sind zur „Dunkelflautenüberbrückung zwingend erforderlich

So lange es keine Energiespeicher gibt – die derzeit in Deutschland wirklich nirgens ausreichend in Sicht sind – sind alleine zur Überbrückung der vielen Energieeinbrüche der „Erneuerbaren“ alle (noch) vorhandenen, konventionellen Kraftwerke erforderlich. Außer man hofft, dass das Ausland Deutschland währen jeder „Dunkelflaute“ bei der Energiebereitstellung aushelfen kann.

Nimmt man die EEG-Bereitstellung von lediglich ca. 20 % der benötigten Energie als „Dunkelflaute, dann „herrschen“ solche extremen Minderbereitstellungen derzeit über mehr als 100 Tage im Jahr (in der Tabelle von Bild 5 nachsehbar).

Ohne die konventionellen Kraftwerke würde Deutschlands Energiesystem also über mehr als 100 Tage (grob über mehr als 1/4 des Jahres) vollkommen zusammenbrechen (genau genommen, die restliche Zeit meistens auch).
Eine „Rettung“ vom Ausland wäre eine Illusion. Neben der Schweiz „schwenkt“ auch Österreich auf EEG um [6]. Diese Länder können dann mit ziemlicher Sicherheit keine planbaren Exportquoten für Deutschland zur Verfügung stellen.
Einen Teil vielleicht noch Frankreich aus seinem Atomstrom-Kontingent. Da Frankreichs, gerne die „Welt bewegender“ Präsident, zur Sanierung seiner Nation viel Geld (billig) aus Deutschland benötigt, kann man sich nahezu jeden Deal vorstellen. Sogar, dass Deutschland dann auch noch KkW-Strom- Ausgleichszertifikate „generiert“, um beim Bezug von Atomstrom das „nachhaltige“ Gesicht zu wahren.

Der Exportsaldo ist im Verhältnis gering (zudem, warum soll ein Hochtechnologieland keinen Strom exportieren dürfen) , was zeigt, dass die Vorrangs-Einspeisungs-bedingten Abregelungen eines Teils der konventionellen Kraftwerke (wie man es in Bild 3 gut sieht), recht konsequent (auf Kosten der Stromverbraucher) vorgenommen wird.
Trotzdem sind die Kosten des erforderlichen Abregelns von EEG-Energie schon enorm. R. Schuster vom Verein VERNUNFTKRAFT, Landesverband Hessen e.V., schätzt die Kosten für das Jahr 2017 auf ca. 900 Mio EUR.

Warum hat die Abschaltung eines Teils von Grundremmingen (noch) keinen Einfluss?

Richtig ist, dass die Abschaltung eines Teils des KkW Grundremmingen bei dem geringen, verbliebenen Rest an Kernkraft wenig Bedeutung hat. Allerdings nähert sich die Versorgung mit jeder Reduzierung konventioneller Kraftwerkskapazitäten immer mehr den kritischen Versorgungs-Grenzen.
Dass es bisher nicht zu Netz-Zusammenbrüchen kam, liegt nur daran, dass Deutschland früher Kraftwerks-Zusatzkapazitäten hatte. Strom für gutes Geld exportieren war früher eben keine „Schande“. Vorwiegend auf diesen früheren (Zusatz-) Kapazitäten funktionierte der bekannte Spruch: „Schau, wir schalten die bösen, konventionellen Kraftwerke ab und nichts passiert“. Leider sind nun viele überzeugt, dass dieser Spruch eine physikalische Beschreibung wäre und „ewig“ weiter gelten würde.

Wer Stabilität (der Stromversorgung) „liebt“, sieht diesen – von fast allen Parteien „geforderten“ – Weg mit Sorge. Die aktuelle Meldung über bereits 1 Milliarde EUR Stabilisierungskosten im Netz hat zwar nicht (nur) diese Ursache, ist aber ebenfalls eine direkte Folge der EEG-Strompolitik:
Epoch Times 1. January 2018: [4] Stromnetz unter Druck – Tennet meldet Rekordkosten für Noteingriffe (dpa)
Fast eine Milliarde Euro musste der Netzbetreiber Tennet 2017 für sogenannte Noteingriffe ins Netz zahlen. Ursache ist der Ausbau der erneuerbaren Energie … … Der Präsident der Bundesnetzagentur, Jochen Homann, sieht Milliardenkosten auf die Verbraucher zukommen.

Neben bisher zwei Energiesystemen wird nun ein drittes aufgebaut

Die Tabelle von Bild 2 zeigt überdeutlich, wie in Deutschland zwei parallele Strom-Versorgungssysteme existieren.
Ein zuverlässiges – Beispielhaft Bild 6 – und eines, welches ausschließlich „Flatterstrom liefert – Beispielhaft Bild 1 und 4.

Wenn nun – wie gefordert – Kernkraft und Kohle weiter zwangsreduziert werden, ist dafür ein Ersatz zu schaffen. Da weder der EEG-Zubau Schritt hält – und die dann benötigten Speicher nicht in Sicht sind, werden es zwangsweise Gaskraftwerke werden. Nur diese lassen sich schnell genug errichten. Das Einzige, was der Stromkunde davon merken wird, sind höhere Energiepreise, denn Strom aus Gas ist der teuerste, konventionell erzeugte.

Frau Hendricks hat erkennbar Mühe (sehr positiv formuliert), das Stromversorgungssystem zu verstehen

Das gilt nicht nur Sie, sondern auch für ihre „Redenschreiber“. Weil ihr erkennbar einiges an Kenntnis, ganz sicher aber Verständnis fehlt [1] kann (und will) sie das wohl auch nicht.

Von dem von Frau Hendricks genannten „Stromüberschuss“: [5] „ Anders als von einigen prophezeit wurde, leiden wir in Deutschland nicht unter einer Stromlücke. Wir haben im Gegenteil sogar gigantische Stromüberschüsse „,
kann nur jemand reden, der die EEG-Einspeisungen fälschlicher Weise immer auf die der konventionellen Kraftwerke hinzu addieren. Macht man das auf die installierte Leistung der konventionellen Kraftwerke, lässt sich daraus auf dem Papier ein „gigantischer Stromüberschuss“ fabulieren.
Dieser „Überschuss“ besteht jedoch nur zeitweise., ist nicht planbar und kann jederzeit auch fast gegen Null sinken. Das gilt nicht nur aktuell – wie in den vorhergehenden Kapiteln gezeigt wurde -, sondern auch in der „versprochenen“ EEG-Zukunft:
[2] EIKE 27.12.2017: Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde ohne Windstromerzeugung

Bild 8 [2] EEG-Verteilung der Einspeisung im Jahr 2050 (Netz im Jahr 2050 bei Erzeugung von 80 % des Strombedarfs)

Die EEG-Erzeuger im Jahr 2050 stellen (in einer Simulation) an Leistung bereit [2]:
– über 61 Tage des Jahres nur zwischen 5 … 20 % der Anschlussleistung (dass es nicht auf null geht, liegt an der Biogas und Wasserkraft-Einspeisung).
– über 224 Tage des Jahres nur zwischen 20 … 100 % der zur Versorgung Deutschlands erforderlichen Leistung.
– über 350 Tage des Jahres nur zwischen 5 … 50 % der Anschlussleistung.
– Im gesamten Jahr werden gerade einmal über 1,4 Tage zwischen 65 … 70 % der versprochenen Leistung als Maximalwerte bereitgestellt.

Was sagen andere Parteien

Ein „GRÜNEN-Experte“ der Bundestagsfraktion für Energie, Oliver Kritscher (Studium: Biologie ohne Abschluss) schoss mal wieder den Vogel ab: (dpa 02.01.2017) „ … solange Kohle- und Atomkraftwerke weiterlaufen, auch wenn viel erneuerbare Energien im Netz sind, steigen logischerweise die Kosten für Netzeingriffe“. Der Kohleausstieg sei nötig, um die Zahl der Eingriffe und die Kosten zu reduzieren.
Erschreckend, mit welcher ideologischen Unbekümmertheit ein angeblicher „Experte“ Fakten „hinbiegt“ und die abschließende Sabotage des deutschen Energiesystems fordert, nach dem Motto: Wenn keiner in unserer Partei davon eine Ahnung hat – aber viele davon viel Dummes dazu sagen:
EIKE 15.08.2017: Cem Özdemir versucht sich in Energie,
glauben es wieder viele Bürger (denn niemand glaubt, dass wir uns trauen, bedenkenlos so viel Unsinn zu erzählen).

Und niemand widerspricht diesem offen zur Schau gestelltem Wahnsinn, bei dem man sarkastisch meinen könnte, im Bundestag agieren öffentlich (und von allen hoffierte) Sabotagegruppen unseres Energiesystems.
Es wären Steilvorlagen für eine Protestpartei – von welcher man dazu jedoch nichts hört (positiv gesehen: Immer noch besser nichts, als die Aussagen der anderen Parteien dazu). Doch nichts zu sagen, reicht nicht dauerhaft als Wahlbegründung.

So lange es dazu keine richtigstellende Oppositions-Information gibt, haben Bürger das Sagen, welche ihr „Wissen“ von solchen „Ökoparteien“ beziehen:
BR 24: [3] Zum Jahreswechsel Block B im AKW Gundremmingen ist endgültig abgeschaltet
Ein typischer Blogbeitrag daraus: Antwort von xxx , Sonntag, 31.Dezember
Deutschland hat in diesem Jahr 2017 soviel Strom ins Ausland exportiert, wie alle 8 Atomkraftwerke in Deutschland zusammen produziert haben. ALLE Atomkraftwerke sind somit überflüssig, blockieren nur mit ihrem Atomstrom in den Stromnetzen die erneuerbaren Energien und gehören abgeschaltet.
Wer jetzt noch die Argumente der ewig Gestrigen hervorholt, lebt in der Vergangenheit. Die Zukunft heißt 100 % erneuerbaren Energien! Entwicklungen kannst Du verzögern, aber nicht aufhalten! ..,
Sowie die Vertreter eigener Verbandsinteressen:
Bundesverband Erneuerbare Energie 07. November 2017: Mit Erneuerbarer Energie Kohlestrom ersetzen. Energiemarkt stärken statt schwächen
„Das in den vergangenen Tagen von Politikern häufig geäußerte Problem, es sei nichts gewonnen, wenn Deutschland Kohlekraftwerke abschalte und anschließend Kohlestrom aus Polen oder Kernenergie aus Frankreich importiert werde, lässt sich mit einem höheren Ausbau Erneuerbarer Energien praktikabel lösen“, sagt Dr. Peter Röttgen, Geschäftsführer Bundesverband Erneuerbare Energie.
„Was Deutschland sofort tun kann und muss, ist einfach: Die Ausbaudeckelung für Erneuerbare Energie streichen.“ So können die wegfallenden Kohlestrommengen sicher ersetzt werden. Die Kosten für Erneuerbare Energien sind in den vergangenen Jahren massiv gesunken. Strom aus Wind- und Solarstromanlagen ist bereits deutlich günstiger als Strom aus neuen konventionellen Kraftwerken. Mehr Erneuerbare Energie heißt dann zugleich auch mehr Klimaschutz. „Ein schrittweiser Kohleausstieg und mehr Erneuerbare Energie sind somit direkt miteinander verbunden …

Die Welt zu retten, hat (in Deutschland) immer Priorität

Bezahlen musste und muss es immer der Bürger. Als Abgeordneter bekommt man ja automatisch und bedingungslos bis ans Lebensende gesichert mindestens einen Inflationsausgleich. Die ganz Armen trifft es nicht (denen bezahlt es der Staat und die Kommunen), der Mittelstand, den es wirklich trifft, benötigt man wohl nicht mehr. Andere Länder kommen ja auch ohne einen solchen zurecht.
Reuters, 03. Januar 2018: SPD fordert höhere Sprit-Steuer
… Vor den Sondierungsgesprächen mit der Union kommen aus der SPD Forderungen nach höheren Abgaben auf Gas, Benzin oder Heizöl.
Das Steuer und Umlagesystem im Energiebereich müsse zugunsten von Strom und für die Klimaziele reformiert werden, heißt es in einem 14-Punkte-Papier aus der SPD, das der Nachrichtenagentur Reuters am Mittwoch vorlag. „Dabei muss ein klar definiertes CO2-Steuerungselement eingeführt und die Abgaben auf fossile Energieträger entsprechend erhöht werden.“ Auf der anderen Seite könne dann mit diesen Einnahmen Strom aus erneuerbaren Energien verbilligt werden.

Wenn Geld zu verdienen ist, hilft auch die Industrie gerne, ja fordernd, bei der „Sabotage“

manager magazin 07.11.2017: … Mehr als 50 Unternehmen fordern raschen Kohleausstieg
Mit einem eindringlichen Appell an die künftige Bundesregierung haben sich mehr als 50 deutsche Unternehmen in die Debatte um Klimaschutz und Energiewende eingeschaltet. Wie die „Stiftung 2 Grad – Deutsche Unternehmer für den Klimaschutz“ mitteilte, fordern die Unterzeichner des Schreibens, das am Dienstag veröffentlicht wurde, unter anderem den Abschied aus der Kohleverstromung über „einen verlässlichen und sozialverträglichen Ausstiegspfad“. „Spiegel Online“ hatte zuvor über die Initiative berichtet, die zur in Bonn laufenden Weltklimakonferenz an die Öffentlichkeit geht.
Während die Jamaika-Gespräche in Berlin über Klima und Energiewende scheitern könnten, zeigten die Unternehmen, wie Klimaschutz und Energiewende zu einem Modernisierungsprojekt für Deutschland werden könnten, hieß es weiter.
Unterzeichnet haben die Erklärung unter anderem die Dax-Konzerne Siemens, SAP, Deutsche Telekom und Deutsche Börse sowie Aldi Süd, Metro, Tchibo und der Paketdienstleister Hermes. Selbst Energiekonzerne wie Eon und EnBW, die vor einigen Jahren noch in der Kohleverstromung aktiv waren, gehören dazu …

Man muss das „verstehen“. Die Industrie verkauft ja nicht „Wissen“, sondern Produkte und Dienstleistungen. Und ein EEG-basierendes Versorgungssystem benötigt (im Gegensatz zum stabilen, konventionellen) ein Mehrfaches an viel schneller veraltenden Investitionen und vor allem eine überbordende und ständige IT-Betreuung.
Man denke nur daran, dass 40.000.000 Elektroautos DV-technisch als „Schwarmspeicher“ verbunden werden sollen (um für 5 Stunden Strom zu liefern) [7]. Alleine dies erfordert 40.000.000 bidirektional arbeitsfähige Ladesäulen, eine Datenvernetzung im Hintergrund, Steuersoftware und Betreuung. Wahrscheinlich (da es unstabil bleiben wird) einen regelmäßigen, die Aktualisierungspflichten bis zum einzelnen Nutzer überwachenden „TÜV“ und, und, und …. Dazu die „Intelligenz“ in den Netzen, ebenfalls DV-technisch verknüpft und gesteuert. Und so geht es „modern“ weiter. Damit wird alles passieren, nur keine – früher als normal empfundene Stabilität der Stromversorgung -.
Sicherer, als mit einem so hoch-komplexen, systembedingt unstabilen System, lässt sich kein Geld mehr verdienen, da alles staatlich alimentiert und reglementier werden wird.
Die Mechanismen des Gesundheitssystems und des öffentliche Rundfunks werden damit auch in diesem Umfeld wahr: Geld „verdienen“ ohne das geringste Risiko und bei Problemen ausschließlich auf Geldmangel verweisen zu müssen.

Als i-Tüpfelchen kann man als CEO damit auch noch – wie (und warum) es Aldi vormacht – gesellschaftlich endlich als „Weltretter“ brillieren und wird endlich einmal als Unternehmer in der Öffentlichkeit „bauchgepinselt“. Noch nicht ganz so, wie ein E. Musk in Amerika, aber daran kann man ja arbeiten. Wenn schon eine Frau Hendriks als „ … die Beste .. „ [8] tituliert wird, wird es CEOs bei uns ja wohl auch irgendwann gelingen.

Wenn eine zuständige Ministerin nichts weiß, können Interessensvertreter besser „lenken“

[8] SZ 18./19. November 2017, Nachruf auf Frau Hendricks von Michael Bauchmüller.
Darin Zitat: „ … Ich halte Barbara Hendricks für die beste Umweltministerin seit Klaus Töpfer“, sagt etwa Hubert Weiger, Chef des Umweltverbandes BUND ...

Nun hält Herr Weiger auch Herrn Schellnhuber für einen wohl genialen Klimaforscher, denn er glaubt fest an die von Herrn Schellnhuber vertretende Klima-Kipppunkt-Theorie.
Aber Herr Bauchmüller hätte ja auch mal jemand anderen Fragen können. Vielleicht wäre ihm dann aufgefallen, dass es mehr (als zwei gleiche) Meinungen dazu gibt.

Etwas EEG-„Weisheit“ als Abschluss

Anbei ein paar Bilder aus einem Foliensatz von Herrn R. Schuster, VERNUNFTKRAFT Landesverband Hessen e.V.
Herr Schuster möge nachsehen, dass wegen der flüssigeren Lesbarkeit nicht unter jedem Bild die Quelle angegeben ist.

Quellen

[1] EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt

[2] EIKE 27.12.2017: Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde ohne Windstromerzeugung

[3] BR 24: Zum Jahreswechsel Block B im AKW Gundremmingen ist endgültig abgeschaltet

[4] [4] Epoch Times1. January 2018: Stromnetz unter Druck – Tennet meldet Rekordkosten für Noteingriffe

[5] 29.12.2017 Pressemitteilung Nr. 391/17 Endlagerprojekt: Hendricks: Wichtiger Schritt beim Atomausstieg

[6] Tiroler Tageszeitung 01.12.2017: Koalition plant bis 2030 Umstieg auf erneuerbare Energie

[7] EIKE 2. Januar 2018: Das Elektroauto erzeugt nur Gewinner – und man verdient sogar Geld damit

[8] SZ 18./19. November 2017, Nachruf auf Frau Hendricks von Michael Bauchmüller.

[9] KLIMARETTER.INFO 22. Juni 2016: „EEG-Systemwechsel ist falsches Rezept

[10] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“




„Eine riesige Ungerechtigkeit“ Wende bei der Energiewende gefordert

Das neue Jahr fängt mit starkem Gegenwind für die Windenergie an. Kritik am EEG (Erneuerbare-Energien-Gesetz) gibt es zwar schon lange, doch nun kommt sie von einem Ministerpräsidenten, noch dazu von einem von der SPD.

In ungewöhnlich deutlichen Worten hat Dietmar Woidke in einem Interview gegenüber der Deutschen Presse-Agentur eine scharfe Korrektur bei der Förderung erneuerbarer Energien gefordert.

Das Ziel, eine Reduzierung des CO2-Ausstoßes würde sowieso kaum gelingen, weil immer nur »in die Erzeugung, nicht aber in die Speicherung von Energie« investiert worden sei. So sagte Woidke, wie man bei LR-news nachlesen kann.

Notwendig wäre seiner Meinung nach ein Paradigmenwechsel: eine Änderung des Erneuerbare Energien Gesetzes und eine deutliche Verstärkung der Forschung in diesem Bereich.

Woidke wies auch auf die wirtschaftlichen Nachteile hin. In Hinblick auf die Vorstellungen der Grünen sagte er: »Jamaika wäre insbesondere für Ostdeutschland eine mittlere Katastrophe geworden.«

Den Schwerpunkt seiner Kritik legte er allerdings auf die soziale Ungerechtigkeit. Woidke sagte, das EEG-Gesetz führe derzeit »zur größten Umverteilung von unten nach oben in der Geschichte der Bundesrepublik«, weil alle die Kosten mit der Stromrechnung zahlten, aber vor allem vermögende Investoren davon profitierten.

Jeder einzelne Deutsche zahle über seine Stromrechnung den gleichen Beitrag zur deutschen Energiewende, sagte er: »Oma Frieda aus Eisenhüttenstadt genauso wie ein Einkommensmillionär, der hier in Potsdam oder in Berlin-Wannsee wohnt. Der Unterschied ist noch, dass sich Wohlhabende an dem Gewinn aus dem Ausbau erneuerbarer Energien beteiligen können.« Rund acht Millionen Deutsche haben in irgendeiner Form in den letzten Jahren in erneuerbare Energien investiert. Sie gehören zu den Gewinnern. Alle anderen zahlen drauf.

»Das ist die größte Umverteilung von Geld von unten nach oben seit 1945. Das kann so nicht weitergehen. Das ist eine riesige Ungerechtigkeit.«

»Wir müssen die gesamte Energiewende hinterfragen«, sagte er.

Der Haupttext wurde von FreieWelt.net übernommen