Grüner Staatsekretär und Ex-AGORA Chef Baake gegen Gesinnungsgrünen und AGORA Chef Graichen:

Dr. Patrick Graichen, vom Umweltministerium “ausgeliehener” Chef von “Agora- Energiewende“ wie man auf deren Website nachlesen kann,.. „eine gemeinsame Initiative der Stiftung Mercator und der European Climate Foundation“ hatte jüngst in einem Anfall von Ehrlichkeit behauptet: „Wir haben uns geirrt!“ und meinte damit, dass die NIE (Nachhaltig instabile Energien) statt der verhassten Kern- und Kohlekraftwerke nunmehr die „guten“ Gaskraftwerke verdrängen. ZEIT Redakteur Frank Drieschner fasste sein Interview mit Graichen so zusammen (alle Details hier):

Graichen sagt kurz gefasst: Nicht in ein paar Details, sondern in einem zentralen Punkt. Die vielen Windräder und Solaranlagen, die Deutschland baut, leisten nicht das, was wir uns von ihnen versprochen haben. Wir hatten gehofft, dass sie die schmutzigen Kohlekraftwerke ersetzen würden, die schlimmste Quelle von Treibhausgasen. Doch das tun sie nicht… und weiter schreibt Drieschner…

Um den Irrtum zu verstehen, muss man sich noch einmal den Grundgedanken der Energiewende vor Augen führen. Der ging ungefähr so: Deutschland steigt aus der Nuklearenergie aus und setzt stattdessen auf erneuerbare Energien, auf Sonne und Wind vor allem. Wenn es mal nicht genug Ökostrom gibt, dann springen Emissionsarme Gaskraftwerke ein, bis irgendwann auch diese überflüssig werden. Der böse Atomstrom verschwindet zuerst, als Nächstes der schmutzige Kohlestrom, die Luft wird sauberer, und Deutschland wird zum Vorbild und Vorreiter beim Klimaschutz.

So haben sich das alle gedacht. Nur leider wird daraus nichts. Das ist der Irrtum, den Patrick Graichen beklagt.

…………»Im Nachhinein ist das alles logisch«, sagt Graichen. »Trotzdem hat hier vor drei, vier Jahren keiner diese Logik so durchschaut. «

Doch obwohl dieses Statement bereits einem Offenbarungseid gleichkommt, ließ es ihm Drieschner nicht als sozusagen „höhere Gewalt“ durchgehen, sondern ging ihn und seine Kollegen im Artikel „Schmutziger Irrtum“ kräftig an. So erkennt Drieschner richtig…
…Die Energiewende würde nicht funktionieren: Wer es wissen wollte, der konnte es wissen, auch damals schon. Aber wer wollte es wissen? Rund um die Erneuerbaren ist in den vergangenen Jahren ein regelrechter politisch-industrieller Komplex herangewachsen. Sein Einfluss ist wahrscheinlich nur dem Geflecht zwischen Staat und Atomwirtschaft im vergangenen Jahrhundert vergleichbar. Alle Akteure in diesem Komplex verbindet ein Interesse: Probleme der Energiewende müssen lösbar erscheinen, damit die Wind- und Sonnenbranche weiter subventioniert werden.”
 Von dieser ebenso richtigen, wie späten Erkenntnis alarmiert, meldete sich der heutige grüne Staatssekretär im Bundeswirtschaftsministerium und vorherige AGORA Chef Baake empört zu Wort. Was nicht ist, was nicht sein darf, ist ganz offensichtlich sein Credo, denn er verlangte und bekam von „DIE ZEIT“  Platz für eine ausführliche Stellungnahme zu den Ausführungen von Graichen/Drieschner.  Die erschien dann am 12.12.14 in der Online-Ausgabe unter dem trotzigen Titel:

Saubere Wende“,

und fängt dann mit den folgenden Behauptungen an:

„Die deutsche Energiepolitik funktioniert.“

Um dann nach bekannter Politikerart, das Offensichtliche – aber mit der Abschwächung „vorerst“- einzugestehen:

„Trotzdem steigt vorerst die Klimabelastung. Eine Antwort auf Frank Drieschner „

Im dann folgenden Text wird dann erst einmal auf die große Errungenschaft des EEG eingegangen, an der Baake, damals grüner Staatssekretär unter Umweltminister Jürgen Trittin, so kräftig beteiligt war, dass man es fast sein Baby nennen könnte. Um dann in den folgenden Absätzen immer wieder geschickt Ursache und Wirkung zu vertauschen. Danach ist zwar der Anteil von Elektroenergie aus NIE Quellen um 114 TWh gestiegen – was weder Graichen noch Drieschner bestritten hatten- und Elektroenergie aus Kernkraftwerken um 72 TWh gefallen – was auch niemand bestreitet, 8 Kernkraftwerke wurden ja zwangsweise abgeschaltet- um dann richtig festzustellen, dass trotz dieser segensreichen Wirkung des EEG, die Stromproduktion aus fossil befeuerten Kraftwerken auf „gleichem Niveau“ lag wie zu Beginn. Dass sie sogar um 13 TWh[1] höher lagen als im Jahre 2000 verschweigt Baake aber dem Leser. Und auch, dass die NIE Quellen bereits 2013 mit 147 TWh, also mit rd. 25 %, an der gesamten Stromerzeugung beteiligt waren. Und damit eigentlich die Produktion aus den 8 KKW ohne zusätzlichen CO2 Ausstoß komplett hätten ersetzen können und müssen. Wenn, ja wenn nicht das leidige Problem der auch noch zufälligen Volatilität da wäre. Weil dieser in Massen und völlig am Bedarf vorbei erzeugte NIE Zufalls-Strom, zwar von niemandem gebraucht wurde, aber auf jeden Fall abgenommen, vom Verbraucher bezahlt  und ins Netz eingespeist werden musste und sich deshalb seinen Weg – oft ins Ausland- suchte. Häufig war es nur per Zuzahlung – vornehmer „negativer Preis“ genannt- bereit ihn auch abzunehmen.. Beim grünen Baake[2] liest sich diese staatliche erzwungene Ressourcen- und Geldverschwendung so
Den Betreibern von Kohlekraftwerken gelang es in den vergangenen Jahren, immer größere Strommengen ins Ausland zu verkaufen. Dies blieb nicht ohne Wirkung auf die Klimabilanz in Deutschland.
Kein Wort von der staatlicherseits angeordneten Überproduktion untauglichen Stroms, der per gesetzlich festgeschriebener Vorrangeinspeisung in jeder Menge und zu jeder Zeit zu festgelegten Preisen ins Netz gedrückt wird.
Stattdessen versucht er hier zum ersten Mal den Leser auf  eine falsche Fährte zu locken. Denn, weil – so seine spitzfindige Erklärung- Deutschland zu viel Strom produzierte, und zwar nicht etwa aus NIE Quellen, sondern aus Kohlekraftwerken, hätte man diesen nur ins Ausland verkaufen können. Leider gelegentlich auch, so Baake, nur unter Zuzahlungen- aber dies nur, weil, so will er die Leser glauben machen, die Fossil-Kraftwerker ihre Produktion nicht schnell genug hätten absenken können. Und nur deshalb, so Baake, seien die CO2 Emissionen –leider, leider, leider, wieder angestiegen.
Und auch, weil die Fossil-Kraftwerker zu wenig für ihre Emissionsrechte zu zahlen hätten. Denn, wenn wie geplant, diese einen Preis von 25 bis 30 € pro Tonne CO2 hätten, wäre Kohlestrom viel zu teuer und nur Strom aus den jetzt noch teureren Gaskraftwerken hätte die unvermeidlichen Lücken füllen können. Daher sei

„…Die schlechte CO-Bilanz (ist) nicht das Ergebnis des "schmutzigen Irrtums" einer fehlgeleiteten Energiewende, sondern das eines politischen Versagens.“

Und versagt hätten nicht etwa er und seine anderen grünen Genossen aller Parteien, die den Verbrauchern doppelt und dreifach überteuerten Strom aufzwingen wollen, sondern die anderen. Die hätten aus politischem Kalkül, das ihm und seinen Genossen natürlich völlig abgeht, diese Mehrfach-Abzocke verhindert. Vornehmlich die EU“…. die Russland, die Ukraine und China; ..ihr Emissionshandelssystem hineingelassen (hat).“
 
Abbildung 1: Windeinspeisung von Strom am 17.7.14 mit 24 MW im Minimum und am 12.12.14 mit 29.687 MW. Die Differenz müssen die fossil befeuerten und Kernkraftwerke ausgleichen.
Welche Konsequenz diese Forderung nach mehr Flexibilität für die konventionellen Kraftwerksbetreiber hat, zeigt eindrucksvoll Abb. 1. Die eingespeiste Windleistung schwankte zwischen diesen beiden Tagen um das rd. 1.200 fache. Nur ein sehr krankes Hirn kann sich diese Art der Stromversorgung für ein Industrieland ausdenken. Doch Baake ficht das alles nicht an. Denn niemals dürften er und/oder seine Gesinnungsgenossen  sich in die Niederungen der Naturgesetze gegeben haben, nach denen sich alles richten muss. Auch die Politik. Ob sie will oder nicht.
Naturwissenschaften gehören in diesen Kreisen eben nicht zur Bildung, wie der intelligente Spötter, Anglist und Romancier Schwanitz schon vor Jahren zwar überheblich aber treffend feststellte. Prof. Helmut Alt bringt die verheerend irreführenden Aussagen des Staatssekretärs Baake daher konsequent auf den Punkt:
Warum die Argumentation von Herrn  Rainer Baake, Staatsekretär im BMWI,  energietechnisch und energiewirtschaftlich unvertretbar ist, kann mit dem neben- stehenden Leistungsdiagramm für den  Monat November 2014 bereits hinreichend bewiesen werden: 

Abb. 2 : Wind- Solar und konvent. Leistungs-Einspeisung für den Nov. 2014
Zum Zeitpunkt des Leistungsmaximums am Donnerstag den 13. November 2014 war die Summe aus Wind- und Sonnenleistung nahezu gleich Null. An solchen Tagen zeigt sich als harte Realität in Deutschland, dass auch bei beliebig vielen Wind- und Sonnenanlagen die hundertprozentige Ersatzleistungsbereitstellung aus konventionellen Kraftwerken unabdingbar ist. Da können auch teure „smart grids“ nicht weiterhelfen.
Man benötigt also komplett zwei Systeme, eines für die Zeit, wenn der Wind weht und eines wie bisher, für die Zeit wenn der Wind nicht weht! Das wird aber unter Wettbewerbsbedingungen unbezahlbar und für unser Land unzumutbar sein. Die 72 TWh KKW – Strom zu 3,5 ct/kWh wurden ersetzt durch fluktuierenden EEG-Strom zu rd. 16 ct/kWh, also zu Mehrkosten von jährlich über 9 Mrd. €!
Daher ist es auch so unkritisch, ob die Transportleitungen gebaut oder termingerecht fertig werden, so lange die BNA die Abschaltung der vorhandenen Kraftwerke verbietet – und das wird so sein – (und die Eigentümer dann nicht insolvent werden, vorsichtshalber gliedert E.ON schon mal die Kraftwerkssparte aus!), haben wir doch eine sichere Stromversorgung. Nicht verfügbare Transportleitungen erhöhen nur faktisch die Zeitdauer der ohnehin auftretenden Windflauten!
Doch das ist noch nicht alles was Baake so an Irreführung betreibt. Denn auch er will den Leser glauben machen, dass man nur das Netz groß genug machen müsse, um Schwankungen jederzeit aus diesem Netz ausgleichen könne. Gräbt also die Schnapsidee vom Stromsee wieder aus. Denn, so doziert er:
„…Unser zukünftiges Stromsystem wird sehr dezentral sein. Millionen von Erzeugern werden mit Kunden über intelligente Systeme verbunden sein. Der Übergang ist so radikal wie die Ablösung der Großrechner durch PCs. Dezentralität darf aber nicht mit Autonomie verwechselt werden. Die Energiewende in Deutschland wird sich vor allem auf Windkraftanlagen und Photovoltaik (PV) stützen. Nur mit diesen kann regenerativer Strom in ausreichender Menge und kostengünstig hergestellt werden. „
Offensichtlich hat Baake noch nie eine europäische Wetterkarte mit ihren europaweiten Hoch- und Tiefs gesehen. Viel Strom hier bedeutet also fast immer (zu)viel Strom dort, oder auch das Gegenteil, kein Strom hier bedeutet also fast immer kein Strom dort. Das Netz gleicht überhaupt nichts aus, mag es so „intelligent“ sein, wie seine Schöpfer es uns weismachen wollen,  sondern transportiert -mit fast Lichtgeschwindigkeit- die daraus entstehende Instabilität in die entlegensten Winkel.
Und dann legt er noch eine falsche Spur, denn die Volatilität seiner Favoriten sieht er durchaus, glaubt aber, indem er das Problem auf ganz Europa verlagert, seine Leser weiter für dumm verkaufen zu können und bietet ihnen dafür die folgende „Lektion“ an
„..Die erste Lektion lautet: Je besser wir uns in Deutschland und Europa mit Netzen verbinden, umso einfacher und kostengünstiger wird die Energiewende. Weil der Wind nicht überall gleich stark weht und die Sonne je nach Wetter in den Regionen unterschiedlich stark scheint, müssen die Schwankungen durch Netze ausgeglichen werden…“
Kein Wort davon, dass sowohl diese Stromerzeugung, wie Verteilung, wenn sie denn gebaut würden, erneut die Kosten, den Landschaftsverbrauch, die Tiermassaker, die Instabilität in immer neue astronomische Höhen treibt. Im Gegenteil, Baake faselt von „einfacher und kostengünstiger“ Energiewende.
Und damit immer noch nicht  genug. Er will uns noch weitere Lektionen lehren (Hervorhebung vom Autor):
Die zweite Lektion lautet: Unser System muss flexibler werden. Konventionelle Stromerzeuger mussten ihre Produktion schon immer an die sich pausenlos, aber ziemlich regelmäßig ändernde Nachfrage anpassen. Jetzt müssen sich die Stromerzeuger zusätzlich an der wetterabhängigen Produktion von Strom aus Wind und Sonne ausrichten. Das hat nichts mit dem gesetzlichen Vorrang der Erneuerbaren in unseren Netzen zu tun, sondern hat seine Ursache in der Logik des Strommarkts. …
Offensichtlich rechnet Baake damit, dass ihm seine Leser bei DIE ZEIT diese komplette Verdrehung der Wirklichkeit  nicht nur abnehmen, sondern auch weiterhin seinen wirren Vorstellungen folgen. So geht es nämlich bis zum Ende des Artikel weiter und weiter und weiter. Weil nicht anders möglich, bereitet er – aus Rücksichtnahme auf die Volatilität, und die damit verbundene Backup-Notwendigkeit- einer staatlichen Planwirtschaft bei den Versorgern den Weg, indem er einen „Kapazitätsmarkt“ fordert, und verspricht dann den Gläubigen eine heile, helle Stromzukunft. Nicht ohne zuvor die irrwitzige Behauptung aufgestellt zu haben:

Für die Versorgung mit erneuerbaren Energien verfügen wir heute über leistungsfähige Technologien. Sie können Strom kostengünstig produzieren. 

Zwar ist die tägliche Realität ein kompletter Gegenbeweis für diese steile These, aber das ficht einen wahren,  dazu in der Sache völlig ahnungslosen jedoch tiefgläubigen Politiker, nicht an. Denn am Schluss formuliert er seine völlig realitätsfremde Vision und beschwört die Leser (Hervorhebungen vom Autor):
Entscheidend ist jetzt, dass wir ein neues, dezentrales und vernetztes Stromsystem mit niedrigen Systemkosten errichten. Die Energiewende darf nicht nur eine ökologische, sie muss auch eine ökonomische Erfolgsgeschichte werden. Wir müssen zeigen, dass es möglich ist, eines der größten Industrieländer der Welt mit wachsenden Anteilen erneuerbarer Energien zuverlässig und mit bezahlbaren Preisen zu versorgen. Die Welt beobachtet uns sehr genau. Wenn uns der Umstieg auf regenerative Quellen gelingt und Wertschöpfung und Arbeitsplätze in der Industrie erhalten bleiben, dann wird dieses Beispiel der größte Beitrag sein, den Deutschland im Kampf gegen den Klimawandel leisten kann.
Da fragt sich der kühle Beobachter: Und wenn nicht? Wenn der Kampf gegen die Naturgesetze zwangsläufig gescheitert ist, wer kommt dann für den bewusst angerichteten Schaden auf? Werden dann Herr Baake und seine Genossen zur Verantwortung gezogen? Vermutlich nicht, stattdessen werden sie befördert werden und ihre Nachfolger weiter emsig nach einem dritten Weg suchen.
Ob das am Anfang dieses dialektischen Baakeschen Aufrufs stehende Bekenntnis seines Nachfolgers bei AGORA „Wir haben uns geirrt“ Graichen zu personellen Konsequenzen für den mutigen Bekenner führen wird, wissen wir nicht. Es ist aber sehr wahrscheinlich, auch wenn dieser, als nur „beurlaubter“ Beamter, dann sicher weich fallen wird. Wir werden daher das Gespann Baake/Graichen im Auge behalten. Und Finanziers von AGORA nämlich die Mercator Stiftung und die European Climate Foundation auch.


[1] Quelle: Arbeitsgemeinschaft Energiebilanzen AGEB siehe Bruttostromerzeugung Deutschland in TWh;
[2] Bei Wikipedia findet man über Baake (Auszug): Nach dem Abitur arbeitete Rainer Baake von 1974 bis 1978 als Community Organizer in Chicago. Er studierte darauf Anfang der 1980er Jahre in MarburgVolkswirtschaft und wurde Diplom-Volkswirt. 1983 trat Baake den Grünen bei und übernahm 1985 nach eigenen Angaben als erster Grüner ein hauptamtliches Wahlamt: Nach dem Abschluss von Koalitionsverhandlungen zwischen SPD und Grünen wählte der Kreistag des Landkreises Marburg-Biedenkopf Baake zum Ersten Kreisbeigeordneten und Stellvertreter des Landrates. Dabei trug er unter anderem auch Verantwortung als Umweltdezernent.[3] Rainer Baake war Staatssekretär im damaligen Hessischen Ministerium für Umwelt, Energie und Bundesangelegenheiten (1991 bis 28. Oktober 1998, siehe Kabinett Eichel I und II) unter Joschka Fischer. Zusammen mit Fischer legte er die Hanauer Nuklearbetriebe still und diskutierte mit RWE die Sicherheit des Atomkraftwerkes Biblis. Baake erarbeitete Strategien zur Förderung der Erneuerbaren Energien und zur Steigerung der Energieeffizienz.




Dirk Notz vom Hamburger Max-Planck-Institut: Arktisches Meereis könnte im kommenden Jahrzehnt wieder zunehmen

In das gleiche Horn blies der US- Senator John Kerry als er 2009 ebenfalls das unmittelbar bevorstehende Ableben des arktischen Meereises verkündete:
Die Wahrheit ist, dass die Bedrohung, der wir gegenüberstehen, nicht eine abstrakte Sorge in der Zukunft ist. Sie ist bereits unter uns, und ihre Auswirkungen sind weltweit fühlbar, schon jetzt. Wissenschaftler projizieren, dass die Arktis im Sommer 2013 eisfrei sein wird. Nicht im Jahre 2050, sondern in vier Jahren“.
Die Idee vom eisfreien Nordpolarmeer wurde den beiden Politikern offenbar von IPCC-nahen Forschern wie Wieslaw Maslowski eingeflüstert. Die BBC berichtete am 12. Dezember 2007:
Wissenschaftler in den USA haben eine der dramatischsten Vorhersagen präsentiert hinsichtlich des Verschwindens des arktischen Meereises.
Ihre jüngsten Modellstudien zeigen, dass nordpolare Gewässer im Sommer eisfrei sein könnten, und zwar in nur 5 bis 6 Jahren. Prof. Wieslaw Maslowski sagte bei einem Treffen der American Geophysical Union, dass frühere Projektionen die den Eisverlust steuernden Prozesse unterschätzt hätten.
Angesichts der schlimmen Fehlprognose sollte man denken, dass nun langsam Einsicht einkehrt. Aber nein, andere klimaalarmistische Wissenschaftler beharren darauf, dass das arktische Meereis nur noch wenige Jahre zu leben hätte. Eine totsichere Sache. Das ist wie mit dem Weltuntergang. Wenn ein vorhergesagter Weltuntergang nicht eintritt, konzentriert man sich einfach auf den nächsten.
Zu den Anhängern der eisigen Arktis-Todesspirale gehört auch Peter Wadhams von der englischen University of Cambridge. Er setzte 2012 eine Prognose in die Welt, dass es innerhalb von vier Jahren mit dem arktischen Meereis vorbei wäre. Zwei Jahre später geht der Trend jedoch in die ganz falsche Richtung. Es sieht nicht gut für ihn und seine Vorhersage aus. Das finden mittlerweile sogar hartgesottene Klimaalarm-Mitstreiter. Ihnen gehen die apokalyptischen Eis-Visionen kräftig auf den Senkel. Im Rahmen einer Meereis-Konferenz im September 2014 in London ätzte Gavin Schmidt gegen Wadhams per Twitter:
Einiges Mitleid mit Peter Wadhams. Zuhörer weinen bereits, Wadhams zeigt immer noch Graphiken mit lächerlichen Projektionen ohne jede physikalische Grundlage. – Wadhams ist jetzt auf einem Methan-Imuls von 50 GT. Aber nicht mehr gerechtfertigt als seine früheren Statements“ und „Wadhams sagt eindeutig, dass hinter seinen Extrapolationen keine Physik steckt.“
Die neueste Prognose stammt von James Overland und Muyin Wang, die sie im Mai 2013 in den Geophysical Research Letters veröffentlichten. Dabei gehen sie von drei Prognosemethoden aus, die das Ende des Eises wahlweise 2020, 2030 oder 2040 sehen. Man kann dankbar sein, dass sie nicht mit 10 Methoden arbeiten, da ansonsten wohl noch die Jahre 2050, 2060,…., 2110 für den Exitus des arktischen Meereis angeführt worden wären. Hier die Kurzfassung im englischen Original:
Wann wird die sommerliche Arktis nahezu frei von Meereis sein?
Der beobachtete Verlust von dickem vieljährigem Eis während der letzten 7 Jahre und der Rückgang der Eisausdehnung im September 2012 auf 49% relativ zum klimatologischen Mittel der Jahre 1979 bis 2000 sind inkonsistent mit Projektionen einer sommerlichen nahezu eisfreien Arktis bis 2070 und darüber hinaus. Diese Schätzungen wurden noch vor ein paar Jahren abgegeben. Drei kürzliche Verfahren zur Erstellung von Vorhersagen in der wissenschaftlichen Literatur sind Folgende: (1) Extrapolation der Daten zum Meereis-Volumen, (2) die Annahme zahlreicher weiterer rapiden Verluste wie 2007 und 2012 und (3) Klimamodell-Projektionen. Der Zeitrahmen für eine im Sommer nahezu eisfreie Arktis aus diesen drei liegt jeweils grob um das Jahr 2020 oder früher, um 2030 ± 10 Jahre sowie 2040 oder später. Schätzungen der Verluste aus Modellen basieren auf einer Untergruppe der schnellsten Ensemble-Mitglieder. Es ist nicht möglich, eindeutig eine Prognose einer anderen vorzuziehen, da dies abhängig ist vom relativen Gewicht, das man Daten im Vergleich zu Modellen verleiht. Beobachtungen und Verweise stützen die Schlussfolgerung, dass die meisten globalen Klimamodelle im CMIP5-Archiv zu konservativ sind hinsichtlich ihrer Meereis-Projektionen. Jüngste Daten und Meinungen von Experten sollten in Betracht gezogen werden zusätzlich zu den Modellergebnissen, um das sehr wahrscheinliche Timing künftiger Meereis-Verluste in der ersten Hälfte des 21. Jahrhunderts abzuschätzen mit der Möglichkeit wesentlicher Verluste innerhalb der nächsten ein bis zwei Jahrzehnte.
Andere Forscher sind hier vorsichtiger geworden. Zu oft hatten sie sich in der Vergangenheit die Finger verbrannt. Der Meereisforscher Dirk Notz vom Hamburger Max-Planck-Institut für Meteorologie erklärte im September 2014 auf Anfrage von Pierre Gosselin von notrickszone.com, dass die natürliche Variabilität im kommenden Jahrzehnt das Eis sowohl schrumpfen wie auch anwachsen lassen könnte. Interessanterweise ist in den von Notz beigefügten Modellierungsgraphiken für die kommenden Jahrzehnte kein eisfreies Nordpolarmeer zu erkennen. Im Folgenden der exakte Wortlaut der bemerkenswerten Email von Notz an Gosselin:

Hallo Pierre,

danke für die Kontaktaufnahme, und Entschuldigung für die späte Antwort. Ich befand mich auf einem Treffen mit erstaunlich geringem Internetzugang. Was die Wette angeht: Ich würde sehr vorsichtig sein, eine Wette in irgendeine Richtung einzugehen, einfach auf der Grundlage unseres Verständnisses von Klimamodell-Simulationen. Diese sagen im Grunde, dass kurzfristig, also von einem Jahrzehnt zum nächsten, die interne Variabilität sowohl eine Zunahme als auch eine Abnahme der Eisbedeckung auslösen kann. Um dies genauer zu erklären, habe ich ein Bild beigefügt, dass 30-Jahre-Trends zeigt von unseren Klimamodell-Simulationen:

Hier sieht man 30 Jahre lange Trends bei unterschiedlichen Startzeitpunkten in unseren Simulationen, die wild variieren. Dies wäre für 10-Jahre-Trends sogar noch stärker der Fall. Daher würde ich kein Geld darauf setzen, dass die Eisbedeckung während der kommenden Jahre weiter abnimmt und auch nicht auf das Gegenteil. Auch habe ich einen Plot beigefügt, der zwei unserer Simulationen des Earth-System-Modells zeigt. Diese zeigen, dass es im nächsten Jahrzehnt noch etwas weniger Meereis geben könnte, aber andere Simulationen zeigen eine leichte Zunahme in diesem kurzen Zeitrahmen.

Folglich kann in Zeitmaßstäben wie dem eines Jahrzehnts die Eisbedeckung sehr gut ein wenig zunehmen (wie Sie sagen), aber es könnte auch leicht abnehmen. Meiner Ansicht nach ist dies abhängig vor allem von Witterungsverläufen in individuellen Sommern – nichts was wir derzeit vorhersagen können. Allerdings, nachdem ich dies gesagt habe, zeigte eine der Präsentationen auf dem Treffen von Andrey Proshutinsky in die gleiche Richtung ging wie Sie es sagen, nämlich dass es infolge der Ozeanzyklen während der nächsten Jahre zu einer Erholung des Meereises kommen würde. Allerdings glaube ich nicht, dass dies ein so robustes Ergebnis ist, dass ich Geld darauf verwetten würde. Nichtsdestotrotz ist es aber etwas, dass wir demnächst näher untersuchen müssen … Bitte lassen Sie mich wissen, wenn sich weitere Fragen erheben.

Best wishes,

Dirk

Bei all den Langzeitprognosen interessiert uns natürlich auch, wie es wohl im kommenden Jahr (2015) mit dem arktischen Meereis weitergeht. Judith Curry hat in ihrem Blog im Oktober 2014 eine Vorhersage gewagt. Sie geht davon aus, dass das Eis im Sommer 2015 mindestens die Ausdehnung von 2014 erreichen wird:
Und schließlich meine Vorhersage des Meereis-Minimums 2015: Ich sage voraus, dass die Eisausdehnung dann mindestens die gleiche oder eine größere sein wird als 2014 mit einer Komponente der Erholung des Meereis-Volumens. Ich erwarte eine fortgesetzte Zunahme im atlantischen Sektor der Arktis mit weiterhin geringer Meereisausdehnung in der sibirischen Arktis. Meine Vorhersage in dekadischem Maßstab ist entweder gar kein Trend bzgl. der Meereis-Minima oder eine Zunahme (Ich erwarte keine fortgesetzte Abnahme im kommenden Jahrzehnt).
Keine guten Aussichten für Peter Wadhams und die Anhänger der klimaalarmistischen Bewegung…
Link: http://www.kaltesonne.de/dirk-notz-vom-hamburger-max-planck-institut-arktisches-meereis-konnte-im-kommenden-jahrzehnt-wieder-zunehmen/
Text zuerst erschienen auf „Die Kalte Sonne“. Übersetzung der englischen Passagen von Chris Frey EIKE




Ärger durch den zum zweiten Mal erfolgten Zusammenbruch einer Windturbine

Bild rechts: Die kümmerlichen Reste der Rotorblätter und das Getriebegehäuse der Turbine
Der Turm der 15 Meter hohen Turbine bei Rhue Stoer Hall nördlich von Lochinver, brach vor ein paar Tagen einfach zusammen, wobei das Getriebegehäuse und die Rotorblätter zu Boden fielen. Es ist der zweite strukturelle Zusammenbruch innerhalb von zwei Jahren.
Es gab Berichte, wonach die Turbine unmittelbar vor dem Crash „schief“ stand und „seltsame Geräusche“ von sich gegeben hatte.
Mitglieder der Rhue Stoer Community Association [eine Art Gemeinderat] blieben sehr schmallippig hinsichtlich des jüngsten Ereignisses. Aber der Vorfall hat Sorgen neu entfacht über die Errichtung kleinerer Windturbinen in der Nähe öffentlicher Gebäude, vor allem Schulen.
Die Stoer-Anwohnerin und Campaignerin für Turbinensicherheit Dr. Stephanie James hat jetzt ihre Forderung an das Highland Council erneuert, die Turbine bei der Grundschule in Stoer und andere abzubauen. Sie warnte: „Der Highland Council ist schlampig, wenn er beteuert, dass diese Turbinen sicher sind, wenn das eindeutig nicht der Fall ist. Ein Unfall wartet nur darauf, sich zu ereignen“.

Bild: Der Turbinenmast brach in der Mitte durch. In der Folge stürzten das Gehäuse und die Rotorblätter zu Boden.
Die Planung für die Errichtung einer 6 kw-Windturbine an einer Zufahrt zum Rathaus und 90 Meter von der B869 entfernt wurde im November 2010 genehmigt.
Gegner behaupteten von Anfang an, dass die Turbine das Sichtfeld verschandeln und ein Lärm-Ärgernis sein würde.
Aber der Gemeinderat schritt voran und errichtete die in Frankreich hergestellte Windturbine der Firma Eoltec Scirocco Mitte 2011 mit finanzieller Förderung aus öffentlichen Quellen. Gerade mal sechs Monate später fiel eines der Rotorblätter ab und landete viele Meter vom Mast entfernt. Die verbleibenden Rotorblätter stürzten wenig später ebenfalls ab.
Ingenieure der Herstellerfirma reisten nach Stoer und transportierten die Wrackteile ab, um sie zu untersuchen – Ergebnis unbekannt.
Ein leistungsfähigeres Gehäuse und Rotorblätter wurden schließlich irgendwann am bestehenden Turm befestigt, und die Turbine ging Mitte 2012 wieder in Betrieb.
Aber der Zusammenbruch der Turbine war nur der Vorbote für die Befürchtungen, die sich hinsichtlich der Sicherheit des Programms des Highland Councils ergaben zur Errichtung weiterer kleiner Proven WT6000-Turbinen bei Schulen zu Kosten von 25.000 Pfund für jede einzelne.
Im Februar 2012 lehnten es Council-Mitglieder ab, Planungen für zwei neue Turbinen bei Schulen in Inverness und Nairn zu sanktionieren.
Drei Monate später gab die Behörde dem steigenden Druck nach und schloss alle 16 seiner Turbinen an Schulen aufgrund schwebender Risiko-Abschätzungen seitens unabhängiger Berater.
Full story, in der ausführlich der endlose Kampf von Dr. James gegen die Behörden bzgl. der Errichtung weiterer kleiner Windturbinen berichtet wird. Sie blieb erfolglos – bis jetzt zum neuen Crash.
Link: http://www.thegwpf.com/anger-as-wind-turbine-crashes-to-earth-for-second-time/
Übersetzt von Chris Frey EIKE




Potsdam Institut für Klimafolgenforschung (PIK) informiert CDU Wirtschaftsrat über unglaubwürdige Katastrophenszenarien, statt der Realität

Als vortragender Experte war Prof. Edenhofer, Vizechef des IPCC und des PIK, und als Ort, das Potsdam-Institut für Klimafolgenforschung PIK benannt worden. Doch statt des Experten Edenhofer sprang seine, für die Energiestrategie zuständige Mitarbeiterin und ehemals Doktorandin von PIK Chef Schellnhuber, Frau Dr. Knopf (0) ein, da Edenhofer verhindert war. 

Decarbonisierung um jeden Preis

Frau Dr. Knopf spulte dann sehr routiniert die üblichen Klimakatastrophen-Szenarien aus ihren Modellen ab, die alles hatten, was man zum Erschrecken des Publikums brauchte, abgesehen von wissenschaftlicher Methodik und negativer Vorhersage-Überprüfbarkeit und damit von jeglicher Glaubwürdigkeit.

Abb. 1 Verlauf und Trend der globalen Mitteltemperatur ermittelt nach Daten des RSS Team der Satellitenbeobachtung.
Wiederholt wurde stattdessen die Behauptung, dass  der geringe Anstieg der globalen Mitteltemperatur von 0,5 bis 0,8 ° C im vorigen Jhh, eindeutig menschgemacht sei. Den nun schon seit 18 Jahren währenden Stillstand des Trends der globalen Mitteltemperatur Siehe Abb 1  umschiffte sie geschickt, indem sie ihn erstens nicht erwähnte, aber stattdessen dem Publikum die bekannte IPCC Grafik mit der Aneinanderreihung jeweils 10 jähriger Trends zeigte. Siehe Abb 2 (Bild rechts). Auch auf Grund der Achsenspreizung der y Achse übermittelte sie damit dem Publikum die Botschaft, die Erwärmung ginge ungebremst weiter.
Gestützt darauf, betonte sie, dass der Kampf gegen den Klimawandel absolut vorrangig sei, aber die Kosten zur Bekämpfung desselben  den globalen jährlichen Konsum nur zwischen ca. 0,04 % bis 0,14 (Median bei 0.06%)[1] des weltweiten GDP´s bremsen würde. Also im Grunde sehr billig sei.

Abb. 2 Ausschnitt aus Fig. 1 SPM AR5 mit den aneinander gereihten 10 Jahrestrend zur Verschleierung des nunmehr 15-18 jährigen Stillstands der globalen Mitteltemperatur. [2]
Damit hatte sie das eigentliche Thema des Abends erreicht, bei dessen Bearbeitung sie auch – als Mitglied des Teams von Otmar Edenhofer der Working Group III- mitwirkte.
Erschwerend für die Zuhörer kam hinzu, dass sie bei der Beschreibung der Istsituation ständig die Prozentzahlen der Steigerung von CO2 -Emissionen und der -Konzentration vermischte, so dass auch der aufmerksamste Zuhörer bald nicht mehr wusste, wovon eigentlich die Rede ist. Außer, dass machte sie unmissverständlcih klar, dass jedes CO2 schlecht sei. Somit sei völlige "Decarboniserung" die einzige Rettung.
Viel Zeit wurde dann von ihr auf die Preisung der Möglichkeiten der sog. „Erneuerbaren Energien“ verwendet, die letztendlich, neben der ebenfalls von ihr favorisierten Carbon Capture and Storage (CCS) Technologie, als einziges Mittel gepriesen wurden, dem drohenden Klimakollaps zu entgehen. Globale Decarbonisierung um jeden, nach ihren Worten aber sehr geringem, Preis.

Diskussionsbeitrag als "Unverschämtheit" bezeichnet

Dann begann der Diskussionsteil des Abends. Und da meldete sich auch der Geologe Prof. K. Ewert zu Wort, der seit vielen Jahren mühsam aber sehr methodisch, tausende von einzelnen Temperaturganglinien weltweit auswertet und zu ganz anderen, sehr spektakulären Erkenntnissen kommt.  Doch kaum hatte er vorsichtig und höflich Zweifel am Gesagten, insbesondere dem Temperaturanstieg angemeldet, fiel ihm die Vortragende brüsk ins Wort und bezeichnete seine Äußerungen als Unverschämtheit. Später, nach der Diskussion weigerte sie sich zudem die entsprechenden Belege von ihm anzunehmen.
Auch Teilnehmer Limburg meldete  sich u.a. mit dem Hinweis zu Wort, dass er 0,04 oder 0,06 % weltweite Konsumminderung nicht bewerten könne, aber darauf hinweisen wolle, dass die so hoch gelobte Hinwendung zu „Erneuerbaren“ – unter dem Titel Energiewende subsummiert-  allein uns Deutsche, bei völliger Umsetzung bis 2050 rd. 7 Billionen Euro kosten würde, aber auf das Klima nicht den mindesten Einfluss hätte. Immerhin durfte er ausreden, aber die 7 Billionen € wurden von der Vortragenden Knopf als nicht nachvollziehbar wegerklärt, gleichzeitig jedoch wurden von ihr sämtliche Angebote diese näher zu belegen mit eisigem Schweigen bedacht.
Teilnehmer F.K. Ewert ließ dieses brüske und allen wissenschaftlichen Usancen  widersprechenden Verhalten der Vortragenden ihm gegenüber nicht auf sich beruhen und sandte deren Chef und verhinderten Sprecher des Abends den u.a Brief.
Der liegt Herrn Edenhofer nunmehr seit gut 14 Tagen vor, eine Antwort steht aus. Die ca. 18 Zuhörer jedenfalls hatten nach diesem Vortrag ein sehr gemischtes Gefühl über die Richtigkeit des Gesagten und Gezeigten. Nur ein Zuhörer empfand jegliche Kritik an der Vortragenden als Blasphemie und verließ empört den Raum. Die anderen wandten sich in der Mehrzahl sehr nachdenklich aber hungrig den belegten Brötchen zu.

Brief an Prof. O. Edenhofer vom 1. Dezember 2014      

Herrn Prof. Dr. Ottmar Edenhofer                                                                             c/o Potsdam-Institut  für Klimafolgenforschung                                                         Te­legraphenberg A31
 14473 Potsdam 
Betreff:  Expertengespräch am 17. 11.2014
Sehr geehrter Herr Edenhofer,
in dem Expertengespräch am 17.11.2014 hat Frau Dr. Brigitte Knopf an Ihrer Stelle den Einfüh­rungs­vortrag zu dem Expertengespräch des CDU-Wirtschaftsrates gehalten. Ihre im Vortrag entwi­ckelten Folgerungen für unser praktisches Handeln gründeten sich auf  Sze­na­rien. 
Das IPPC hat schon früh betont, dass Voraussagen zum Klima nicht möglich sind, weil es ein chaotisches nichtlineares System mit sehr vielen Einflussfaktoren ist. Inzwischen  hat die re­ale Entwicklung die Richtigkeit dieser IPCC-Beurteilung bestätigt, denn die Voraussagen haben sich nicht erfüllt – tatsächlich ist oft sogar das Gegenteil eingetreten. 
Trotz der IPCC-Beurteilung basiert das Modell vom anthropogen verursachten Klimawandel infolge unserer CO2-Emissionen auf Klimasimulationsmodellen, ein unbezweifelbarer Be­weis wurde bisher nicht erbracht.  Prof. John Christy, University of Alabama, hat die Voraus­sagen der wichtigsten Klima-Computer miteinander verglichen:
Wie die Darstellung überzeugend demonstriert, sind alle Ergebnisse anders – vermutlich wegen einer individuellen Auswahl der Parameter. Danach wäre für das Jahr 2020 mit Erwärmungen zwischen 0,3 und 1,3° C  zu rech­nen. Welches Ergebnis gilt, wenn alle anders sind? Kei­nes!
Die Ergebnisse von Szenarien sind folglich keine geeignete Grundlage für schwerwiegende poli­tische Entscheidungen. Das bestätigt im jüngsten IPCC-Bericht für Politiker unter D2 die Fuß­note 16, die besagt, dass die Wissenschaft sich über die Klimasensitivität des CO2 nicht einig ist. Darf die Politik wichtige Maßnahmen auf so dürftiger Basis beschließen? Wer würde wohl einer kom­plizierten und unmittelbar durchzuführenden Ope­ration zustimmen, wenn der Arzt im Befund einer MRT-Untersuchung  die Möglichkeit zu er­kennen glaubt, dass im Alter eine Krankheit drohen könnte.
Das Kriterium der Wissenschaftlichkeit ist nicht schon dadurch erfüllt, dass sich der Bearbei­ter selbst als Wissenschaftler versteht. Wissenschaftlich­keit erfordert die Bestätigung des Ergebnis­ses durch andere. Karl Popper hat mit seinen Arbeiten zur Erkenntnis- und Wissenschaftstheorie den kritischen Rationalismus be­gründet. Er fordert, kritisch zu prüfen, ob ein gegenteiliger An­satz eine bessere Erklärung liefert, was schon deshalb nötig sei, weil bestätigende Wiederholun­gen ähnlicher oder gar gleicher Er­gebnisse zu Ideolo­gien werden können.
Prof. Dr. Hans-Joachim Schellnhuber, Direktor des PIK, hat mit Kollegen in PHYSICAL RE­VIEW E 68, 046133 (2003) publiziert: „Power-law persistence and trends in the atmos­phere: A detailed study of long temperature records“. Die Arbeit behandelt die Auswertung von 95 Tem­peraturreihen. Ihr Ergebnis ist wie folgt zusammengefasst: „In the vast majority of stations we did not see indications of the global warming of the atmostphere”. Spätere Erklärun­gen von Herrn Schellnhuber, dass angewandte Verfahren sei veraltet, treffen nicht zu, denn 1.) verändert eine Auswertungsmethode nicht die Basisdaten, und 2.) wird es weiter angewendet, wie von Prof. Lüdecke praktiziert.
Das Gebot der Wissenschaftlichkeit, die Ergebnisse der Arbeit Schellnhubers et al und meine frühere Ausbildung in Klimatologie und Paläoklimatologie haben mich motiviert, ebenfalls Tempe­ratur­reihen auszuwerten, inzwischen schon seit 6 Jahren. Schließlich weiß man als Geo­loge, dass nur Fak­ten der Schlüssel sind, um die Erde zu erkennen und zu verstehen. Nirgendwo gilt die alt-chine­sische Weisheit mehr als für die Erde „Wissende machen keine Voraussa­gen, und wer Voraussagen macht, ist kein Wissender“, schon gar nicht auf der Grundlage von Kurz­zeitbetrachtungen, wie es in der neuen Klimaforschung üblich geworden ist.
Temperaturmessungen sind seit 1659 verfügbar. Meine Auswertung von 82 Langzeit-Tempe­raturreihen, die 1706 beginnen, bestätigt das Untersuchungsergebnis von Herrn Schellnhuber: Die aus den Jah­resmittelwerten generierten Temperaturreihen lassen keine globale Erwärmung der Atmosphäre erkennen, also auch keine, die durch CO2 verursacht wurde. Um etwa 1700 hat die Rückerwär­mung nach der Kleinen Eiszeit begonnen, und auch die erfolgt wegen der Sonnen­zyklen in einem Wechsel von Abkühlungs- und Erwärmungsphasen. Und niemand wird auf den Gedanken kommen, dass der Mensch damit ursächlich etwas zu tun hat, denn diese Wechsel sind eine irdische Normalität. Deshalb ist es für die Beurteilung weniger wichtig, ob wir uns ge­rade in einer Erwärmungs- oder in einer Abkühlungsphase befinden, sondern ob wegen der kli­mapoliti­schen Diskussion ein Zusammenhang zwischen der industriellen CO2-Emission und den Erwär­mungsphasen besteht. Die Entwicklung der Temperatur beweist das Gegenteil. 
 Seit Mitte des 19. Jh. werden sehr viel mehr Wetterstationen betrieben. Im März 2010 wurden die Daten der im Netz von NASA-GISS angebotenen Kurzzeitreihen archiviert, und zwar solche, die vollständig und damit für die Auswertung  geeignet sind. Das sind 1108 Stationen mit Daten für die Zeit von 1880 bis 2010 und 813 Stationen mit Daten ab ca. 1940 bis 2010.  Die Daten aller 1108 Stationen wurden im Detail manuell ausge­wertet. von der zweiten Gruppe bisher 375. Die Auswertung der 1108 Reihen umfasst die Herstellung der Ganglinien und deren Gradienten für die Gesamtzeit, sowie die Herstellung der Ganglinien und deren Gradienten für die aufeinan­derfolgenden Teilabschnitte. Jede Gesamt-Ganglinie umfasst 3 Kalt- und 2 Warmphasen. Insge­samt wurden ca. 6650 Ganglinien mit Gradienten manuell hergestellt.  Aus den Gradienten der Gesamt-Ganglinien ergibt sich, UHI-bereinigt, weltweit eine Nettoerwärmung von 0,39°C. Aus der Summe der Gradienten der Einzelphasen ergibt sich die im folgenden dargestellte Tempera­tur­entwicklung der Welt. Die Erderwärmung macht nicht nur keine Pause, sondern wurde ca. 1998 von einer Abkühlung abgelöst, die noch andauert. Obwohl der CO2-Gehalt weiter steigt, sinken die Temperaturen.

Dieses Ergebnis der weltweiten Temperaturmessungen ist nicht überraschend, denn es stimmt vollkommen mit der klimatologischen bzw. paläoklimatologischen Erfahrung von abwechseln­den Warm- und Kaltphasen überein, die infolge der Wirkung der Solarzyklen selbstverständlich auch während der Rückerwärmung nach der Kleinen Eiszeit auftreten. Die üblich gewordenen kurzfristigen Beurteilungen und Prognosen können die 4,5 Mrd. Jahre andau­ernde Klimage­schichte der Erde nicht reflektieren, ohne Langzeitbeobachtungen erhält man kein wirklichkeits­getreues Ergebnis.
Als Geologe weiß man, dass Klimaänderungen die Regel sind und dass die CO2-Gehalte der At­mosphäre während der Erd­geschichte zumeist sehr viel höher waren als in der Gegenwart. Als im Oberen Mitteldevon Korallenriffe entstanden sind, lag der CO2-Gehalt der Luft bei 2200 ppm; wir können sie als ‚Massenkalk’ heute in unseren Mittelgebirgen besichtigen. Während der Permo-Karbonischen Eiszeit mit der bis 38°N reichenden Vergletscherung lag der CO2-Gehalt der Luft bei 1400 ppm. Hohe CO2-Gehalte haben weder Eiszeiten noch das Wachstum der Pflan­zen behindert, schließlich ist CO2 mittels Photosynthese der Baustein des Lebens. Besser als durch diese Ge­gensätzlichkeit möglicher Entwicklungen konnte uns die Natur nicht beweisen, dass „CO2 als Klimagas bedeutungslos ist“, wie das Lexikon der Physik von 1959 informiert.
Für die klimatologische Bedeutungslosigkeit des CO2 gibt es mindestens neun Beweise; zu den schon genannten paläoklimatologischen werden noch zwei aktuelle hinzugefügt:
·      Der Rückgang der Gletscher wird mit der angeblich anthropogen Erderwärmung begründet. Das Abschmelzen begann weltweit um 1820, unsere verstärkten CO2-Emissionen begannen nach 1950, also 130 Jahre später. Die Ursache kommt vor der Wirkung – auch bei der Glet­scherschmelze.
·      Im 20. Jh. erfolgte die erste Warmphase von dem Beginn der anthropogenen CO2-Emissio­nen, zwei Abkühlungsphasen fanden jedoch trotz dieser CO2-Emissionen statt – die letzte dauert noch an.
Dem Vortrag von Frau Dr. Knopf schloss sich eine Diskussion an. Ich begann meine beabsich­tigte Zusammenfassung mit der Feststellung, dass die Messwerte die im Vortrag zitierten Ergeb­nisse aus dem IPCC-Bericht 2013 widerlegen, und dass sie einen CO2-Einfluss auf das Klima nicht erkennen lassen. Leider war es nicht möglich, dieses Resultat mit einigen Details zu be­gründen, denn meine ersten Sätze hatten eine empörte Reaktion von Frau Dr. Knopf  ausgelöst – sie fand es „unverschämt“, ihren Aussagen und Folgerungen zu widersprechen. Dass Wissen­schaft zur Überprüfung einen gegenteiligen Ansatz erfordert, wollte sie nicht gelten lassen. Der unübliche und ungewohnte Stil ihrer Reaktion hat mich bewogen, meinen Beitrag abzubrechen. Nach dem Schluss des offi­ziellen Teiles habe ich dann versucht, ihr einen vorbereiteten Kurzbe­richt mit einer Zusammenfas­sung der Messwerte zu übergeben; Frau Dr. Knopf lehnte deren Annahme protestierend ab. Wie wir und andere wiederholt erfahren haben, neigen Mitarbeiter des PIK dazu, Gegenargumente und Messwerte zu ignorieren: u.a. 18 Jahre Temperaturstillstand, keine Beschleunigung beim Meeresspiegel-Anstieg, IPCC-Abschied vom Extremwettertrend.  
Auf der Nobelpreisträger-Tagung in Lindau hat am 7.Juli 2012 der norwegische Physiker Ivar Giaevar die den Klimawandel begründende Forschung als Pseudo-Wissenschaft und diesen Zeit­geist als Peudo-Religion bezeichnet. Prof. Norbert Bolz, TU Berlin, hatte dies am 4.2.1010 in einem Interview ähnlich beurteilt. Wenn es noch eines Beweises bedurft hätte, dass beide Ge­nannten das Geschäfts-, Beschäftigungs- und Finanzierungsmodell von der „Klimalüge“ richtig beurteilt haben, dann hat Frau Dr. Knopf ihn mit ihren Zitaten aus dem 2013-IPCC-Bericht und mit ihrem inakzeptablen Verständnis von Wissenschaftlichkeit geliefert.                                              
Mit freundlichen Grüßen                                                                          
gez. F.-K. Ewert
Kopien an: Prof. Dr. Hans-Joachim Schellnhuber, Dr. Brigitte Knopf                                                                                                     
PS (am 12.12.2014):
Die Menschheit hat sich schon oft verhängnisvollen Irrglauben hingegeben. Das Modell von der anthro­pogen verschuldeten Erderwärmung wird für lange Zeit unübertroffen bleiben, denn diesmal soll der Grundbaustoff unserer Nahrungsmittel die Ursache sein – CO2,  ein ungiftiges, geruchloses, unsichtbares und reaktionsträges Spurengas, von dem jeder Mensch täglich ca. 1 kg produziert und ausatmet.


[0] Von der Homepage von Frau Dr. Knopf
Dr. Brigitte Knopf ist stellvertretende Leiterin des Forschungsbereichs III Nachhaltige Lösungsstrategien am PIK und ist Leiterin der Arbeitsgruppe Energiestrategien Europa und Deutschland. Sie hat in Physik promoviert. Im Rahmen der wissenschaftlichen Begleitung der Energiewende in Deutschland entwickelt sie Langfristszenarien für die Transformation des Energiesystems und ist Autorin einer Studie zum Kernenergieausstieg. Derzeit beschäftigt sie sich mit der Entwicklung eines Strommarktdesigns der Zukunft und mit der Europäischen Energie- und Klimapolitik. Ein Schwerpunkt ihrer Arbeit ist die Frage der Einbettung der Energiewende in einen breiteren europäischen Kontext. Für die Transformation des europäischen Energiesystems hat sie einen Modellvergleich koordiniert zum Einfluss von Technologieoptionen auf die europäische Klimapolitik für 2030 und 2050. Im Fünften Sachstandsbericht des IPCC im Teil der Arbeitsgruppe III zu Vermeidung des Klimawandels ist sie Autorin im Kapitel zu regionaler Entwicklung und Kooperation.   
Von 2007 bis 2010 war sie Koordinatorin eines Modellvergleichs zu den Kosten und Technologien für Klimaschutz im Rahmen des EU Projektes ADAM (Adaptation and Mitigation Strategies). Weiterhin war sie in ein Projekt zu Klimawandel und globale Armut involviert. Von 2009 bis 2011 war sie Senior Advisor der Technical Support Unit in der Arbeitsgruppe III des Weltklimarats IPCC bei der Erstellung des IPCC Sonderberichtes zu den erneuerbaren Energien.
[1] Nachzulesen hier auf Seite 15: http://www.ipcc.ch/pdf/assessment-report/ar5/wg3/ipcc_wg3_ar5_summary-for-policymakers.pdf
[2] Quelle: http://www.ipcc.ch/report/graphics/index.php?t=Assessment%20Reports&r=AR5%20-%20WG1&f=SPM




Mit heißer Nadel gestrickt! Warum der Atomausstieg teuer wird

Schwache Argumentationsbasis der Kanzlerin
Wenige Tage nach Fukushima, am 15. März 2011, traf sich die Bundeskanzlerin mit den Ministerpräsidenten der Länder, in denen Kernkraftwerke aufgestellt waren. Sie erläuterte des Plan eines Moratoriums im Sinne einer vorsorglichen Gefahrenabwehr. Juristisch werde das Moratorium gestützt durch das Atomgesetz § 19 Absatz 3, wonach man Kernkraftwerke einstweilen oder gar endgültig abschalten könne, wenn Gefahr im Verzug sei. Die Ministerpräsidenten stimmten dem zu. Die Bundeskanzlerin kündigte zusätzlich an, dass die Reaktorsicherheitskommission (RSK) jedes Atomkraftwerk technisch überprüfen werde, mit dem Ziel, bisher nicht entdeckte Risiken zu ermitteln. 
Die RSK legte etwa zwei Monate später einen 115-seitigen Bericht vor, der von über hundert ausgewiesenen Reaktorexperten verfasst war. Die eindeutige Aussage dieser Fachleute war, dass ein ähnlicher Unfall wie in Fukushima an deutschen Kraftwerken nicht passieren könne. Einerseits, weil die geologischen und meteorologischen Verhältnisse dies nicht zulassen und andererseits, weil die deutschen Anlagen gegen Störfälle dieser Art weitaus besser geschützt sind. Der damalige Bundesumweltminister Norbert Röttgen stellte deshalb auf einer Pressekonferenz folgerichtig fest: Unsere Anlagen in Deutschland weisen alle miteinander ein deutlich höheres Sicherheitsniveau und größere Reserven gegenüber solchen Ereignissen auf als die betroffenen Anlagen in Japan. Es gibt deshalb aus sicherheitstechnischer Sicht keine Notwendigkeit, Hals über Kopf aus der Kerntechnik auszusteigen
Späte Gegenwehr der Betreiber
Verwunderlich ist, dass die Betreiber der stillgelegten Kernkraftwerke – also RWE, Eon, EnBW und Vattenfall – diese argumentative Steilvorlage des obersten Aufsehers Röttgen nicht nutzten. Sie hätten lediglich eine Klage gegen die offensichtlich unbegründete Stilllegungsanordnung einreichen müssen, um ihre Anlagen weiterbetreiben zu dürfen. Röttgen hätte in diesem Fall seine Anordnung mit Sofortvollzug samt technischer Begründung ausstatten müssen. Das wäre ihm, angesichts des Votums der RSK, sicherlich schwer gefallen. De facto wäre es juristisch unmöglich gewesen. Aber offensichtlich getrauten sich die Betreiber in der damals aufgeheizten öffentlichen Stimmung gegen die Atomkraftwerke nicht, diesen Schritt zu gehen. 
Das hat sich drei Jahre danach geändert. RWE verklagte im Sommer d. J. den Bund und das Land Hessen auf Schadensersatz für die Stilllegung seines Kraftwerks Biblis. In der Presse spekuliert man über einen Betrag von mehreren hundert Millionen Euro. Wenige Monate später verklagte Eon den Bund und mehrere Länder auf Schadensersatz in Höhe von 380 Millionen Euro wegen der dreimonatigen Stilllegung der Meiler Unterweser und Isar 1. Besonders teuer könnte der erzwungene Atomausstieg bei Vattenfall werden. Diese Firma klagt vor einem amerikanischen Gericht in Washington D. C. gegen die Abschaltung der Kernkraftwerke Krümmel und Brunsbüttel auf sage und schreibe 4,7 Milliarden Euro. Vattenfall ist dieser Gang nach USA möglich, da es ein schwedisches Unternehmen ist. Nach Einschätzung der juristischen Experten haben sämtliche Klagen durchaus Gewinnchancen für die Versorger.
Politisches Kalkül?
Es stellt sich die Frage, ob der Bundesregierung diese prozessualen Risiken nicht schon im Frühjahr 2011 bekannt waren. Immerhin kann sie auf eine Vielzahl höchstqualifizierter Juristen zurückgreifen. Über diese Frage wird derzeit immer mehr spekuliert. Nicht wenige sind der Meinung, dass die maßgebenden Regierungspolitiker damals bewusst dies Ausstiegsentscheidung getroffen haben, weil es die letzten Divergenzen mit der Partei der Grünen beseitigte und dies neue und zusätzliche Koalitionsoptionen eröffnete. Who knows?
Über den Autor:
Willy Marth, geboren 1933 im Fichtelgebirge, promovierte in Physik an der Technischen Hochschule in München und erhielt anschliessend ein Diplom in Betriebswirtschaft der Universität München. Ein Post-Doc-Aufenthalt in den USA vervollständigte seine Ausbildung. Am „Atomei“ FRM in Garching war er für den Aufbau der Bestrahlungseinrichtungen verantwortlich, am FR 2 in Karlsruhe für die Durchführung der Reaktorexperimente. Als Projektleiter wirkte er bei den beiden natriumgekühlten Kernkraftwerken KNK I und II, sowie bei der Entwicklung des Schnellen Brüter SNR 300 in Kalkar. Beim europäischen Brüter EFR war er als Executive Director zuständig für die gesamte Forschung an 12 Forschungszentren in Deutschland, Frankreich und Grossbritannien. Im Jahr 1994 wurde er als Finanzchef für verschiedene Stilllegungsprojekte berufen. Dabei handelte es sich um vier Reaktoren und Kernkraftwerke sowie um die Wiederaufarbeitungsanlage Karlsruhe, wo er für ein Jahresbudget von 300 Millionen Euro verantwortlich war.
Übernommen vom Blog des Autors hier