Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 2

Im Teil I des Faktenchecks habe ich mich ausführlich mit den kontroversen Aussagen der Teilnehmer der ersten 13:46 Minuten beschäftigt. Um jedermann den Vergleich zwischen den gesagten Statements und Bestätigung oder Widerlegung der Behauptungen auf einfachste Weise sowie objektiv und fair zu ermöglichen, hat EIKE sich die Mühe gemacht und den gesamten gesprochenen Text mit Untertiteln samt Zeitmarken zum schnellen Auffinden (und damit zu überprüfen) der in Frage kommenden Stelle zu hinterlegen. Diese Prinzip wird hier im zweiten wie auch im dritten Teil fortgesetzt.  Der Fairness halber wird allen Teilnehmern dazu noch die Möglichkeit angeboten, ihre Sicht der Dinge hier darzustellen.

Doch anstatt sich über diese Möglichkeit zu freuen, erlaubte sich das ehemalige grüne MdB Herr H.J. Fell, (in einer Mail vom 12.7.15) mir „Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen „ vorwerfen zu müssen. Und dazu noch sein Schweigen zu diesen vermeintlichen Missetaten, mir als „unseriösen Versuch“ zu unterstellen ihn ..“als Akzeptanz zu missinterpretier(t)en“.

Tonmitschnitt ab Minute 13:46 der Podiumsdiskussion am 22.6.15 in den Räumen der Bundeszentrale für politische Bildung. Der Tonmitschnitt kann zum einfacheren Vergleich der unten zitierten Aussagen deutsch untertitelt werden.

Dazu kann ich nur feststellen: Solch ein billiges Verhalten mit pauschaler Verleugnung von Fakten, die einem nicht in den Kram passen, mag ja in grünen Politikseminaren als  semantischer  Trick gelehrt werden, um unliebsame Fakten zumindest rhetorisch aus der Welt zu schaffen, verfängt aber keineswegs bei den Lesern dieses Blogs und sicher auch nicht bei all denen, die sich selber ein Urteil bilden wollen und dabei auf objektive Berichterstattung angewiesen sind. Und für die ist dieser Faktencheck gemacht.

Der hier gezeigte Mitschnitt fängt wieder bei 0:00 min, schließt aber nahtlos an das Ende des hier gezeigten Teilmitschnittes an. Im Folgenden werden die anschließenden 21:27 Minuten behandelt.

(00:00 Min. bis 02:36) Wieviel „Erneuerbare“ sind denkbar?

Es geht um die Frage, wie viel „Erneuerbare“ sich jeder der Anwesenden vorstellen kann. Herr Brabeck kann sich irgendwann mal 90 bis 95 % „Erneuerbare“ vorstellen. Herr Fell erwartet irgendwann auch 100 % und verbindet diese Meinung mit einer Attacke auf die Versorger die s.M.n. vor 10 Jahren „falsch“ in Kohlekraftwerke investiert hätten.  Zur Unterstützung seiner Ansicht nennt er solch bedeutende Länder wie Schweden, Dänemark und Costa Rica, die die Umstellung ganz oder tlw. schon geschafft hätten. Und erklärt die unbestreitbaren Umsatz und Ertragsprobleme der Versorger mit deren „Versäumnissen“ in der Vergangenheit. Es fällt jedoch kein Wort über die üppige, weit über dem Marktpreis liegende Honorierung des EE Angebots, samt Vorrangeinspeisezwang, die  sein EEG erst möglich machte hat. Und er scheut sich anschließend auch nicht,  mit diesem halben Argument von Deutschland auf die ganze Welt zu schließen.

Hier gilt: Es ist Meinung und daher zulässig!

(0:02:36) Moderatorin: Frau Dehmer glauben Sie, das hundert Prozent Erneuerbare Energien überhaupt politisch umsetzbar wäre?

0:02:43 Frau Dehmer

Frau Dehmer bejaht diese Frage, auch mit dem Verweis auf den Elmauer G7 Gipfel Dekarbonisierungsbeschluss bis zum Ende des Jahrhunderts. Und argumentiert weiter:..

…. Aber weltweit ist es mit Sicherheit so, dass der Trend in die Richtung geht; die Investitionen in Erneuerbare sind seit einigen Jahren jedes Jahr höher als In fossile Energien; … Trotzdem sind Erneuerbare da in der Regel vorn, weil sie einfach billiger sind als große Kraftwerken, die eine große Infrastruktur brauchen.

Kommentar:

Neben der evtl. punktuell richtigen Beobachtung, dass in Norwegen alle 10 m ein „Tesla“ herumsteht, behauptet Frau Dehmer dass

1.                  … weltweit …. der Trend in die Richtung geht; die Investitionen in Erneuerbare sind seit einigen Jahren jedes Jahr höher als In fossile Energien;

und

2.                  Trotzdem sind Erneuerbare da in der Regel vorn, weil sie einfach billiger sind als große Kraftwerken, die eine große Infrastruktur brauchen.

Fakt ist:

Zu 1: Die Investitionen in „Erneuerbare“ sind weltweit unzweifelhaft hoch. Der größte Anteil entfällt dabei auf die Wasserkraft (s. Abb.3 und Tabelle 1). Die Gründe für die Investitionen in andere „Erneuerbare“ liegen in der massiven Förderung durch staatliche Subventionen[1] und dem Preisverfall bei den Solarpanelen.

Für  2014 beziffert die Internationale  Energieagentur (IEA), mit Sitz in Paris, die Gesamtinvestition auf 270 Mrd US $. Sie lagen damit so hoch wie im Jahr 2013. Die Investitionen in konventionelle Energieträger (vermutlich fossile wie Kern- Energie) liegen jedoch immer noch deutlich höher auch wenn die IEA in ihrem 2015 Report [2] schreibt:

„Renewables accounted for nearly half of all new power generation capacity in 2014, led by growth in China, the United States, Japan and Germany, with investment remaining strong (at $270 billion) and costs continuing to fall“. 

Elektritzätsproduktion weltweit in TWh 2013 2014 Zuwachs 2014-2013 Quelle
Gesamt 23.200 23.800 600 Enerdata Yearbook 2015
Davon Wind + Solar in % v. Gesamt 3,6 4% 0,4 REN 21
Davon Hydro in % v. Gesamt 18,7 18,9 0,2 Enerdata Yearbook 2015
Installierte Kapazität
„Erneuerbare“ o. Hydro in GW 560 657 97 REN21
Hydro in GW 1.578 1.712 134 REN21

Tabelle 1: Vergleich der Elektrizitätsproduktion und inst. Kapazität weltweit mit Anteil von Wind + Solar und Hydro als Hauptquellen „erneuerbarer“ Energien. Trotz massiver Förderung in über 160 Ländern[3] (davon mit Einspeisevorrang 108) ist die installierte Kapazität bei Wind und Sonne immer noch ziemlich klein. Berücksichtigt man dann noch den äußerst geringen Nutzungsgrad der installierten Wind- und Solarkapazitäten, dann zeigt sich, dass hier mit Kanonen auf Spatzen geschossen wird.

Jedoch wurden gleichzeitig– auf Grund des Preisverfalls bei Öl- und Gas- die Investitionen in diese beiden Bereiche zurückgefahren. Während die Investitionen in Kohle boomen. So werden derzeit weltweit 2100 Kohlekraftwerke geplant. Der grüne Sierra Club – Mutter unsers NABU – hofft jedoch, dass davon nur etwa ein Drittel wohl realisiert werden:[4]

Das mag zutreffen oder nicht, jedenfalls ist Kohle auf dem Vormarsch, zum Entsetzen aller Klimaschützer.

Viele Regierungen großer Länder (China, Indien) verkündeten dennoch in  ihren vorbereitenden Absichts-Erklärungen zur kommenden UN Klimakonferenz CP21 in Paris, ihre Subventionspolitik zugunsten der „Erneuerbaren“ auszuweiten oder stabil zu halten. Wie weit das Lippenbekenntnisse sind oder praktische Politik, wird sich zeigen. Jeder Regierungswechsel kann demnach das Aus für diese Politik bedeuten, wie es Spanien, Tschechien und jetzt Großbritannien und Australien (Details dazu hier und hier) bereits vorgemacht haben.

Zu 2. Frau Dehmer glaubt und behauptet, dass „Erneuerbare“ ..“einfach billiger“ sind.

Fakt ist

jedoch, dass von „billiger“ keine Rede sein kann. Ebenso wenig, wie von weniger – oder kleinerer- Infrastruktur, als große Kraftwerke. Das Gegenteil ist richtig. Zum Thema „billiger“ stellt die IEA etwas verschwiemelt fest, Renewable technologies are becoming increasingly cost competitive in a number of countries and circumstances, but public support schemes are still required to support deployment in many others.  (Chapter 1; p. 21 hier)  (Siehe auch Fußnote 1).

Der Grund dafür, dass sie deutlich teurer sind, sein müssen, liegt hauptsächlich darin, dass die Energiedichte der „Erneuerbaren  verglichen mit konventionellen Brennstoffen, sehr viel geringer ist. Der Aufwand diese Energie zu verdichten, lässt weitere Preissenkungen – nachdem der Economy of Scale Effekt- z.B. bei Solarpanelen, ausgeschöpft ist- nicht zu. Auch ist und bleibt deswegen der Flächenbedarf riesig, was insbesondere die Grünen veranlassen müsste, wenn sie es mit dem Umweltschutz wirklich ernst meinten, vor der Förderung der „Erneuerbaren“ Abstand zu nehmen.  Auch ließen alle Podiumsteilnehmer das Thema „fehlende Speicher“ außen vor,

Abbildung 1: Vergleich des Flächenbedarfes eines (hier) Kernkraftwerkes in UK (es könnte aber ebenso gut ein rein fossil betriebenes Kraftwerke sein, samt zugehöriger Infrastruktur wie Umspannstationen und Netzanbindung) gegenüber verschiedenen „NIE“ –Nachhaltig instabile Energie-Kraftwerke, wie Wind- Solar und Biomasse, bezogen auf die rechnerisch gleiche Energiemenge.

..obwohl sie aus dem Publikum per Zwischenruf mehrfach darauf hingewiesen wurden. Rechnet man die erforderlichen Speicher dazu, werden sie gänzlich unbezahlbar.  (wird hier etwas später beleuchtet)

Hier bei EIKE haben wir die verschiedensten realisierten Investitionen in Solar- oder Windparks etc. untersucht. Ergebnis: Die Investitionskosten pro erzeugter kWh liegen 6 (Offshore Wind, Ostsee) bis 17 x (Solarpark) höher als die für konventionelle Kraftwerke gleicher Energieabgabekapazität (Siehe Abb 2). Und die fehlenden Brennstoffkosten werden bei weitem durch die hohen Wartungs- und Reparatur wie auch Amortisationskosten übertroffen.

Abbildung  2: Vergleich der Investitionskosten und des  Flächenbedarfes eines älteren Kohle-Kraftwerke in Wilhelmshaven, gegenüber dem größten und zweitgrößten  Solarkraftwerk  in Deutschland, bezogen auf die rechnerisch gleiche Energiemenge.

0:04:06. Herr Brabeck

nimmt alles gelassen und meint, dass die Verbraucher 10 Mrd € an EEG Umlage für die PV pro Jahr zahlen und dass in Kürze ein „Game Changer“ im Elektroenergiemarkt zu erwarten sei. Weil, so seine Begründung,  die Batteriepreise fallen. Deswegen erwartet RWE massenhafte Installationen von Solardächern mit Batteriespeichern im Keller.

Fakt ist (mit Korrektur vom 28.7.15):

Die EEG Umlage kostete die Verbraucher bereits im Jahr 2013 rd. 20 Mrd €. Mit stark steigender Tendenz. Also das Doppelte. Allein 10 Mrd € wurden für die PV aufgebracht. Da hat Herr Brabeck recht. Nur hat uns niemadn um Erlaubnsi gefragt, ob wir der Welt die PV Technik „schenken“ wollten.

Die Betreiber von NIE Anlagen kassierten ihrerseits von den Netzbetreibern für den gelieferten Strom rd. 23 Mrd, während dieser Strom an der Börse hingegen nur knapp 3 Mrd € wert war. Die Differenz trug der Verbraucher.

Fakt ist..

..auch, dass die Batteriepreise nicht mehr wesentlich fallen können,  weil sowohl die Elektrochemie als auch die Leistungs- und Lebensdaueranforderungen an brauchbare Batteriespeicher  aus naturgesetzlichen Gründen ganz enge Grenzen setzen. Die politisch gesetzte Zielgröße von 100 EUR/kWh Anschaffungspreis wird kaum zu unterschreiten sein.

Die elektrochemische Spannungsreihe ist durch die Thermodynamik unveränderlich und auf 6 Volt Spannungsdifferenz (Lithium/Fluor) begrenzt. Batterien mit langzeitstabilen Elektrolyt- und Elektrodenkombination werden nur schwer über die heutigen 4,2 Volt Spannung von Lithium-Polymer-Akkus hinauskommen, was die Leistungsabgabe von der Spannungsseite her arg begrenzt.  „5-Volt-Systeme“ sind noch in weiter Ferne, eine merkliche Verbesserung der Energiedichten von aktuell rund 0,1 – 0,2 kWh/kg nicht absehbar.

Zusätzlich unterliegen sie einer kalendarischen wie zyklischen Alterung, die ihre Nutzungsdauer massiv begrenzt. Wer heute bspw. Lebensdauern von 30 Jahren und 30.000 Lade und Entladezyklen mit brauchbarem Output verspricht, wie man es immer mal wieder hört oder liest,  belügt seine Kundschaft.

Mehr als 1000 Lade- und Entladezyklen, bei gleichzeitiger rigoroser Begrenzung der Lade und Entladeströme auf rd. 1/3 des Nennstromes sind lt. Prof. Endres [5] für einen Akku kaum machbar, und die in der Presse zu lesenden 10.000 – 30.000 Zyklen werden nur unter definierten Laborbedingungen erreicht. Evtl. können irgendwann mal Preise für Akkus von 100 EUR/ kWh Kapazität angeboten werden. Aktuelle LiPo-Akkus liegen bei Anschaffungskosten um 500 EUR/kWh, Bleiakkus um 200 EUR/kWh.

Da kann sich jeder leicht ausrechnen wie teuer seine Batterie im Keller wird, wenn er/sie nur die sonnenarme Jahreszeit überbrücken möchte. Wenn man zur Maximierung der Lebensdauer immer nur 30% der maximalen Kapazität nutzt, resultiert eine Verdreifachung der notwendigen Batteriekapazität: Wer 1 kWh Strom speichern muss, muss demnach 3 kWh kaufen. (Weitere Details zu diesem Thema hier)

00:06:55. Limburg

Ich berichtete dann über die aktuelle BP-Studie, die vor kurzem vorgestellt wurde, Danach steigen die Investitionen in Kohle fünf mal schneller als die in Erneuerbare und immer noch doppelt so schnell wie in Öl! Indien hat gerade festgestellt, dass sie bis zum Jahr 2020 ihren Kohleverbrauch verdoppeln werden. Auch China eröffnet jede zweite Woche ein neues Kohlekraftwerk und hat sich ausbedungen  und alle haben gejubelt Sie wahrscheinlich inklusive, dass sie bis 2030ihren CO2-Ausstoß massiv erhöhen.

Fakt ist:

Indien erhöht massiv Kohleförderung und Verbrauch, während China seinen Kohleverbrauch zumindest nicht massiv weiter steigert (zusätzlich 22 GW Kapazität Kohle vs 18 GW Wind wurden in 2014 installiert), da hat Herr Fell zumindest dem Trend nach recht, das China seinen (langsamer wg. Verlangsamung des Wachstums) ansteigenden Energiebedarf durch andere Quellen, insbesondere Wasserkraft, zu decken sucht.

Zitat:

IEEFA estimates that China installed 22 GW of hydro, 18 GW of wind, 13 GW of solar, 5-7 GW of nuclear and 4-6 GW of gas-fired electricity capacity in 2014 alone. Combined with another 22 GW of net new coal-fired capacity, China’s total electricity capacity installs are forecast at 90 GW in 2014 (over 6 percent yoy total capacity growth). Siehe auch Fußnote 6 für weitere Details.

Jedoch darf  nicht vergessen werden, dass alle Energiequellen, bis auf Wind + Solar grundlastfähig sind, und daher ihre Einspeisung ein Vielfaches von Wind + Solar beträgt, als es der Vergleich allein der Nennleistungen suggeriert.

00:08:19: Herr Fell

Zunächst mal Herr Limburg: Es ist ja ihre gute Größe die Statistiken so zu nehmen, wie Sie sie brauchen.. Erneuerbare Energien passen nicht in eine Statistik mit den Primärenergieverbrauch! Jede Kilowattstunde, jede  Kilowattstunde Wind- oder Solarstrom ersetzt 3 Kilowattstunden konventionellen Kohle- oder Erdgas-Strom. Schlicht weil die Wind- und die Solaranlagen keine Abwärme haben die niemand braucht.

Kommentar Limburg:

Zur Abwärme 1:

Es ist korrekt, dass bei der konventionellen Stromerzeugung Abwärme im Verhältnis 2:1 entsteht. Diese wird jedoch überall da gebraucht, wo man Kraftwärmekopplungstechnologie (KWK) eingeführt hat. Wegen der großen Bedeutung dieser Nutzungsart, um letztendlich die Energie besser zu nutzen, also die Energieeffizienz zu steigern, wird die KWK massiv subventioniert. Das hat dazu geführt, dass die KWK ca. 18% (Statista) zur Nettostromerzeugung betragen. Also ein knappes Fünftel, und damit deutlich mehr als Strom aus Wind- und Solaranlagen. Doch die so umgerüsteten KWK Kraftwerke erleiden das gleiche Schicksal wie die „normalen“ Kraftwerke. Sie können  ihren Strom nicht mehr verkaufen und deswegen auch keine Heizenergie ( zwei von 3 kWh) mehr liefern. Es ist verwunderlich, dass Herr Fell, weder die Technologie kennt, noch deren Schicksal, dass sein EEG herbeiführte.

Und wenn er sie kennt, warum er sie nicht erwähnt hat.

Zur Abwärme 2.

Jede Energieumwandlung erzeugt Abwärme. Wenig bei Wind und Solar (Reibung, Betriebstemperatur bei Leistungsabgabe etc) viel bei fossilen wie Kernkraftwerken. Doch das sagt nichts über ihre ökonomische Effizienz aus.

Herr Fell:

Das Zweite, mit den hohen Subventionen 550 Milliarden US-Dollar sind die Direkt-Subventionen aus staatlichen Geldern in das fossile Energie System. Wer davon spricht, dass Erneuerbare hoch subventioniert seien hat schlicht die Subventions- Gelder nicht im Kopf und weiß es nicht! Das ist nicht der Fall was Sie sagen.

Kommentar:

Woher Herr Fell die Zahl von 550 Mrd US-$ hat, weiß ich nicht? Daher kann ich auch nicht beurteilen, ob sie einigermaßen stimmt, oder ob sie eine reine Greenpeace Zahlenente ist. Doch sie interessiert hier, in diesem Zusammenhang, nicht besonders, denn wir diskutierten die Subventionen für NIE, die sich hierzulande, u.a. als Zahlungen der deutschen Verbraucher für das EEG, ausgeschüttet werden. Und die schlagen mit über 330 Mrd € bereits per Ende 2013 zu Buche und wachsen jedes Jahre exponentiell weiter

Abbildung 3EEG Zahlungen per 2013 und hochgerechnet auf 2022. Schwarz: Bisher geleistete Zahlungen der Netzbetreiber an EEG Besitzer jeweils pro Jahr. Rot: Kumulierte Zahlungen von Beginn an. Blau: Noch zu leistende Zahlungen für die aufs jeweilige Jahr folgenden 20 Jahre. Quelle BDEW, Statista etc. Grafik Limburg

00:09:45 Fell

Sie dürfen nicht ne BP-Statistik hier nehmen, die über das letzte Jahrzehnt -in der Tat- den hohen Kohle Zubau auch im China beschrieben hat, Sie müssen die neuesten Erkenntnisse und Entwicklungen in dieser… Ja, vorgestern wurde dieser Bericht über das letzte Jahrzehnt veröffentlicht. Das sagt aber nichts aus, was seit der Jahrzehnten-Wende jetzt, seit 2010 passiert ist und da, wenn sie ausgerechnet China nehmen, da sollten sie mal richtig nach China schauen.[6]

Kommentar zur BP Statistik:

Hier versucht Herr Fell einen alten Trick rotgüner Rhetorik; immer dann Statistiken als überholt zu deklarieren, wenn man ihren Aussagen nichts entgegen zu setzen hat.

Fakt ist:

Aktueller geht es nicht. Die BP Statistik endet erst im Dezember 2014

Herr Fell:

China hat deswegen im ersten Vierteljahr diesen Jahres schon fünf Prozent CO2-Emissionen reduziert, zum Erstaunen der das gesamten Weltöffentlichkeit weil die wirklich glaubte, das was Sie sagten, bis 2030 werden sie noch steigern.

Fakt ist:

Lt Internationaler Energie Agentur (IEA) hat China -hauptsächlich dank der Wirtschaftsschwäche-  von 2013  auf 2014 seine Emissionen um rd. 2 %[7] gesenkt. Vermutlich hat sich dieser Trend in 2015 fortgesetzt. Deswegen stimmt die Angabe von Herrn Fell. Gleichzeitig stiegen die weltweiten Emissionen außerhalb von China und OECD Ländern um netto rd 290 Mio t weiter.

Die  IEA begründet diese Veränderung wie folgt:

CO2 emissions outside the OECD and China were up by around 290 Mt in 2014, led by increased use of coal for power generation in India and Southeast Asia. Indeed, across most emerging and developing countries, the relationship between economic growth and emissions growth remains strong as these countries are in the energy-intensive process of building up their capital stock. (Seite 20)

Emissionshandel

(00:12:14.) Herr Fell betonte, dass der Emissionshandel nichts gebracht hätte. Das ist auch meine Meinung. Er behauptete aber dann anschließend, dass ..von den 300 Tonnen CO2; Millionen Tonnen CO2 -Reduktion die Deutschland seit 1990 hat, geht die eine Hälfte auf den Niedergang der ostdeutschen Industrie nach der Wende.. und die andere Hälfte auf den Ausbau der erneuerbaren Energien.

Abbildung 4: Primär Energieverbrauch nach Quellen weltweit lt. BP Studie, jeweils in Mio t Öl Äquivalent. Vom Autor eingezeichnet sind die Anteile der Wasserkraft, sowie total und Zuwachs der „Erneuerbaren“. Wasserkraft dominiert die „Erneuerbaren“ mit rd. 8 % von Gesamt. Alle anderen „Erneuerbaren“ zusammen liegen bei 3 % von Gesamt, während der Zubau aus diesen Quellen bei 100 Mio t bzw. 0,8 % vom Gesamt liegt. Nach einem Siegeszug der „Erneuerbaren“ sieht das nicht aus.

Fakt ist:

Die 300 Mio tC äquivalent Reduktion sind in etwa korrekt, allerdings  nicht korrekt ist die behauptete 50:50 Aufteilung. 

Zur Menge

Es ist schwer offizielle Zahlen, die dazu auch noch stimmen, über diese Entwicklung zu finden. Selbst wenn die Zahlen aus derselben Quelle stammen, weichen sie absolut und in ihrer Entwicklung deutlich voneinander ab.

So zeigt eine Grafik des UBA von 2014 für die Jahre 1990 bis 2014 im  Jahre 1990 eine Menge von 1250 Mio t GtC (äquivalent) und z:B. im Jahre 2012 eine Menge von 930 Mio t GtC (äquivalent) = – 320 Mio t oder -25,6 %, während eine andere Grafik aus demselben Hause für das Jahr 1990  (s. Abb 4) eine Start-Menge von nur 989 Mio t aufweist, welche im Jahr 2012 auf 775 Mio t abgesunken ist. (Siehe Abb. 5). Zum Jahr 1990 beträgt die Differenz daraus dann nur noch 214 Mio t oder 21,6%.

Erschreckend bei dieser Ungenauigkeit ist, dass ganze Industriezweige, wie die Braunkohle, stillgelegt werden sollen, um ein Zehntel dieser Menge (22 Mio t) „einzusparen“, wenn die zu Grunde liegenden Zahlen um das Zehnfache dieser Menge differieren.

Abbildung 5: Deutschlands CO2 Emissionen nach UBA für die Jahre 1990 bis 2012/2013 mit unterschiedlichen Startangaben und unterschiedlichen Senkungsverläufen.

Es wird auch kein Hinweis auf evtl. sonstige Emissionsquellen gegeben, die in der Grafik nach Quellen (nicht nach Gasarten) nicht erfasst wurden.

Ursachen der Reduktion

Abbildung 6: CO2 Emissionen deutscher fossil betriebener Kraftwerke für die Jahre 2000 bis 2014. Es fällt sofort auf, dass die Emissionen praktisch konstant blieben, während die erzeugte konventionelle Energiemenge um gut ¼ wg. der vorrangigen Einspeisung des NIE-Stromes abgesenkt wurde.  Damit ist auch die Aussage der FEU Studie widerlegt, welche die errechnete Einsparung von 11 Mrd. € hauptsächlich konventioneller Brennstoffkosten, dank NIE Einspeisung begründet. Da wurde nichts eingespart und auch nichts abgesenkt.

Ursache war fast allein, der Niedergang der ostdeutschen Wirtschaft, verbunden mit normaler Effizienzsteigerungen beim Rest der Wirtschaft (insbesondere der Stahlindustrie)  Sie hat bis zum Jahr 2000 eine Senkung der Gesamt-Emissionen sog. Treibhausgase um rd. 190 Mio t bis gebracht, da zu der Zeit, die NIE nur in sehr geringem Umfang (mit z.B. rd. 38 TWh in 2000), zur Gesamtelektroenergieerzeugung beitrugen. (s. Abb 5)

Dank des Fell´schen EEG wurde deren Einspeisung dann bis 2014 um dramatische 300 % auf 152 TWh gesteigert, (also vervierfacht) jedoch fielen die Emissionen aus der Erzeugung aus Elektroenergie nur um kaum merkbare 2 %. Die Aussage von Herrn Fell bezüglich der Quellen der Senkung erweist sich also als falsch.

(00:18:27) Herr Fell zum CO2 Gehalt der Atmosphäre von derzeit rd. 400 ppmVol.

Herr Fell behauptete, dass diese 400 ppm bereits wg. der ihnen theoretisch zugeschriebenen Erwärmungswirkung, zuviel seien. Und bezog dies auf die vermuteten (Eisbohrkernmessungen mit großere Unsicherheit) 280 ppm, die vorindustriell geherrscht hätten. Sekundiert von Frau Zink, die ..60.000 Jahre lang.. in die Debatte einwarf. Deswegen verwarf Fell kategorisch jede zulässige Erhöhung, (Absenkung um nur 40 % bis 2020 EU Plan), was der Emissionshandel ja erlaubt und forderte stattdessen eine sofortige rigorose Umstellung auf Null-Emissionstechnologien, um jedwede Erhöhung nach Möglichkeit zu vermeiden.

Kommentar

Die genannten 400 ppm sind korrekt. Alles andere sind Meinungen und Annahmen, die als Fakten ausgeben wurden. Dies betrifft die angenommenen 280 ppm vorindustriell, ebenso wie die Wirkung des CO2 auf die Temperatur der Atmosphäre, (Dazu wurde ausführlich im ersten Teil Stellung genommen hier).

Fakt ist:

Genaue CO2 Messungen, die global gelten dürften, gibt es erst seit der Mitte der 50er Jahre des vorigen Jhh. Seit dem ersten Drittel des 19. Jhh. existieren aber bereits sehr genaue Messungen des atmosphärischen CO2. Das leider so früh verstorbene EIKE Gründungsmitglied E.G. Beck, hat diese Messungen akribisch aufgeschrieben (> 200.000 Messwerte) und ausgewertet. Diese zeigen einen erratischen Verlauf mit ausgeprägten Spitzen bis zu 400 ppm. Und ähnliche Verläufe zeigen die vielen weiteren Untersuchungen an Proxydaten, wie z.B. Stomata (das sind Blattspaltöffnungen an bestimmten Pflanzen)
In dem Beitrag  Eisbohrkerne und Pflanzenstomata: Der historische CO2 Gehalt der Atmosphäre war oft deutlich höher als 280 ppm! vom Geologen David Middleton wird ausführlich auf die aktuellen Forschungsergebnisse eingegangen. Hier seien nur zwei Grafiken daraus angeführt, die zeigen, dass beide Ausagen ..nämlich

…konstante 280 ppmv (Herr Fell)

Abbildung 7: CO2 Konzentrationen für die Zeit von 1800 bis 2000. Sie zeigen erratisch anmutende Spitzen gem. der Beckschen Analyse[8] bis 400 ppm und weniger erratische Verläufe aus Stomata Analysen bis 370 ppmv. Zum Vergleich sind die Eisbohrkerndaten aufgetragen, die  nachgewiesenermaßen eine starke Dämpfung auf die CO2 Werte der eingeschlossenen Luftblasen ausüben, zudem in Gebieten gewonnen wurden, deren CO2 Gehalt um 20 bis 40 ppm niedriger ist als in niedrigeren Breiten.

und

über 60.000 Jahre (Frau Zink)

Abbildung 8: CO2 Konzentrationen aus Eisbohrkernen und Stomataanalysen für die Zeit von vor 15.000 Jahre bis heute. Sie zeigen 1. Eine erhebeliche Diskrepanz zwischen beiden Messmethoden in Bezug auf den absoluten Wert, aber auch hochfrequenten Schwankungen, die bei den Eisbohrkernen allesamt geglättet werden. Deutlich auch die Werte um im Mittel 330 ppmv, um die die Stomatawerte schwanken. Mit einer Spitze bei 400 ppmv um 500 n.Chr.

…wissenschaftlich nicht haltbar und damit falsch sind.

Wie deutlich zu erkennen, schwankt die CO2 Konzentration in den vergangenen Jahrhunderten und Jahrtausenden ganz erheblich und das ohne jegliches menschliche Eingreifen. Unabhängig davon, wie genau die dargestellten Werte sind, unabhängig davon, wie groß ggf. ihre Unsicherheit ist, muss klar sein, dass wir heutzutage in einem absoluten CO2 Minimum leben, dass insbesondere für die Pflanzen Mangelernährung bedeutet. Ein mehr an CO2 ist deswegen kein Fluch sondern ein Segen, um die stark angewachsene Bevölkerung dieser Erde auch in Zukunft zu ernähren.

Wird fortgesetzt..


[1] Die IEA umschreibt diese Tatsache so: Renewable technologies are becoming increasingly cost competitive in a number of countries and circumstances, but public support schemes are still required to support deployment in many others.  (Chapter 1; p. 21 hier)

[2] Nachzulesen in „Energy Climate and Change“ World Energy Outlook Special Report Summary Seite 11, Quelle hier

[3] Quelle http://www.ren21.net/wp-content/uploads/2015/06/GSR2015_KeyFindings_lowres.pdf S. 7 und 9

[4] „The CoalSwarm/Sierra Club report calculates that since 2010, for every coal proposal that actually gets built, two are getting canceled. Which means we’re on track to build roughly one-third of those 2,177 plants.“ Quelle hier

[5] Prof. Frank Endres ist Direktor des Instituts für Elektrochemie der TU Clausthal und exzellenter Kenner der Batterieforschung. Er arbeitet auf grundlegender Basis u.a. an Batteriematerialien.

[6] Aus: http://www.ieefa.org/wp-content/uploads/2015/01/IEEFA-BRIEFING-NOTE-Global-Energy-Markets-in-Transition.pdf IEEFA estimates that China installed 22 GW of hydro, 18 GW of wind, 13 GW of solar, 5-7 GW of nuclear and 4-6 GW of gas-fired electricity capacity in 2014 alone. Combined with another 22 GW of net new coal-fired capacity, China’s total electricity capacity installs are forecast at 90 GW in 2014 (over 6 percent yoy total capacity growth). Coal-fired power 4 http://www.stats.gov.cn/english/PressRelease/201412/t20141216_653855.html 5 http://af.reuters.com/article/energyOilNews/idAFB9N0T400220141217 6 http://www.brecorder.com/markets/commodities/asia/216783.html Production (TWh) (TWh) share (TWh) share YoY Thermal (gas and coal combined) 3,818 79.7% 3,807 76.5% -0.3% Hydro 725 15.1% 887 17.8% 22.4% Other 245 5.1% 281 5.6% 14.6% Electricity 4,788 4,975 3.9% China coal production (Mt) 3,513 -2.1% YTD Nov’13 YTD Nov’14 4 plants average utilisation rates have declined from an estimated 60 percent in 2011 to around 56 percent in 2014. Given this excess capacity, new installations of coal power are expected to rapidly slow and China could well see net annual coal-fired power capacity reductions from 2016 onwards.

[7] Quelle IEA Seite 20 hier

[8] Details hier: http://www.biomind.de/realCO2/literature/evidence-var-corrRSCb.pdf




Solar Impulse – ein solarbetriebenes Windei

Bei seinen ständigen Auftritten mit Prominenten und vor den Kameras aller möglichen Medien betont Bertrand Piccard nämlich immer wieder die visionären Ambitionen, die er mit dem Projekt verfolgt: Die Neuorientierung des Lebensstils der industrialisierten Gesellschaft, die seiner Meinung nach unverantwortlich mit den natürlichen fossilen Ressourcen des Planeten umgeht.

Um dieses noble Ziel zu erreichen, hat er selbst jedoch keine Hemmungen, Ressourcen in fast unglaublicher Höhe zu verschwenden. Die Berechnungen, die Simulationen, der Bau und die Tests für die Realisierung des Projekts dauerten zwölf Jahre. Die Kosten für dieses nach seinen Worten „revolutionärste Flugzeug“ sowie seinen Vorgänger „Solar Impulse 1“ nebst dem Aufwand für die Weltumrundung haben mittlerweile insgesamt 140 Mio. CHF bzw. ca. 135 Mio. € verschlungen.

Und was ist der Gegenwert? Ein reiner Schönwetterflieger mit 72 m Spannweite, der für seinen Flug um die Welt bei einer geplanten Strecke von 35.000 km fünf Monate benötigen soll. Das sind rund 230 km am Tag bzw. knapp 10 km/h. Inzwischen musste die Maschine bereits zum zweiten Mal wegen erheblicher technischer Probleme stillgelegt werden.

Wenn dieser Flug und dieses Projekt eines beweisen, dann lediglich folgendes: Selbst mit modernster Technik und modernsten Materialien –den Konstrukteuren standen alle Spitzenprodukte nach neuestem Stand der Wissenschaft zur Verfügung – ist Solarflug bestenfalls Spielerei und keinesfalls alltagstauglich. Schon die Teeklipper des 19. Jahrhunderts waren schneller. So erreichte schon die „Cutty Sark“ ein sogenanntes „Etmal“ – das ist die in 24 Stunden zurückgelegte Strecke – von 670 km (363 sm) und schaffte die Strecke von Shanghai nach Europa in 102 Tagen. Und im Unterschied zum zerbrechlichen Solar Impulse war sie allwettertauglich, wie sie bei Umrundung von Kap Hoorn mit seiner berüchtigten Hexenküche etliche Male bewies.

Besonders blamabel ist die Tatsache, dass es diesmal die ultramodernen Li-Ionen-Batterien mit einem speziell in Richtung höherer Energiedichte entwickelten Elektrolyten sind, die nach wenigen Wochen Einsatz bereits den Geist aufgegeben haben. Meldungen zufolge sind diese Batterien zum Teil irreversibel beschädigt und müssen entsprechend ersetzt werden, was mehrere Wochen dauern dürfte. Ein genauer Starttermin lässt sich derzeit noch nicht angeben, und schon Mitte August schließt sich das Zeitfenster für eine Atlantiküberquerung. Anderenfalls könnte sich das Projekt bis 2016 hinziehen. Realistisch betrachtet ist Solar Impulse 2 somit nicht viel mehr als ein besonders teures Stück Edelschrott.

Dennoch werden die Medien nicht müde, weiterhin das hohe Lied der waghalsigen Flugpioniere zu singen, beispielsweise in einem kürzlichen Interview mit A. Borschberg im Spiegel. Dabei ist dieses Versagen in Wirklichkeit doch eine schallende Ohrfeige für alle, die der Öffentlichkeit weismachen wollen, mit Batterien könne man die tödliche Erbkrankheit der „Erneuerbaren“, nämlich die fehlenden Speichermöglichkeiten, kurieren.

Fred F. Mueller




Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 1

Update 12.7.15

Mit Mail vom 12.7.15 wurden die Podiumsteilnehmern über diesen Faktencheck informiert. Gleichzeitig wurde ihnen von mir angeboten, falls sie sich dazu äußern wollten, wenn ggf. eine oder mehrere Äußerungen von mir – wenn auch ungewollt- falsch interpretiert worden sind, dies anzumerken und ihre Sicht der Dinge klarzulegen.

Soeben (21:09) erreicht mich von Herrn Fell diese Mail, mit der Bitte sie im Beitrag zu veröffentlichen, was ich hiermit umkommentiert tue:

fell@hans-josef-fell.de 

An: Dipl. Ing. Michael Limburg

AW: Podiumsdiskussion am 22.6.15 bei der BPB Faktencheck Teil I

Sehr geehrter Herr  Limburg

Bitte veröffentlichen zu diesen Stellungnahmen von Ihnen folgende kurze Stellungnahme:

Ich, Hans-Josef Fell erkläre, dass ich nicht antworten werde auf die Interpretationen von Herrn Limburg zu meinen Aussagen. Diese Nichtantwort ist nicht gleichzusetzen, mit einer Akzeptanz zu Herrn Limburgs Interpretationen meiner Äußerungen. Ich erkläre ausdrücklich, dass Herr Limburg  bezüglich meiner Äußerungen mit Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen arbeitet und gar noch den unseriösen Versuch unternimmt, eine Nichtantwort als Akzeptanz zu missinterpretierten.

Dies ist unseriös und deshalb werden diese Falschinterpretationen von mir pauschal zurückgewiesen. Ich sehe auch keinen Sinn in einer unendlichen unproduktiven Diskussion darüber, weil sie mir Zeit raubt, an einer Lösung des Menschheitsproblems Erderwärmung zu arbeiten.

Mit freundlichen Grüßen

Hans-Josef Fell

Faktencheck Teil 1

Die  BPB hat diesen Mitschnitt hier vor einigen Tagen veröffentlicht.  Auf Grund der Tatsache, das hier – wohl zum ersten Male- nicht nur Klimaalarmisten und Energiewendebefürworter eingeladen waren, sondern auch der als Klimarealist und entschiedener Gegner der Energiewende bekannte Autor dieser Zeilen, waren die ausgetauschten Argumente sehr kontrovers.

Zudem können in einer  derartigen Diskussionsrunde Argumente zwar ausgetauscht werden, sie reduzieren sich aber für den uninformierten Zuhörer auf reine Behauptungen, da im Allgemeinen den meisten die Kompetenz  fehlt, um die Richtigkeit der jeweiligen Behauptung überprüfen zu können. Das sei hier mit dem Faktencheck für die wichtigsten Argumenten nach  geholt.

Zur Verständnis: Der BPB Mitschnitt selber enthält keine Zeitmarken. YouTube hingegen setzt diese Zeitmarken  und erlaubt auch die automatisierte Erstellung von Untertiteln aus dem gesprochenen Wort. Die Umwandlung in Schriftdeutsch ist nicht gut, aber brauchbar, doch sie verlangt eine erhebliche Nachbearbeitung.  Die hat EIKE vorgenommen. Obendrein wurden in der EIKE Youtube Version die freundlichen Begrüßungsworte des  Gastgebers  Herrn Kopp für diesen Faktencheck weggelassen, somit fängt jeder Teilmitschnitt mit 0:00 min an.  Wichtig sind daher allein die Zeitmarken, dann kann der interessierte Leser schneller den Originalton abhören.

Audiomitschnitt Teil 1 (Länge 13,46 Min) der Podiumsdiskussion  im Hause der BPB am 22.6.15 Quelle BPB Hier. Die (editiert) Untertitelfunktion kann eingeschaltet werden

Zum Klimawandel:

Die Moderatorin begann mit der Frage an den Autor:

(0:01:43) Herr Limburg: ist die Frage, ob es ein anthropogenen Einfluss auf das Klima gibt, also ob der Klimawandel denn vom Menschen gemacht wird im Prinzip nicht längst überholt?

Limburg

Meine Antwort darauf: (ab 0:01:55) zusammen gefasst: Nein, sie ist nicht überholt.  In Bezug auf die veränderte Landnutzung, der Zuwachs von Städten und seiner Bevölkerung und der stark gestiegene Bevölkerung selber ist das lokale Klima natürlich anthropogen beeinflusst, aber ein Weltklima, dass zudem gar nicht real sondern nur in Modellen existiert, ist – zumal vom CO2- nicht beeinflusst. Das zeigen die Daten und deren Zeitreihen ganz deutlich. Und das geben die Experten auch zu. Sie sagen: Wir können die Wirkung des  nur in unseren Modellen zeigen.“ Der Einfluss, insbesondere des anthropogenen CO2 ist nicht vorhanden und was doch viel interessanter ist, in der gesamten Vergangenheit  die wir nun geologisch sehr gut kennen ist niemals ein Einfluss, ein treibender Einfluss, des CO2 auf die Temperatur der Luft in dieser Welt nach zuweisen. Umgekehrt schon.“

Fakt ist

John Mit­chell dazu ehemals Chef des UK Met Office und Leitautor des IPCC

“It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.” [1] 

Richtig ist auch, dass CO2 niemals in der Vergangenheit – und das auf jeder historischen Zeitskala – die Temperatur der Atmospäre diese Planeten bestimmt hat. Zwei Beispiele dafür zeigen die folgenden Abbildungen.

Abb 1 CO2 und Temperaturverlauf über viele Mio Jahre.

Abb 2 Temperaturverlauf (schwarz; 15 year running mean) von 6 historischen Temperaturstationen mit mindestens 250 Jahren Aufzeichnungsdauer, von deren Frequenz-Spektrum nur die zwei stärksten addiert wurden (rot). Die Übereinstimmung ist frappierend. Und diese entsprechen in ihrer Periode sehr genau dem bekannten solaren De Vries Zyklus mit rd. 210 Jahre und dem ozeanischen AMO/PDO Zyklus mit ca. 65 Jahren. Quelle[2] s.Fußnote Details hier

Besonders interessant an Abb2 sind die deutlich erkennbaren Fakten,

1.     dass offenbar –zumindest bei den Messstationen- die Temperatur insgesamt fast 1:1 den beiden genannten Zyklen folgt .

2.     Von chaotischen Verhalten in diesem Zeitraum nichts zu erkennen ist

3.     Für CO2 kein Platz ist

4.     Sollten die der Kurve unterlegten Prozesse weiterhin ihre Wirksamkeit behalten, wie es die gestrichelte Kurve anzeigt, wird die Mitteltemperatur wieder sinken.

Ein weiteres paper der Autoren (bis auf einen, alles EIKE),dass die Zusammenhänge mit den genannten Zyklen genauer untersucht ist derzeit im Peer Review Prozess verschiedener internationaler Fachzeitschriften

Moderatorin Frau Dr. Zink (0:04:01)

Kommen wir nachher noch ein bisschen  spezifischer dazu, aber ich möchte gern erst mal den Herrn Fell fragen: Sie haben ja auch Physik studiert. Haben Sie denn Verständnis für so´ne Klimaskepsis?

H.J. Fell (0:04:09): Überhaupt nicht!

..Es ist so was von anti-wissenschaftlich ignorierend, dass das was die Physik  seid die vielen Jahrzehnten als Erkenntnisse hat….. Nein, also  ich bitt´Sie!

Herr Fell führt dann umfassend aus, dass das CO2 gewisse spektro-physikalische Eigenschaften hätte, die er als junger Student auch gemessen hätte, und die eindeutig zeigten, dass eingestrahlte Energie von der Sonne vom CO2 zurückgehalten würden und  diese Energie könne sich nur in steigender Erwärmung äußern. Und stellte den Zuhörern diese seine Versuche als Beleg für die seiner Meinung nach unbestreitbare Erwärmungswirkung des CO2 dar.   Dann beurteilte er meinen Zeitreihenvergleich als politisches Manöver.

Fakt ist:

Herr Fell übersieht bei seiner Gegenrede völlig, dass ich in meiner Argumentation die spektro-physikalischen Eigenschaften des CO2 weder benannt, noch angezweifelt habe. Hingegen habe ich mich auf den seit den Zeiten Galileo Galilei geltenden ehernen wissenschaftlichen Grundsätze gestützt, dass jede wissenschaftliche Hypothese

1.     erst durch die Bestätigung ihrer Annahmen durch Beobachtungen und Messungen  zur akzeptablen Theorie wird.

Und

2.     durch richtiges Vorhersagen zukünftiger Werte

ihre Tauglichkeit erweist.

Warum diese elementaren Grundsätze bei der Klimawissenschaft nicht gelten sollen, erklärten weder Herr Fell, noch Frau Zink, noch die anderen Teilnehmer. Denn auch eine plausible Hypothese – wie es die Hypothese von der Treibhauswirkung des anthropogenen CO2 für viele ist-  ersetzt nicht die Überprüfung im Experiment oder/und durch Beobachtung.  Sie geben damit auch indirekt zu, dass die Klimawissenschaften eine galileische Überprüfung in der Realität nicht benötigten.

Zu 1. Und sie wissen auch nicht, dass es seit den ersten IPCC Berichten genau dieses Problem ist, welches die Forscher beschäftigt. Es hat sogar einen Namen: „Detection and attribution problem“ und ist seither trotz vielfältigster Anstrengungen außerhalb von Modellen[3] ungelöst.

Der wichtigste Beitrag dazu ist der Versuch die sog. Klimasensitivität (CS Climate Sensitivity) des CO2 zu bestimmen. Damit ist der nur theoretisch ableitbare Wert gemeint, um den sich die globale Mitteltemperatur erhöhen sollte, bei Verdopplung der CO2 Konzentration.  Das IPCC geht im Mittel von 3,2 °C (3a) (bei einer Spanne von 4,5 K bis 1,5 K) aus, obwohl es im SPM des jüngsten Berichtes AR 5 – allerdings nur in einer Fußnote[4]- zugab, dass dieser Wert bisher nicht bestimmbar sei.  Der Wert 3,2 °C entsteht, wenn man den rechnerischen direkten Wert von ca. 1,2 °C  über die sog. Wasserdampfverstärkung (mehr Wärme, mehr Verdunstung, mehr Wasserdampf, mehr Wärme) mit 3 x nimmt. Viele andere Autoren haben

erstens die Wasserdampfverstärkung nicht finden können, sie fanden stattdessen eine Dämpfung, (Mehr Wärme, mehr Wasserdampf, mehr Wolken, mehr Abkühlung) und kommen

zweitens zu wesentlich niedrigeren Werten des CS Wertes bis hinunter auf nur 0,5 °C[5].

Damit treffen beide Grundsätze für die Hypothese vom anthropogenen Treibhauseffekt nicht zu.  Weder lässt sich deren Annahmen im Experiment bestätigen

Zellner Zitat

•       Reinhard Zellner [6] (Typisch ist der Einwand, dass der Treibhauseffekt nicht nachzuweisen sei): Das stimmt, es gibt kein Laborexperiment, das die Erwärmung durch Infrarotabsorption des CO2 direkt nachweist. Das System Atmosphäre kann aufgrund seines Temperatur- und Druckgradienten in einem stationären Experiment gar nicht reproduziert werden. Wir sind also auf ein klimawissenschaftliches Modell angewiesen,

…noch in der Realität durch den aktuelle oder historische Beobachtungen.

Abgesehen von wenigen, überdies für Klimazeitdistanzen, kurzen Zeitspannen,  in denen der Trend der „Welttemperatur „  eng und positiv korreliert  mit dem CO2 Anstieg verläuft (Rahmstorf [7]: mehr CO2 = mehr Temperatur) ist immer wieder auch die gegenteilige Entwicklung erkennbar. Also mehr CO2 und negativer Temperaturtrend. Und  dies ist auf allen geologischen Zeitskalen zu beobachten. (Siehe z.B. Abb. 1)

Zudem ist, was auch Herr Fell  (und später auch Frau Dehmer wissen müsste) eine Korrelation kein Ersatz für eine nachweisbare Ursache-Wirkungsbeziehung)

Besonders deutlich aber zeigt sich, dass auch die Modelle schwer daneben liegen. (Abb. 3) wenn man bereits vergangene Zeitspannen mit den Modellprognosen vergleicht. (Abb 1)

Abb. 3 Vergleich „zukünftige“  Verläufe (ab 1983) des globalen Temperaturtrends  von 90 Modellen und  zwei Messungen Grün:  Hadcrut Daten, Blau: Satelliten Daten UAH; schwarz Mittlerer Trend  aller Modelle: Quelle hier 

Auch die Behauptung von Herrn Fell – er hätte „die Versuche gemacht wie Kohlendioxid die Strahlung beeinflusst, wie das Kohlendioxid die umgewandelte Infrarotstrahlung von der Sonne aufnimmt. Sind klare Versuche gewesen, nicht irgendwie Trial and Error sondern Messungen“, um damit dem Publikum zu suggerieren, damit sei der anthropogene Treibhauseffekt bewiesen, kann so nicht stehen bleiben. Es klingt zwar plausibel, aber das reicht in den Naturwissenschaften bei weitem nicht.

Auf meine Nachfrage per Email an Herrn Fell vom 23.6.15

…bitte ich Sie daher mir Details zum Experiment mitzuteilen. Besonders interessant sind für mich dabei die Klärung der Fragen

1. Wie war der experimentelle Aufbau?

2. Wie haben Sie gemessen?

3. Was haben Sie gemessen?

4. Wie groß war die Unsicherheit bei Ihrer Messung?

schrieb mir Herr Fell am 24.6.15

Ich sagte, dass ich das Grundlagenexperiment wie jeder andere Physikstudent auch machte. Damit messen die Physikstudenten die Anregungswellenlängenlängen und damit die Energieaufnahme von Molekülen, wie CO2.  

Nun, derartige Eigenschaften hatte auch niemand bezweifelt. Und wie schon erwähnt, die spektro-physikalischen Eigenschaften des Spurengases CO2 (mit nur 0,04 Vol % in der Atmosphäre vorhanden) wie aller anderen Bestandteile der Luft  sind seit Jahrzehnten gut bekannt, aber bieten keinerlei Ersatz für einen Beweis des THE.

Moderatorin: (0:05:41)

Hmm; Frau Dehmer wie schätzen Sie denn diese kritischen Stimmen ein?

Frau Dehmer 0:05:46.

Science-fiction

(0:05:48)

Hm; die Messreihen, die vorhanden sind, sind ja mehr als hundert Jahre alt. (Anmlerung des Autors Siehe Abb. 1) Und  wenn sie sich die Messzahlen, und das ist nur das Gemessene anschauen, sowohl bei den Ozeantemperaturen als auch bei den Luft- Temperaturen dann haben die eben einen Trend nach oben. Und man kann auch zurück verfolgen, wann der begonnen hat. Hm. ich finde diese Diskussion völlig sinnlos 

Fakt ist:

Auf diesem Niveau zu argumentieren, wie es hier Frau Dehmer macht, ist natürlich völlig sinnlos.  Aus der unbestrittenen geringen Erwärmung – nach dem Ende der kleinen Eiszeit etwa ab 1850 (da musste es wärmer werden, sonst bestünde die Eiszeit ja immer noch) – und der gleichzeitigen – aber erst seit Mitte der fünfziger Jahre genau genug bekannten Konzentrationszunahme des CO2 in der Luft, eine bestätigte Abhängigkeit zu konstruieren, ist schon science fiction. Allerdings ganz ohne science. [8]

Mit gleicher Berechtigung könnte Frau Dehmer folgern, weil die Zahl der Störche in Deutschland abnimmt,  gibt es weniger Babys. Beides unbestreitbare Tatsachen, beide Verläufe eng korreliert, doch sollte heutzutage -jedenfalls unter Erwachsenen- keiner glauben, dass die Störche die Babys bringen.

Ich frage mich außerdem  immer wieder, woher die Protagonisten des anthropogenen Global Warming das Recht ableiten, dass das Klima konstant zu sein hat. Das war es bisher niemals und wird es auch in Zukunft nicht sein.

Frau Dr. Zink (0:06:51)

Daraufhin fühlte sich auch die Moderatorin Frau Dr. Zink veranlasst Ihre Sicht der Dinge darzustellen. Sie verwies am Anfang auf ihre Mitarbeit bei Wissenschaftssendungen erst von Joachim Bublath und dann von Harald Lesch und Dirk Steffens (Terra X). Dann erläuterte sie, dass sie und bezog andere Kollegen ein, spätestens seit 1995 im Grunde aber schon nach Rio (1992) aufgehört hatten kritische Stimmen zur Rolle des CO2 zu journalistisch zu überprüfen. Und schloss mit dem Beispiel ….im Kriminalfall würde man vielleicht sagen, die Faktenlage ist erdrückend und deswegen ist bei den Wissenschaftsjournalisten  dieses gar nicht mehr in Diskussion; muss ich sagen.

Fakt ist:

Dieses Statement ist insofern korrekt, als dass die Zustimmung (ja Panikmache) zur THE Hypothese, tagtäglich in allen Medien- von wenigen rühmlichen Ausnahme abgesehen-,  zu sehen, zu lesen und zu hören ist.

Diese Meinung, und um nichts anderes handelt es sich, beweist für die Existenz des THE natürlich gar nichts. Sie beweist aber etwas ganz anderes, nämlich, dass die allermeisten Journalisten es vorziehen im Mainstream mit zu schwimmen. Obwohl es gerade die vordringliche Aufgabe von Journalisten wäre, besonders misstrauisch bei Behauptungen von dieser Tragweite zu sein und ständig der uralten Frage nachgehen müssten – Cui Bono? Tun sie aber nicht, obwohl das investigative Hinterfragen für Wissenschaftsjournalisten umso mehr gelten müsste.

Es ist nämlich in den Naturwissenschaften überhaupt kein Gütesiegel, anders als in der Politik, wenn alle oder eine große Mehrheit einer Meinung sind. Die Beispiele bei denen das falsch war, sind Legion. Denn im Gegenteil, besonders dann ist höchstes Misstrauen angebracht, weil dann so gut wie immer die Wissenschaft unter die Räder kommt.  Und eine – noch dazu promovierte- Physikerin täte gut daran, diesem Grundsatz zu folgen. Gesundes Misstrauen tut daher not, ein Misstrauen, wie es die investigative Journalistin Donna Laframboise[9] antrieb, mit der Folge, dass sie die Machenschaften großer Umwelt-NGO´s wie z.B. WWF und Greenpeace, aber auch anderer, bei der verdeckten Übernahme des IPCC aufdeckte. Eine Übernahme, die denen nicht nur großen Einfluss brachten, sondern auch das Agenda-Setting erlaubt. Die Folgen davon erleben wir täglich.

Abgesehen von dieser Verhaltensfrage enthält die Frau Zinks „Beweisführung“ eine Behauptung, die nicht unwidersprochen bleiben kann.  Nämlich der „Beweis“ wie im „Kriminalfall“, den auch Hans v Storch  unlängst verwendete, als beide behaupteten, dass die Beweislage erdrückend sei.  Dabei wird übersehen, oder verschwiegen, dass schon im Gründungsauftag des IPCC steht, man solle Beweise dafür finden, dass der Klimawandel gefährlich und dass der Mensch dafür verantwortlich sei[10].

Klar nach der Drehbuchanweisung des Club of Rome 1972 (Quelle King & Schneider, 1991):

„Auf der Suche nach einem neuen Feind, der uns vereint, kamen wir auf die Idee, dass sich dazu die Umweltverschmutzung, die Gefahr globaler Er­wärmung, Wasserknappheit, Hunger und dergleichen gut eignen würden…. Alle diese Gefahren werden durch menschliches Eingreifen verursacht…Der wirkliche Feind wäre dann die Menschheit selbst….“

Folgerichtig werden sowohl vom IPCC als auch vielen Vertretern der Wissenschaft die weiteren Akteure in diesem „Kriminalfall“ bewusst außen vorgelassen. Wie z.B. der alles überragende und vielfältige Einfluss der Sonne. Damit wird durchgehend eine voreingenommene „Wissenschaft“ gefordert und auch betrieben.

Ich will mich aber hier nur auf den von mir angeführten „Beweis“ über die Wirkung des CO2 auf die Temperatur über Klima-Modelle fokussieren, den Hans v. Storch dem erstaunten Publikum präsentierte[11].

Fakt ist:

Limburg 0:08:20:

Sie sagen wir haben Modelle: Neulich Herr von Storch hat Modelle gezeigt, hat Bilder gezeigt wie die Temperatur nach oben geht in ihren Modellen (Anmerkung Autor Siehe Abb. 4) mit der Aussage wir können das nicht in der Natur beweisen, dafür ist das System zu komplex, zu großartig, zu umfangreich.

Niemand bestreitet ja die spektralen Eigenschaften des CO2.

Natürlich nicht!

Aber sie können sie nicht in der  in der Darstellung der Messdaten sehen und deswegen baut man eben diese komplexen, hochkomplexen Klimamodelle  und dann sagt man: „guckt mal hier“ das sind so vier Graphen…..wie die Temperatur nach oben steigt, je nachdem wie das CO2 sich entwickelt und  wenn man dann, das sind die Modellaussagen,  wenn man dann das CO2 weglässt  dann ist dieser Temperaturanstieg flach. Wie er übrigens seit über 18 Jahren inzwischen auch ist  (Anmerkung Autor Siehe Abb. 4)

Abb 4: Satellitenmessung der globalen Mitteltemperatur – und nur die sind eigentlich für globale Klimazwecke geeignet- der letzen > 18 Jahre. Man sieht trotz stark steigenden CO2 um ca. 2 ppm/Jahr ist der Trend genau Null

So, aber das ist ein Zirkelschluss! Wenn ich ein Modell baue, wo das CO2 die  Temperatur treibt, was es, wie gesagt, in der Vergangenheit noch nie gemacht hat  dann steigt die Temperatur. Wenn ich dann in diesem Modell dass CO2 weglasse.. wie soll da die Temperatur steigen? Also das als Beweis anzunehmen -und nur das  existiert- das müssen Sie halt schlicht zur Kenntnis nehmen- das sind die Fakten 

Abb. 5: Modellberechnungen für verschiedene Kontinente des jeweiligen Verlaufs der Mitteltemperatur mit und ohne die Annahme der Wirkung der Treibhausgase (gemeint war immer als stärkster Treiber CO2 (Quelle: IPCC AR4 4)

Dann murmelte Frau Zink etwas von (0:09:29).

Na ja, es gibt ja sehr viele Beweise, da muss man sich nur viele Baumrinden anschauen,

… ging aber nicht weiter darauf ein.

Fakt ist:

Man muss vermuten, dass sie berüchtigte Hockeyschlägerkurve des Michael Mann meinte, von dem sein Freund Phil Jones später mailte, dass er „Mikes Nature trick“ erfolgreich angewendet hätte „to hide the decline“. Gemeint war, dass dieser „decline“ seit den 1960er Jahren in der Proxykurve der Mannschen Baumringdaten zu sehen war, aber Michael Mann sie schlicht abgeschnitten hatte und sie durch ihm genehmere Thermometerdaten, die sich nicht absenkten, sondern im Gegenteil nach oben stiegen, ersetzt hatte. Ein bis heute ungeahndeter Betrug. (Einige Details dazu hier)

Etwas später meinte die Moderatorin wieder gegen halten zu müssen (0:10:45)

Dann muss ich gleich mal ein bisschen noch dagegen schießen. Auch ich mache meine Hausaufgaben als Wissenschaftsjournalistin. Es gibt Meta Studien. Das sind ja Studien über alle wissenschaftlichen Artikel….

Und zitierte die Cook Studie, wonach 12.000 klimawissenschaftliche Studien (peer reviewed) von Cook et al daraufhin untersucht worden sein sollen, wie viel davon die anthropogen induzierte Erwärmung bejahten. Und das seien bis auf 80 Artikel alle gewesen.

Fakt ist,

dass nach der neuesten  Überprüfung der Methodik dieser Studie (Legates et al[12]) die Verfasser zu dem Schluss gekommen seien, dass Cooks Behauptung nur 0,3 % der Studien folgten (Details dazu hier) Der Rest stimmt zwar einer Erwärmung zu, die aber eben nicht zwangsläufig anthropogen erzeugt.

Und, Fakt ist auch,  das John Cook kein Klimawissenschaftler sondern ein Blogger und  Psychologe ist. Was Frau Zink verneinte.

Jedoch schreibt derselbe John Cook,  welcher die Mainstream Website „SkepticalScience“ betreibt in seinem Blog,

about..

(John Cook) is currently completing a PhD in cognitive psychology, researching how people think about climate change. He is also developing a MOOC (Massive Online Open Course),Making Sense of Climate Science Denial, to be released in April 2015.

Nur in einer Hinsicht behielt Frau Dr. Zink recht: Cook ist kein Australier, sondern US-Amerikaner. Ich hatte ihn in der Eile in Bezug auf seine Landsmannschaft mit seinem Bruder im Geiste Lewandowski verwechselt. Der ist Australier.

Aber obwohl diese Cook Studie, wissenschaftlich, den Klimawandel und seine vermuteten Ursachen betreffend, völlig irrelevant ist, wird sie gerne von allen  – auch und besonders häufig von Umwelt- und/oder Wissenschaftsjournalisten geglaubt. Die Betonung liegt dabei auf geglaubt.

Es scheint ja so gut zu passen. Mit dem Strom schwimmen ist eben leichter als gegen den Strom, oder wie es Einstein viel besser formulierte, als man ihm vorhielt, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er sagte kühl: „Wenn die recht hätten genügte einer.“

Wird fortgesetzt


[1] ‘CLIMATE CHANGE Response to Carteret al.’, World Economics, 8 (1): 221228. –

[2] Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records H.-J. Ludecke ¨ 1,*, A. Hempelmann2 , and C. O. Weiss3,*

[3] Man sehe z.B. den SPM Seite 18 figure SPM.6. In der Bildunterschrift steht u.a „:::Comparison of observed and simulated climate change based on three large-scale indicators in the atmosphere, the cryosphere and the ocean: change in continental land surface air temperatures (yellow panels), Hervorhebung von mir.

[3a] IPCC (2013): Climate Change 2013, Working Group I: The Science of Climate Change, Box 12.2

[4] „Die Fußnote lautet: No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies. Quelle SPM AR5 final, S 16 hier

[5] Quellen: [6] H. Harde, Open Journal of Atmospheric and Climate Change (2014), http://tinyurl.com/p9ac6xg

[7] IPCC-Berichte (scientific basis), www.ipcc.ch

[6] Prof. Reinhard Zellner in Nachrichten aus der Chemie, S 213 Mai 2014 Mitglied u.a Enquetekommissionen – „Schutz der Erdatmosphäre“ und „Schutz des Menschen in der Umwelt“

[7] Das genaue Zitat geht so: Stefan Rahmstorf am 3.2.2007 (Die Welt): Wir Klimaforscher können nur nach dem Wenn-dann-Prinzip sagen: Wenn so und so viel CO2 ausgestoßen wird, dann wird das Klima sich so und so stark erwärmen.“

[8] Siehe auch ergänzend hierzu diesen Beitrag von Limburg & Willis Eschenbach

[9] Details zu den unglaublichen Fakten über das IPCC finden Sie hier

[10] Auf der  IPCC Website unter  Mandate findet man .”… Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change::”

[11] Den Erlebnisbericht dazu finden Sie hier

[12] Legates et al ‚Climate Consensus and ‘Misinformation’: a Rejoinder to ‘Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change’ in Science and Education




PRISM das moderne Entsorgungszentrum? Teil 1

In England wird seit einigen Jahren ernsthaft über den Bau des sogenannten Power Reactor Innovative Small Module (PRISM) von GE-Hitachi diskutiert. Hintergrund ist der stetig wachsende Plutoniumberg aus der Wiederaufbereitungsanlage. Inzwischen lagern zwischen 100 und 150 Tonnen auf der Insel. Es geht dabei um die sinnvollste Verwendung. Ein “verbuddeln und vergessen” nach deutschen Vorstellungen, scheidet für GB ohnehin aus. Vielmehr ist man bestrebt, das Gefahrenpotential des “Atommülls” auf einige hundert Jahre zu begrenzen. Ein Zeitraum, den man unstrittig durch technische Bauten sicher beherrschen kann. Man holt dadurch das Problem von der wenig fassbaren moralischen Ebene – irgendwelcher “Ethikkommissionen” – auf die berechenbare Ebene der Ingenieurwissenschaften zurück.

Ein Weg – und beileibe nicht der einzige – ist die Nutzung und Beseitigung abgebrannter Brennelemente durch einen mit Natrium gekühlten Reaktor mit schnellem Neutronenspektrum und metallischem Brennstoff: Dem PRISM. Nichts von der Erfindermesse, sondern ein Stück erprobter Technik. Sein unmittelbarer Vorläufer, der EBR II, war 30 Jahre erfolgreich in Betrieb (bis 1994). Ein PRISM-Kraftwerk mit 1866 MWel würde rund zwei Tonnen abgebrannter Brennelemente pro Jahr verbrauchen und damit die gleiche Menge Strom erzeugen, wie Kohlekraftwerke durch die Verbrennung von sechs Millionen Tonnen Steinkohle.

Warum schnelle Neutronen?

Mit hinreichend schnellen Neutronen kann man alle schweren Kerne spalten. Ausdrücklich auch 238-U, alle Plutoniumisotope und die minoren Aktinoiden (Americium, Curium, Neptunium usw.). Letztere sind für die Langlebigkeit des Atommülls verantwortlich. Gelingt es sie zu spalten, bleiben nur noch Spaltprodukte mit einer Halbwertszeit von unter 30 Jahren übrig. Allerdings hat die Sache einen entscheidenen Haken: Die Reaktionsquerschnitte sind nicht nur stoffabhängig, sondern auch sehr stark energieabhängig. Mit anderen Worten, nimmt die Wahrscheinlichkeit für eine Spaltung mit schnellen Neutronen stark ab.

Eine selbsterhaltende Kettenreaktion läßt sich nur mit 235-U (in der Natur vorkommend) und 233-U (aus Thorium erbrütet), sowie 239-Pu (aus Uran erbrütet) aufrecht erhalten. Auch deren Spaltquerschnitte sind für langsame thermische Neutronen um Größenordnungen geeigneter. Will man also einen schnellen Reaktor bauen, braucht man wesentlich höhere Anteile an Spaltmaterial. Allerdings steigt auch die Anzahl der freigesetzten Neutronen mit der Energie der spaltenden Neutronen an.

An dieser Stelle ergeben sich die drei Varianten des PRISM-Reaktors, die sich nur durch die Zusammensetzung des Kerns unterscheiden:

1.     Der Brenner. Er verbraucht – wie ein Leichtwasserreaktor – mehr Spaltstoff als beständig neu entsteht. Man muß diese Verluste stetig aus abgebrannten Brennelementen ersetzen. Dies wäre eine reine “Abfallverbrennungsanlage”.

2.     Der Selbsterhalter. Er stellt ziemlich genau so viel 239-Pu beim Betrieb gleichzeitig her, wie er auch verbraucht. Die Spaltungen müssen nur durch 238-U – z. B. aus dem Abfall der Anreicherungsanlagen – ergänzt werden.

3.     Der Brüter. Dies ist die wohl bekannteste Variante. Ein solcher Kern erzeugt mehr 239-Pu, als er selbst verbraucht. Entscheidendes Maß ist bei diesem Typ die sogenannte Verdoppelungszeit. Damit ist die Zeitdauer gemeint, in der ein Reaktor so viel Überschussplutonium produziert hat, wie man braucht, um damit einen zweiten Reaktor in Betrieb nehmen zu können. Diese Variante wird erst attraktiv, wenn die Preise für Natururan explodiert sind. Also erst in sehr ferner Zukunft.

Es ist bei allen drei Varianten sinnvoll, die Spaltprodukte von Zeit zu Zeit abzutrennen. Allerdings haben sie nicht die Bedeutung, die sie bei Leichtwasserreaktoren haben, da ihre Einfangquerschnitte (und dadurch verursachte Neutronenverluste) für hohe Energien recht klein sind. Der Abbrand kann bei schnellen Reaktoren rund fünfmal so hoch sein, wodurch sich eine Wiederaufbereitung wesentlich vereinfacht und nicht so oft geschehen muß (Kosten).

Warum Natrium als Kühlmittel?

Wenn man einen schnellen Reaktor bauen will, muß man ein Kühlmittel verwenden, das Neutronen praktisch nicht abbremst. In diesem Sinne, kommen praktisch nur drei Stoffe in Frage: Natrium, Blei und Helium. Natrium besitzt in allen relevanten Eigenschaften klare Vorteile, sodaß es nicht verwunderlich ist, daß praktisch alle schnellen Reaktoren (über 20 in 8 Ländern) mit Natrium gekühlt wurden. Einzige Ausnahme bilden die sieben Blei-Wismut-Reaktoren der U-Boote der Alpha-Klasse in der Sowjetunion. Sie sind gerade an den Eigenschaften des Blei gescheitert (hohe Schmelztemperatur, die eine ständige Beheizung erfordert; große Korrosionsprobleme; hohe Pumpleistung; starke Aktivierung durch die Bildung von 210-Po). Je eingehender man sich mit Kühlmitteln beschäftigt, gibt es für ein Kernkraftwerk (zur reinen Stromerzeugung) lediglich zwei optimale Kühlmittel: Wasser für thermische und Natrium für schnelle Reaktoren.

Natrium ist wegen seines elektrischen Widerstandes hervorragend für den Bau von elektromagnetischen Pumpen ohne bewegliche Teile und damit ohne Dichtungsprobleme geeignet.

Bei Natrium braucht man immer einen zusätzlichen Zwischenkreislauf. Der Neutronenfluß bildet 24-Na, welches ein harter γ-Strahler ist. Das primäre Natrium muß deshalb gut abgeschirmt werden. Außerdem besteht bei Leckagen im Dampferzeuger die Gefahr der Wasserstofferzeugung und der Bildung von NaOH. Wasserstoff ist ein guter Moderator, der zu einer Beschädigung des Kerns durch einen Reaktivitätssprung führen könnte.

Die Gefahr von Natriumbränden wird meist überschätzt. Natrium hat eine hohe Verdampfungswärme bei hoher Verdampfungstemperatur. Dies führt zu einer geringen Verdampfungsrate während der Verbrennung – dem Feuer mangelt es an Nahrung. Die Verbrennung von Natrium in Luft, setzt nur etwa ein Viertel der Energie, wie Benzin frei. Bei dem klassischen Brandversuch in einer offenen Wanne, bilden sich nur wenige Zentimeter hohe Flammen und in einem Meter über den Flammen herrscht nur eine Temperatur von rund 100 °C. Die bei der Verbrennung entstehenden Na2O und NaO-Aerosole reagieren in Luft unter Anwesenheit von Wasserdampf und Kohlendioxid weiter zu NaOH und Na2CO3. Diese Aerosole erfordern anschließend gründliche Reinigungsarbeiten, da sie elektrische Anlagen zerstören können und giftig sind.

Natrium besitzt sehr gute Korrosionsschutzeigenschaften, da es leicht mit Sauerstoff reagiert. Erst oberhalb von 50 ppm besteht für gewisse Stähle eine Korrosionsgefahr im flüssigen Natrium. Dieser Wert ist problemlos über eine Kältefalle (Im Prinzip ein Topf, durch den ein Teilstrom von weniger als 5% des Kreislaufes sehr langsam hindurch strömt) auf 10 bis 25 ppm zu halten. In der Kältefalle kristallisiert das Na2O a bei unter 200 °C aus.

Warum metallischer Brennstoff?

Metallische Brennstoffe ermöglichen die höchsten Brutraten, da sie vollständig aus spaltbarem und brutfähigen Material bestehen könnten. Sie liefern das härteste Neutronenspektrum, da sie nur aus den schwersten Kernen bestehen. Die Folge ist, daß rund 25% der erzeugten Energie aus der direkten Spaltung von 238-U stammen können.

Metalle sind ausgezeichnete Wärmeleiter und vertragen sehr schnelle Temperaturänderungen. Im Gegensatz dazu sind Uranoxide – wie sie in allen Leichtwasserreaktoren verwendet werden – Keramiken, mit bekannt schlechter Wärmeleitung und Sprödigkeit. Sie können im Inneren bereits aufschmelzen, wenn sich ihre Randtemperatur noch kaum geändert hat und können bei schockartiger Abkühlung wie eine Teetasse zerspringen.

Metallische Brennstoffe vertragen sich ausgezeichnet mit dem flüssigen Natrium. Chemische Reaktionen, wie zwischen den Brennstabhüllen aus Zr bei Leichtwasserreaktoren und Wasserdampf, gibt es nicht (Wasserstoffexplosionen in Fukushima).

Metallischer Brennstoff schwillt durch die Strahlenbelastung um bis zu 30% an. Die Brennstäbe müssen deshalb sehr viel Raum für Spaltgase besitzen. Der notwendige Anfangsspalt zwischen Hüllrohr und Brennstoff wird mit Natrium als Wärmebrücke ausgefüllt.

Man kann bei Metallen die Eigenschaften durch Legierung gezielt verändern. Plutonium hat eine zu geringe Schmelztemperatur. Der Brennstoff kann mit den Legierungsbestandteilen der Stahlhülle schädliche Eutektika bilden usw. Dies alles, hat in den USA Jahrzehnte Forschung und Entwicklung und den Test von hunderttausenden von Brennstäben erfordert. Als Optimal hat sich eine Brennstofflegierung aus Uran und Plutonium mit etwa 10% Zr in einer Hülle aus austenitischem Stahl herausgestellt.

S wie small

Von Anfang an, stand bei der Entwicklung die geometrische Größe des Reaktors im Vordergrund: Man wollte den kompletten nuklearen Teil in einer Fabrik fertigen und testen und anschließend (möglichst) mit der Eisenbahn zum Standort transportieren. Alle Einbauten, der Kern, die Pumpen, die Zwischen-Wärmeübertrager, die Lademaschine mit dem Zwischenlager und die Regelstäbe werden in einen Topf aus Edelstahl eingebaut und mit dem Deckel gasdicht verschweißt. Diesen Reaktorbehälter umschließt noch ein zweiter Sicherheitsbehälter und die Luftkühlung. All das, wird in einer Fabrik zusammengebaut und getestet und anschließend zur Baustelle transportiert und dort in das örtlich gefertigte Betonsilo eingesetzt. Damit ist die geplante Leistung auf etwa 840 MWth begrenzt. Durch die Serienfertigung in einer spezialisierten Fabrik, verspricht man sich einen bedeutenden Kostenvorteil.

M wie modular

Die Modularität bezieht sich sowohl auf einen Block selbst, wie auch auf ein Kraftwerk:

·       Jeder Block besteht aus dem nuklearen Teil in einem unterirdischen Betonsilo, der oberirdischen Dampferzeuger-Anlage und den konventionellen Stromerzeugungsanlagen.

·       Ein komplettes Kernkraftwerk könnte z. B. eine elektrische Leistung von 1866 MWel haben und müßte dann aus sechs Reaktoren (je 840 MWth) bestehen, die jeweils paarweise auf eine Turbine (je 622 MWel) wirken und insgesamt drei Turbinen haben. Alle sonstigen Einrichtungen (Werkstatt, Sozialgebäude usw.) würden gemeinsam genutzt. Ein solches Kraftwerk könnte auch eine integrierte Wiederaufbereitungsanlage beinhalten.

Die interne Unterteilung zielt auf eine potentielle Kosteneinsparung ab: Lediglich der Reaktor in seinem Betonsilo müßte dem Sicherheitsstandard “nuclear grade” entsprechen. Bereits die Dampferzeugungsanlage in ihrem separaten Gebäude sollte – nach Meinung von GE – nur einen “gehobenen Industriestandard” haben. In wie weit, die Genehmigungsbehörden dieser Argumentation folgen werden, ist noch nicht ganz eindeutig zu beantworten.

Die Zusammenfassung von zwei Reaktoren mit Dampferzeuger und einer Turbine zu jeweils einer Einheit, zielt auf eine hohe Verfügbarkeit und einen kostengünstigen Ausbau eines Standortes ab. Sobald eine Einheit fertig ist, kann diese bereits Geld verdienen, während der Ausbau des Kraftwerkes weiter läuft. Die heute übliche Vorfinanzierung der gesamten Summe entfällt. Später, hat das Kraftwerk eine sehr hohe Verfügbarkeit bei guten Wirkungsgraden. Letztendlich muß die Praxis zeigen, welcher Weg der günstigere ist. Rußland beispielsweise, versucht es über möglichst große Blöcke.

Das Sicherheitskonzept

PRISM setzt konsequent auf eine passive oder inhärente Sicherheitstechnik. Der völlige Stromausfall (Station-Blackout) ist kein Problem mehr. Es wird lediglich eine elektrische Leistung von weniger als 200 kW für Instrumentierung, Notbeleuchtung, Rechner und Bildschirme usw. benötigt. Diese kann problemlos über Batterien bereitgestellt werden. Notstromdiesel (als Sicherheitstechnik) sind nicht mehr nötig. Die Nachzerfallswärme wird ausschließlich über eine Luftkühlung mit Naturzug abgeführt. Dazu wird die Wärme über das Reaktorgefäß und den Sicherheitsbehälter an einen umgebenden Luftspalt abgegeben. Die erwärmte Luft steigt über vier Kamine auf. Das System ist so bemessen, daß auch bei erheblichen Verstopfungen (z. B. durch Erdbeben oder Anschläge) oder dem kompletten Ausfall von zwei Kaminen oder einem völligen Verschluß der Zuluftöffnungen die Kühlung stets gewährleistet ist. Selbst bei einem völligen Ausfall von 36 Stunden, tritt noch keine Kernschmelze auf. Ein Unfall wie in Fukushima, wäre damit ausgeschlossen.

Der gesamte Reaktor ist elastisch auf Federn und Dämpfern gelagert. Da sich alle Rohrleitungen und Pumpen etc. in dem Reaktorgefäß befinden, ergibt sich ein optimaler Erdbebenschutz. Dies gilt auch für Flugzeugabstürze und sonstige Einwirkungen von außen, da sich der Reaktor in einem unterirdischen Betonsilo befindet. Die Verbindung zum Dampferzeuger besteht aus Vor- und Rücklauf des Natrium-Zwischen-Kreislaufes, die ebenfalls in einem Betongraben verlegt sind. Diese Leitungen sind als Rohr in Rohr Konstruktion ausgeführt, um Natrium-Leckagen zu verhindern.

Der Dampferzeuger ist ebenfalls mit einem Mantel zur Luftführung umgeben. Wenn die eigentliche Kühlung des Kraftwerks ausfällt, kann die Wärme auch darüber abgeführt werden. Dies ist jedoch kein nukleares Sicherheitssystem im engeren Sinne, sondern dient dem Anlagenschutz.

Die Lagerung der Brennelemente

Die Handhabung der Brennelemente verläuft bei diesem Reaktor gänzlich anders, als bei Leichtwasserreaktoren. Der Reaktor kann wegen des flüssigen Natriums mit seiner hohen Temperatur und Brandgefahr nicht einfach geöffnet werden. Zuerst wird das Helium als Schutzgas und Ausgleichsraum abgesaugt und durch frisches Gas ersetzt. Damit soll die Gefahr der Freisetzung radioaktiver Gase in den Sicherheitsbehälter vermieden werden. Die fest im Reaktor installierte Lademaschine entnimmt abgebrannte Brennelemente und lagert sie oberhalb des Kerns in ein Lagergestell ein. Anders als bei Leichtwasserreaktoren, verbleiben sie für mindestens 20 weitere Monate zur Abkühlung im Reaktor. Ihre Wärmeentwicklung durch den radioaktiven Zerfall ist dann soweit abgeklungen, daß sie auch ohne spezielle Kühlung keine Temperatur von 400 °C mehr überschreiten können. Dies ist für ihren metallischen Kern und die Hüllrohre aus Stahl kein Problem. Ein Brennelemente-Lagerbecken ist nicht nötig.

Ein vollautomatisches Transportfahrzeug dockt an den Reaktordeckel an, entnimmt die zu entladenden Brennelemente und fährt sie anschließend zum zentralen Lagergebäude.

All das, geschieht vollautomatisch und unter Schutzgas. Trotzdem ist ein Auslegungsstörfall der Brand des Natriums im Reaktor. Der Sicherheitsbehälter oberhalb des Reaktors ist so bemessen, daß er die freigesetzte Energie und die Temperaturen aushält. Automatische Löschanlagen mit Schutzgasen sind vorhanden.

Die Auslegungsstörfälle

Schnelle Reaktoren (SR) und Leichtwasserreaktoren (LWR) unterscheiden sich stark in ihrem Unfallverhalten. LWR stehen unter hohem Druck und werden nahe dem Verdampfungspunkt betrieben. Schon bei einem relativ kleinem Leck, baut sich der Druck stark ab und das “Kühlwasser” verdampft. Die Temperatur im Kern steigt damit steil an und nähert sich schnell den Grenzwerten. Gelingt es nicht, das Kühlwasser schnell zu ersetzen, wird der Kern zerstört (Unfall in Harrisburg). Auch nach erfolgreicher Abschaltung, kann die Nachzerfallswärme noch zur Kernschmelze führen (Unfall in Fukushima). Es kommt im weiteren Verlauf dann zur Reaktion zwischen Wasserdampf und den Brennstabhüllen mit starker Wasserstoffproduktion (zerstörende Explosionen in Fukushima).

Bei einem SR sieht der Ablauf gänzlich anders aus. Die Kombination aus metallischem Brennstoff, Brennstabhüllen aus Edelstahl und Natrium als Kühlmittel ergibt eine sehr gute Wärmeübertragung mit hoher Temperaturbeständigkeit. Chemische Reaktionen zwischen den Unfallbeteiligten sind praktisch nicht vorhanden. Mit anderen Worten: Es wird recht schnell und gleichmäßig heißer im Reaktor. Wegen der hohen Verdampfungstemperatur kann es deutlich heißer werden, ohne daß sich wesentliches ändert. Bei einem LWR reicht selbst die Nachzerfallswärme aus, den Kern zum Schmelzen zu bringen, wenn er nicht mehr mit flüssigem Wasser bedeckt ist. Bei einem SR führt die starke Temperaturerhöhung lediglich zu einem neuen Gleichgewicht zwischen “Notkühlluft” und Reaktorgefäß. Die neue Gleichgewichtstemperatur ist so bemessen, daß sie sich noch weit von Materialgrenzwerten entfernt einstellt. Der Reaktor ist “inhärent sicher”.

Bei jedem Reaktor führen gewisse Grenzwerte zur sofortigen und automatischen Abschaltung. Beim PRISM fallen zu diesem Zweck sechs Regelstäbe in den Kern ein. Die Kettenreaktion wird dadurch in Sekundenbruchteilen unterbrochen. Zur dauerhaften Abschaltung gibt es noch ein zweites System, das Kugeln aus Borkarbid in den Kern einführt. Insofern unterscheiden sich LWR und SR kaum.

Man geht aber beim PRISM-Reaktor noch einen Schritt weiter, in dem man sich den starken Temperaturanstieg nutzbar macht. Dieser führt zu einer Reihe von Auswirkungen, die neutronenphysikalisch wirken (Dopplereffekt, Dichteänderung des Natrium, Axiale und radiale Ausdehnungen des Brennstoffs, usw.). Wichtig ist die konstruktive Gestaltung, damit der Temperaturkoeffizient der Reaktivität immer negativ bleibt (In Tschernobyl war er positiv!). In Alltagssprache: Je heißer der Reaktor wird, um so schneller bricht die Kettenreaktion von selbst zusammen. Wird die Kühlung – aus welchen Gründen auch immer – unterbrochen, schaltet sich der Reaktor von selbst ab. Er ist also auch im Betrieb “inhärent sicher”.

Der Ausfall der Umwälzpumpen im Reaktor (vier Stück) kann zu einer lokalen Überhitzung führen, die örtlich sogar zu einem Verdampfen des Natriums führen könnte. Dadurch könnte der Neutronenfluß lokal weiter ansteigen und Teile des Kerns beschädigen. Ursache sind die elektromagnetischen Pumpen, die keine rotierenden Massen haben und somit sofort ausfallen, wenn der Strom weg ist (Station-Blackout). Sie werden deshalb mit Synchronmotoren, mit extra großen Schwungmassen, parallel betrieben. Die Synchronmaschinen erzeugen im Normalbetrieb Blindleistung und schalten bei Stromausfall automatisch in den Generatorbetrieb um. So entsteht ein mehrere Minuten dauernder Auslauf der Pumpen, der lokale Überhitzungen verhindert und sanft in einen Naturumlauf überführt.

Versagt auch dieses System, werden die Gasraum-Ausdehner wirksam. Sie funktionieren nach dem Prinzip eines umgedrehten Glas im Spülbecken: Je weiter man es eintaucht, um so kleiner wird das Luftpolster infolge des steigenden Wasserdrucks. Im PRISM spielt nun der Pumpendruck auf das Natrium mit einem Gaspolster aus Argon zusammen. So wie der durch die Pumpen erzeugte Druckanstieg kleiner wird, dehnt sich das Argonpolster aus. Da das Gas eine wesentlich geringere Dichte als das flüssige Natrium hat, kann es auch weniger Neutronen in den Kern zurück streuen. Der Ausfluß erhöht sich und die Kettenreaktion bricht zusammen. Ein weiteres, völlig passives, Sicherheitssystem.

 Natriumbrand im Dampferzeuger

Ein spezielles Sicherheitsproblem, ist die Reaktion zwischen Wasser und Natrium. Bei ihr wird neben Energie auch Wasserstoff frei bzw. es entstehen Reaktionsprodukte, die Wasserstoff enthalten. Daraus ergeben sich folgende Ansprüche:

·       Der Dampferzeuger sollte in einem separaten Gebäude – streng getrennt vom Reaktor – stehen. Da es nur hier eine Schnittstelle zwischen Wasser und Natrium gibt, können alle Auswirkungen besser beherrscht und lokal begrenzt werden.

·       Es sollte eine Isolierung zwischen Dampferzeuger und Reaktorteil geben, um Rückwirkungen auf die Wärmetauscher im Reaktor zu verhindern.

·       Es müssen ausreichend große Abblasetanks vorhanden sein, um Natrium und Wasser möglichst schnell voneinander zu trennen, damit die Brandlasten klein bleiben. Entstandener Wasserstoff muß rekombiniert bzw. sicher abgeleitet werden, um Explosionen zu verhindern (nicht wie in Fukushima, auch noch benachbarte Gebäude zerstören.)

Der Dampferzeuger des PRISM ist ein schlanker, aufrecht stehender Behälter. Er ist nicht vollständig mit Natrium gefüllt, sondern besitzt oben einen mit Argon gefüllten Raum. Dieses Gaspolster, kann bei Störfällen, etwaige Druckwellen, bereits erheblich mindern. In dieses Natriumbad tauchen, zu einer Spirale gewickelte Rohre, ein. In diesen strömt das Wasser und verdampft. Würde ein Rohr undicht werden, strömt Wasser bzw. Dampf unter hohem Druck in das Natrium ein und reagiert dort sofort. Die zusätzliche Energieproduktion kann zu einem Temperaturanstieg im Dampferzeuger führen. Wichtigste Gegenmaßnahme ist nun die Absperrung sowohl der Wasser- und Dampfleitungen wie auch der Natriumleitungen. Dabei sind kleine Leckagen kein Problem, da sie ein langsames Abfahren der Anlage ermöglichen.

Kommt es hingegen zu massiven Wassereinbrüchen, kann es zu einer stärkeren Temperaturerhöhung und einem steilen Druckanstieg führen. Wichtigstes Ziel ist nun, die Druckspitze zu begrenzen und die Druckwelle möglichst von den Zwischenwärmetauschern im Reaktor fern zu halten. Zur Dämpfung dient bereits das Gaspolster im Dampferzeuger. Wird der vorgesehene Druck überschritten, bersten zwei Scheiben in der Verbindungsleitung zum Abblasetank. Der Abblasetank trennt die Gase (insbesondere den entstandenen Wasserdampf) vom flüssigen Natrium. Das Natrium strömt dann weiter in Reservetanks. Bereits gebildeter Wasserstoff wird rekombiniert, um etwaige Explosionen zu vermeiden. Die Restwärme wird über die Außenluft abgeführt.

Unmittelbar hinter dem Sicherheitsbehälter des Reaktorgebäudes befinden sich Isolierventile, die sofort und automatisch schließen. Dadurch wird verhindert, daß überhaupt Reaktionsprodukte zum Reaktor gelangen können.

Schlußbetrachtung

Es gibt international viel Erfahrung aus einigen hundert Betriebsjahren mit natriumgekühlten schnellen Reaktoren. Allein in den USA ist der BER II über 30 Jahre erfolgreich gelaufen. Man hat in ihm über 100000 Brennelemente getestet und umfangreiche Experimente der Sicherheitssysteme durchgeführt. Mehrfach wurde bei voller Leistung die Wärmesenke einfach abgestellt, um beispielsweise die Richtigkeit der Rechenprogramme zu überprüfen. Die Entwicklung ist seit dem – wenn auch stark reduziert – kontinuierlich weitergeführt worden. Bereits 1994 wurde das eingereichte Konzept von der NRC in einem 400seitigen Abschlussbericht positiv beurteilt. Seit dem, könnte eigentlich ein Kraftwerk als Demonstrationsanlge gebaut werden – wenn der politische Wille vorhanden wäre. Ob auch hier wieder China voranschreiten wird oder kann Europa (GB) noch den Anschluß halten?

Ausblick

Der zweite Teil, wird sich mit der Wiederaufbereitung und der Herstellung der metallischen Brennelemente beschäftigen.

http://www.nukeklaus.de/home/prism-das-moderne-entsorgungszentrum-teil-1/




Solarflugzeug Solar Impulse – Spirit of bullshit

Die tollkühnen Eidgenossen wechseln sich am Steuer des 72 Meter breiten Carbonfaservogels ab. Denn der 2,3 Tonnen schwere, 90 km/h schnelle Ökoflieger verträgt außer einem einzigen Piloten an Bord so gut wie keine Zuladung.

Nachdem Boschberg in China wochenlang auf günstiges Wetter gewartet hatte, brachte er die fliegende Solarkiste via Japan schließlich in Hawaii stolz wie Bolle zur Landung. Da jubelte nicht nur das 30-köpfige Kontrollzentrum in Monaco, von wo aus das etliche Millionen teure Projekt gesteuert wird (Sponsor u.a.: die Luxusmarkengruppe Moet/Hennessy). Es jubelte auch die Pressemeute, als ihr Borschberg den kühnen Satz ins Notizbüchlein diktierte: „Niemand kann jetzt mehr sagen, dass Erneuerbare Energien nicht das Unmögliche vollbringen können.“

Alle Medien berichteten selig, von der dpa bis zu „Spiegel online“, von der „Zeit“ bis zur „Süddeutschen“. Und die Jungs und Deerns von der „taz“ machten sich fast die Büxen nass ob des Projekts. Welches für sie „kein Flugzeug“, sondern „ein Statement“ ist. In dem die Genossen gar das Zeichen für „eine epochale Wende der Menschheit“ zu erkennen wähnten.

Natürlich schielt die Aktion der Schweizer Luftikusse auf Charles Lindbergh, dem 1927 die erste nonstop und allein unternommene Atlantiküberquerung gelang. Lindbergh war ein Luftfahrtpionier in dem Sinne, dass sein Flug im einmotorigen Hochdecker Ryan NYP, getauft auf den Namen „Spirit of St. Louis“, tatsächlich bahnbrechend war. Gut zehn Jahre danach flogen auch Passagiermaschinen über den Atlantik.

Die Schönwetterpiloten in ihrer gesponserten Hobbymühle dagegen bewegen gar nichts, abgesehen von den eigenen Ärschen. Stromerzeugung mittels der erratischen Solartechnik ist schon am Boden weitgehend sinnlos, weil immer konventionelle Kraftwerke im Hintergrund mitlaufen oder bereit gehalten werden müssen. Für richtige Flugzeuge wäre ein Antrieb per Solarkraft ungefähr so effektiv wie ein Eis am Stiel zur Kühlung einer Fischfabrik. Es sei denn, man gäbe jedem Solarliner ein konventionelles Flugzeug mit auf den Weg, das den Sonnenvogel bei Bedarf auf den Haken nimmt.

Und auch für das Nichts-ist-unmöglich-Getröte der Solarlobby eignet sich das Solarmobil schlecht. Dermaßen dämlich, einen teuren Spleen von zwei aufmerksamkeitssüchtigen Geschaftlhubern mit dem Durchbruch der Solarenergie zum Global Player zu verwechseln, sind die meisten Menschen denn doch nicht. Wie die Reaktionen vieler Leser zeigten, die sich über den grotesken Medienhype des jämmerlichen Aeroplans ärgerten. Einer brachte die Kosten-Nutzen-Rechnung auf den Punkt: „Sorry, das Ding kostet schlicht Millionen und kann nichts.“ Ganz ähnlich der Solarenergie als solcher.

Demnächst fliegt die Solar Impulse 2 weiter in Richtung Festland-Amerika. The spirit of bullshit never dies.

Übernommen von ACHGUT hier