Deutschlands Traum von Windkraft wird ein andauernder Alptraum

Die Deutschen forcierten Windkraft härter und schneller als alle anderen – und die Rache folgt in den Kosten dafür. Die Zuschüsse wurden kolossal, die Auswirkungen auf den Strommarkt chaotisch und – im Gegensatz zum Umwelt Zweck der Politik – steigen die CO2-Emissionen schneller: Wenn "Rettet den Planeten“ – wie uns immer wieder gesagt wird – die Verringerung der von Menschen verursachten Emissionen eines geruchlosen, farblosen und natürlich vorkommenden Spurengas ist, welches für alles Leben auf der Erde essential ist – dann ist die deutsche Energie- / Umweltpolitik offensichtlich gescheitert (siehe unseren Beitrag hier [übersetzter Titel: Lehren aus Deutschlands Windkraft Desaster).

Rund 800.000 deutsche Haushalte wurden vom Netz getrennt – Opfer von dem, was euphemistisch als "Energiearmut" bezeichnet wird. Als Reaktion darauf haben Deutsche ihre Äxte gegriffen und ihre Wälder durchstreift, um das Gefühl der Sicherheit ihrer Energieversorgung zu verbessern [Holz zum Heizen und Kochen, der Übersetzer] – obwohl Förster offenbar der Ansicht sind, dass diese Selbsthilfe-Maßnahmen nichts anderes als eklatanter Holzdiebstahl sind (siehe unseren Beitrag hier) [übersetzter Titel: Kosten für Wind schickt Deutschland zurück in die Steinzeit]

Deutsche Hersteller – und andere energieintensive Branchen – die mit steigenden Energiekosten konfrontiert sind, orientieren sich in Richtung USA – wo die Strompreise nur 1/3 der in Deutschland sind (siehe unsere Beiträge hier und hier und hier). Und der "grüne" Traum von Tausenden von Arbeitsplätzen in der Windindustrie ist genau das geworden: nur ein Traum (siehe unseren Beitrag hier).

Als Reaktion auf das Ansteigen gesundheitlicher Beschwerden haben deutsche Mediziner einen endgültigen Stopp des Baus von Windparks genannt, um ihre Mitbürger zu schützen; und zur Abwendung medizinischer Kunstfehler:

German Medicos Demand Moratorium on New Wind Farms

[Beitrag STT: Deutsche Mediziner fordern Moratorium für neue Windparks]

Nun, abgesehen von unnötigen Schäden durch Windparks, werden die Deutschen durch unangreifbare Fakten geweckt, dass Windenergie [und Photovoltaik – der Übersetzer] nicht nur wahnsinnig teuer ist, sie ist auch völlig sinnlos als Energiequelle. Hier ein paar der letzten Stücke aus Deutschland, Details aus dem Umfang der Katastrophe und der brodelnden Feindschaft gegen Windenergie.


Der Wahnsinn von Deutschlands Energiesozialismus

Deutschlands Energierevolution wird mehr und mehr absurder. Nach Kernkraft und Gas, ist es nun Kohleenergie die abgeschafft werden soll. Der Wahnsinn erreicht neue Dimensionen.

Wolfram Weimer, Handelsblatt, 1.Mai 2015

[Recherche des Übersetzers:

Der Direktzugriff des Links funktioniert nicht (?). Daher „Handelsblatt Archiv 1.Mai 2015, dann nach unten scrollen: What´s Right? Mehr Erhard wagen anklicken, dann in diesem Beitrag Seite 2 anklicken: Einmal ordentlich durchlüften bitte]

Vor dreißig Jahren wäre er sicherlich als "Master Architekt des Sozialismus" oder "Chef Aktivist der sozialistischen Arbeit" ausgezeichnet worden – östlich der Elbe. Sigmar Gabriel wird alles tun, um wieder eine umfassende Planwirtschaft in Deutschland zu re-etablieren: die grüne Energiewende stößt das Tor zum Energie Sozialismus weit auf.

Sein neuester Coup: Der deutsche Steinkohlenbergbau soll einem nationalen Klimaregime unterworfen werden und sieht bürokratische CO2-Tonnen Planung und willkürliche Sonderabgaben vor. Die deutsche Wirtschaft, die Kohleländer Nordrhein-Westfalen und Brandenburg, und die Gewerkschaften laufen Sturm. Verdi-Chef Frank Bsirske sieht bis zu 100.000 Arbeitsplätze in Gefahr und ruft zu Massen-demonstrationen auf. Der unglückliche RWE-Chef Peter Terium warnt verzweifelt: "Die Abgabe würde die sofortige Einstellung für einen Großteil der Braunkohlegruben und Kohlekraftwerke bedeuten." Und der Christdemokrat Armin Laschet warnt: "Mit seiner speziellen Steuer auf Kohle löscht der Minister für Wirtschaft die letzte subventionsfreie, wirtschaftliche und Import-unabhängige inländische Energiequelle aus dem deutschen Strommarkt".

In der Tat ist der neue Kohle-Plan nur ein weiterer Schritt im großen sozialistischen Masterplan, mit dem Sigmar Gabriel ganz Deutschland überrollt. Schon eine ganze Republik von Ökostrom Räten etabliert bestimmte Plan-Preise für Solar- und Wind. Die Kameraden produzieren beliebige Mengen an Energie, die Bevölkerung zahlt Zwangsabgaben, Angebot und Nachfrage sind ausgesetzt und Parteipolitik bestimmt die Zahlen zur Planerfüllung. In diesem Öko-Sozialismus, erhält jeder, der Strom aus erneuerbaren Quellen produziert, eine national festgelegte "Energie Einspeisevergütung" (das Wort klingt, als ob es aus Ost-Berlin kommt). Das hat so viel mit freien Marktpreisen für Strom zu tun, wie [damals] Stasi-Chef Erich Mielke mit der Reisefreiheit – nichts.

Was einst als eine ins Leben gerufene – gut gemeinte – grüne Energierevolution begann, hat sich zu einem riesigen VEB mutiert [dh. DDR-Staatsunternehmen]. In Gabriels System ist Stromerzeugung nicht mehr durch die Nachfrage bestimmt – wie in der Marktwirtschaft üblich – Es sind die Subventions Milliarden. Produziert wird was die Einspeisetarife für Wind- und Solarenergie teuer ermöglichen, nicht, was die Öffentlichkeit und die Wirtschaft benötigt – billige Energie. Im nationalen Energiesystems Gabriels gibt es eine ideologische Unterscheidung zwischen "guter" (grün) und "böser" (traditionell) Energie. Daher werden auch profitable Gaskraftwerke abgeschaltet – wie zufällig das modernste Gaskraftwerk Europas in Irsching. Stattdessen werden neue Förderprojekte an das Netz gebunden, ohne die erforderliche Netzwerkkapazität und ohne die notwendige Speichertechnologie. Für diese intermittierenden Kraftwerke haben Kohlekraftwerke als Backups zu laufen, die damit wiederum viel mehr CO2 emittieren, was nun auch noch extra besteuert wird. Es fühlt sich an wie ein sozialistischer Selbstläufer: Diese Energiewende kann nicht gestoppt werden.

Umweltzerstörung

Die Öko-Garantiepreise führen bereits zu allerlei klassischen Merkmalen der Planwirtschaft, die alle von den Sowjetblock Volkswirtschaften gut bekannt sind: Unrentable Überkapazitäten, zum Beispiel. Inzwischen wurden 1,4 Millionen Photovoltaik-Module im eher schattigen Deutschland installiert.

Kein anderes Land der Welt hat ein so gewaltiges und gänzlich unrentables Kontingent aufgebaut. Mit rund 25.000 Windenergieanlagen sowie Tausenden von Biogasanlagen sind wir Weltmarktführer [in Deutschland]. Wie in den Fünfjahresplänen der sozialistischen Deutschen Demokratischen Republik sind Quoten, Mengen und Zeitziele von zentralen Ministerien vorgeschrieben.

Die neue Öko-Planwirtschaft verschlingt riesige Subventionen in Milliardenhöhe, nicht weniger als 22 Mrd. Euro insgesamt  an EEG Einspeisevergütung pro Jahr – und auch nach mehr als zehn Jahren Dauersubventionen ist Strom aus erneuerbaren Energien immer noch teurer als die von Kohle, Öl, Kernenergie und Gas. Anstatt den Subventionssozialismus zu kündigen, treibt jedoch eine parasitäre Mischung aus Finanzierungsexperten, Investoren, Anlagenhersteller und Subventionsverteiler die Industrie weiterhin voran.

Sie haben einen Öko-Industrie-Komplex geschaffen, der nicht nur perfekte Lobbyarbeit in Berlin betreibt, sondern auch das Land mit Windmühlen ruiniert und mit kollektiven Geld schröpft, denn obendrauf räumt die Kreditanstalt für Wiederaufbau (Kreditanstalt für Wiederaufbau) der grünen Lobby subventionierte Kredite ein, um sicherzustellen, dass die Planwirtschaft auch finanziell abgerundet wird.

Das verquere System ist so teuer, dass nur ein sehr reiches Land wie Deutschland sich dieses Großexperiment leisten kann. Rund 100 Milliarden Euro hat dieser Subventions-Sozialismus bereits verbrannt. Derzeit kostet die grüne Energieabgabe 56 Millionen Euro täglich. Der expandierende Öko-Sozialismus hat die Energieversorger in Kombinate der Bundesnetzagentur verwandelt. Diese Agentur legt fest, welche Preise für die Stromübertragung in Rechnung gestellt werden, erlaubt Subventionen und autorisierte Erträge aus Investitionen. Die Industriestrompreise sind die zweithöchsten in Europa, daher verabschieden sich energieintensive Unternehmen allmählich von Gabriels Energie-Sozialismus.

Die Tatsache, dass der kolossale Bau von Windkraftanlagen und Solaranlagen auch dramatische Landschaftsverschandelung verursacht, ist die traurige Ironie dieser grünen Geschichte. Eine Reise durch Gabriels Deutschland ist jetzt wie ein grüner Tunnel des Schreckens, eine Achterbahnfahrt durch weite Spuren der Zerstörung der Natur, ein Subventionsgrab mit Turbinen [WKAs] und Platten gefüllt.

Deshalb – eher noch als die Kohle aus dem Markt zu drängen – muss die grüne Kommando- und Kontrollwirtschaft grundlegend reformiert werden. Es hat sich die größte Zuschuss-Abzocke der jüngsten Geschichte in Bewegung gesetzt und die Umwelt beschädigt. Es belastet die Wirtschaft und zwingt alle Verbraucher unter steigenden Strompreisen zu leiden. Die schlimmsten Verzerrungen des Marktes müssen von immer mehr neuen Regelungen ausgeglichen werden. Auf diese Weise rechtfertigt eine staatliche Intervention die nächste. In Deutschland ist der "real existierende Sozialismus" seit 1989 Geschichte, Gott sei Dank. Der Energie basierende Gabriel-Sozialismus ist jedoch auf dem Vormarsch.

Übersetzung und Zusammenstellung Phillip Mueller

Deutschlands „Traum“ von Windkraft erreicht eine neue „Realität“ …
Quelle STT

Wirtschaftswoche, 24 April 2015

[Recherchen des Übersetzers: die WW ist eine Wochenzeitung, zum 24.04.15 gibt es keine Ausgabe; hier alternativ Wirtschaftswoche 20.April 2015 (kostenpflichtig).

Vielleicht ein Schreibfehler? Daher hier Handelsblatt, 24 April 2015

Ein Teil von dem, was Deutsche auf die Barrikaden treibt, ist das, was die Windindustrie ihren geliebten Städten und Landschaften antut (für eine bildliche Darstellung der ästhetischen Zerstörung – schauen Sie hier) [Landschaften: Vorher – nachher – sehenswert traurig, der Übersetzer]

Und die Deutschen nehmen nicht mehr klaglos hin, was die Windindustrie auftischt: sie werden wütender und sind von Tag zu Tag besser organisiert.

Germany’s Anti-Wind Energy Elements Morph Into A Massive Network Of Protest Groups… Call Wind Energy “A Lie”

[Deutschlands Anti-Wind Elemente verwandeln sich in ein massives Netzwerk von Protestgruppen. „Sie nennen die Windenergie: Eine Lüge“]
Der Widerstand gegen die grüne- Abfallenergie wächst in Deutschland.

Am 4.Mai 2015 wurde in den Braunschweiger Nachrichten ein Kommentar von der Spitze einer deutschen Windprotestorganisation, Dr. Thomas Carl Stiller abgedruckt: „Der Wahnsinn mit den Windrädern", Der Originalbeitrag in den BZ ist kostenpflichtig, ein Kommentar hier zu lesen: „Energiewende funktioniert so nicht

Mit Unterstützung von K.E. Puls, Europäisches Institut für Klima und Energie (EIKE) wurde das dann für die Leser von  NoTricksZone, ins Englische übersetzt und am 4.Juni 2015 veröffentlich.

 

Ab hier Hinweis des Übersetzers:

Für unsere deutschen Leser verzichte ich natürlich auf eine Rückübersetzung und habe die Zeitungskopie digital nur etwas vergrößert.

Der Link zu NoTricksZone ist auf der Eike Seite rechts ständig zu finden.

Beitrag erschienen auf StopTheseThings am 11.Juni 2015

Übersetzt durch Andreas Demmig

http://stopthesethings.com/2015/06/11/germanys-wind-power-dream-becomes-a-living-nightmare/




Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 1

Update 12.7.15

Mit Mail vom 12.7.15 wurden die Podiumsteilnehmern über diesen Faktencheck informiert. Gleichzeitig wurde ihnen von mir angeboten, falls sie sich dazu äußern wollten, wenn ggf. eine oder mehrere Äußerungen von mir – wenn auch ungewollt- falsch interpretiert worden sind, dies anzumerken und ihre Sicht der Dinge klarzulegen.

Soeben (21:09) erreicht mich von Herrn Fell diese Mail, mit der Bitte sie im Beitrag zu veröffentlichen, was ich hiermit umkommentiert tue:

fell@hans-josef-fell.de 

An: Dipl. Ing. Michael Limburg

AW: Podiumsdiskussion am 22.6.15 bei der BPB Faktencheck Teil I

Sehr geehrter Herr  Limburg

Bitte veröffentlichen zu diesen Stellungnahmen von Ihnen folgende kurze Stellungnahme:

Ich, Hans-Josef Fell erkläre, dass ich nicht antworten werde auf die Interpretationen von Herrn Limburg zu meinen Aussagen. Diese Nichtantwort ist nicht gleichzusetzen, mit einer Akzeptanz zu Herrn Limburgs Interpretationen meiner Äußerungen. Ich erkläre ausdrücklich, dass Herr Limburg  bezüglich meiner Äußerungen mit Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen arbeitet und gar noch den unseriösen Versuch unternimmt, eine Nichtantwort als Akzeptanz zu missinterpretierten.

Dies ist unseriös und deshalb werden diese Falschinterpretationen von mir pauschal zurückgewiesen. Ich sehe auch keinen Sinn in einer unendlichen unproduktiven Diskussion darüber, weil sie mir Zeit raubt, an einer Lösung des Menschheitsproblems Erderwärmung zu arbeiten.

Mit freundlichen Grüßen

Hans-Josef Fell

Faktencheck Teil 1

Die  BPB hat diesen Mitschnitt hier vor einigen Tagen veröffentlicht.  Auf Grund der Tatsache, das hier – wohl zum ersten Male- nicht nur Klimaalarmisten und Energiewendebefürworter eingeladen waren, sondern auch der als Klimarealist und entschiedener Gegner der Energiewende bekannte Autor dieser Zeilen, waren die ausgetauschten Argumente sehr kontrovers.

Zudem können in einer  derartigen Diskussionsrunde Argumente zwar ausgetauscht werden, sie reduzieren sich aber für den uninformierten Zuhörer auf reine Behauptungen, da im Allgemeinen den meisten die Kompetenz  fehlt, um die Richtigkeit der jeweiligen Behauptung überprüfen zu können. Das sei hier mit dem Faktencheck für die wichtigsten Argumenten nach  geholt.

Zur Verständnis: Der BPB Mitschnitt selber enthält keine Zeitmarken. YouTube hingegen setzt diese Zeitmarken  und erlaubt auch die automatisierte Erstellung von Untertiteln aus dem gesprochenen Wort. Die Umwandlung in Schriftdeutsch ist nicht gut, aber brauchbar, doch sie verlangt eine erhebliche Nachbearbeitung.  Die hat EIKE vorgenommen. Obendrein wurden in der EIKE Youtube Version die freundlichen Begrüßungsworte des  Gastgebers  Herrn Kopp für diesen Faktencheck weggelassen, somit fängt jeder Teilmitschnitt mit 0:00 min an.  Wichtig sind daher allein die Zeitmarken, dann kann der interessierte Leser schneller den Originalton abhören.

Audiomitschnitt Teil 1 (Länge 13,46 Min) der Podiumsdiskussion  im Hause der BPB am 22.6.15 Quelle BPB Hier. Die (editiert) Untertitelfunktion kann eingeschaltet werden

Zum Klimawandel:

Die Moderatorin begann mit der Frage an den Autor:

(0:01:43) Herr Limburg: ist die Frage, ob es ein anthropogenen Einfluss auf das Klima gibt, also ob der Klimawandel denn vom Menschen gemacht wird im Prinzip nicht längst überholt?

Limburg

Meine Antwort darauf: (ab 0:01:55) zusammen gefasst: Nein, sie ist nicht überholt.  In Bezug auf die veränderte Landnutzung, der Zuwachs von Städten und seiner Bevölkerung und der stark gestiegene Bevölkerung selber ist das lokale Klima natürlich anthropogen beeinflusst, aber ein Weltklima, dass zudem gar nicht real sondern nur in Modellen existiert, ist – zumal vom CO2- nicht beeinflusst. Das zeigen die Daten und deren Zeitreihen ganz deutlich. Und das geben die Experten auch zu. Sie sagen: Wir können die Wirkung des  nur in unseren Modellen zeigen.“ Der Einfluss, insbesondere des anthropogenen CO2 ist nicht vorhanden und was doch viel interessanter ist, in der gesamten Vergangenheit  die wir nun geologisch sehr gut kennen ist niemals ein Einfluss, ein treibender Einfluss, des CO2 auf die Temperatur der Luft in dieser Welt nach zuweisen. Umgekehrt schon.“

Fakt ist

John Mit­chell dazu ehemals Chef des UK Met Office und Leitautor des IPCC

“It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.” [1] 

Richtig ist auch, dass CO2 niemals in der Vergangenheit – und das auf jeder historischen Zeitskala – die Temperatur der Atmospäre diese Planeten bestimmt hat. Zwei Beispiele dafür zeigen die folgenden Abbildungen.

Abb 1 CO2 und Temperaturverlauf über viele Mio Jahre.

Abb 2 Temperaturverlauf (schwarz; 15 year running mean) von 6 historischen Temperaturstationen mit mindestens 250 Jahren Aufzeichnungsdauer, von deren Frequenz-Spektrum nur die zwei stärksten addiert wurden (rot). Die Übereinstimmung ist frappierend. Und diese entsprechen in ihrer Periode sehr genau dem bekannten solaren De Vries Zyklus mit rd. 210 Jahre und dem ozeanischen AMO/PDO Zyklus mit ca. 65 Jahren. Quelle[2] s.Fußnote Details hier

Besonders interessant an Abb2 sind die deutlich erkennbaren Fakten,

1.     dass offenbar –zumindest bei den Messstationen- die Temperatur insgesamt fast 1:1 den beiden genannten Zyklen folgt .

2.     Von chaotischen Verhalten in diesem Zeitraum nichts zu erkennen ist

3.     Für CO2 kein Platz ist

4.     Sollten die der Kurve unterlegten Prozesse weiterhin ihre Wirksamkeit behalten, wie es die gestrichelte Kurve anzeigt, wird die Mitteltemperatur wieder sinken.

Ein weiteres paper der Autoren (bis auf einen, alles EIKE),dass die Zusammenhänge mit den genannten Zyklen genauer untersucht ist derzeit im Peer Review Prozess verschiedener internationaler Fachzeitschriften

Moderatorin Frau Dr. Zink (0:04:01)

Kommen wir nachher noch ein bisschen  spezifischer dazu, aber ich möchte gern erst mal den Herrn Fell fragen: Sie haben ja auch Physik studiert. Haben Sie denn Verständnis für so´ne Klimaskepsis?

H.J. Fell (0:04:09): Überhaupt nicht!

..Es ist so was von anti-wissenschaftlich ignorierend, dass das was die Physik  seid die vielen Jahrzehnten als Erkenntnisse hat….. Nein, also  ich bitt´Sie!

Herr Fell führt dann umfassend aus, dass das CO2 gewisse spektro-physikalische Eigenschaften hätte, die er als junger Student auch gemessen hätte, und die eindeutig zeigten, dass eingestrahlte Energie von der Sonne vom CO2 zurückgehalten würden und  diese Energie könne sich nur in steigender Erwärmung äußern. Und stellte den Zuhörern diese seine Versuche als Beleg für die seiner Meinung nach unbestreitbare Erwärmungswirkung des CO2 dar.   Dann beurteilte er meinen Zeitreihenvergleich als politisches Manöver.

Fakt ist:

Herr Fell übersieht bei seiner Gegenrede völlig, dass ich in meiner Argumentation die spektro-physikalischen Eigenschaften des CO2 weder benannt, noch angezweifelt habe. Hingegen habe ich mich auf den seit den Zeiten Galileo Galilei geltenden ehernen wissenschaftlichen Grundsätze gestützt, dass jede wissenschaftliche Hypothese

1.     erst durch die Bestätigung ihrer Annahmen durch Beobachtungen und Messungen  zur akzeptablen Theorie wird.

Und

2.     durch richtiges Vorhersagen zukünftiger Werte

ihre Tauglichkeit erweist.

Warum diese elementaren Grundsätze bei der Klimawissenschaft nicht gelten sollen, erklärten weder Herr Fell, noch Frau Zink, noch die anderen Teilnehmer. Denn auch eine plausible Hypothese – wie es die Hypothese von der Treibhauswirkung des anthropogenen CO2 für viele ist-  ersetzt nicht die Überprüfung im Experiment oder/und durch Beobachtung.  Sie geben damit auch indirekt zu, dass die Klimawissenschaften eine galileische Überprüfung in der Realität nicht benötigten.

Zu 1. Und sie wissen auch nicht, dass es seit den ersten IPCC Berichten genau dieses Problem ist, welches die Forscher beschäftigt. Es hat sogar einen Namen: „Detection and attribution problem“ und ist seither trotz vielfältigster Anstrengungen außerhalb von Modellen[3] ungelöst.

Der wichtigste Beitrag dazu ist der Versuch die sog. Klimasensitivität (CS Climate Sensitivity) des CO2 zu bestimmen. Damit ist der nur theoretisch ableitbare Wert gemeint, um den sich die globale Mitteltemperatur erhöhen sollte, bei Verdopplung der CO2 Konzentration.  Das IPCC geht im Mittel von 3,2 °C (3a) (bei einer Spanne von 4,5 K bis 1,5 K) aus, obwohl es im SPM des jüngsten Berichtes AR 5 – allerdings nur in einer Fußnote[4]- zugab, dass dieser Wert bisher nicht bestimmbar sei.  Der Wert 3,2 °C entsteht, wenn man den rechnerischen direkten Wert von ca. 1,2 °C  über die sog. Wasserdampfverstärkung (mehr Wärme, mehr Verdunstung, mehr Wasserdampf, mehr Wärme) mit 3 x nimmt. Viele andere Autoren haben

erstens die Wasserdampfverstärkung nicht finden können, sie fanden stattdessen eine Dämpfung, (Mehr Wärme, mehr Wasserdampf, mehr Wolken, mehr Abkühlung) und kommen

zweitens zu wesentlich niedrigeren Werten des CS Wertes bis hinunter auf nur 0,5 °C[5].

Damit treffen beide Grundsätze für die Hypothese vom anthropogenen Treibhauseffekt nicht zu.  Weder lässt sich deren Annahmen im Experiment bestätigen

Zellner Zitat

•       Reinhard Zellner [6] (Typisch ist der Einwand, dass der Treibhauseffekt nicht nachzuweisen sei): Das stimmt, es gibt kein Laborexperiment, das die Erwärmung durch Infrarotabsorption des CO2 direkt nachweist. Das System Atmosphäre kann aufgrund seines Temperatur- und Druckgradienten in einem stationären Experiment gar nicht reproduziert werden. Wir sind also auf ein klimawissenschaftliches Modell angewiesen,

…noch in der Realität durch den aktuelle oder historische Beobachtungen.

Abgesehen von wenigen, überdies für Klimazeitdistanzen, kurzen Zeitspannen,  in denen der Trend der „Welttemperatur „  eng und positiv korreliert  mit dem CO2 Anstieg verläuft (Rahmstorf [7]: mehr CO2 = mehr Temperatur) ist immer wieder auch die gegenteilige Entwicklung erkennbar. Also mehr CO2 und negativer Temperaturtrend. Und  dies ist auf allen geologischen Zeitskalen zu beobachten. (Siehe z.B. Abb. 1)

Zudem ist, was auch Herr Fell  (und später auch Frau Dehmer wissen müsste) eine Korrelation kein Ersatz für eine nachweisbare Ursache-Wirkungsbeziehung)

Besonders deutlich aber zeigt sich, dass auch die Modelle schwer daneben liegen. (Abb. 3) wenn man bereits vergangene Zeitspannen mit den Modellprognosen vergleicht. (Abb 1)

Abb. 3 Vergleich „zukünftige“  Verläufe (ab 1983) des globalen Temperaturtrends  von 90 Modellen und  zwei Messungen Grün:  Hadcrut Daten, Blau: Satelliten Daten UAH; schwarz Mittlerer Trend  aller Modelle: Quelle hier 

Auch die Behauptung von Herrn Fell – er hätte „die Versuche gemacht wie Kohlendioxid die Strahlung beeinflusst, wie das Kohlendioxid die umgewandelte Infrarotstrahlung von der Sonne aufnimmt. Sind klare Versuche gewesen, nicht irgendwie Trial and Error sondern Messungen“, um damit dem Publikum zu suggerieren, damit sei der anthropogene Treibhauseffekt bewiesen, kann so nicht stehen bleiben. Es klingt zwar plausibel, aber das reicht in den Naturwissenschaften bei weitem nicht.

Auf meine Nachfrage per Email an Herrn Fell vom 23.6.15

…bitte ich Sie daher mir Details zum Experiment mitzuteilen. Besonders interessant sind für mich dabei die Klärung der Fragen

1. Wie war der experimentelle Aufbau?

2. Wie haben Sie gemessen?

3. Was haben Sie gemessen?

4. Wie groß war die Unsicherheit bei Ihrer Messung?

schrieb mir Herr Fell am 24.6.15

Ich sagte, dass ich das Grundlagenexperiment wie jeder andere Physikstudent auch machte. Damit messen die Physikstudenten die Anregungswellenlängenlängen und damit die Energieaufnahme von Molekülen, wie CO2.  

Nun, derartige Eigenschaften hatte auch niemand bezweifelt. Und wie schon erwähnt, die spektro-physikalischen Eigenschaften des Spurengases CO2 (mit nur 0,04 Vol % in der Atmosphäre vorhanden) wie aller anderen Bestandteile der Luft  sind seit Jahrzehnten gut bekannt, aber bieten keinerlei Ersatz für einen Beweis des THE.

Moderatorin: (0:05:41)

Hmm; Frau Dehmer wie schätzen Sie denn diese kritischen Stimmen ein?

Frau Dehmer 0:05:46.

Science-fiction

(0:05:48)

Hm; die Messreihen, die vorhanden sind, sind ja mehr als hundert Jahre alt. (Anmlerung des Autors Siehe Abb. 1) Und  wenn sie sich die Messzahlen, und das ist nur das Gemessene anschauen, sowohl bei den Ozeantemperaturen als auch bei den Luft- Temperaturen dann haben die eben einen Trend nach oben. Und man kann auch zurück verfolgen, wann der begonnen hat. Hm. ich finde diese Diskussion völlig sinnlos 

Fakt ist:

Auf diesem Niveau zu argumentieren, wie es hier Frau Dehmer macht, ist natürlich völlig sinnlos.  Aus der unbestrittenen geringen Erwärmung – nach dem Ende der kleinen Eiszeit etwa ab 1850 (da musste es wärmer werden, sonst bestünde die Eiszeit ja immer noch) – und der gleichzeitigen – aber erst seit Mitte der fünfziger Jahre genau genug bekannten Konzentrationszunahme des CO2 in der Luft, eine bestätigte Abhängigkeit zu konstruieren, ist schon science fiction. Allerdings ganz ohne science. [8]

Mit gleicher Berechtigung könnte Frau Dehmer folgern, weil die Zahl der Störche in Deutschland abnimmt,  gibt es weniger Babys. Beides unbestreitbare Tatsachen, beide Verläufe eng korreliert, doch sollte heutzutage -jedenfalls unter Erwachsenen- keiner glauben, dass die Störche die Babys bringen.

Ich frage mich außerdem  immer wieder, woher die Protagonisten des anthropogenen Global Warming das Recht ableiten, dass das Klima konstant zu sein hat. Das war es bisher niemals und wird es auch in Zukunft nicht sein.

Frau Dr. Zink (0:06:51)

Daraufhin fühlte sich auch die Moderatorin Frau Dr. Zink veranlasst Ihre Sicht der Dinge darzustellen. Sie verwies am Anfang auf ihre Mitarbeit bei Wissenschaftssendungen erst von Joachim Bublath und dann von Harald Lesch und Dirk Steffens (Terra X). Dann erläuterte sie, dass sie und bezog andere Kollegen ein, spätestens seit 1995 im Grunde aber schon nach Rio (1992) aufgehört hatten kritische Stimmen zur Rolle des CO2 zu journalistisch zu überprüfen. Und schloss mit dem Beispiel ….im Kriminalfall würde man vielleicht sagen, die Faktenlage ist erdrückend und deswegen ist bei den Wissenschaftsjournalisten  dieses gar nicht mehr in Diskussion; muss ich sagen.

Fakt ist:

Dieses Statement ist insofern korrekt, als dass die Zustimmung (ja Panikmache) zur THE Hypothese, tagtäglich in allen Medien- von wenigen rühmlichen Ausnahme abgesehen-,  zu sehen, zu lesen und zu hören ist.

Diese Meinung, und um nichts anderes handelt es sich, beweist für die Existenz des THE natürlich gar nichts. Sie beweist aber etwas ganz anderes, nämlich, dass die allermeisten Journalisten es vorziehen im Mainstream mit zu schwimmen. Obwohl es gerade die vordringliche Aufgabe von Journalisten wäre, besonders misstrauisch bei Behauptungen von dieser Tragweite zu sein und ständig der uralten Frage nachgehen müssten – Cui Bono? Tun sie aber nicht, obwohl das investigative Hinterfragen für Wissenschaftsjournalisten umso mehr gelten müsste.

Es ist nämlich in den Naturwissenschaften überhaupt kein Gütesiegel, anders als in der Politik, wenn alle oder eine große Mehrheit einer Meinung sind. Die Beispiele bei denen das falsch war, sind Legion. Denn im Gegenteil, besonders dann ist höchstes Misstrauen angebracht, weil dann so gut wie immer die Wissenschaft unter die Räder kommt.  Und eine – noch dazu promovierte- Physikerin täte gut daran, diesem Grundsatz zu folgen. Gesundes Misstrauen tut daher not, ein Misstrauen, wie es die investigative Journalistin Donna Laframboise[9] antrieb, mit der Folge, dass sie die Machenschaften großer Umwelt-NGO´s wie z.B. WWF und Greenpeace, aber auch anderer, bei der verdeckten Übernahme des IPCC aufdeckte. Eine Übernahme, die denen nicht nur großen Einfluss brachten, sondern auch das Agenda-Setting erlaubt. Die Folgen davon erleben wir täglich.

Abgesehen von dieser Verhaltensfrage enthält die Frau Zinks „Beweisführung“ eine Behauptung, die nicht unwidersprochen bleiben kann.  Nämlich der „Beweis“ wie im „Kriminalfall“, den auch Hans v Storch  unlängst verwendete, als beide behaupteten, dass die Beweislage erdrückend sei.  Dabei wird übersehen, oder verschwiegen, dass schon im Gründungsauftag des IPCC steht, man solle Beweise dafür finden, dass der Klimawandel gefährlich und dass der Mensch dafür verantwortlich sei[10].

Klar nach der Drehbuchanweisung des Club of Rome 1972 (Quelle King & Schneider, 1991):

„Auf der Suche nach einem neuen Feind, der uns vereint, kamen wir auf die Idee, dass sich dazu die Umweltverschmutzung, die Gefahr globaler Er­wärmung, Wasserknappheit, Hunger und dergleichen gut eignen würden…. Alle diese Gefahren werden durch menschliches Eingreifen verursacht…Der wirkliche Feind wäre dann die Menschheit selbst….“

Folgerichtig werden sowohl vom IPCC als auch vielen Vertretern der Wissenschaft die weiteren Akteure in diesem „Kriminalfall“ bewusst außen vorgelassen. Wie z.B. der alles überragende und vielfältige Einfluss der Sonne. Damit wird durchgehend eine voreingenommene „Wissenschaft“ gefordert und auch betrieben.

Ich will mich aber hier nur auf den von mir angeführten „Beweis“ über die Wirkung des CO2 auf die Temperatur über Klima-Modelle fokussieren, den Hans v. Storch dem erstaunten Publikum präsentierte[11].

Fakt ist:

Limburg 0:08:20:

Sie sagen wir haben Modelle: Neulich Herr von Storch hat Modelle gezeigt, hat Bilder gezeigt wie die Temperatur nach oben geht in ihren Modellen (Anmerkung Autor Siehe Abb. 4) mit der Aussage wir können das nicht in der Natur beweisen, dafür ist das System zu komplex, zu großartig, zu umfangreich.

Niemand bestreitet ja die spektralen Eigenschaften des CO2.

Natürlich nicht!

Aber sie können sie nicht in der  in der Darstellung der Messdaten sehen und deswegen baut man eben diese komplexen, hochkomplexen Klimamodelle  und dann sagt man: „guckt mal hier“ das sind so vier Graphen…..wie die Temperatur nach oben steigt, je nachdem wie das CO2 sich entwickelt und  wenn man dann, das sind die Modellaussagen,  wenn man dann das CO2 weglässt  dann ist dieser Temperaturanstieg flach. Wie er übrigens seit über 18 Jahren inzwischen auch ist  (Anmerkung Autor Siehe Abb. 4)

Abb 4: Satellitenmessung der globalen Mitteltemperatur – und nur die sind eigentlich für globale Klimazwecke geeignet- der letzen > 18 Jahre. Man sieht trotz stark steigenden CO2 um ca. 2 ppm/Jahr ist der Trend genau Null

So, aber das ist ein Zirkelschluss! Wenn ich ein Modell baue, wo das CO2 die  Temperatur treibt, was es, wie gesagt, in der Vergangenheit noch nie gemacht hat  dann steigt die Temperatur. Wenn ich dann in diesem Modell dass CO2 weglasse.. wie soll da die Temperatur steigen? Also das als Beweis anzunehmen -und nur das  existiert- das müssen Sie halt schlicht zur Kenntnis nehmen- das sind die Fakten 

Abb. 5: Modellberechnungen für verschiedene Kontinente des jeweiligen Verlaufs der Mitteltemperatur mit und ohne die Annahme der Wirkung der Treibhausgase (gemeint war immer als stärkster Treiber CO2 (Quelle: IPCC AR4 4)

Dann murmelte Frau Zink etwas von (0:09:29).

Na ja, es gibt ja sehr viele Beweise, da muss man sich nur viele Baumrinden anschauen,

… ging aber nicht weiter darauf ein.

Fakt ist:

Man muss vermuten, dass sie berüchtigte Hockeyschlägerkurve des Michael Mann meinte, von dem sein Freund Phil Jones später mailte, dass er „Mikes Nature trick“ erfolgreich angewendet hätte „to hide the decline“. Gemeint war, dass dieser „decline“ seit den 1960er Jahren in der Proxykurve der Mannschen Baumringdaten zu sehen war, aber Michael Mann sie schlicht abgeschnitten hatte und sie durch ihm genehmere Thermometerdaten, die sich nicht absenkten, sondern im Gegenteil nach oben stiegen, ersetzt hatte. Ein bis heute ungeahndeter Betrug. (Einige Details dazu hier)

Etwas später meinte die Moderatorin wieder gegen halten zu müssen (0:10:45)

Dann muss ich gleich mal ein bisschen noch dagegen schießen. Auch ich mache meine Hausaufgaben als Wissenschaftsjournalistin. Es gibt Meta Studien. Das sind ja Studien über alle wissenschaftlichen Artikel….

Und zitierte die Cook Studie, wonach 12.000 klimawissenschaftliche Studien (peer reviewed) von Cook et al daraufhin untersucht worden sein sollen, wie viel davon die anthropogen induzierte Erwärmung bejahten. Und das seien bis auf 80 Artikel alle gewesen.

Fakt ist,

dass nach der neuesten  Überprüfung der Methodik dieser Studie (Legates et al[12]) die Verfasser zu dem Schluss gekommen seien, dass Cooks Behauptung nur 0,3 % der Studien folgten (Details dazu hier) Der Rest stimmt zwar einer Erwärmung zu, die aber eben nicht zwangsläufig anthropogen erzeugt.

Und, Fakt ist auch,  das John Cook kein Klimawissenschaftler sondern ein Blogger und  Psychologe ist. Was Frau Zink verneinte.

Jedoch schreibt derselbe John Cook,  welcher die Mainstream Website „SkepticalScience“ betreibt in seinem Blog,

about..

(John Cook) is currently completing a PhD in cognitive psychology, researching how people think about climate change. He is also developing a MOOC (Massive Online Open Course),Making Sense of Climate Science Denial, to be released in April 2015.

Nur in einer Hinsicht behielt Frau Dr. Zink recht: Cook ist kein Australier, sondern US-Amerikaner. Ich hatte ihn in der Eile in Bezug auf seine Landsmannschaft mit seinem Bruder im Geiste Lewandowski verwechselt. Der ist Australier.

Aber obwohl diese Cook Studie, wissenschaftlich, den Klimawandel und seine vermuteten Ursachen betreffend, völlig irrelevant ist, wird sie gerne von allen  – auch und besonders häufig von Umwelt- und/oder Wissenschaftsjournalisten geglaubt. Die Betonung liegt dabei auf geglaubt.

Es scheint ja so gut zu passen. Mit dem Strom schwimmen ist eben leichter als gegen den Strom, oder wie es Einstein viel besser formulierte, als man ihm vorhielt, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er sagte kühl: „Wenn die recht hätten genügte einer.“

Wird fortgesetzt


[1] ‘CLIMATE CHANGE Response to Carteret al.’, World Economics, 8 (1): 221228. –

[2] Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records H.-J. Ludecke ¨ 1,*, A. Hempelmann2 , and C. O. Weiss3,*

[3] Man sehe z.B. den SPM Seite 18 figure SPM.6. In der Bildunterschrift steht u.a „:::Comparison of observed and simulated climate change based on three large-scale indicators in the atmosphere, the cryosphere and the ocean: change in continental land surface air temperatures (yellow panels), Hervorhebung von mir.

[3a] IPCC (2013): Climate Change 2013, Working Group I: The Science of Climate Change, Box 12.2

[4] „Die Fußnote lautet: No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies. Quelle SPM AR5 final, S 16 hier

[5] Quellen: [6] H. Harde, Open Journal of Atmospheric and Climate Change (2014), http://tinyurl.com/p9ac6xg

[7] IPCC-Berichte (scientific basis), www.ipcc.ch

[6] Prof. Reinhard Zellner in Nachrichten aus der Chemie, S 213 Mai 2014 Mitglied u.a Enquetekommissionen – „Schutz der Erdatmosphäre“ und „Schutz des Menschen in der Umwelt“

[7] Das genaue Zitat geht so: Stefan Rahmstorf am 3.2.2007 (Die Welt): Wir Klimaforscher können nur nach dem Wenn-dann-Prinzip sagen: Wenn so und so viel CO2 ausgestoßen wird, dann wird das Klima sich so und so stark erwärmen.“

[8] Siehe auch ergänzend hierzu diesen Beitrag von Limburg & Willis Eschenbach

[9] Details zu den unglaublichen Fakten über das IPCC finden Sie hier

[10] Auf der  IPCC Website unter  Mandate findet man .”… Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change::”

[11] Den Erlebnisbericht dazu finden Sie hier

[12] Legates et al ‚Climate Consensus and ‘Misinformation’: a Rejoinder to ‘Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change’ in Science and Education




PRISM das moderne Entsorgungszentrum? Teil 1

In England wird seit einigen Jahren ernsthaft über den Bau des sogenannten Power Reactor Innovative Small Module (PRISM) von GE-Hitachi diskutiert. Hintergrund ist der stetig wachsende Plutoniumberg aus der Wiederaufbereitungsanlage. Inzwischen lagern zwischen 100 und 150 Tonnen auf der Insel. Es geht dabei um die sinnvollste Verwendung. Ein “verbuddeln und vergessen” nach deutschen Vorstellungen, scheidet für GB ohnehin aus. Vielmehr ist man bestrebt, das Gefahrenpotential des “Atommülls” auf einige hundert Jahre zu begrenzen. Ein Zeitraum, den man unstrittig durch technische Bauten sicher beherrschen kann. Man holt dadurch das Problem von der wenig fassbaren moralischen Ebene – irgendwelcher “Ethikkommissionen” – auf die berechenbare Ebene der Ingenieurwissenschaften zurück.

Ein Weg – und beileibe nicht der einzige – ist die Nutzung und Beseitigung abgebrannter Brennelemente durch einen mit Natrium gekühlten Reaktor mit schnellem Neutronenspektrum und metallischem Brennstoff: Dem PRISM. Nichts von der Erfindermesse, sondern ein Stück erprobter Technik. Sein unmittelbarer Vorläufer, der EBR II, war 30 Jahre erfolgreich in Betrieb (bis 1994). Ein PRISM-Kraftwerk mit 1866 MWel würde rund zwei Tonnen abgebrannter Brennelemente pro Jahr verbrauchen und damit die gleiche Menge Strom erzeugen, wie Kohlekraftwerke durch die Verbrennung von sechs Millionen Tonnen Steinkohle.

Warum schnelle Neutronen?

Mit hinreichend schnellen Neutronen kann man alle schweren Kerne spalten. Ausdrücklich auch 238-U, alle Plutoniumisotope und die minoren Aktinoiden (Americium, Curium, Neptunium usw.). Letztere sind für die Langlebigkeit des Atommülls verantwortlich. Gelingt es sie zu spalten, bleiben nur noch Spaltprodukte mit einer Halbwertszeit von unter 30 Jahren übrig. Allerdings hat die Sache einen entscheidenen Haken: Die Reaktionsquerschnitte sind nicht nur stoffabhängig, sondern auch sehr stark energieabhängig. Mit anderen Worten, nimmt die Wahrscheinlichkeit für eine Spaltung mit schnellen Neutronen stark ab.

Eine selbsterhaltende Kettenreaktion läßt sich nur mit 235-U (in der Natur vorkommend) und 233-U (aus Thorium erbrütet), sowie 239-Pu (aus Uran erbrütet) aufrecht erhalten. Auch deren Spaltquerschnitte sind für langsame thermische Neutronen um Größenordnungen geeigneter. Will man also einen schnellen Reaktor bauen, braucht man wesentlich höhere Anteile an Spaltmaterial. Allerdings steigt auch die Anzahl der freigesetzten Neutronen mit der Energie der spaltenden Neutronen an.

An dieser Stelle ergeben sich die drei Varianten des PRISM-Reaktors, die sich nur durch die Zusammensetzung des Kerns unterscheiden:

1.     Der Brenner. Er verbraucht – wie ein Leichtwasserreaktor – mehr Spaltstoff als beständig neu entsteht. Man muß diese Verluste stetig aus abgebrannten Brennelementen ersetzen. Dies wäre eine reine “Abfallverbrennungsanlage”.

2.     Der Selbsterhalter. Er stellt ziemlich genau so viel 239-Pu beim Betrieb gleichzeitig her, wie er auch verbraucht. Die Spaltungen müssen nur durch 238-U – z. B. aus dem Abfall der Anreicherungsanlagen – ergänzt werden.

3.     Der Brüter. Dies ist die wohl bekannteste Variante. Ein solcher Kern erzeugt mehr 239-Pu, als er selbst verbraucht. Entscheidendes Maß ist bei diesem Typ die sogenannte Verdoppelungszeit. Damit ist die Zeitdauer gemeint, in der ein Reaktor so viel Überschussplutonium produziert hat, wie man braucht, um damit einen zweiten Reaktor in Betrieb nehmen zu können. Diese Variante wird erst attraktiv, wenn die Preise für Natururan explodiert sind. Also erst in sehr ferner Zukunft.

Es ist bei allen drei Varianten sinnvoll, die Spaltprodukte von Zeit zu Zeit abzutrennen. Allerdings haben sie nicht die Bedeutung, die sie bei Leichtwasserreaktoren haben, da ihre Einfangquerschnitte (und dadurch verursachte Neutronenverluste) für hohe Energien recht klein sind. Der Abbrand kann bei schnellen Reaktoren rund fünfmal so hoch sein, wodurch sich eine Wiederaufbereitung wesentlich vereinfacht und nicht so oft geschehen muß (Kosten).

Warum Natrium als Kühlmittel?

Wenn man einen schnellen Reaktor bauen will, muß man ein Kühlmittel verwenden, das Neutronen praktisch nicht abbremst. In diesem Sinne, kommen praktisch nur drei Stoffe in Frage: Natrium, Blei und Helium. Natrium besitzt in allen relevanten Eigenschaften klare Vorteile, sodaß es nicht verwunderlich ist, daß praktisch alle schnellen Reaktoren (über 20 in 8 Ländern) mit Natrium gekühlt wurden. Einzige Ausnahme bilden die sieben Blei-Wismut-Reaktoren der U-Boote der Alpha-Klasse in der Sowjetunion. Sie sind gerade an den Eigenschaften des Blei gescheitert (hohe Schmelztemperatur, die eine ständige Beheizung erfordert; große Korrosionsprobleme; hohe Pumpleistung; starke Aktivierung durch die Bildung von 210-Po). Je eingehender man sich mit Kühlmitteln beschäftigt, gibt es für ein Kernkraftwerk (zur reinen Stromerzeugung) lediglich zwei optimale Kühlmittel: Wasser für thermische und Natrium für schnelle Reaktoren.

Natrium ist wegen seines elektrischen Widerstandes hervorragend für den Bau von elektromagnetischen Pumpen ohne bewegliche Teile und damit ohne Dichtungsprobleme geeignet.

Bei Natrium braucht man immer einen zusätzlichen Zwischenkreislauf. Der Neutronenfluß bildet 24-Na, welches ein harter γ-Strahler ist. Das primäre Natrium muß deshalb gut abgeschirmt werden. Außerdem besteht bei Leckagen im Dampferzeuger die Gefahr der Wasserstofferzeugung und der Bildung von NaOH. Wasserstoff ist ein guter Moderator, der zu einer Beschädigung des Kerns durch einen Reaktivitätssprung führen könnte.

Die Gefahr von Natriumbränden wird meist überschätzt. Natrium hat eine hohe Verdampfungswärme bei hoher Verdampfungstemperatur. Dies führt zu einer geringen Verdampfungsrate während der Verbrennung – dem Feuer mangelt es an Nahrung. Die Verbrennung von Natrium in Luft, setzt nur etwa ein Viertel der Energie, wie Benzin frei. Bei dem klassischen Brandversuch in einer offenen Wanne, bilden sich nur wenige Zentimeter hohe Flammen und in einem Meter über den Flammen herrscht nur eine Temperatur von rund 100 °C. Die bei der Verbrennung entstehenden Na2O und NaO-Aerosole reagieren in Luft unter Anwesenheit von Wasserdampf und Kohlendioxid weiter zu NaOH und Na2CO3. Diese Aerosole erfordern anschließend gründliche Reinigungsarbeiten, da sie elektrische Anlagen zerstören können und giftig sind.

Natrium besitzt sehr gute Korrosionsschutzeigenschaften, da es leicht mit Sauerstoff reagiert. Erst oberhalb von 50 ppm besteht für gewisse Stähle eine Korrosionsgefahr im flüssigen Natrium. Dieser Wert ist problemlos über eine Kältefalle (Im Prinzip ein Topf, durch den ein Teilstrom von weniger als 5% des Kreislaufes sehr langsam hindurch strömt) auf 10 bis 25 ppm zu halten. In der Kältefalle kristallisiert das Na2O a bei unter 200 °C aus.

Warum metallischer Brennstoff?

Metallische Brennstoffe ermöglichen die höchsten Brutraten, da sie vollständig aus spaltbarem und brutfähigen Material bestehen könnten. Sie liefern das härteste Neutronenspektrum, da sie nur aus den schwersten Kernen bestehen. Die Folge ist, daß rund 25% der erzeugten Energie aus der direkten Spaltung von 238-U stammen können.

Metalle sind ausgezeichnete Wärmeleiter und vertragen sehr schnelle Temperaturänderungen. Im Gegensatz dazu sind Uranoxide – wie sie in allen Leichtwasserreaktoren verwendet werden – Keramiken, mit bekannt schlechter Wärmeleitung und Sprödigkeit. Sie können im Inneren bereits aufschmelzen, wenn sich ihre Randtemperatur noch kaum geändert hat und können bei schockartiger Abkühlung wie eine Teetasse zerspringen.

Metallische Brennstoffe vertragen sich ausgezeichnet mit dem flüssigen Natrium. Chemische Reaktionen, wie zwischen den Brennstabhüllen aus Zr bei Leichtwasserreaktoren und Wasserdampf, gibt es nicht (Wasserstoffexplosionen in Fukushima).

Metallischer Brennstoff schwillt durch die Strahlenbelastung um bis zu 30% an. Die Brennstäbe müssen deshalb sehr viel Raum für Spaltgase besitzen. Der notwendige Anfangsspalt zwischen Hüllrohr und Brennstoff wird mit Natrium als Wärmebrücke ausgefüllt.

Man kann bei Metallen die Eigenschaften durch Legierung gezielt verändern. Plutonium hat eine zu geringe Schmelztemperatur. Der Brennstoff kann mit den Legierungsbestandteilen der Stahlhülle schädliche Eutektika bilden usw. Dies alles, hat in den USA Jahrzehnte Forschung und Entwicklung und den Test von hunderttausenden von Brennstäben erfordert. Als Optimal hat sich eine Brennstofflegierung aus Uran und Plutonium mit etwa 10% Zr in einer Hülle aus austenitischem Stahl herausgestellt.

S wie small

Von Anfang an, stand bei der Entwicklung die geometrische Größe des Reaktors im Vordergrund: Man wollte den kompletten nuklearen Teil in einer Fabrik fertigen und testen und anschließend (möglichst) mit der Eisenbahn zum Standort transportieren. Alle Einbauten, der Kern, die Pumpen, die Zwischen-Wärmeübertrager, die Lademaschine mit dem Zwischenlager und die Regelstäbe werden in einen Topf aus Edelstahl eingebaut und mit dem Deckel gasdicht verschweißt. Diesen Reaktorbehälter umschließt noch ein zweiter Sicherheitsbehälter und die Luftkühlung. All das, wird in einer Fabrik zusammengebaut und getestet und anschließend zur Baustelle transportiert und dort in das örtlich gefertigte Betonsilo eingesetzt. Damit ist die geplante Leistung auf etwa 840 MWth begrenzt. Durch die Serienfertigung in einer spezialisierten Fabrik, verspricht man sich einen bedeutenden Kostenvorteil.

M wie modular

Die Modularität bezieht sich sowohl auf einen Block selbst, wie auch auf ein Kraftwerk:

·       Jeder Block besteht aus dem nuklearen Teil in einem unterirdischen Betonsilo, der oberirdischen Dampferzeuger-Anlage und den konventionellen Stromerzeugungsanlagen.

·       Ein komplettes Kernkraftwerk könnte z. B. eine elektrische Leistung von 1866 MWel haben und müßte dann aus sechs Reaktoren (je 840 MWth) bestehen, die jeweils paarweise auf eine Turbine (je 622 MWel) wirken und insgesamt drei Turbinen haben. Alle sonstigen Einrichtungen (Werkstatt, Sozialgebäude usw.) würden gemeinsam genutzt. Ein solches Kraftwerk könnte auch eine integrierte Wiederaufbereitungsanlage beinhalten.

Die interne Unterteilung zielt auf eine potentielle Kosteneinsparung ab: Lediglich der Reaktor in seinem Betonsilo müßte dem Sicherheitsstandard “nuclear grade” entsprechen. Bereits die Dampferzeugungsanlage in ihrem separaten Gebäude sollte – nach Meinung von GE – nur einen “gehobenen Industriestandard” haben. In wie weit, die Genehmigungsbehörden dieser Argumentation folgen werden, ist noch nicht ganz eindeutig zu beantworten.

Die Zusammenfassung von zwei Reaktoren mit Dampferzeuger und einer Turbine zu jeweils einer Einheit, zielt auf eine hohe Verfügbarkeit und einen kostengünstigen Ausbau eines Standortes ab. Sobald eine Einheit fertig ist, kann diese bereits Geld verdienen, während der Ausbau des Kraftwerkes weiter läuft. Die heute übliche Vorfinanzierung der gesamten Summe entfällt. Später, hat das Kraftwerk eine sehr hohe Verfügbarkeit bei guten Wirkungsgraden. Letztendlich muß die Praxis zeigen, welcher Weg der günstigere ist. Rußland beispielsweise, versucht es über möglichst große Blöcke.

Das Sicherheitskonzept

PRISM setzt konsequent auf eine passive oder inhärente Sicherheitstechnik. Der völlige Stromausfall (Station-Blackout) ist kein Problem mehr. Es wird lediglich eine elektrische Leistung von weniger als 200 kW für Instrumentierung, Notbeleuchtung, Rechner und Bildschirme usw. benötigt. Diese kann problemlos über Batterien bereitgestellt werden. Notstromdiesel (als Sicherheitstechnik) sind nicht mehr nötig. Die Nachzerfallswärme wird ausschließlich über eine Luftkühlung mit Naturzug abgeführt. Dazu wird die Wärme über das Reaktorgefäß und den Sicherheitsbehälter an einen umgebenden Luftspalt abgegeben. Die erwärmte Luft steigt über vier Kamine auf. Das System ist so bemessen, daß auch bei erheblichen Verstopfungen (z. B. durch Erdbeben oder Anschläge) oder dem kompletten Ausfall von zwei Kaminen oder einem völligen Verschluß der Zuluftöffnungen die Kühlung stets gewährleistet ist. Selbst bei einem völligen Ausfall von 36 Stunden, tritt noch keine Kernschmelze auf. Ein Unfall wie in Fukushima, wäre damit ausgeschlossen.

Der gesamte Reaktor ist elastisch auf Federn und Dämpfern gelagert. Da sich alle Rohrleitungen und Pumpen etc. in dem Reaktorgefäß befinden, ergibt sich ein optimaler Erdbebenschutz. Dies gilt auch für Flugzeugabstürze und sonstige Einwirkungen von außen, da sich der Reaktor in einem unterirdischen Betonsilo befindet. Die Verbindung zum Dampferzeuger besteht aus Vor- und Rücklauf des Natrium-Zwischen-Kreislaufes, die ebenfalls in einem Betongraben verlegt sind. Diese Leitungen sind als Rohr in Rohr Konstruktion ausgeführt, um Natrium-Leckagen zu verhindern.

Der Dampferzeuger ist ebenfalls mit einem Mantel zur Luftführung umgeben. Wenn die eigentliche Kühlung des Kraftwerks ausfällt, kann die Wärme auch darüber abgeführt werden. Dies ist jedoch kein nukleares Sicherheitssystem im engeren Sinne, sondern dient dem Anlagenschutz.

Die Lagerung der Brennelemente

Die Handhabung der Brennelemente verläuft bei diesem Reaktor gänzlich anders, als bei Leichtwasserreaktoren. Der Reaktor kann wegen des flüssigen Natriums mit seiner hohen Temperatur und Brandgefahr nicht einfach geöffnet werden. Zuerst wird das Helium als Schutzgas und Ausgleichsraum abgesaugt und durch frisches Gas ersetzt. Damit soll die Gefahr der Freisetzung radioaktiver Gase in den Sicherheitsbehälter vermieden werden. Die fest im Reaktor installierte Lademaschine entnimmt abgebrannte Brennelemente und lagert sie oberhalb des Kerns in ein Lagergestell ein. Anders als bei Leichtwasserreaktoren, verbleiben sie für mindestens 20 weitere Monate zur Abkühlung im Reaktor. Ihre Wärmeentwicklung durch den radioaktiven Zerfall ist dann soweit abgeklungen, daß sie auch ohne spezielle Kühlung keine Temperatur von 400 °C mehr überschreiten können. Dies ist für ihren metallischen Kern und die Hüllrohre aus Stahl kein Problem. Ein Brennelemente-Lagerbecken ist nicht nötig.

Ein vollautomatisches Transportfahrzeug dockt an den Reaktordeckel an, entnimmt die zu entladenden Brennelemente und fährt sie anschließend zum zentralen Lagergebäude.

All das, geschieht vollautomatisch und unter Schutzgas. Trotzdem ist ein Auslegungsstörfall der Brand des Natriums im Reaktor. Der Sicherheitsbehälter oberhalb des Reaktors ist so bemessen, daß er die freigesetzte Energie und die Temperaturen aushält. Automatische Löschanlagen mit Schutzgasen sind vorhanden.

Die Auslegungsstörfälle

Schnelle Reaktoren (SR) und Leichtwasserreaktoren (LWR) unterscheiden sich stark in ihrem Unfallverhalten. LWR stehen unter hohem Druck und werden nahe dem Verdampfungspunkt betrieben. Schon bei einem relativ kleinem Leck, baut sich der Druck stark ab und das “Kühlwasser” verdampft. Die Temperatur im Kern steigt damit steil an und nähert sich schnell den Grenzwerten. Gelingt es nicht, das Kühlwasser schnell zu ersetzen, wird der Kern zerstört (Unfall in Harrisburg). Auch nach erfolgreicher Abschaltung, kann die Nachzerfallswärme noch zur Kernschmelze führen (Unfall in Fukushima). Es kommt im weiteren Verlauf dann zur Reaktion zwischen Wasserdampf und den Brennstabhüllen mit starker Wasserstoffproduktion (zerstörende Explosionen in Fukushima).

Bei einem SR sieht der Ablauf gänzlich anders aus. Die Kombination aus metallischem Brennstoff, Brennstabhüllen aus Edelstahl und Natrium als Kühlmittel ergibt eine sehr gute Wärmeübertragung mit hoher Temperaturbeständigkeit. Chemische Reaktionen zwischen den Unfallbeteiligten sind praktisch nicht vorhanden. Mit anderen Worten: Es wird recht schnell und gleichmäßig heißer im Reaktor. Wegen der hohen Verdampfungstemperatur kann es deutlich heißer werden, ohne daß sich wesentliches ändert. Bei einem LWR reicht selbst die Nachzerfallswärme aus, den Kern zum Schmelzen zu bringen, wenn er nicht mehr mit flüssigem Wasser bedeckt ist. Bei einem SR führt die starke Temperaturerhöhung lediglich zu einem neuen Gleichgewicht zwischen “Notkühlluft” und Reaktorgefäß. Die neue Gleichgewichtstemperatur ist so bemessen, daß sie sich noch weit von Materialgrenzwerten entfernt einstellt. Der Reaktor ist “inhärent sicher”.

Bei jedem Reaktor führen gewisse Grenzwerte zur sofortigen und automatischen Abschaltung. Beim PRISM fallen zu diesem Zweck sechs Regelstäbe in den Kern ein. Die Kettenreaktion wird dadurch in Sekundenbruchteilen unterbrochen. Zur dauerhaften Abschaltung gibt es noch ein zweites System, das Kugeln aus Borkarbid in den Kern einführt. Insofern unterscheiden sich LWR und SR kaum.

Man geht aber beim PRISM-Reaktor noch einen Schritt weiter, in dem man sich den starken Temperaturanstieg nutzbar macht. Dieser führt zu einer Reihe von Auswirkungen, die neutronenphysikalisch wirken (Dopplereffekt, Dichteänderung des Natrium, Axiale und radiale Ausdehnungen des Brennstoffs, usw.). Wichtig ist die konstruktive Gestaltung, damit der Temperaturkoeffizient der Reaktivität immer negativ bleibt (In Tschernobyl war er positiv!). In Alltagssprache: Je heißer der Reaktor wird, um so schneller bricht die Kettenreaktion von selbst zusammen. Wird die Kühlung – aus welchen Gründen auch immer – unterbrochen, schaltet sich der Reaktor von selbst ab. Er ist also auch im Betrieb “inhärent sicher”.

Der Ausfall der Umwälzpumpen im Reaktor (vier Stück) kann zu einer lokalen Überhitzung führen, die örtlich sogar zu einem Verdampfen des Natriums führen könnte. Dadurch könnte der Neutronenfluß lokal weiter ansteigen und Teile des Kerns beschädigen. Ursache sind die elektromagnetischen Pumpen, die keine rotierenden Massen haben und somit sofort ausfallen, wenn der Strom weg ist (Station-Blackout). Sie werden deshalb mit Synchronmotoren, mit extra großen Schwungmassen, parallel betrieben. Die Synchronmaschinen erzeugen im Normalbetrieb Blindleistung und schalten bei Stromausfall automatisch in den Generatorbetrieb um. So entsteht ein mehrere Minuten dauernder Auslauf der Pumpen, der lokale Überhitzungen verhindert und sanft in einen Naturumlauf überführt.

Versagt auch dieses System, werden die Gasraum-Ausdehner wirksam. Sie funktionieren nach dem Prinzip eines umgedrehten Glas im Spülbecken: Je weiter man es eintaucht, um so kleiner wird das Luftpolster infolge des steigenden Wasserdrucks. Im PRISM spielt nun der Pumpendruck auf das Natrium mit einem Gaspolster aus Argon zusammen. So wie der durch die Pumpen erzeugte Druckanstieg kleiner wird, dehnt sich das Argonpolster aus. Da das Gas eine wesentlich geringere Dichte als das flüssige Natrium hat, kann es auch weniger Neutronen in den Kern zurück streuen. Der Ausfluß erhöht sich und die Kettenreaktion bricht zusammen. Ein weiteres, völlig passives, Sicherheitssystem.

 Natriumbrand im Dampferzeuger

Ein spezielles Sicherheitsproblem, ist die Reaktion zwischen Wasser und Natrium. Bei ihr wird neben Energie auch Wasserstoff frei bzw. es entstehen Reaktionsprodukte, die Wasserstoff enthalten. Daraus ergeben sich folgende Ansprüche:

·       Der Dampferzeuger sollte in einem separaten Gebäude – streng getrennt vom Reaktor – stehen. Da es nur hier eine Schnittstelle zwischen Wasser und Natrium gibt, können alle Auswirkungen besser beherrscht und lokal begrenzt werden.

·       Es sollte eine Isolierung zwischen Dampferzeuger und Reaktorteil geben, um Rückwirkungen auf die Wärmetauscher im Reaktor zu verhindern.

·       Es müssen ausreichend große Abblasetanks vorhanden sein, um Natrium und Wasser möglichst schnell voneinander zu trennen, damit die Brandlasten klein bleiben. Entstandener Wasserstoff muß rekombiniert bzw. sicher abgeleitet werden, um Explosionen zu verhindern (nicht wie in Fukushima, auch noch benachbarte Gebäude zerstören.)

Der Dampferzeuger des PRISM ist ein schlanker, aufrecht stehender Behälter. Er ist nicht vollständig mit Natrium gefüllt, sondern besitzt oben einen mit Argon gefüllten Raum. Dieses Gaspolster, kann bei Störfällen, etwaige Druckwellen, bereits erheblich mindern. In dieses Natriumbad tauchen, zu einer Spirale gewickelte Rohre, ein. In diesen strömt das Wasser und verdampft. Würde ein Rohr undicht werden, strömt Wasser bzw. Dampf unter hohem Druck in das Natrium ein und reagiert dort sofort. Die zusätzliche Energieproduktion kann zu einem Temperaturanstieg im Dampferzeuger führen. Wichtigste Gegenmaßnahme ist nun die Absperrung sowohl der Wasser- und Dampfleitungen wie auch der Natriumleitungen. Dabei sind kleine Leckagen kein Problem, da sie ein langsames Abfahren der Anlage ermöglichen.

Kommt es hingegen zu massiven Wassereinbrüchen, kann es zu einer stärkeren Temperaturerhöhung und einem steilen Druckanstieg führen. Wichtigstes Ziel ist nun, die Druckspitze zu begrenzen und die Druckwelle möglichst von den Zwischenwärmetauschern im Reaktor fern zu halten. Zur Dämpfung dient bereits das Gaspolster im Dampferzeuger. Wird der vorgesehene Druck überschritten, bersten zwei Scheiben in der Verbindungsleitung zum Abblasetank. Der Abblasetank trennt die Gase (insbesondere den entstandenen Wasserdampf) vom flüssigen Natrium. Das Natrium strömt dann weiter in Reservetanks. Bereits gebildeter Wasserstoff wird rekombiniert, um etwaige Explosionen zu vermeiden. Die Restwärme wird über die Außenluft abgeführt.

Unmittelbar hinter dem Sicherheitsbehälter des Reaktorgebäudes befinden sich Isolierventile, die sofort und automatisch schließen. Dadurch wird verhindert, daß überhaupt Reaktionsprodukte zum Reaktor gelangen können.

Schlußbetrachtung

Es gibt international viel Erfahrung aus einigen hundert Betriebsjahren mit natriumgekühlten schnellen Reaktoren. Allein in den USA ist der BER II über 30 Jahre erfolgreich gelaufen. Man hat in ihm über 100000 Brennelemente getestet und umfangreiche Experimente der Sicherheitssysteme durchgeführt. Mehrfach wurde bei voller Leistung die Wärmesenke einfach abgestellt, um beispielsweise die Richtigkeit der Rechenprogramme zu überprüfen. Die Entwicklung ist seit dem – wenn auch stark reduziert – kontinuierlich weitergeführt worden. Bereits 1994 wurde das eingereichte Konzept von der NRC in einem 400seitigen Abschlussbericht positiv beurteilt. Seit dem, könnte eigentlich ein Kraftwerk als Demonstrationsanlge gebaut werden – wenn der politische Wille vorhanden wäre. Ob auch hier wieder China voranschreiten wird oder kann Europa (GB) noch den Anschluß halten?

Ausblick

Der zweite Teil, wird sich mit der Wiederaufbereitung und der Herstellung der metallischen Brennelemente beschäftigen.

http://www.nukeklaus.de/home/prism-das-moderne-entsorgungszentrum-teil-1/




Nobelpreisträger Ivar Giaever: „Haltung Obamas zur globalen Erwärmung ist lächerlich und völlig falsch!“

Bild rechts: Nobelpreisträger Ivar Giaever

Giaever, ein ehemaliger Professor an der School of Engineering und School of Science Rensselaer Polytechnic Institute erhielt im Jahre 1973 den Physik-Nobelpreis für seine Arbeiten zu quantum tunneling. [Bevor ich diesen Begriff falsch übersetze, lasse ich ihn lieber unverändert. Anm. d. Übers.] Giaever machte seine Anmerkungen auf der 65. Nobelpreisträger-Konferenz in Lindau, wo sich 65 Empfänger dieses Preises versammelt hatten. Giaever wird auch in der neuen Dokumentation „Climate Hustle” vorgestellt, deren Veröffentlichung für den Herbst dieses Jahres vorgesehen ist.

Giaever war im Jahre 2008 einer der grundlegenden wissenschaftlichen Unterstützer von Präsident Obama, war er doch damals einer Gruppe von über 70 Nobelpreisträgern beigetreten, die im Oktober 2008 einen offenen Unterstützer-Brief an Präsident Obama geschrieben hatten. Giaever unterschrieb diesen Brief, in dem es u. A. heißt: „Das Land [= die USA] braucht einen visionären Führer … wir sind davon überzeugt, dass Präsident Obama ein solcher Führer ist, und wir raten dringend dazu, ihn zu unterstützen“.

Aber sieben Jahre, nachdem er diesen Brief unterschrieben hatte, schimpft er mit Präsident Obama wegen dessen Aussage, dass „kein Problem eine größere Bedrohung für zukünftige Generationen darstellt als der Klimawandel“. Giaever nannte das ein „lächerliches Statement“.

„Genau das hat er gesagt, und es ist ein lächerliches Statement“, erläuterte Giaever. „Ich sage Obama Folgendes: „Entschuldigen Sie, Herr Präsident, aber sie haben unrecht. Absolut unrecht“.

Die ganze Rede von Giaevers 30 Minuten langem Vortrag kann man auf dem Video hier hören.

[Einschub: Unter dem Link zu diesem Video findet sich auch das folgende

Abstract aus Giaevers Rede:

„Wegen folgender Äußerung der American Physical Society: Der Beweis ist unumstößlich: Die globale Erwärmung findet statt. Falls keine abschwächenden Maßnahmen ergriffen werden, wird es wahrscheinlich zu bedeutenden Störungen der physikalischen und ökologischen Systeme der Erde kommen, mit Auswirkungen auf Sozialsysteme, Sicherheit und menschliches Wohlergehen. Wir müssen die Emissionen von Treibhausgasen sofort reduzieren.

..bin ich aus der Gesellschaft im Jahre 2011 ausgetreten.

Erstens: In der Wissenschaft ist nichts unwiderlegbar. Zweitens: die „gemessene“ mittlere Temperaturzunahme der letzten 100 Jahre oder so beträgt 0,8 K. Drittens: Seit der Behauptung der Physical Society ist es wärmer geworden – warum ist danach alles besser als vorher? Viertens: Die maximale, jemals gemessene mittlere Temperatur wurde im Jahre 1998 registriert, also vor 17 Jahren. Wann endlich werden wir aufhören, Geld für alternative Energie zu verschwenden?“

[Ende dieses Abstract]

„Wie kann er das sagen? Ich glaube, dass Obama ein cleverer Mensch ist, aber er wird schlecht beraten. Hinsichtlich der globalen Erwärmung ist er noch feucht hinter den Ohren“, fügte er hinzu. „Im vorigen Jahr sagte Obama, dass 2014 das wärmste Jahr jemals war. Aber das stimmt nicht. Es ist nicht das wärmste Jahr!“

(Anmerkung: Andere Wissenschaftler haben in punkto Klimawandel ebenfalls ein Umdenken durchlaufen. Siehe hier).

Der Physiker und Nobelpreisträger stellt die Grundlage der ausgestreuten Ängste bzgl. Kohlendioxid in Frage.

Globale Erwärmung ist ,eine neue Religion‘

Giaever führte weiter aus, dass sein Eintreten in die Klimaforschung ihm die Augen geöffnet habe. „Ich war zutiefst erschrocken über das, was ich sehen musste“, merkte er nach Forschungen auf diesem Gebiet im Jahre 2012 an. „Die globale Erwärmung ist wirklich zu einer neuen Religion geworden. Weil man darüber nicht diskutieren darf. Es ist nicht angebracht. Das ist wie in der katholischen Kirche“.

Bedenken hinsichtlich eines ,erfolgreichen‘ UN-Klimavertrages

„Ich hege große Bedenken hinsichtlich der UN-Konferenz in Paris im November. Darüber bin ich wirklich ernsthaft besorgt. Weil die UN-Konferenz in Kopenhagen 2009 fast zur Katastrophe wurde, aber nichts entschieden worden ist. Aber jetzt glaube ich, dass die Personen auf der alarmistischen Seite in einer sehr starken Position sind“, sagte Giaever.

„Fakt ist, dass die von uns gemessenen Temperaturen während der letzten 100 Jahre gestiegen sind. Um 0,8 Grad, und alles in der Welt hat sich verbessert. Wie also kann er behaupten, dass alles immer schlimmer wird, wenn wir die Beweise haben? Wir leben länger, erfreuen uns besserer Gesundheit. Aber wenn es noch einmal um 0,8 Grad wärmer wird, werden wir wohl alle sterben“, merkte er an.

„Ich sage mal, dass die globale Erwärmung im Wesentlichen ein Nicht-Problem ist. Man lasse das Thema einfach in Ruhe, und es wird sich von selbst lösen. Es mir unverständlich, warum fast jede Regierung in Europa – außer der polnischen Regierung – sich so viele Sorgen macht über die globale Erwärmung. Das muss wohl Politik sein.

Bisher ist die Welt in einem besseren Zustand als zu der Zeit, in der wir das Licht der Welt erblickten, und dies wird auch weiterhin so sein – mit einer Ausnahme: wir müssen aufhören, riesige – und ich meine riesige – Geldsummen bzgl. der globalen Erwärmung zu verschwenden. Das müssen wir tun, oder die Entwicklung wird rückwärts verlaufen. Die Menschen glauben, dass dies nachhaltig ist, aber dem ist nicht so“.

Über die globalen Temperaturen & CO2

Giaever verwies darauf, dass die globalen Temperaturen seit über 18 Jahren nicht mehr gestiegen sind. Er warf der NASA und regierungsamtlichen Wissenschaftlern „Manipulation“ von Daten vor.

„Man kann die Daten manipulieren. Genau das tut die NASA.

Man kann den Menschen – den Alarmisten – nicht glauben, wenn sie von CO2 als einer schlimmen Sache reden. Das stimmt nicht, das stimmt absolut nicht“. Dabei zeigte er eine Folie mit der Frage ,Glauben Sie, dass CO2 ein wesentliches Klimagas ist?‘

„Ich denke, dass die Temperatur bemerkenswert stabil geblieben ist. Welches ist die optimale Temperatur der Erde? Ist das die Temperatur, die wir derzeit haben? Das wäre ein Wunder. Niemand hat mir bisher die optimale Temperatur der Erde genannt. Wie kann man überhaupt die mittlere Temperatur der gesamten Erde messen und mit dem Bruchteil eines Grades daherkommen? Ich glaube, dass die optimale Temperatur des Kaisers neuen Kleidern gleicht. Wie kann man nur glauben, dass man sie auf Bruchteile von Graden genau messen kann? Das ist lächerlich!“.

Unterdrückung der Debatte

Giaever warf dem Magazin Nature vor, es wolle „auf dem Klimapfad Kasse machen“.

„Meine Freunde raten mir, mich nicht über Nature lustig zu machen, weil sie anderenfalls meine Studien nicht veröffentlichen würden“, erklärte er. „Niemand erwähnt, wie wichtig CO2 für das Pflanzenwachstum ist. Es ist etwas Wundervolles. Die Pflanzen hungern regelrecht. Man redet nicht darüber, wie gut der zunehmende CO2-Gehalt der Landwirtschaft tut“.

Behauptungen zu Extremwetter

„Der zweite Aspekt, der mich fasziniert ist, dass wenn man über Klimawandel redet, dieser immer als schlimm und schlimmer dargestellt wird. Zum Kuckuck, es gibt genug Gebiete, in denen jedweder Klimawandel auch viel Gutes bewirkt. Es kann nicht jeder Klimawandel nur immer schlechter sein!

Und dann kommt der Knüller: Falls der Klimawandel die Menschen nicht ängstigt, können wir die Menschen ängstigen mit dem Gerede über Extremwetter.

Während der letzten 100 Jahre ist der Meeresspiegel um 20 cm gestiegen – aber während der 100 Jahre zuvor hatte der Anstieg ebenfalls 20 cm betragen, und auch während der letzten 300 Jahre ist er um 20 cm/100 Jahre gestiegen. Das ist also nichts Ungewöhnliches. Und ich wiederhole: Es gibt keinen ungewöhnlichen Anstieg des Meeresspiegels!“

Falls überhaupt, sind wir in eine Periode mit besonders wenigen Hurrikanen eingetreten. Das sind die Fakten. Man muss nicht einmal Wissenschaftler sein, um das zu erkennen und zu wissen, was das bedeutet. Das Gleiche gilt für Tornados. Gegenwärtig befinden wir uns in den USA diesbezüglich in einem Minimum (siehe hier)“

Medien-Hype

Giaever dazu: „Es stimmt nicht, was die Menschen sagen. Ich habe mich gestern mit einem Journalisten der deutschen Tageszeitung Die Welt unterhalten … und habe ihn gefragt, wie oft er geschrieben habe, dass die globale Erwärmung etwas Gutes ist. Er erwiderte, er würde so etwas überhaupt nicht publizieren. Es ist immer negativ. Immer!“

Energiearmut

Giaever dazu: „Man hört viel von Flüchtlingen, die das Mittelmeer zu überqueren versuchen. Diese Menschen fliehen nicht vor der globalen Erwärmung, sondern vor Armut“ [und noch mehr vor der entsetzlichen, mutwillig herbeigeführten Not in ihren Heimatländern! Anm. d. Übers.]. „Falls man Afrika wirklich helfen will, aus der Armut zu kommen, dann versuche man nicht, sie mit Solarpaneelen und Windmühlen zu beglücken.

Verschwenden Sie Geld für Solarpaneele und Windmühlen, anstatt den Menschen zu helfen? Diese Menschen sind in die Irre geführt worden. Am Ende kostet es Geld, das zu tun. Windmühlen kosten Geld! Billige Energie ist es, die uns reich gemacht hat, und jetzt plötzlich wollen die Menschen das nicht mehr.

Die Menschen sagen, dass die Ölunternehmen die Großen Bösen Leute sind. Ich verstehe nicht, warum diese schlimmer sein sollen als die Windmühlen-Unternehmen. General Electric stellt Windmühlen her. Die Firma sagt Ihnen aber nicht, dass diese nicht ökonomisch sind, weil sie damit Geld scheffeln. Aber niemand protestiert gegen GE, sondern viele gegen Exxon, die Öl erzeugen“.

—————————————–

Dr. Ivar Giaever ist aus der American Physical Society APS am 13. September 2011 ausgetreten. Als Grund nannte er sein tiefes Missfallen über das Verhalten dieser Gruppe gegenüber den Ängsten eines vom Menschen verursachten Klimawandels.

—————————————–

Im Original folgen viele Links und Hinweise zu anderen hochrangigen Wissenschaftlern, die es Dr. Giaever gleichgetan haben. Mehrere Beiträge davon sind seinerzeit auch als Übersetzung auf diesem Blog erschienen. – Anmerkung des Übersetzers.

Link:

Übersetzt von Chris Frey EIKE




Neue Hitzerekorde – Bemerkungen dazu aus statistisch-synoptischer Sicht

Der bisherige Rekord steht bei 40,2°C im August 2003. Das war ja bekanntlich der große Hitzesommer. Jetzt schlägt laut DWD der Hitzerekord mit 40,3°C (in Kitzingen/Main) zu Buche. Ich bezweifle, dass dieser „Rekord“ irgendeine Aussagekraft hat, und zwar aus folgenden Gründen:

Erstens ist der Rekord diesmal Anfang Juli aufgetreten. Die bisherigen Regordwerte von 40,2°C datieren vom 27 Juli 1983 in Gärmersheim östlich von Nürnberg. Im August 2003 wurde dieser Rekord in Karlsruhe und Freiburg ebenfalls genau erreicht, doch zeichnet sich vor allem Karlsruhe durch eine beachtliche Wärmeinsel aus. Nun liegt die vieljährige Mitteltemperatur Ende Juli/Anfang August schon wieder niedriger als Anfang Juli. Das heißt, hätte sich die Wetterlage, die im August zu dem bisherigen Rekord geführt hatte, bereits Anfang Juli eingestellt, wäre es ziemlich sicher noch deutlich heißer gewesen.

(Aus diesem Grunde möchte ich den diesjährigen „Rekord“ immer in Anführungszeichen gesetzt sehen. Lediglich der Einfachheit halber lasse ich diese aber im Folgenden weg).

Zweitens erfährt man ja nichts darüber, wo und wie das Thermometer relativ zur Umgebung aufgestellt ist. Kowatsch & Kämpfe haben immer wieder die Bedeutung des Wärmeinsel-Effektes beschrieben – muss man den hier abziehen? Muss man den auch von dem Rekordwert 2003 abziehen?

Übrigens hat sich unser Übersetzer Chris Frey auf seinem Blog ein paar Gedanken zu der Frage gemacht „Was ist normal?“, und zwar hier.

Bemerkungen aus synoptischer Sicht

Wie in früheren Beiträgen schon einmal genauer beschrieben, wird der Temperaturgang maßgeblich von Luftmassen bestimmt, die aus allen Himmelsrichtungen zu uns advehiert werden. Dabei sind drei Faktoren ausschlaggebend: Erstens, aus welchem Ursprungsgebiet stammt die Luftmasse, zweitens, auf welchem Weg ist sie zu uns geströmt und drittens wie lange hat sie dafür gebraucht. Eine Luftmasse aus (im Vergleich zu unserem Klima) extrem temperierten Ursprungsgebieten wird durch den Untergrund modifiziert, und zwar je stärker, umso länger der Weg ist (räumlich UND zeitlich).

Nun haben Kowatsch & Kämpfe belegt, dass im Juli immer noch ein gewisser positiver Trend der Temperaturen zu verzeichnen ist, während der Trend in allen anderen Monaten das umgekehrte Vorzeichen aufweist. Dies kann mehrere Ursachen haben.

Einmal könnte es in den Juli-Monaten der letzten Jahre häufiger Vorstöße von Luftmassen subtropischen/tropischen Ursprungs gegeben haben als früher. Oder die Anzahl dieser Vorstöße ist in etwa gleich geblieben und die Temperaturen in den Ursprungsgebieten liegen höher als früher.

Für Letzteres gibt es jedoch den Satelliten-Beobachtungen (und nur diese halte ich überhaupt für relevant) zufolge keinerlei Anzeichen. Bleibt also nur Ersteres übrig, aber wie immer erhebt sich gleich eine Folgefrage: was könnte der Grund dafür sein?

Gleich vorweg: da gibt es keine eindeutige Antwort, und der Spekulation ist Tür und Tor geöffnet. Ein paar Dinge lassen sich aber aus synoptischer Sicht festhalten: Für den Vorstoß extrem temperierter Luftmassen (egal ob nun warm oder kalt) ist grundsätzlich ein meridionales Strömungsmuster Voraussetzung. In einer mehr zonalen Westströmung wird es niemals zu irgendwelchen Temperaturrekorden kommen, egal mit welchem Vorzeichen.

Und tatsächlich sind während der letzten Jahre vor allem im Sommer gehäuft meridional orientierte Wetterlagen aufgetreten. Der Autor dieses Beitrags beobachtet seit mindestens zehn Jahren (ohne dass er dies explizit mit Zahlen belegen kann) eine Erhaltensneigung meridional ausgerichteter Wetterlagen, die länger ist als beispielsweise während der siebziger und achtziger Jahre. Markant erscheinen vor allem die seit mehreren Sommern hintereinander auftretenden Südwestlagen mit kurzen Hitzeschüben und den entsprechenden schweren Unwettern. Auch in diesem Jahr im Juni war das der Fall. Dabei waren die Temperaturschwankungen enorm: In der ersten Monatshälfte erfolgte bereits ein Vorstoß extrem warmer Luft, jedoch so schnell (24 Stunden), dass nicht einmal die Junisonne in der Lage war, diese Luftmasse durchzuheizen. Man erinnere sich, dass schon damals ein paar Tage vorher von zu erwartenden „Hitzerekorden“ die rede war, die dann nie eingetroffen sind.

Und in der zweiten Monatshälfte gab es dann einen nachhaltigen Kaltlufeinbruch von Nordwesten her, wobei die Schneefallgrenze um den 20. Juni in den Alpen bis 2000 Metern sank!

Und jetzt also wieder die Hitze, die aber nun zu Ende ist, den Modellrechnungen zufolge (die als Trend MAXIMAL mit hinreichender Genauigkeit etwa eine Woche (und nicht 50 oder 100 Jahre!) in die Zukunft schauen können stellt sich bei uns jetzt tatsächlich eine mehr oder weniger ausgeprägte Westlage ein.

Haben nun die extremen Temperaturschwankungen bei uns zugenommen? Die Frage muss aber vor dem o. g. Hintergrund anders gestellt werden: haben meridionale Wetterlagen in letzter Zeit zugenommen?

Der Autor tendiert dazu, diese Frage zu bejahen, und zwar hauptsächlich aufgrund von Erfahrungen, dass auch während des Sommerhalbjahres immer wieder Höhenwirbel im 500-hPa-Niveau bis weit nach Süden geführt werden, im Juli vorigen Jahres sogar bis nach Sizilien (!), was dort mitten in der üblichen sommerlichen Trockenzeit zu extrem ergiebigen Niederschlägen geführt hat, und zwar den ganzen Monat über und auch noch mit abnehmender Tendenz in den Nachbarmonaten.

Dennoch, eine eindeutige Antwort hat der Autor zu dieser Frage nicht. Aber ein anderer und sehr wesentlicher Aspekt scheint hier eine tragende Rolle zu spielen: in anderen Beiträgen von Kowatsch & Kämpfe haben diese schon vor Jahren nachgewiesen, dass in einem sich abkühlenden Klima viel öfter Extremwetterlagen und extreme Temperaturschwankungen auftreten können als in einem konstant warmen Klima.

Bislang sind diese Ereignisse bzgl. rascher Wechsel vor allem im Sommer aufgetreten. Bleibt die spannende Frage, wie das im kommenden Winter wird, nachdem die voran gegangenen beiden Winter von zonalen Westlagen geprägt waren mit der entsprechen überwiegend milden Witterung bei uns.

Hans-Dieter Schmidt