Der Deutsche Wetterdienst hat ein Problem mit dem Klima

Eine solche Behauptung ist wohl nur zu erklären aufgrund einer politischen Anweisung, oder vorauseilendem Gehorsam gegenüber der regierungsamtlichen Klima-Politik.

Selbst der Leiter des MPI für Meteorologie in Hamburg, Prof. Dr. Marotzke, stellte fest “Ich kenne keinen seriösen Kollegen, der leugnen würde, dass es in den letzten Jahren nicht mehr wärmer geworden ist”.

Als Beispiele für die Erwärmung hat man sich beim DWD drei sorgfältig ausgewählte Fälle herausgesucht: Durch Verwendung der überholten Referenzperiode 1961-1990 kann man bis heute einen Temperaturanstieg um 0,4°C konstatieren. Dabei  ist zu bemerken, dass es sich um einen Tieftemperaturbereich handelt, der nach 35-jähriger Abkühlungsphase von 1940 bis 1975 aufgetreten war. Als aktuelle Vergleichsbasis gilt heute der auch in den USA benutzte Zeitraum 1981-2010. Und dann sieht die Sache schon wieder anders aus: Das Jahr 2013 lag in diesem Fall um 0,2°C unter dem Durchschnitt.

Als zweites Beispiel wird erwähnt, dass es seit 1881 in Deutschland um 1,2°C wärmer geworden sei. Auch hier hat man als Referenz einen Temperatur-Tiefpunkt ausgewählt. Würde man z.B. das Jahr 1860 wählen, wäre die Differenz nur noch halb so groß, ca. 0,6°C. Kein Wort jedoch von der Tatsache, dass die Jahres-Temperaturen in Deutschland seit dem Jahr 2000 bis 2013  um 0,6°C abgesunken sind (nach den Daten des DWD !) und dass das Jahr 2013 das zweitkälteste Jahr seit 14 Jahren war (Abbildung 1).

Vergebens sucht man ein Diagramm mit der neueren Klima-Entwicklung auf den Internet-Seiten des DWD. Das passt offenbar überhaupt nicht in die verordnete Klima-Ideologie.

Auch wenn man den Zeitraum seit 1990 betrachtet (immerhin 24 Jahre), zeigt sich kein Temperaturanstieg, sondern ein nahezu konstantes Niveau.

Als drittes Beispiel wird vom DWD erwähnt, dass wir im Zeitraum 1983 bis 2012 wahrscheinlich die wärmste Periode der letzten 1400 Jahre hatten – und bezieht sich dabei auf den IPCC-Bericht. Gib es denn beim DWD keine eigene klimahistorischen Daten? Ist es beim DWD unbekannt, dass es nicht nur vor 1000 Jahren genauso warm war wie heute, sondern sogar mehrmals in den letzten 3200 Jahren  (und dies garantiert ohne jeden CO2-Einfluss)? Abbildung 2 veranschaulicht die Klima-Historie, die u.a. zeigt, dass stets die Warmzeiten Perioden politischer Stabilität und wirtschaftlicher Blüte waren, während in den kühlen Perioden dazwischen Instabilität (Migration) und Hungersnöte durch Dürren auftraten.

Abbildung 1: Temperaturdaten Deutschland 1999-2013, nach DWD

Abbildung 2: Globaltemperaturen der letzten 3200 Jahre.

Der Beitrag erschien zuerst im Blog Die kalte Sonne hier

Link zur Pressekonferenz des DWD hier

 ==================================================

Anmerkungen / Ergänzungen der EIKE-Redaktion :

DWD-Verlautbarungen wie die oben zitierte “dass die Erwärmung fortschreitet” sind wohl rational kaum noch zu erklären, wenn man zugleich liest, daß international maßgebliche Forscher und auch das IPCC selbst (2013 in Stockholm) die mittlerweile 16-jährige Temperatur-Stagnation klar ansprechen. Dazu gehören z.B. die Instituts-Leiter Jochem Marotzke (MPI Hamburg) und Hans von Storch (Institut für Küstenforschung; Helmholtz-Zentrum Geesthacht) :

Zu diesen sachlichen nüchternen Feststellungen und Analysen solcher Forscher stehen Aussagen des Deutschen Wetterdienstes aus den letzten zwei Jahren in krassem Widerspruch. Mehr noch: Der DWD argumentiert sogar gegen seinen eigenen Daten und Messungen und widerspricht sich selbst im Rahmen von Verlautbarungen :

===================================================




Der Entwicklungsstand bei Kernreaktoren der IV Generation- Eine Zwischenbilanz

Nach zehn Jahren der internationalen Zusammenarbeit bei der Entwicklung von Reaktoren der sogenannten "vierten Generation" erschien eine Überarbeitung der Ursprünglichen Fahrplanes aus dem Jahre 2002 erforderlich (https://www.gen-4.org/gif/upload/docs/application/pdf/2014-03/gif-tru2014.pdf). In der letzten Dekade ist viel geschehen: Dies betrifft die Zusammensetzung und Forschungsintensität der Mitglieder, die bereits gewonnenen Erkenntnisse und nicht zuletzt die Veränderung der äußeren Randbedingungen (Shale Gas Boom, Fukushima, etc.).

Es ist bei den ursprünglich ausgewählten sechs Konzepten geblieben. Neue sind nicht hinzugekommen. Mehrere teilnehmende Länder haben bedeutende Mittel in die Entwicklung natriumgekühlter Reaktoren mit einem schnellen Neutronenspektrum (sodium-cooled fast reactor, SFR) und gasgekühlten Reaktoren mit möglichst hoher Betriebstemperatur (very-high-temperature reactor, VHTR) investiert.

Die restlichen vier Konzepte: Mit Wasser im überkritischen Zustand gekühlte Reaktoren (SCWR), bleigekühlte Reaktoren mit schnellem Neutronenspektrum (LFR), gasgekühlte Reaktoren mit schnellem Neutronenspektrum (GFR) und mit Salzschmelzen gekühlte Reaktoren wurden — mehr oder weniger — auf Sparflamme entwickelt.

Ziele

Weiterhin gelten als zentrale Anforderungen an die sogenannte vierte Generation folgende vier Bereiche:

·       Nachhaltigkeit

·       Sicherheit und Verfügbarkeit

·       Wirtschaftliche Wettbewerbsfähigkeit

·       nicht zur Produktion von Waffen geeignete Technologien und ein physikalischer Schutz gegen jedwede Einwirkungen von Außen (Naturkatastrophen, Terrorismus etc.).

Interessant ist in diesem Zusammenhang die Definition der vier Generationen: Die ersten Reaktoren der Baujahre 1950-1960 (z. B. Shippingport, Dresden, MAGNOX usw.) werden als Demonstrationskraftwerke verstanden und sind bereits stillgelegt. Die zweite Generation umfaßt die Baujahre 1970-1990 und stellt die überwiegend heute im Betrieb befindlichen Leichtwasser- und Schwerwasserreaktoren dar. Die dritte Generation wird als die Leichtwasserreaktoren der Baujahre 1990-2000 definiert, wobei die Reaktoren nach dem Jahr 2000 als Generation III+ bezeichnet werden. Sie stellen eine evolutionäre Weiterentwicklung der Druck- und Siedewassertechnologie dar. Die Vielzahl unterschiedlichster Reaktortypen der Anfangsjahre, hat sich also auf lediglich zwei Bauarten verengt. Die Weiterentwicklungen der schwerwassermoderierten, der gasgekühlten und der metallgekühlten Reaktoren ist — zumindest, was die Stückzahlen anbetrifft — auf das Niveau von Demonstrationsanlagen zurückgefallen. Erst ab dem Jahr 2030 wird von der Einführung einer vierten Generation ausgegangen.

Als die zentralen Ziele für die vierte Generation wir dabei die Verringerung der Gesamtkosten über den Lebenszyklus eines Kraftwerks, eine nochmals verbesserte Sicherheit, ein möglichst großer Schutz vor missbräuchlicher Nutzung (Waffen, Terrorismus) und eine erhebliche Verringerung des (Atom)mülls gesehen.

Abgebrannte Brennelemente

Nach einer gewissen Zeit ist jedes Brennelement in einem Reaktor nicht mehr nutzbar und muß ausgetauscht werden. Im Sprachgebrauch der "Atomkraftgegner" ist es dann "Atommüll" der zudem auch noch für Jahrtausende tödlich sein soll. In Wirklichkeit sind in einem "abgebrannten" Brennelement eines Leichtwasserreaktors noch über 95% Brennstoff enthalten. Dieser Brennstoff muß und kann recycled werden. Aber selbst die übrig bleibenden Spaltprodukte sind keinesfalls wertlos. Aus wirtschaftlichen Gründen lohnt meist keine sofortige Aufbereitung. Es empfiehlt sich daher, diesen Atommüll (Müll in Bezug auf eine energetische Verwertung) für längere Zeit sicher zu lagern um ein Abklingen der Radioaktivität abzuwarten. Durch eine Nachbehandlung des Abfalls in geeigneten Reaktoren (mit schnellem Neutronenspektrum oder sog. Transmutation) kann diese notwendige Lagerzeit auf wenige hundert Jahre beschränkt werden. Eine "Endlagerung" ist weder nötig noch sinnvoll. Das übrig bleibende "Erz" — mit hohem Gehalt wertvollster Materialien — kann anschließend dem normalen Wirtschaftskreislauf zugeführt werden.

Die Aufgabe der nahen und mittleren Zukunft liegt in der Entwicklung und Realisierung solcher Kreisläufe mit möglichst geringen Kosten. Das bisher vorliegende "Henne-Ei-Problem" beginnt sich gerade von selbst zu lösen: Es gibt inzwischen weltweit große Mengen abgebrannter Brennelemente, die eine Aufbereitung mit unterschiedlichsten Verfahren im industriellen Maßstab möglich machen. Viele dieser Brennelemente sind bereits soweit abgelagert (die Strahlung nimmt in den ersten Jahren besonders stark ab), daß sich ihre Handhabung stark vereinfacht hat.

Ein "Endlager" — besser ein Lager mit sicherem Einschluß über geologische Zeiträume — ist nur für die Abfälle nötig, deren Aufbereitung zu kostspielig wäre. Dieser Weg wird bereits für Abfälle aus der Kernwaffenproduktion beschritten. Dafür reicht aber maximal ein "Endlager" pro Kernwaffenstaat aus.

In naher Zukunft wird sich ein weltweiter Austausch ergeben: Es wird unterschiedliche Wiederaufbereitungsanlagen in verschiedenen Ländern geben. Die Kraftwerksbetreiber können diese als Dienstleistung nutzen. Die dabei wiedergewonnen Wertstoffe werden auf speziellen Märkten gehandelt werden. Wer zukünftig beispielsweise einen "Brutreaktor" bauen möchte, kann sich das für die Erstbeladung notwendige Plutonium auf diesem Markt zusammenkaufen. Wem die Mengen langlebiger Aktinoiden zu groß werden (Lagerkosten) kann diese an Betreiber von schnellen Reaktoren oder Transmutationsanlagen zur "Verbrennung" abgeben. Es wird sich genau so ein Markt für "nukleare Müllverbrennungsanlagen" etablieren, wie er heute für Industrie- und Hausmüll selbstverständlich ist.

Ebenso wird es kommerzielle "Endlager" geben, die gegen (teure) Gebühren Restmengen aufnehmen, die sich anderweitig nicht mehr wirtschaftlich verwenden lassen. Gerade Deutschland ist weltweit führend, in Erwerb und Endlagerung von hoch toxischen Abfällen in ehemaligen Salzbergwerken. Hier ist es auch sprachlich gerechtfertigt, von Endlagern zu sprechen, da die dort eingelagerten Stoffe — anders als radioaktive Stoffe — nie verschwinden werden. "Gefährlich" ist (zumindest in Deutschland) halt nur eine Frage des ideologischen Standpunktes.

Die sechs Systeme

Im Jahre 2002 wurden aus über 100 Vorschlägen sechs Konzepte ausgewählt. Leitgedanke dabei war, aus verschiedenen Reaktortypen symbiotische Systeme zu bilden. Beispielsweise durch die Verknüpfung von Leichtwasserreaktoren mit Reaktoren mit schnellem Neutronenspektrum, sodaß der "Abfall" des einen Reaktortyps als Brennstoff für den anderen dienen kann. In diesem Sinne, konzentrierte man sich nicht auf die Entwicklung eines einzelnen neuen Reaktors, sondern wählte sechs Konzepte aus, aus denen ein weltweites Netz aufgebaut werden könnte. Jeder einzelne dieser sechs ausgewählten Konzepte hat ganz spezielle Vor- und Nachteile, die es jedem Land ermöglichen sollte, für seinen speziellen Bedarf, das geeignete Modell auswählen zu können. Es geht also eher darum, Möglichkeiten zu eröffnen, als Konzepte fest zu schreiben. Dies ist ein sehr flexibler und (theoretisch) Kosten sparender Ansatz, da jedes Land seine besonderen Stärken (Werkstofftechnik, Fertigungstechnik, Datenverarbeitung etc.) in die gemeinsame Forschung und Entwicklung einbringen kann, ohne sich ein komplettes Entwicklungsprogramm für einen einzelnen Reaktor aufbürden zu müssen. Insbesondere auch kleinen Ländern, mit beschränkten Ressourcen steht es offen, sich zu beteiligen.

Die ursprünglich ausgewählten Konzepte sind alle in den letzten zehn Jahren verfolgt worden und sollen auch weiter entwickelt werden. Allerdings haben sich durch neue Erkenntnisse und einem unterschiedlichen finanziellen Einsatz in den beteiligten Ländern, der ursprünglich geplante Zeitplan etwas verschoben. Die Entwicklung wurde in jeweils drei Phasen unterteilt.

Zeitplan

Für alle sechs Reaktortypen sollten die Machbarkeitsstudien als erste Phase bereits abgeschlossen sein. Bei der Machbarkeitsstudie sollten alle relevanten Probleme geklärt worden sein und insbesondere für kritische Eigenschaften, die später sogar eine Aufgabe erforderlich machen könnten, zumindest Lösungswege aufgezeigt werden. Für Salzbadreaktoren glaubt man diese Phase nicht vor 2025 und für gasgekühlte Reaktoren mit schnellem Neutronenspektrum, nicht vor 2022 abschließen zu können.

In der Durchführungsphase sollten alle Materialeigenschaften, Berechnungsverfahren etc. entwickelt und als Prototypen getestet und optimiert sein. Diese Phase wurde bisher bei keinem Konzept abgeschlossen. Am weitesten vorn im Zeitplan, liegen der mit Natrium gekühlte schnelle Reaktor (erwartet 2022) und der mit Blei gekühlte schnelle Reaktor (erwartet 2021).

Aus heutiger Sicht wird deshalb kein Reaktor die Demonstrationsphase bis zum Jahr 2030 abschließen können. Bevor eine kommerzielle Anlage in Angriff genommen werden kann, muß wenigstens ein Demonstrationskraftwerk (einschließlich dem erforderlichen Genehmigungsverfahren!) errichtet worden sein und einige Jahre  Betriebserfahrung gesammelt haben. Selbst in Ländern mit durchweg positiver Einstellung zur Nutzung der Kernenergie und einem gewissen Pioniergeist (ähnlich der 1950er Jahre) dürfte dies ein ehrgeiziges Ziel sein. Zumal kein wirklicher Zeitdruck vorliegt: Es gibt genug Natururan zu günstigen Preisen, die Mengen abgebrannter Brennelemente sind immer noch so gering, daß kein Kostendruck zur Beseitigung von "Atommüll" existiert und der Bedarf an Prozeßwärme mit hoher Temperatur kann problemlos durch kostengünstiges Erdgas gedeckt werden. Es bleibt die Erzeugung elektrischer Energie: Die kann aber problemlos und kostengünstig (im Vergleich zu Kohlekraftwerken mit Abgaswäsche) durch konventionelle Leichtwasserreaktoren erzeugt werden. China stellt dies eindrucksvoll unter Beweis.

Fukushimas Auswirkungen

Fukushima hat die Bedeutung für eine nach den Regeln der Technik entsprechende Auslegung und Bauweise gezeigt. Die Lehren aus dem Unglück beeinflussen nicht nur die in Betrieb befindlichen Kraftwerke, sondern auch zukünftige der vierten Generation. Schädigende Einflüsse von außen müssen bauartbedingt von den Reaktoren fern gehalten werden (z. B. Baugrund oberhalb von möglichen Flutwellen) und die Nachzerfallswärme muß auch über längere Zeit und in jedem Falle sicher abgeführt werden (z. B. passive Wasserkühlung aus oberen Tanks ausreichender Dimension).

Für die Reaktoren der vierten Generation sind umfangreiche Forschungsarbeiten zur Beantwortung dieser Fragen notwendig. Dies betrifft insbesondere das Verhalten der andersartigen Kühlmittel (Helium, Natrium, Blei etc.) und die teilweise wesentlich höheren Temperaturen (Werkstoffe, Temperaturschocks etc.). Hinzu kommt die höhere Energiedichte in den Kernen und etwaige Brennstoffkreisläufe in unmittelbarer Nähe.

Gasgekühlter schneller Reaktor (GFR)

Bei dem GFR (Gas-cooled Fast Reactor) handelt es sich um einen mit Helium gekühlten Reaktor mit schnellem Neutronenspektrum. Durch schnelle Neutronen lassen sich alle Aktinoiden — also alle radioaktiven Elemente mit langen Halbwertszeiten — spalten. Dies ist heute der Hauptgrund, warum man diese Entwicklung verfolgt. Man könnte mit solchen Reaktoren die "Endlagerfrage" eindeutig beantworten: Man braucht faktisch kein Endlager mehr, weil sich das Problem der potentiellen "Gefahr durch strahlenden Atommüll" auf technische Zeiträume von weniger als 300 Jahren reduziert. Damit ist auch klar, warum sich die "Anti-Atomkraftbewegung" mit besonderer Vehemenz — und auch Gewalttätigkeit — gegen den Bau solcher Reaktoren gewandt hat. Würden solche Reaktoren mit Wiederaufbereitung abgebrannter Brennelemente eingesetzt, wäre ihnen ihr Totschlagargument von angeblich über Millionen Jahre zu sichernden Endlagern entzogen. Die (deutsche) Scharade einer "Standortsuche" wäre schlagartig zu Ende.

Ein mit Helium gekühlter Reaktor mit schnellem Neutronenspektrum hat jedoch einen systembedingten Nachteil: Wegen des angestrebten Neutronenspektrums darf ein solcher Reaktor nur geringe Mengen an Materialien enthalten, die Neutronen abbremsen. Idealerweise würde er nur aus Brennstoff und Kühlmittel bestehen. Seine Fähigkeit "Wärme" zu speichern, ist sehr gering. Jede Leistungsänderung führt somit zu starken und schnellen Temperaturänderungen. Ein ernster Nachteil bei einem Verlust des Kühlmittels. Allein die Nachzerfallswärme könnte zu schwersten Schäden führen. Ebenso ist eine passive Nachkühlung kaum realisierbar. Helium ändert — anders als Wasser — nur geringfügig seine Dichte bei Temperaturänderungen. Man wird daher immer auf aktive Nachkühlung angewiesen sein. Die Ereignisse von Fukushima haben die Genehmigungsfähigkeit dieses Reaktorprinzips nicht unbedingt erhöht.

In nächster Zukunft müssen Gebläse bzw. Turbinen entwickelt werden, die Helium mit hoher Temperatur (Betriebstemperatur 850 °C) und unterschiedlichen Drücken (zwischen 1 und 70 bar) zuverlässig befördern können. Für die Kreisläufe zur Abführung der Nachzerfallswärme sind sicherheitsrelevante Ventile zu entwickeln und zu testen. Es sind zuverlässige Antriebskonzepte für die Notkühl-Gebläse zu entwickeln. Nach den Erfahrungen in Fukushima keine ganz einfache Aufgabe.

Die infrage kommenden Legierungen und Keramiken für die Brennelemente sind ausgiebig zu testen. Gleiches gilt für die Hüllrohre. Es müssen im Störfall Temperaturen von etwa 2000 °C sicher beherrscht werden.

Mit der bisherigen Entwicklung sind die Probleme eher größer geworden. Es wird deshalb nicht mit einem Abschluss der Machbarkeitsstudien in den nächsten zehn Jahren gerechnet. Wegen der Langfristigkeit ist der Einsatz der Mittel eher verringert worden.

Bleigekühlter schneller Reaktor (LFR)

Bei dem Lead-cooled Fast Reactor (LFR) handelt es sich um einen Reaktor, der flüssiges Blei als Kühlmittel verwendet. Blei besitzt einen sehr hohen Siedepunkt (1743 °C), sodaß man mit diesem Reaktortyp sehr hohe Temperaturen ohne nennenswerten Druckanstieg erzeugen kann. Allerdings ist Blei bei Umgebungsbedingungen fest, weshalb man den gesamten Kreislauf stets auf über 328 °C halten muß. Es gibt also zusätzlich den neuen Störfall "Ausfall der Heizung". Blei ist chemisch recht beständig und reagiert — wenn überhaupt — ohne große Wärmefreisetzung mit Luft oder Wasser. Es schirmt Gammastrahlung sehr gut ab und besitzt ein gutes Lösungsvermögen (bis 600 °C) für Jod und Cäsium. Ferner trägt die hohe Dichte von Blei eher zu einer Rückhaltung als einer Verteilung von radioaktiven Stoffen bei einem schweren Störfall bei. Allerdings stellt die Undurchsichtigkeit und der hohe Schmelzpunkt bei allen Wartungsarbeiten und Sicherheitsinspektionen eine echte Herausforderung dar. Die hohe Dichte von Blei erschwert den Erdbebenschutz und erfordert neue (zugelassene) Berechnungsverfahren. Nach wie vor, ist die Korrosion von Stahl in heißem Blei mit Sauerstoff ein großes Problem. Hier ist noch sehr viel Forschung und Entwicklung nötig, bis ein dem heutigen Niveau von Leichtwasserreaktoren entsprechender Zustand erreicht wird.

In sowjetischen U-Booten wurden Reaktoren mit einem Blei-Wismut-Eutektikum (niedrigerer Schmelzpunkt) verwendet. Die dort (meist schlechten) gesammelten Erfahrungen sind nicht direkt auf das LFR-Konzept übertragbar. Die Reaktoren sind wesentlich kleiner, haben eine geringere Energiedichte und Betriebstemperatur und eine geringere Verfügbarkeit. Außerdem arbeiteten sie mit einem epithermischen und nicht mit einem schnellen Neutronenspektrum. Der Vorteil des geringeren Schmelzpunktes einer Blei-Wismut-Legierung ist nicht ohne weiteres auf eine zivile Nutzung übertragbar, da durch den Neutronenbeschuß Plolonium-210 gebildet wird. Es handelt sich dabei um einen starken Alphastrahler (Halbwertszeit 138 Tage), der den gesamten Kühlkreislauf kontaminiert.

Im Moment werden im Projekt drei verschiedene Konzepte verfolgt: Ein Kleinreaktor mit 10 bis 100 MWel in den USA (Small Secure Transportable Autonomous Reactor or SSTAR), ein Reaktor mit 300 MWel in Russland (BREST) und ein Reaktor mit mehr als 600 MWel in Europa (European Lead Fast Reactor or ELFR – Euratom).

Wenn man einen solchen Reaktor als Brüter betreiben will, benötigt man eine Mindestleistung. Je größer, je effektiver. Ein kleiner Reaktor, wie z. B. der SSTAR, ist nur als reiner "Aktinoidenbrenner" geeignet. Allerdings kann er sehr lange ohne einen Brennstoffwechsel betrieben werden. Will man Spaltmaterial erbrüten, ist ein häufiger Brennstoffwechsel unvermeidlich. Es empfiehlt sich deshalb, einen entsprechenden Brennstoffzyklus zu entwickeln. Es wird auf den Bau mehrere Reaktoren mit einer gemeinsamen Wiederaufbereitungsanlage hinauslaufen. Das Verfahren zur Wiederaufbereitung hängt wiederum von dem Brennstoffkonzept des Reaktors ab.

Ein besonderes Konzept, im Zusammenhang mit Blei, ist die Entwicklung einer Spallationsquelle (Japan, MYRRHA in Belgien usw.). In einem Beschleuniger wird ein Strahl von Protonen auf über 1 GeV beschleunigt und auf flüssiges Blei geschossen. Beim Auftreffen auf ein Bleiatom "verdampft" dieses seine Kernelemente. Es wird eine große Anzahl von Neutronen frei. Diese Neutronen werden von einem Mantel aus Aktinoiden absorbiert. Diese eingefangenen Neutronen führen teilweise zu einer Spaltung oder einer Umwandlung. Durch die Spaltungen wird — wie in jedem Kernreaktor — Wärme frei, die anschließend konventionell genutzt werden kann. Es entsteht aber keine selbsterhaltende Kettenreaktion. Wird der Beschleuniger abgeschaltet, brechen auch sofort die Kernreaktionen in sich zusammen. Es handelt sich hierbei also um eine Maschine, die primär der Stoffumwandlung und nicht der Energieerzeugung dient. Durch die Verwendung von Blei als "Neutronenquelle" und Kühlmittel sind aber alle Erfahrungen und Probleme unmittelbar übertragbar.

Am weitesten scheint die Entwicklung in Russland vorangeschritten zu sein. Man entwickelt einen bleigekühlten Reaktor mit 300 MWel (BREST-300) und betreibt die Weiterentwicklung der U-Boot-Reaktoren mit Blei-Wismut-Eutektikum als Kühlmittel (SVBR-100). Beide Reaktoren sollen bis zum Ende des Jahrzehnts erstmalig kritisch werden. In Europa plant man eine Demonstrationsanlage mit 300 MWth (Advanced Lead Fast Reactor European Demonstrator, ALFRED).

Salzbadreaktoren (MSR)

Salzbadreaktoren (Molten Salt Reaktor, MSR) werden in zwei Gruppen eingeteilt: Reaktoren, bei denen der Spaltstoff im Salz selbst gelöst ist und Reaktoren, bei denen das flüssige Salz nur als Kühlmittel dient (Fluoride salt-cooled High-temperature Reactor, FHR).

Zwischen 1950 und 1976 gab es in den USA ein umfangreiches Entwicklungsprogramm, aus dem zwei Prototypen erfolgreich hervorgingen (Aircraft Reactor Experiment, ARE und Molten Salt Reactor Experiment, MSRE). Anfangs konzentrierte man sich in der Entwicklung auf Salzbadreaktoren mit thermischem Neutronenspektrum.

Ab 2005 entwickelte sich eine Linie, die von in Salz gelöstem Brennstoff und Spaltprodukten ausging. Als Kühlmittel soll ebenfalls Salz dienen. Das Neutronenspektrum soll schnell sein. Von dieser Kombination verspricht man sich einerseits das Erbrüten von Spaltstoff (z. B. Uran-233 aus Thorium-232) und andererseits das kontinuierliche "Verbrennen" von Minoren-Aktinoiden mit dem Ziel eines relativ kurzlebigen "Atommülls", der nur noch aus Spaltstoffen besteht. Durch das Salzbad möchte man hohe Betriebstemperaturen bei nahezu Umgebungsdruck erreichen. Bis zum Bau eines Reaktors, ist jedoch noch ein langer Weg zurück zu legen: Es müssen die chemischen (Korrosion) und thermodynamischen Zustandsdaten für solche n-Stoff-Salze bestimmt werden. Es müssen Verfahren zur kontinuierlichen Entgasung der Salzschmelze entwickelt werden, da ein großer Teil der Spaltprodukte (zumindest bei der Betriebstemperatur) gasförmig ist. Für das flüssige Salzgemisch müssen gekoppelte neutronenphysikalische und thermohydraulische Berechnungsverfahren geschaffen werden. Für die radioaktiven Salzgemische sind zahlreiche Sicherheitsversuche zur Datensammlung und Absicherung der Simulationsmodelle nötig. Die Chemie und Verfahrenstechnik der Aufbereitung während des Reaktorbetriebs muß praktisch noch vollständig getestet werden.

Natriumgekühlter schneller Reaktor (SFR)

Der Sodium-cooled Fast Reactor (SFR) verwendet flüssiges Natrium als Kühlmittel. Natrium hat nahezu ideale Eigenschaften: Relativ geringer Schmelzpunkt (98 °C), aber hoher Siedepunkt (890 °C), sehr gute Wärmeleitfähigkeit (140 W/mK) bei annehmbarer Wärmekapazität (1,2 KJ/kgK). Es hat keine korrosiven Eigenschaften, reagiert aber heftig unter Wärmefreisetzung mit Luft und Wasser. Bisher wurden bereits 17 Reaktoren gebaut und drei weitere befinden sich in Russland, Indien und China im Bau.

Ursprüngliches Ziel war die Erschaffung eines "schnellen Brüters". Mit ihm sollte mehr (thermisch) spaltbares Plutonium erzeugt werden, als dieser Reaktortyp zu seinem Betrieb benötigte. Dieses zusätzlich gewonnene Plutonium sollte dann zum Start weiterer Reaktoren verwendet werden. Inzwischen gibt es aus dem Betrieb von Leichtwasserreaktoren und der Rüstungsindustrie mehr als genug Plutonium auf der Erde. Darüber hinaus sind die Natururanvorräte nahezu unerschöpflich. Deshalb hat sich die Zielrichtung in den letzten Jahren verschoben. Die benutzten Brennelemente aus Leichtwasserreaktoren werden von "Atomkraftgegnern" abfällig als "Atommüll" bezeichnet. In Wirklichkeit sind aber das gesamte enthaltene Uran und Plutonium (weit über 95 %) vollständig zur Energiegewinnung nutzbar. Gerade aus dem wertvollsten Material — dem Plutonium — wird wegen dessen langer Halbwertszeit der Bedarf eines Endlagers und dessen "sicherer Einschluß über Millionen von Jahre" konstruiert. Selbst die Spaltprodukte — als tatsächlicher Abfall der Energieerzeugung durch Kernspaltung — sind (wirtschaftlich) nutzbar.

Man geht heute von einer Erstbeladung eines schnellen natriumgekühlten Reaktors mit einem Gemisch aus Uran und knapp 20% Plutonium aus. Das Plutonium gewinnt man aus den abgebrannten Brennelementen der Leichtwasserreaktoren. Die abgebrannten Brennelemente eines solchen schnellen Reaktors werden nach angemessener Zwischenlagerung in einem elektrochemischen Prozeß (wie z. B. bei der Kupfer- und Aluminiumproduktion) wieder aufbereitet. Bei diesem Wiederaufbereitungsverfahren liegt der Schwerpunkt in der Gewinnung möglichst reiner (kurzlebiger) Spaltprodukte. Alle langlebigen Aktinoiden werden wieder in den neuen Brennelementen weiter verwendet. Das "verbrauchte" Uran und Plutonium wird dabei durch "Atommüll" aus Leichtwasserreaktoren ergänzt. Ein solcher Reaktor gleicht also einer "Müllverbrennungsanlage", in der ja auch "gefährliche Stoffe" unter gleichzeitiger Stromerzeugung beseitigt werden.

Natriumgekühlte Reaktoren können in beliebiger Größe gebaut werden. Lediglich wenn man Brennstoff erbrüten will (d. h. mehr Plutonium produzieren als man verbraucht) muß der Reaktor geometrisch groß sein, um Neutronenverluste zu vermeiden. Gerade "Aktinoidenbrenner" können sehr klein und kurzfristig gebaut werden. Die Entwicklung bezieht sich auf die Kombination aus Brennstoff (oxidisch, metallisch, karbidisch und Nitride möglich) und die Wiederaufbereitung (naßchemisch, pyrotechnisch). Es gilt die optimale Kombination aus Werkstoffen und Verfahren zu finden. Ferner sind homogene Brennstoffe und spezielle heterogene Anordnungen zur Verbrennung von Minoren-Aktinoiden denkbar. Diese Anordnungen koppeln wieder auf die Neutronenphysik, die Regelung und damit letztendlich auf die Sicherheit zurück.

Reaktor mit überkritischem Wasser (SCWR)

Wird Wasser oberhalb des kritischen Punktes (374,12 °C bei 221,2 bar) verwendet, ändert es radikal seine chemischen und physikalischen Eigenschaften. Entscheidend ist die kontinuierliche Änderung der Dichte. Es gibt nicht mehr das gleichzeitige Auftreten von Dampf und Flüssigkeit (z. B. Blasen) in einem Behälter.

Ziel von "überkritischen Kesseln" ist die Steigerung des Wirkungsgrades. So sind heute in modernen Kohlekraftwerken Wirkungsgrade von 46 % möglich. Für den Supercritical-water-cooled reactor (SCWR) ist ein Wirkungsgrad von 44 % angestrebt. Die leidvolle Entwicklungsgeschichte bei konventionellen Kraftwerken hat jedoch gezeigt, daß die Steigerung von Druck und Temperatur mit erheblichen Werkstoffproblemen und damit Kosten verbunden ist. Solange Kernbrennstoff so billig wie heute sind, scheint dieser Weg bei Reaktoren zumindest wirtschaftlich nicht sinnvoll.

Die gesamte Sicherheitstechnik muß neu durchdacht und experimentell bestätigt werden. Es gibt keine lokale Selbstregelung durch Dampfblasenbildung mehr. Die Gefahr von überhitzten Stellen im Kern muß schon im Normalbetrieb sicher beherrscht werden. Die Notkühlsysteme müssen bei einem Druckabfall sowohl im überkritischen Zustand, als auch im Zwei-Phasenbereich voll wirksam sein. Man kann sich nicht mehr auf den Wasserstand als Stellgröße verlassen, sondern muß auf den Durchfluß übergehen, was wesentlich schwerer zu realisieren ist. Die Wasserchemie ist im überkritischen Zustand wesentlich anders und schwerer zu beherrschen.

Bisher wurden nur Tests mit Komponenten ausgeführt. Man hofft auf dieser Basis in den nächsten fünf Jahren eine Entscheidung für den Bau eines Prototyps fällen zu können. Bis zu einem kommerziell nutzbaren Reaktor dürften noch weit über 20 Jahre vergehen.

Hösttemperaturreaktor (VHTR)

Der Very-High-Temperature Reactor (VHTR) ist eine Weiterentwicklung eines mit Helium gekühlten Reaktors mit thermischem Neutronenspektrum. Es gibt die — ursprünglich in Deutschland entwickelte — Anordnung der Brennelemente als Kugelhaufen oder eine prismatischer Anordnung. Ziel war immer das Erreichen von Betriebstemperaturen von nahezu 1000 °C. Dieser Reaktortyp sollte primär als Wärmequelle in der Verfahrenstechnik (Kohleveredlung etc.) dienen. In diesem Sinne war ein Meilenstein immer das Erreichen einer Temperatur von 950 °C, bei der eine rein thermische Zerlegung von Wasser über einen Schwefel-Jod-Prozeß möglich ist. Dies war als Fundament einer "Wasserstoffwirtschaft" gedacht. In Deutschland wurde das Konzept einer "kalten Fernwärme" entwickelt, in dem Methan im Kreislauf läuft und beim Verbraucher lediglich chemisch zerlegt wird und die Bestandteile anschließend wieder mit der Hilfe der Wärme des Kernreaktors wieder zusammengesetzt werden. Der Charme dieses Konzepts liegt in der Fähigkeit, Energie über große Entfernungen mit geringen Verlusten (wie ein Erdgasnetz) transportieren und auch speichern zu können. Stellt man das "Erdgas" synthetisch aus Kohle her, kann man dieses Gas in das vorhandene Erdgasnetz einspeisen. Interessanterweise wird dieser Gedanke in China aus den gleichen Gründen, wie damals in Deutschland, wieder aufgegriffen: Luftverschmutzung durch Kohle, bei (noch) geringen eigenen Erdgasvorkommen.

Die Entwicklung von Höchsttemperaturreaktoren ist im wesentlichen ein Werkstoffproblem. Wobei nicht übersehen werden darf, daß mit steigender Temperatur der Aufwand und die Kosten exponentiell ansteigen. Allerdings kann diese Entwicklung evolutionär durchgeführt werden. China scheint offensichtlich diesen Weg eingeschlagen zu haben. Ausgehend vom (Nachbau) des deutschen Kugelhaufenreaktors begibt man sich schrittweise vorwärts.

Im Rest der Welt, dürfte die Entwicklung durch die "Shale-Gas-Revolution" nur schleppend vorankommen, wenn nicht sogar eingestellt werden. Die Gasindustrie ist einfach cleverer. Man hat Millionenspenden in die Werbung für Sonnen- und Windenergie investiert. Wohl wissend, daß für jedes Windrad und jeden Sonnenkollektor die gleiche Backup-Leistung noch einmal in konventionellen Kraftwerken bereitgestellt werden muß. Gaskraftwerke sind aber mit Abstand die Kraftwerke, mit den geringsten Investitionskosten. Der bereits erfolgte Zubau kurbelt den Gasabsatz gewaltig an. Sollte das Gas durch die erhöhte Nachfrage zu teuer werden, bleibt den Energieversorgern (wie schon einmal) die Flucht in Kern- und — vor allem — Kohlekraftwerke. Deshalb investiert die Gasindustrie bereits konsequent in "Klimaschutz". Die Krönung wird die "Wasserstoffwirtschaft" sein. Man nutzt die frei werdenden Gasmengen zur Erzeugung von Wasserstoff. Das dabei anfallende CO2 läßt man sich möglichst durch eine CO2-Abgabe vergüten, um es anschließend in der Ölförderung zum dritten Mal zu verkaufen. Wer will, kann dieses Dreieckgeschäft aus Windenergie, Wasserstoffproduktion für Raffinerien und CO2 zur Ölförderung, schon in Texas studieren. Die Ironie der Geschichte könnte sein, daß gerade die "Alternativindustrie" mit ihrem Propagandafeldzug für "Klimaschutz" sich selbst den Ast absägt, auf dem sie (noch) so profitabel sitzt. Niemand hat z. B. mit China gerechnet, die ein atemberaubendes Tempo beim Ausbau der Kernenergie vorlegen. Das Märchen von Wind und Sonne, könnte sich auch hier bald als solches erweisen.

Klaus Dieter Humpich;

der Beitrag erschien zuerst bei NUKE Klaus am 25.04.14




Svensmark kosmische Theorie und Darstellungen der Wolkenbedeckung in Kunstwerken der Kleinen Eiszeit

Durch rigorose [aber vergebliche] Versuche, den kosmischen Effekt in bester wissenschaftlicher Manier zu widerlegen, ist dieser Effekt jetzt etabliert.

Herausforderung des IPCC

Abbildung 3: IPCC-Abbildung 7c

Eine wesentliche Objektive des 3. Zustandsberichtes des IPCC (TAR) war es, den Beweisen in Abbildung 7c aus dem 1. Zustandsbericht 1990 zu begegnen. Sie war ärgerlich, zeigte sie doch signifikante Temperaturvariationen während der letzten 1000 Jahre. Dies widersprach der IPCC-Behauptung, dass die Erwärmung im 20. Jahrhundert einmalig und anomal war. Der Schwerpunkt lag auf der Darstellung der Mittelalterlichen Warmzeit MWP von etwa 950 bis 1350. Aber auch die Kaltzeit von 1350 bis 1850, bekannt als die Kleine Eiszeit LIA, war Gegenstand von Gedanken. Lamb hat in einer persönlichen Bemerkung darauf hingewiesen, dass das Einsetzen und die Dauer dieser Perioden regional variiert hat, manchmal um Jahrzehnte.

Künstler-Gemälde der LIA

Wir alle sehen die Welt auf unterschiedliche Weise mit unterschiedlichen Gefühlen und unterschiedlichem Bewusstsein. Klassischerweise ist das meiste davon Natur, besonders mit bestimmten Fähigkeiten wie Mathematik, Musik oder Kunst. Künstler sehen Farben, Licht und Abbildungen der Welt unterschiedlich. Es gibt eine Grundlage für Landschaftsmaler, weil sie malen, was sie vor sich sehen, wenn auch mit artistischer Brillanz je nach Gelegenheit. Ihre Werke liefern Beweise für Bedingungen wie den Schnee und die Kälte der Kleinen Eiszeit von Breughel (Abbildung 4) oder Grifier (Abbildung 5). Eine Ausstellung dieser Werke gab es von Hendrick Avercamp mit dem Titel „the Little Ice Age“ in der National Gallery in Washington von März bis Juli 2010.

Abbildung 4: Pieter Breughel the Elder, Hunters in the Snow*

Diese Künstler betrachteten diese Bedingungen als relativ normal, vor allem, wenn ihre Lebensspanne innerhalb der LIA lag. Als Landschaftsmaler würden sie jedoch sich ändernde atmosphärische Bedingungen vor allen anderen bemerken, was ihre Werke beeinflussen würde.

Abbildung 5: Jan Grifier, The Great Frost 1683 (River Thames)*

[*Diese Untertitel habe ich absichtlich nicht übersetzt! A. d. Übers.]

Sich veränderndes Himmelsbild ist Beweis für ein sich änderndes Klima

Abbildung 6: John Constable, englischer Künstler

Der US-Bundesstaat Montana ist bekannt unter der Bezeichnung „Big Sky Country“, und folglich sind die dominanten Features in Bildern Himmel und Wolken. Dies gilt für jedes Flachland-Gebiet, wie z. B. Saskatchewan oder Norfolk in Ostengland. Künstler malen diese Himmelsbilder natürlich, aber nur wenige mit größerer Aufmerksamkeit als John Constable (Abbildung 6). Er wurde so sehr auf die Wolken aufmerksam, dass er im Jahre 1821 ein ganzes Album fertigte ausschließlich mit Wolken und Wolkenformen (Abbildung 8). Es gibt viele Bücher, die diese Malereien analysieren. Eines davon mit dem Titel John Constables Himmel [skies] trägt den Untertitel A Fusion of Art and Science [etwa: „Fusion von Kunst und Wissenschaft]. Darin wird die Frage gestellt: Und waren seine Himmelsbilder wissenschaftlich korrekt gemalt? Es wurde 1999 veröffentlicht und ging der Bestätigung von Svensmarks Arbeiten über Sonnenflecken und Wolkenbedeckung voraus.

Constables Werke unterstützen nicht aus sich selbst heraus Svensmarks Arbeiten, aber wenn man sie mit einer 1970 erschienenen Studie von Neuberger vergleicht (die als Nachdruck am 30. April 2012 in Weather erschienen war), stellen sie eine unabhängige Bestätigung dar. Die Schönheit von Neubergers Arbeit Climate in Art besteht darin, dass sie 29 Jahre vor dem Beginn der Untersuchung einer Verbindung zwischen Sonnenflecken und Temperatur erschienen war, die Friis-Christensen und Knud Lassen in einem Science-Artikel im Jahre 1991 umrissen haben. Titel: Length of the Solar Cycle: An Indicator of Solar Activity Closely Associated with Climate [etwa: Länge eines solaren Zyklus’: Ein Indikator für eine enge Beziehung zwischen Sonnenaktivität und Klima].

Neubergers Hypothese lautete: …eine statistisch ausreichende Menge von Malereien von vielen Malern, die in einer gegebenen Periode in einer gegebenen Region gelebt haben, sollte meteorologische Features zeigen, die sich signifikant von jenen einer ähnlichen Menge von Malereien unterscheiden, die in der gleichen Epoche in einer klimatisch anderen Region entstanden sind.

Er untersuchte über 12.000 Gemälde in 41 europäischen und amerikanischen Kunstmuseen. Die untersuchte Zeitperiode erstreckte sich von 1400 bis 1967. Verschiedene Definitionen wurden aufgestellt, um die Kategorien zu standardisieren einschließlich des Codes im US-Flugverkehr, der aus vier Kategorien besteht:

clear (weniger als 10% des sichtbaren Himmels ist mit Wolken bedeckt)

scattered (10 bis 50% Wolkenbedeckung)

broken (60 bis 90% Wolkenbedeckung)

overcast (über 90% Wolkenbedeckung)

Er unterteilte den Zeitraum von 1400 bis 1967 in drei Epochen, dargestellt in Abbildung 7 (Abbildung 12 im Originalartikel).

Abbildung 7: Neubergers Bildunterschrift: Epochale Änderungen verschiedener gemalter Features.

Die Epochen definierte er so:

1400 bis 1549: die Periode vor dem Höhepunkt der Kleinen Eiszeit

1550 bis 1849: Die Periode des Höhepunktes der LIA, die „Jahre ohne Sommer“ enthält

1850 bis 1967: Die Periode nach dem Höhepunkt, gekennzeichnet durch Gletscherrückzug und substantieller atmosphärischer Erwärmung.

Als er diese Zeiträume auf 50-Jahres-Epochen herunterbrach, zeigten die Prozentzahlen der mittleren Bewölkung dramatische Unterschiede, die von 29% im Zeitraum 1400 bis 1449 bis zu 77% im Zeitraum 1550 bis 1599 reichten. Dazu schrieb er:

Die Häufigkeit tiefer und konvektiver Wolken zeigt auch eine starke Änderung von der ersten zur zweiten Epoche. Dies spiegelt die Verschlechterung des Wetters in ganz Europa.

Abbildung 8: Aus einer Wolkenstudie von Constable (1821).

J. M. W. Turner, ein Zeitgenosse von Constable, hat ebenfalls Landschaften mit einer extensiven Darstellung der Wolken gemalt. Ihn haben mehr die wechselnden Lichtbedingungen angesprochen, vor allem nach dem Ausbruch des Tambora im Jahre 1815. Deswegen werden seine Werke als früher englischer Impressionismus angesehen.

Schlussfolgerung

Ein kritischer Punkt bei der Rekonstruktion des Klimas ist die Beschaffung bestätigender Informationen aus unabhängigen Quellen. Diese frühe Studie von Neuberger stützt Svensmarks Hypothese, dass die sich ändernde Sonnenaktivität verstärkt die Bildung tiefer Wolken verursacht, die wiederum zu Änderungen der Temperatur führt.

Link: http://wattsupwiththat.com/2014/04/24/svensmarks-cosmic-theory-and-cloud-cover-depictions-in-little-ice-age-art/

Übersetzt von Chris Frey EIKE




Die Vereinigten Staaten des Gases – warum die Schiefer-Revolution nur in den USA möglich war

Erdgas war ein Gottesgeschenk für die USA [und es schickt natürlich keine Rechnung! A. d. Übers.]. Bereits jetzt hat Gas eine Renaissance der Manufakturen ausgelöst, haben doch Investoren Hunderte Milliarden Dollar für neue Fabriken wie Chemie-, Stahl- und Aluminiumwerke verplant und diese gebaut. Der Schiefer-Boom hat hunderttausende neue und gut bezahlte Arbeitsplätze geschaffen, und jetzt arbeiten über eine Million Amerikaner in der Öl- und Gaserzeugung – eine Zunahme um etwa 40% zwischen 2007 und 2012. Außerdem sparen die US-Verbraucher durch den Boom hunderte Milliarden Dollar pro Jahr, macht doch Erdgas gegenwärtig 25% der in den USA verbrauchten Gesamtenergie aus – ein Anteil, der noch rapide zunimmt. Zusammen mit den anderen Vorteilen haben diese Einsparungen den USA einen längerfristigen ökonomischen Vorteil gegenüber seinen Konkurrenten verschafft, und sie haben dem Land geholfen, sich von der großen Rezession zu erholen.

So sehr andere Länder auch diesen Katalysator für heimisches Wachstum beneiden, sind sie doch nicht in der Lage, dieses zu reproduzieren, weil nur die USA die Zutaten besitzen, um Schiefergas-Reserven in großem Umfang zu erschließen. Ein System, das Privatbesitz von Ländereien und den Ressourcen im Untergrund darunter legalisiert, hat zusammen mit offenen Kapitalmärkten und vernünftigen Vorschriften zum Wachstum tausender unabhängiger Öl- und Gasunternehmen geführt, die alle in intensivem Wettbewerb untereinander stehen. Folge: fast vier Millionen Öl- und Gasbohrungen wurden in den USA niedergebracht; in der gesamten übrigen Welt waren es 1,5 Millionen. Die Bohraktivitäten in den USA haben auch zu weiteren Innovationen innerhalb der Industrie geführt, und zwar mit einer Größenordnung, von der andere Länder nur träumen können.

Obwohl es auch in anderen Gebieten wie z. B. in China und Europa, substantielle Schiefer-Ressourcen gibt, gibt es dort nicht das unternehmerfreundliche System, das erforderlich ist, diese Ressourcen rasch und produktiv zu erschließen. Solange die Politiker dort nicht entsprechend die Weichen stellen, werden die USA noch Jahrzehnte lang von der Schiefer-Revolution profitieren.

Hintergründe des Booms

Die Geschichte der amerikanischen Schiefer-Revolution ist ein Musterbeispiel an Einfallsreichtum – doch hat Big Oil keinen Anteil daran. Seit den siebziger Jahren nahm die Produktion aus den Öl- und Gasfeldern auf dem US-Festland ab, weil diese Felder der Erschöpfung entgegen gingen. Also waren die großen Ölunternehmen gezwungen, die Erschließung neuer Ressourcen in den USA aufzugeben. Um riesige neue Ölfelder zu finden, haben sie ihre Bemühungen in die Seegebiete vor den Küsten verlagert. Diese Investitionen waren enorm teuer und machten oftmals Jahrzehnte lange Verhandlungen und Entwicklungen nötig. Um die Kapitalreserven und die globale Reichweite sicherzustellen, die für Verhandlungen mit nationalen Regierungen und die Vervollständigung von Mammutprojekten erforderlich waren, begannen die großen Ölunternehmen, sich zusammenzuschließen. Sie erkannten, dass es gewöhnlich billiger war, Öl in Wall Street zu kaufen als es aus dem Boden zu holen.

Während der folgenden Jahrzehnte wurden diese Unternehmen jedoch exzessiv bürokratisch und haben einen Tunnelblick entwickelt. Prinzipiell nur auf ihre schwindenden Ölvorräte fixiert, haben sie ihr Kapital in riesige ausländische Projekte gesteckt wie z. B. das Kashagan-Feld in Kasachstan, in dem geschätzt 13 Milliarden Barrel förderbares Rohöl liegen. Die erste Phase an Investitionen hat bereits 50 Milliarden Dollar verschlungen.

Inzwischen waren kleinere, unabhängige Unternehmen – die den Löwenanteil ihres Umsatzes mit der Herstellung von Bohrköpfen und anderem Zubehör machten – gezwungen, entweder Neuerungen einzuführen oder unterzugehen. Seit Ende der neunziger Jahre sind die Erdgaspreise gestiegen, und die Unternehmen mussten lernen, dass die Schieferformationen unter den USA riesige Mengen Gas enthielten. Also haben derartige Unternehmen wie GHK Companies (deren Gründer und geschäftsführender Direktor ich bin) versucht, den Schiefer aufzubrechen und das Gas freizusetzen, indem Sand, Wasser und Chemikalien in den Fels gepresst wurden – ein Prozess, der bekannt ist als hydraulisches Brechen oder Fracking. Aber das war einfach nicht profitabel.

Dann war George Mitchell, ein unabhängiger Ölunternehmer, der Probebohrungen in der Barnett-Formation in Texas durchgeführt hatte, der Durchbruch gelungen. Seine Innovation war die horizontale Bohrung im Schiefer, was tausende Meter Gas enthaltenden Gesteins erreichte, während in vertikalen Bohrlöchern lediglich 100 Fuß [ca. 30 m] (oder auch nur 10 bis 20 Fuß [ca. 3 bis 6 m]) erschlossen werden konnten. Kurzfristig stiegen die Gaspreise sogar noch stärker, und Mitchells Technik wurde immer besser. Schließlich begann er, kommerziell erfolgreich zu sein. Im Jahre 2002 kaufte Devon Energy, wo man die Revolution kommen sah, Mitchells Unternehmen und vervollständigte die erforderlichen Innovationen, um die Barnett-Formation zu erschließen. Chesapeake Energy und andere unabhängige Unternehmen sprangen bald auf den Zug auf, und der US-Schieferboom nahm seinen Lauf. Innerhalb eines Jahrzehnts überholte Chesapeake ExxonMobil als größter US-Erdgaslieferant, und nur wenig später überholten die USA Russland als der weltgrößte Gaserzeuger.

Unabhängige Unternehmen haben nicht nur die Erdgasindustrie transformiert, sondern Gleiches auch mit Öl getan. Die neu gefundenen Gasvorräte verursachten einen Preissturz bei Erdgas von über 13,50 Dollar pro 1000 Kubikfuß im Jahre 2008 auf etwa 3 bis 4 Dollar pro tausend Kubikfuß 2009. Erdgas wurde so billig, dass die unabhängigen Unternehmen erneut zu Innovationen gezwungen waren, um zu überleben. Während Gas mit einem Äquivalent von weniger als 25 Dollar pro Barrel Öl verkauft werden konnte, das Öl selbst aber 100 Dollar pro Barrel kostete, begannen sie die so erfolgreich bei Gas angewandten Technologien für Öl weiter zu entwickeln, und zwar in Schieferformationen mit geringer Durchlässigkeit, in der Industrie bekannt als „dichte“ Reservoire. Und die Ergebnisse waren genauso eindrucksvoll – die USA werden Russland als den zweitgrößten Ölerzeuger bis zum Ende dieses Jahrzehnts überholen, und sie könnten – jedenfalls der International Energy Agency zufolge – sogar auch Saudi-Arabien überholen und zum größten Ölerzeuger der Welt aufsteigen.

Nichts davon hätte geschehen können ohne das einheitliche gesetzliche Rahmensystem der USA. Dieses garantiert Landbesitzern die Rechte nicht nur an der Oberfläche ihres Eigentums, sondern auch an allem, was darunter liegt – alles, theoretisch bis zum Mittelpunkt der Erde. In der übrigen Welt sind diese Abbaurechte praktisch allen gehörend oder werden streng kontrolliert durch souveräne Regierungen. In den USA kann jedes Unternehmen ein Leasing-Abkommen mit einem willigen Landbesitzer schließen und mit dem Bohren beginnen. Dies hat zu einem Darwinistischen Wettbewerb zwischen den Unternehmern geführt. Und so gibt es in den USA inzwischen über 6000 unabhängige Öl- und Gasunternehmen sowie eine gleich große Zahl damit verbundener Service-Unternehmen, verglichen mit der Handvoll unabhängiger und Service-Unternehmen in Übersee.

An jedem dieser Bohrfelder der amerikanischen Unternehmen arbeiten dutzende Gehirne an jedem Teil des Entwicklungsprozesses. Mit Hilfe von 3D-Modellen der seismischen Aktivität im Untergrund finden die Ingenieure oftmals mit Fernerkundung und in Echtzeit die genauen Bohrstellen, wo dann in den reichsten Zonen der Schieferformation gebohrt wird. Sie optimieren die Größe der durch das Fracking geöffneten Spalten, so dass diese weder zu groß noch zu klein sind. Es ist so, als ob jedes einzelne Bohrloch sein eigenes Mini-Silicon Valley hat. Nachdem man dies tausende Male wiederholt hatte, haben diese und andere Techniken es den Unternehmen erlaubt, die Produktivität zu maximieren, die Kosten zu senken und ein Bohrloch in der Hälfte der Zeit fertigzustellen wie zu Beginn.

Jetzt betrachte man einmal, was sich alles in nur einem Jahr ändern kann. Im Jahre 2013 hat ein einziges großes unabhängiges Unternehmen über 100 horizontale Bohrungen durchgeführt, und zwar in Oklahoma, wo die GHK-Unternehmen Beteiligungen an 150 Quadratmeilen [ca. 390 km²] halten. Hätte man diese Bohrungen vertikal niedergebracht, hätte man nur etwa 1000 Fuß Schiefer [ca. 300 m] erschließen können, während man mit horizontalen Bohrungen fast 100 Meilen [ca. 160 km] erschließen konnte. Die Ingenieure der Unternehmen haben sich auch Variablen vorgenommen wie die Art von Bohrköpfen, das während der Bohrungen angebrachte Gewicht, die Rotationsgeschwindigkeit des Bohrers und Anzahl und Größe der Fracking-Vorgänge. Dank dieses fortgesetzten Experimentierens plus dank der Rabatte durch Großbestellungen (z. B. Stahlrohrgerüste) ist es den Unternehmen gelungen, die Kosten um 40 Prozent während der letzten 18 Monate zu senken und trotzdem die Produktivität zu steigern. Ergebnis: 2014 können sechs oder sieben Bohrstellen mehr Bohrungen durchführen und genauso viel Öl und Gas fördern als 12 Bohrstellen im Vorjahr.

Seit Beginn des Schieferbooms vor über einem Jahrzehnt haben die Unternehmen etwa 150.000 horizontale Bohrungen in den USA niedergebracht, ein monumentales Unterfangen, das etwa 1 Billion Dollar gekostet hat. In der übrigen Welt wurden jedoch nur insgesamt ein paar hundert horizontale Bohrungen durchgeführt. Und weil sich jedes Bohrloch horizontal über etwa 1 Meile (und manchmal sogar 2 Meilen) erstreckt und Gegenstand von zehn oder mehr Fracking-Injektionen ist, haben die US-Unternehmen etwa 150.000 Meilen [über 240.000 km] Schiefer etwa zwei Millionen mal erschlossen. Das ergibt in der Summe etwa 1000 mal mehr erschlossenes Schiefergestein innerhalb der USA als außerhalb.

Kleinere Rivalen

Es ist sehr unwahrscheinlich, dass andere Länder zu den USA aufschließen. Sicher, China und Europa sitzen auf riesigen Schiefer-Reserven (wobei diese in China noch größer sein könnten als in den USA). Aber diese Reserven werden in nächster Zeit sicher nicht extrahiert. Da es in anderen Ländern keine tausende unabhängige Öl- und Gasunternehmen gibt, müssen deren Ressourcen auf bürokratischem Wege ausgebeutet werden, und zwar durch schwerfällige nationale Unternehmen und internationale Riesen (die sich oftmals mit noch bürokratischeren Regierungen herumschlagen und ein Byzantinisches Gewirr von Vorschriften einhalten müssen). Es wird Jahrzehnte dauern, wenn große Schieferabkommen zwischen auswärtigen Ländern ausgehandelt und danach entsprechende Projekte gestartet werden können. Selbst in China, wo die Regierung eine nahezu vollständige Kontrolle des Landes sowohl über als auch unter Tage ausübt, planen nur einige wenige nationale und ein paar weitere auswärtige Unternehmen, Schiefergas zu erschließen. Und weil weniger kluge Köpfe an weniger Operationen beteiligt sind, wird es viel länger dauern, Erfahrungen zu sammeln, und Produktivitäts-Steigerungen werden geringer sein als in den USA. Das hat hohe Kosten und geringe Profite zur Folge.

In vielen Demokratien wird die Entwicklung auch durch das „Nicht-vor-meiner-Tür“-Syndrom verzögert. Anders als die Einwohner von Oklahoma und Texas, die zusammen mit der Öl- und Gasindustrie aufgewachsen sind, sind auswärtige Völker damit nicht vertraut; die meisten der 1,5 Millionen Öl- und Gasbohrungen außerhalb der USA befinden sich entweder in tiefen Gewässern offshore oder in entlegenen Gebieten auf dem Festland. Und weil Regierungen in anderen Ländern praktisch die gesamten Rechte an Bodenschätzen besitzen, haben Landbesitzer keine Trümpfe in diesem Spiel. Ohne an den ökonomischen Vorteilen teilhaben zu können und nur mit den Schattenseiten aufdringlicher Projekte vor ihren eigenen Haustüren tendieren sie verständlicherweise dazu, Widerstand gegen Bohrprojekte zu leisten.

Das ist in Europa so, wo das Problem durch eine hyperaktive grüne Bewegung noch erheblich vergrößert wird. Diese tut alles, um die Entwicklung von Schiefergas insgesamt zu verhindern. In Frankreich ist Fracking komplett verboten worden, und in Deutschland gibt es ein De-Facto-Moratorium. Ohne eine grundlegende Änderung dieser Haltung wird Europa sogar noch länger brauchen als China, seine Schiefergas-Reserven zu erschließen. Selbst wenn es dazu kommen sollte, werden die Ergebnisse viel weniger robust sein und nur sehr langsam kommen.

Europa ist auch mit einer fehlgeleiteten Energiepolitik belastet. Zu Beginn dieses Jahrhunderts haben europäische Politiker gesagt, dass ihr Kontinent bei der Hinwendung zu grüner Energie und der Reduktion von CO2-Emissionen führend sein sollte. Sie haben mit Zehner-Milliarden Dollar Steuergeld grüne Energieprojekte subventioniert, um grundsätzlich die Entwicklung von Solar- und Windenergie voranzutreiben, die jedoch nicht effizient oder zuverlässig genug ist, um im Wettbewerb bestehen zu können. Unglücklicherweise ist es sehr zweifelhaft, dass die europäische Hinwendung zu grüner Energie zu der utopischen Zukunft führen wird, die deren Befürworter vorhergesagt haben. Um die steigende Energienachfrage zu decken, findet schon jetzt in den USA überflüssig gewordene Kohle den Weg nach Europa. Realität ist, dass diese europäischen Länder sich selbst eine kostspielige und nicht sehr effiziente Energie-Infrastruktur aufgebürdet haben, die als starke Bremse des langfristigen wirtschaftlichen Wachstums wirkt. Während sich also die USA reindustrialisieren, könnte Europa ohne neue politische Führer, die die Ökonomie von Energie besser verstehen, sehr gut Jahrzehnte lang Deindustrialisierung und ökonomische Stagnation durchlaufen.

Das Geschenk, dass weiter wirkt

Die Schieferrevolution hat ihre Gegner, die auf die zyklische Natur der Erdgaspreise in der Vergangenheit verweisen und sagen, dass Preisspitzen in der Zukunft den Treibstoff unzuverlässig und teuer machen könnten. Aber die Volatilität der Vergangenheit resultierte aus stringenten Preiskontrollen der Regierung, denen ein komplexer Prozess der Deregulierung folgte sowie durch das hohe Risiko, neue Erdgasquellen zu erschließen. Mit anderen Worten, die Preise waren Gegenstand sowohl der Launen nationaler Politik als auch der Komplexität der Geologie im Untergrund.

Keines jener Probleme besteht heute noch, da Preiskontrollen schon vor langer Zeit aufgegeben worden sind und die US-Unternehmen inzwischen genau wissen, wo riesige Mengen Erdgas zugänglich sind. Daher ist die Extraktion von Gas ein zuverlässigerer Prozess als Glücksspiel. Der zukünftige Preis von Erdgas wird nicht so sehr durch die aufgefundenen Mengen bestimmt, wie es bei konventionellem Erdgas der Fall war, sondern durch die Kosten der Extraktion. Daher sollten die Preise langfristig stabil bleiben, möglicherweise sogar für das nächste halbe Jahrhundert. Sie könnten sogar noch weiter fallen, wenn die Industrie weiterhin Kosten senkt und die Produktivität verbessert. Zusätzliche Innovationen bei damit zusammenhängenden Dingen wie Transport, Verteilung und Verbrauchsbereichen haben noch nicht einmal angefangen. Sobald dies der Fall ist, werden Fortschritte bei der Effizienz den Verbrauchern weitere Einsparungen von Milliarden Dollar bringen.

Unter dem Strich: Dank der Schiefer-Revolution haben sich die USA schon jetzt von unvorhersagbaren Fluktuationen der globalen Gaspreise unabhängig gemacht, und sie kommen bald an den Punkt, wo dies auch für Öl gilt. Heimische Verknappungen von Öl durch Naturkatastrophen im Ausland oder politische Unruhen könnten eines Tages ein Ding der Vergangenheit sein, vor allem, wenn heimisches Erdgas anfängt, Autos und Lastwagen in den USA anzutreiben. Die steigende Energie-Unabhängigkeit wird Washington einen immer größeren Vorteil gegenüber seinen Konkurrenten verschaffen. Sollte der Ölfluss aus dem Nahen Osten durch irgendein Ereignis zum Erliegen kommen, wie beispielsweise dem Fall des Regimes in Saudi-Arabien, werden die USA in der Lage sein, diesen Sturm besser abzuwettern als jede andere große Wirtschaftsmacht.

Billiges und reichlich verfügbares Erdgas hilft der geopolitischen Lage der USA in noch direkterem Weg: die US-Wirtschaft wird signifikant gestärkt. Amerikaner zahlen nur einen Bruchteil des Preises für Erdgas als die übrigen Verbraucher der Welt mit Einsparungen bis zu 300 Milliarden Dollar jährlich im Vergleich mit Verbrauchern in China und Europa. Schon jetzt hat die Entwicklung der enormen Schieferöl- und –gasreserven das BIP in den USA bis zu 1 Prozent steigen lassen. Tatsächlich wäre die US-Wirtschaft ohne die Schiefer-Revolution wohl in die Rezession zurück gerutscht, und hunderttausende Arbeitsplätze wären nicht entstanden. Heute ist die Arbeitslosigkeit in den Staaten mit Schieferboom niedriger als im nationalen Durchschnitt: dank der Bohrungen in der Bakken-Formation zum Beispiel beträgt die Arbeitslosenquote in North Dakota nur 2,6 Prozent, das ist die niedrigste in den USA. Der wachsende ökonomische Vorteil der USA könnte noch bis zur Mitte dieses Jahrhunderts und darüber hinaus andauern.

Es sei denn, es wird alles verprasst. In California und New York, zwei der größten Ökonomien, ist es Anti-Fracking-Aktivisten und staatlichen Politikern gelungen, die Entwicklung von Schiefer-Reserven bis auf Schneckentempo zu verzögern. In beiden [US-]Staaten gibt es große Schiefer-Formationen (das Monterey-Feld in California und das Marcellus-Feld in New York). Die Erschließung dieser Felder würde der Ökonomie sowohl dieser beiden Staaten als auch der Nation zu starkem Wachstum verhelfen. Politiker müssen erkennen, dass Amerika heute eine beispiellose Gelegenheit für dauerhaftes wirtschaftliches Wachstum hat, das zu vielen guten Arbeitsplätzen der Mittelklasse führen kann, das die Große Rezession endgültig hinter sich lässt und das viele kommende Jahrzehnte lang geopolitische Vorteile über seine Konkurrenten verspricht. Es wäre eine Schande, diese Gelegenheit nicht zu ergreifen.

Link: http://www.foreignaffairs.com/articles/141203/robert-a-hefner-iii/the-united-states-of-gas

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Dieser Artikel kommt bisweilen arg nationalistisch daher, so dass ich schon überlegt habe, ob ich ihn weiter übersetzen soll. Aber aus zwei Gründen habe ich das dann doch getan. Zum Einen hat ja Nationalismus nur in Deutschland aus nachvollziehbaren Gründen einen negativen Beigeschmack. Und zum Anderen fand ich die Hintergründe des Schiefer-Booms in den USA und auch andere hier angesprochene Aspekte so interessant, dass ich diese hier bekannt machen wollte.

C. F.




Umweltgruppen erschauern, weil einige Gewerkschaften Öl- und Gasbohrungen sowie Pipelines unterstützen

„Die Schiefer-Rohstoffe sind zu einem Rettungsanker und zur Lebensgrundlage vieler Arbeiter-Familien geworden”, sagte Dennis Martire, Regionalmanager im Bereich Mittel-Atlantik des Internationalen Gewerkschaftsbundes LIUNA, der Arbeiter in zahlreichen Bauhandelsfirmen vertritt.

Martire sagte weiter, dass während der letzten fünf Jahre riesige Mengen Erdgas aus den riesigen Schieferreserven gewonnen worden sind. Pipeline-Jobs in Pennsylvania und West Virginia haben signifikant zugenommen. Im Jahre 2008 haben LIUNA-Mitglieder etwa 400.000 Stunden daran gearbeitet; 2012 waren es bereits 5,7 Millionen Stunden.

Im nationalen Maßstab sagt das Bureau of Labor Statistics, dass die Gesamt-Beschäftigung in der Öl- und Gasindustrie der Nation [= der USA] von 120.000 Anfang 2004 auf 208.000 im vorigen Monat gestiegen ist. Weniger als 10 Prozent aller Vollzeitarbeiter in der Öl- und Gasindustrie werden von den Gewerkschaften vertreten.

Alex Paris, Chef einer Baufirma im Gebiet um Pittsburgh, die von seinem Großvater 1928 gegründet worden war, sagte, dass viele Jobs während der Anfangszeit des Booms an Arbeiter von außerhalb gegangen waren, vielleicht weil die größten Bohrfirmen in Texas und Oklahoma ansässig sind. Inzwischen gibt es jedoch eine Hinwendung zu lokalen Mitarbeitern.

„Es gab immer mehr Arbeit in unserer Branche. Zum ersten Mal seit vielen, vielen Jahren gibt es hier in größerem Umfang neue Arbeitsplätze. Rechtmäßige, gut bezahlte Arbeitsplätze“, sagte Paris über eine Region, die besonders hart vom Rückgang der Stahlindustrie in den achtziger und neunziger Jahren betroffen war.

Die zunehmende Zustimmung von Arbeitnehmer-Vertretern hat den Energieunternehmen einen mächtigen Verbündeten beschert, wird doch über die Bohrungen in der ganzen Nation debattiert. Viele Republikaner waren für das Bohren, doch jetzt nutzen einige Gewerkschaften, die traditionell den Demokraten nahestehen, ihre politische Schlagkraft und drängen Politiker, Verbote gegen Pipelines oder Bohrungen aufzuheben.

Zum Beispiel hat LIUNA Mitglieder des Kongresses gedrängt, dem Export von verflüssigtem Erdgas zuzustimmen sowie einer Ausweitung des nationalen Pipeline-Netzes. Mitglieder planen außerdem, an einer Pro-Bohrungen-Demonstration in der Hauptstadt von Pennsylvania [= Pittsburgh] teilzunehmen.

„Die Gewerkschaften sind mächtig und einflussreich“, sagte David Masur, Direktor von PennEnvironment, der dem Bohr-Boom kritisch gegenübersteht.

Die Schieferfelder von Marcellus und Utica, reich an Erdgas und Öl, liegen tief unterhalb großer Gebiete von Pennsylvania, Ohio und West Virginia, und mehr als 6000 neue Bohrungen sind dort während der letzten fünf Jahre niedergebracht worden.

Zu Beginn des Schieferbohrungs-Booms gab es Klagen über die Anzahl lokaler Arbeitsplätze. 2010 hat ein Gewerkschaftsführer einem Pennsylvania House Labor Relations Committee gesagt, dass die Menschen vor Ort wenig oder gar keine Möglichkeit haben, eingestellt zu werden. Und selbst jetzt noch halten sich einige mächtige Gewerkschaften mit einem Urteil zurück. Anthony Montana, ein Sprecher von United Steelworkers, lehnte es ab zu kommentieren, wie vieler Bohrungen es bedarf, um jener Industrie zu helfen.

Andere jedoch sagen, dass der Trend in Richtung lokaler Arbeitsplätze eindeutig ist.

Mike Engbert vom Ohio Laborers District Council sagte: „Obwohl einige Unternehmen immer noch viel Arbeit nach außerhalb vergeben, sind in der gesamten Branche die Arbeitsplätze vor Ort wirklich gestiegen“.

Für Einige ist die mit den Bohrungen verbundene Arbeit eine große Verbesserung gegenüber Billiglohn-Arbeiten im Service-Bereich.

„Ich habe wahrscheinlich 15 Arbeitsverhältnisse gehabt, und kein einziges davon war ähnlich sicher wie der jetzige oder auch nur annähernd so interessant“, sagte Amy Dague, 38, aus der Ortschaft Wheeling in West Virginia. Sie arbeitete etwas mehr als ein Jahr für ein Konstruktions- und Wartungsunternehmen. „Damit hat sich mein Ausblick in meine Zukunft definitiv verändert. Ich sehe es inzwischen als eine dauerhafte Beschäftigung“, sagte Dague.

Einige Energieunternehmen haben verlauten lassen, dass sie auch mit Arbeitnehmern vor Ort glücklich sind.

Matt Pitzarella, ein Sprecher von Range Resources in Fort Worth, Texas, schrieb in einer E-Mail: „Wir brauchen dringend verlässliche, dauerhafte und qualifizierte Arbeit zu vernünftigen Preisen, und die lokalen Gewerkschaften haben einen signifikanten Schritt auf diesem Weg getan“.

Einige Umweltgruppen sorgen sich, dass das, was in der Region vor sich geht, eine Wiederholung der Schlacht um die Keystone XXL-Pipeline ist, als große Gewerkschaften und grüne Gruppen auf der Gegenseite standen. Penn Environment hat viel strengere Vorschriften sowie ein Verbot von Bohrungen in einigen Gebieten wie z. B. staatlichen Wäldern verlangt.

„Ich verstehe die Dynamik, die hier im Spiel ist. Es sieht ziemlich kurzsichtig aus“, sagte Masur zu der Art, wie Arbeiter und Gewerkschaften hinter den Öl- und Gasbohrungen stehen. „Dies könnte die gleiche Art Erbschaft hinterlassen wie Kohle“. Er rief nach mehr Investitionen – und damit Arbeitsplätzen – in Sonnen- und Windkraft.

Link: http://www.startribune.com/business/255929381.html

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: So viel zu der Frage, wer oder was hier Arbeitsplätze schafft. Das Ganze geht im Gegensatz zu Sonne und Wind ohne jede Subvention. Das hat der Sprecher Masur bei seinem Ruf im letzten Absatz natürlich unterschlagen.

Nützliche und kurz gefasste, einfach verständliche Informationen zum Thema Fracking gibt (video) es hier: erdgassuche-in-deutschland.de. Dort wird auch ausführlich die (ungiftige) Zusammensetzung der Frac-Flüssigkeiten beschrieben.

Das Ganze ist eine Site von ExxonMobile. Aber muss man bei  solchen Großfirmen immer böse Absichten vermuten? Haben sie nicht ein Interesse daran, gerade neutral zu informieren? Ist es nicht reine Ideologie, derartigen Firmen von vornherein böse Motive zu unterstellen?

C. F.