Wärmstes Jahr jemals? Riesenmuschel enthüllt: im Mittelalter war es wärmer als heute

Aus der Chinese Academy of Sciences:
Zwei Studien aus jüngerer Zeit, eine veröffentlicht in den Earth-Science Reviews und die andere im Chinese Science Bulletin, haben die chemischen Hauptbestandteile in gigantischen Schalen von Riesenmuscheln (siehe Bild rechts) und Korallen untersucht um zu zeigen, dass es im Südchinesischen Meer zur Zeit der Mittelalterlichen Warmzeit wärmer war als heute.
Die Wissenschaftler untersuchten das Verhältnis zwischen Strontium- und Kalzium-Gehalt sowie Isotope schweren Sauerstoffs. Beide sind sensitiv hinsichtlich der Wassertemperatur in Vergangenheit und Gegenwart. Das Aragonit-Bikarbonat der Muschelschale von Tridacna gigas ist so fein strukturiert, dass tägliche Wachstumslinien hervortreten, wenn man Mikrobohrungen mit einem außerordentlich feinen Bohrer durchführt. Man erhält damit eine außerordentlich detaillierte Zeitreihe von Änderungen der Meerestemperatur – eine Entdeckungsleistung, die Sherlock Holmes selbst würdig ist.
Mittels Überlappungen zwischen aufeinanderfolgenden Generationen von Riesenmuscheln und Korallen haben die drei Wissenschaftler eine Aufzeichnung von Änderungen der Wassertemperatur rekonstruiert, die 2500 Jahre zurück reicht. Die drei Wissenschaftler sind: Hong Yan of the Institute of Earth Environment, Chinese Academy of Sciences, Willie Soon of the Harvard-Smithsonian Center for Astrophysics and Yuhong Wang of Fudan University, Shanghai.
Die Römische und die Mittelalterliche Warmzeit zeigten sich beide prominent im westlichen Pazifik und Ostasien. Die Wassertemperaturen haben während des 2500-Jahre-Zeitraumes deutlich variiert.
Sich ändernde Verläufe von Temperaturvariationen im Winter und Sommer wurden ebenfalls entdeckt, was die Behauptung widerlegt, dass es bis zur Erwärmung im 20. Jahrhundert kaum Änderungen der globalen Temperatur innerhalb von fast 1000 Jahren gegeben hat. Es bestätigt, dass – zumindest im Südchinesischen Meer – nichts Ungewöhnliches an den heutigen Temperaturen zu finden ist.
Dr. Yan sagte: „Die neue Studie fügt den substantiellen Proxy-Beweisen der realen Welt weiteres Material zu. Es zeigt sich einmal mehr, dass die heutige globale Temperatur innerhalb der Bandbreite von Änderungen in der Vergangenheit liegt“. Dr. Soon fügt hinzu: „Das IPCC der UN hätte niemals der Behauptung vertrauen sollen, dass die Mittelalterliche Warmzeit hauptsächlich ein europäisches Phänomen gewesen sei. Es war eindeutig auch im Südchinesischen Meer warm“.
Link: http://wattsupwiththat.com/2015/01/05/hottest-year-ever-giant-clam-reveals-middle-ages-were-warmer-than-today/
Übersetzt von Chris Frey EIKE
Hinweis des Übersetzers: Ich erinnere mich, bereits vor längerer Zeit für das EIKE zwei Beiträge übersetzt zu haben, die die MWP auch jeweils in Südamerika bzw. der Antarktis nachweisen.




Reaktortypen in Europa — Teil3, AP1000

Geschichte

Der AP1000 entwickelt sich zum "Golf" der Kernkraftwerke. Inzwischen sind acht Reaktoren in Bau: Je zwei in Sanmen und Haiyang in China und in Vogtle (Georgia) und Summer (South Carolina) in USA. Zahlreiche andere befinden sich weltweit im Vergabeverfahren. So sind drei Reaktoren in Moorside (West Cumbria, nordwestlich von Sellafield, UK) in Vorbereitung. Sie sollen durch NuGen, ein Joint Venture aus Toshiba (Westinghouse gehört zu Toshiba) und GDF SUEZ errichtet und betrieben werden.
Ständig steigende Investitionskosten und steigende Sicherheitsanforderungen zwangen Westinghouse das Konzept grundlegend zu überarbeiten. Über 50 Jahre Betriebserfahrung gipfelten in einer völlig neuen Konstruktion mit vier zentralen Anforderungen:
·        Vereinfachte Konstruktion: Was man nicht hat, kostet auch nichts und kann nicht versagen,
·       Übergang von aktiven auf passive Sicherheitssysteme,
·       modularer Aufbau und
·       parallele Errichtung von Bau und Anlagentechnik.
Der AP1000 ist ein schönes Beispiel dafür, was man erreichen kann, wenn man den Mut hat, eine Konstruktion noch einmal mit einem weißen Blatt Papier von Anfang an zu beginnen. Vorgabe war ein Druckwasserreaktor mit einer mittleren Leistung von rund 1000 MWel. Schon damit setzte man sich ab. Man versuchte gar nicht erst eine Kostensenkung über eine Leistungssteigerung zu erzielen, sondern setze lieber auf die Nachfrage des Weltmarktes. Die Größe entsprach nur etwa 2/3 der letzten Typen der zweiten Generation. Dieser Rückschritt sollte dafür die Märkte der Schwellenländer mit noch kleinen Netzen einschließen.
Durch die "geringe" Leistung kommt man mit nur zwei modernen Dampferzeugern gegenüber üblicherweise vier aus. Dies spart schon mal beträchtlich umbauten Raum, der bei Kernkraftwerken besonders teuer ist (Sicherheitsbehälter, Betonbunker etc.). Durch weiteres, konsequentes "weglassen" ergibt sich der Druckwasserreaktor, mit dem geringsten Beton- und Stahleinsatz pro MWel.
Ein weiterer Ansatz zur Senkung der Stromerzeugungskosten ist die Verlängerung der Nutzungsdauer: Die Ausdehnung auf genehmigte 60 Jahre, verteilt die Kapitalkosten auf wesentlich mehr produzierte KWh. Weniger sicherheitsrelevante Teile (z. B. Noteinspeisepumpen mit zugehörigen Ventilen und Rohrleitungen) oder robustere Konstruktionen (z. B. dichtungslose Hauptkühlmittelpumpen) verringern die Wartungskosten und die notwendigen Wiederholungsprüfungen. Eine nicht zu vernachlässigende Einsparung über die Lebensdauer eines Kraftwerks.

Pumpen

Üblicherweise stehen die Hauptkühlmittelpumpen zwischen den Dampferzeugern. Sie sind mit diesen und dem Reaktordruckgefäß über Rohrleitungen verbunden. Die Pumpen saugen das abgekühlte Wasser aus den Dampferzeugern an und drücken es zurück durch den Kern. Beim AP1000 haben sie die gleiche Aufgabe. Sie sind aber paarweise direkt an den Dampferzeugern angeflanscht. Dies erspart nicht nur Rohrleitungen, sondern vereinfacht diese erheblich. Es sind weniger Formstücke und Schweißnähte erforderlich und der Schutz gegen Erdbeben gestaltet sich wesentlich einfacher.
Die Pumpen selbst, sind für zivile Druckwasserreaktoren ungewöhnlich. Sie verfügen über mit Wasser geschmierte Gleitlager und sind voll gekapselt. Der Läufer und der Stator sind in wasserdichte Hüllen eingeschweißt. Das Pumpenrad sitzt direkt auf der Welle des Antriebsmotors. Sie benötigen damit keine Wellendichtungen und sind somit extrem wartungsarm. Sie sind für eine Betriebsdauer von 60 Jahren ausgelegt und zugelassen. Dieser Pumpentyp ist sehr anspruchsvoll in der Fertigung. Die USA verfügen jedoch über eine jahrzehntelange Erfahrung mit diesem Pumpentyp in ihrer Marine.

Passive Sicherheit

Unter "Passiver Sicherheit" versteht man, daß bei keinem Störfall Pumpen, Diesel etc. benötigt werden, um den Reaktor in einen sicheren Zustand zu überführen und zu halten. Alle Armaturen müssen nur einmal ausgelöst werden (voll offen oder voll geschlossen) und nach Auslösung ohne Hilfsenergie auskommen. Es sollten keine Eingriffe durch das Personal nötig sein.
Hinter dieser Definition verbirgt sich noch ein weiterer Ansatz zur Kostensenkung: Man kann "Sicherheit" oder "Verteidigung" in mehreren Stufen definieren. Bevor ein Ereignis zu einem Störfall wird, kann man durch automatische Stellglieder die Folgen abwenden. So kann man z. B. bei einem Generatorschaden den Dampf direkt in den Kondensator leiten und dadurch eine Notkühlung verhindern. Alle für diese Umleitung notwendigen Komponenten bräuchten nur den bei konventionellen Kraftwerken üblichen Qualitätsstandard besitzen, da sie das eigentliche Sicherheitssystem (gemeint ist damit das passive Notkühlsystem) nicht berühren. Nur die Komponenten des passiven Sicherheitssystems müssten den Stempel "nuclear grade" tragen. Oft sind solche Teile völlig identisch mit dem "Industriestandard" — unterscheiden sich lediglich im bürokratischen Aufwand und im Preis.
Man kann die Sicherheit — bezogen auf eine eventuelle Freisetzung von radioaktiven Stoffen in die Umwelt — noch steigern, indem man eine konsequente Diversifizierung betreibt. Ferner sieht man für wahrscheinlichere Ereignisse eine höhere Anzahl von Verteidigungsstufen vor.

Der Station Blackout

Vor Fukushima war der größte anzunehmende Unfall (GAU) der entscheidende Sicherheitsmaßstab. Man ging von einem plötzlichen Verlust der Reaktorkühlung infolge einer abgerissenen Hauptkühlmittelleitung aus. Um ein solches Ereignis zu beherrschen — ohne Freisetzung nennenswerter Radioaktivität in die Umwelt — muß bei Reaktoren mit aktivem Sicherheitskonzept auf jeden Fall ausreichend elektrische Energie vorhanden sein. Mindestens ein Notstromdiesel muß starten und die entsprechenden Schaltanlagen müssen funktionstüchtig sein. In Fukushima hat beides ein Tsunami außer Gefecht gesetzt.
Seit Fukushima ist der "station blackout" ins öffentliche Interesse geraten. Gemeint ist damit der völlige Verlust von Wechselstrom (Kraftstrom) im Kraftwerk. Es ist nur noch Gleichstrom aus Batterien für Steuerung und Notbeleuchtung vorhanden. Es ist daher interessant, wie der AP1000 auf solch eine Situation reagieren würde:
Durch den Stromausfall fallen die Regelstäbe durch ihr Eigengewicht in den Reaktorkern ein und unterbrechen jede Kettenreaktion. Allerdings beträgt in diesem Moment die Nachzerfallswärme noch rund 6% der thermischen Leistung (ungefähr 200 MW), die sicher abgeführt werden müssen. Durch den Stromausfall, fallen alle Pumpen aus. Durch die in den Schwungrädern der Hauptkühlmittelpumpen gespeicherte Energie, laufen diese noch geraume Zeit nach und halten den Primärkreislauf aufrecht. Allerdings ist nach etwa zwei Minuten der Wasserstand auf der Sekundärseite der Dampferzeuger auf sein zulässiges Minimum gefallen, da die Speisepumpen auch nicht mehr laufen können. Dieser Zustand öffnet automatisch die beiden Ventile zur Notkühlung (die Ventile sind im Betrieb elektromagnetisch geschlossen, d. h. Strom weg = Ventil offen). Nur ein Ventil müßte öffnen (Redundanz), um die volle Wärmeleistung abzuführen. Das Wasser strömt nun vom Reaktorkern zu einem Wärmetauscher (PRHR HX) in dem Wassertank innerhalb der Sicherheitshülle (PRHR). Dieser Tank liegt deutlich oberhalb des Reaktordruckgefässes, wodurch sich ein Naturumlauf ergibt. Nach rund zwei Stunden ist die Nachzerfallswärme auf rund ein Prozent (immerhin noch rund 34 MW) abgefallen. Nach ungefähr fünf Stunden wäre der Tank soweit aufgeheizt, daß das Wasser zu sieden beginnt. Der Sicherheitsbehälter ist ein Zylinder aus 45 mm dickem Stahlblech (bessere Wärmeleitung als Beton). Der Dampf würde an den Wänden kondensieren und über ein Auffangsystem zurück in den Tank laufen. Der Sicherheitsbehälter wiederum, würde seine Wärme an die Umgebungsluft abgeben. Die Umgebungsluft steigt wie in einem Kamin im Zwischenraum zwischen Sicherheitshülle und Betonwand der Schutzhülle (gegen Flugzeugabsturz usw.) auf. Steigt der Druck im Sicherheitsbehälter über einen Grenzwert an, werden zur Steigerung der Kühlung die pneumatisch betätigten Ventile der Beregnungsanlage geöffnet. Ganz oben, auf dem Dach des Reaktors, befindet sich ein charakteristischer, ringförmiger Wassertank. Aus ihm würde nun Wasser durch Schwerkraft auf die äußere Seite des Sicherheitsbehälters "regnen" und diesen stärker kühlen. Der Inhalt des Tanks reicht für 72 Stunden Regen.
Durch die (gewollte) Abkühlung des Reaktors zieht sich das gesamte Wasser des Primärkreislaufes wieder zusammen. Der Wasserstand im Druckhalter sinkt. Genauso würde er sinken, wenn der klassische GAU — irgendein Leck im Primärkreis — eingetreten wäre. Damit ein zeitweiliges "trocken fallen" der Brennelemente (Harrisburg und Fukushima) sicher verhindert werden kann, wird rechtzeitig Wasser nachgespeist. Hierfür gibt es sog. Akkumulatoren. Das sind Behälter, die teilweise mit Wasser gefüllt sind und durch ein Stickstoffpolster unter Druck gehalten werden. Aus diesen strömt automatisch (Rückschlagventile, die durch den Druck im Primärkreis geschlossen gehalten werden, Druck zu klein = Ventil offen) Wasser in den Reaktordruckbehälter nach.
Ist der Druck — egal ob durch ein Leck oder Abkühlung — bis auf Umgebungsdruck abgebaut, kann die Kühlung direkt über die Verdampfung des Wassers im Druckbehälter endlos weiter erfolgen. Dieser Zustand kann auch gewollt oder automatisch angestrebt werden. Würde die Kühlung — aus welchen Gründen auch immer — versagen, würde der Druck im Reaktorbehälter immer weiter ansteigen. Um dies zu verhindern, kann man den Druck über ein Abblasen des Druckhalters abbauen. Dies ist ein Beispiel, wie man durch den geschickten Aufbau einer Sicherheitskette das eventuelle Versagen einzelner Glieder überbrücken kann: Würden tatsächlich beide Ventile (2×100%) des Notkühlkreislaufes versagen (siehe weiter oben) müßte trotzdem nicht die Kühlung ausfallen, sondern es würde lediglich ein anderer Weg beschritten.

Die 72 h Regel

Beim AP1000 bezieht sich die passive Sicherheit nicht nur auf die Anlagentechnik, sondern auch auf das Personal. Seit den Störfällen von Harrisburg und Tschernobyl weiß man um die Bedeutung von Bedienungsfehlern. Gerade in der Zeit unmittelbar nach der Störung ist die Wahrscheinlichkeit dafür besonders hoch: Das Schichtpersonal muß erst seinen Schock überwinden, eine wahre Informationsflut muß erst einmal verarbeitet werden, damit man sich überhaupt einen Überblick verschaffen kann und dann müssen die richtigen Maßnahmen auch noch erkannt und eingeleitet werden. Andererseits sind drei volle Tage eine recht lange Zeit, um etwas zu reparieren, Fachleute außerhalb des Kraftwerks hinzu zu ziehen oder sogar Ersatzgerät herbeizuschaffen. Dies gilt selbst bei schwersten Naturkatastrophen, wie in Fukushima.
Dabei sind die 72 Stunden als Mindestwert bei ungünstigsten Bedingungen zu verstehen. Nach Ablauf dieser Zeitspanne sind weitere Auffanglinien vorgesehen. So können z. B. die Kühlwasserbehälter auch von außen über die Feuerlöschtanks auf dem Gelände nachgefüllt werden. Hierfür ist allerdings wenigstens ein kleiner Hilfsdiesel, der zusätzlich zu den eigentlichen Notstromdieseln vorhanden ist, nötig. Der Treibstoffvorrat beträgt vier Tage.  Inzwischen dürften längst Hilfskräfte und Material aus den Notfallcentern eingetroffen sein.

Die Strategie zur Kostensenkung

So makaber es klingen mag, aber die Unglücke von Tschernobyl (vollkommen explodierter Reaktor) und Fukushima (in drei Reaktoren gleichzeitige Kernschmelze) haben den "Atomkraftgegnern" ihr stärkstes Argument von dem "unkalkulierbaren Restrisiko" bei Kernkraftwerken entzogen. Nur noch sehr schlichte Gemüter glauben das Märchen "Millionen-Tote-für-10000-Jahre-unbewohnbar". Es ist also kein Zufall, daß sich die "Bewegung" nun auf angeblich "zu teuer", konzentriert. Für die Investitionskosten sind folgende Faktoren ausschlaggebend:
·       Unnötig kompliziert: Doppelte Betonbunker, Core catcher, weitere Notstromdiesel, Pumpen etc.
·       Bürokratismus: "Nuclear grade" erfordert einen — teilweise absurden — bürokratischen Aufwand. Oft kostet das gleiche Bauteil als "nuclear grade" geadelt, den vier bis fünffachen Preis. Um eine Diskussion über Sinn und Zweck zu vermeiden, sollte dieser Standard nur noch für echte Sicherheitstechnik verlangt sein. So könnte man beispielsweise bei einem Reaktor mit passiver Sicherheit, die Notstromdiesel aus diesem Verfahren entlassen — als wenn es in anderen Bereichen (IT, Luftfahrt, Seefahrt etc.) keine Sicherheitsnormen gäbe.
·       Bauzeit: Je länger die Bauzeit dauert, desto höher sind automatisch die Baukosten (Verzinsung), das Risiko (z. B. Inflation) und der ausgefallene Gewinn (z. B. Zukauf von Strom). Eine Verkürzung läßt sich grundsätzlich nur durch parallele Abläufe erzielen.
·       Baustelle: Arbeiten auf Baustellen sind grundsätzlich teurer, als eine Fertigung in einer Fabrik. Hinzu kommt meist noch ein schwer zu kalkulierendes Witterungsrisiko.
·       Serien: Jeder "first of a kind" ist teurer als die Nachfolgemodelle. Hat man erst einmal die "Konstruktionsfehler" behoben und das Personal seine Erfahrungen gesammelt, geht die Arbeit wesentlich flotter. Dies hat sich auch jetzt beim Bau der ersten AP1000 in China und USA wieder gezeigt.
Westinghouse hat konsequent auf eine Modularisierung bei paralleler Fertigung gesetzt. Im Schiffbau nennt man das "Sektionsbauweise". Ziel ist die Errichtung eines Kernkraftwerks in 36 Monaten. Diesen sind noch der Vorlauf für die Baustelleneinrichtung und die Inbetriebnahme hinzu zu rechnen, sodaß ein Zeitraum von rund fünf Jahren zwischen Auftragserteilung und Übergabe an den Kunden liegt.

Der Rohbau

Üblich ist es schon immer, alle großen Bauteile: Reaktordruckgefäß, Dampferzeuger, Druckhalter, Turbine und Generator, Kühlmittelpumpen etc. möglichst schnell zu vergeben. Diese Aggregate werden von Spezialfirmen gefertigt und getestet und kommen möglichst komplett auf die Baustelle.
Gänzlich anders verhielt es sich bisher mit dem baulichen Teil: Der Hochbau wurde ganz konventionell in Ortbeton hergestellt. Dabei arbeitete man sich, wie bei jedem anderen Gebäude auch, vom Keller bis zum Dach stückweise voran. Wie auf jeder anderen Baustelle auch, konnte man mit dem Innenausbau erst beginnen, wenn der Rohbau fertig war.
Beim AP1000 hat man konsequent mit dieser Tradition gebrochen. Hier gilt: Möglichst wenig Arbeiten auf der unmittelbaren Baustelle und weitgehendste Fertigung in den Fabriken der Zulieferer. Um möglichst parallel arbeiten zu können, werden die Sektionen auf dem Baustellengelände aus den gelieferten Modulen zusammengebaut und die Sektionen termingerecht mit einem Schwerlastkran (3200 to) zu dem eigentlichen Reaktor zusammengefügt.
Konventionell (Schalung aus Holz, Eisengeflecht vor Ort und mit Beton ausgegossen) gebaut, wird nur noch die Grundplatte, auf der die gesamte "nukleare Insel" steht. Schon die sich anschließende "Reaktorgrube" ist eine komplette Sektion in Sandwich-Bauweise. So geht es Sektion für Sektion nach oben. Der Schwerlastkran stapelt alle wie auf einer Werft über- und nebeneinander. Dazu gehören auch ganze Baugruppen aus Rohrleitung, Pumpen, Ventilen usw., fertig lackiert, in Stahlgestellen. Die eigentliche Montage vollzieht sich in der erdbebenfesten Verbindung der Gestelle mit dem Baukörper und dem Anschluß an die Versorgungsleitungen etc. Da diese Module schon bei ihren Herstellern vollständig getestet und abgenommen worden sind, verkürzt sich auch die spätere Inbetriebnahme erheblich.

Das Sandwich

Für eine konventionelle Betonwand muß der Zimmermann eine Schalung aus Holz bauen und die Eisenflechter die Moniereisen einbringen. Nach dem Aushärten des Beton muß alles noch mühselig ausgeschalt und meist auch noch nachgearbeitet werden. Eine kosten- und vor allem zeitaufwendige Arbeit. Außerdem sind Zimmerleute keine Feinmechaniker.
Ein Sandwich besteht aus zwei Stahlplatten, die später mit Beton ausgegossen werden. Die Stahlplatten-Konstruktion übernimmt die Funktion einer verlorenen Schalung und enthält auch noch das "notwendige Eisen", was die Festigkeit eines Stahlbeton ausmacht. Auf den ersten Blick keine revolutionäre Erfindung. Nur sind die Wände und Decken in einem Kraftwerk meist nicht massiv, sondern haben unzählige Durchbrüche und Einbauten. Wenn man die Anlagentechnik auch in Modulen vorfertigen will, müssen diese in der Toleranz von Maschinenbauern und nicht von Zimmerleuten ausgeführt werden. Wenige Millimeter Versatz, enden in einer teuren Katastrophe. Die einzelnen Platten werden nun — wie auf einer Werft — vollautomatisch aus- und zugeschnitten. Die Verstärkungen (die das Eisengeflecht bei konventionellem Beton ersetzen) werden auf Schweißmaschinen angebracht und die Platten zu Modulen zusammengeschweißt. Die Größe der Module ist dabei maßgeblich durch den Transportweg begrenzt. Die größte Sektion besteht z. B. in Vogtle aus 72 Modulen, die auf der Baustelle zusammengeschweißt wurden und mittels eines Schwerlasttransporters und des Schwerlastkranes in den Sicherheitsbehälter eingesetzt wurde. Diese Sektion wiegt ohne Betonfüllung rund 1000 to.

Neue Herausforderungen

Die Aufteilung in drei Bauphasen: Fertigung von Modulen bei den Herstellern, zusammenfügen der Module zu Sektionen auf separaten Vormontageplätzen und der Zusammenbau der Sektionen zum eigentlichen Reaktor, erfordert eine besonders ausgefeilte Planung und Logistik.
Ein solches Vorhaben kann nur gelingen, wenn man von Anfang an, wirklich alle Elemente auf einem entsprechenden Rechner in vierdimensionaler (drei Orts- und eine Zeitachse) Abbildung zur Verfügung hat. Solche Werkzeuge gibt es noch nicht sehr lange. Zum Werkzeug gehören aber noch die entsprechend qualifizierten Konstrukteure mit praktischer Erfahrung und eine Lernkurve. So waren z. B. bei den ersten Reaktoren in China einige Abstände zwischen den Kabelbahnen und den Decken des nächsten Moduls zu knapp bemessen. Es ergaben sich tote Ecken bezüglich der Lackierung, usw. Alles Dinge, die zu Zeitverzug und ungeplanter Nacharbeit geführt haben.
Es ist eine ungeheure Disziplin und straffe Organisation über die gesamte Laufzeit eines Projekts erforderlich: Jede Änderung bei einem Zulieferer — irgendwo auf der Welt — kann dutzende Änderungen, zusätzliche Prüfungen usw. bei anderen Zulieferern auslösen. Gerade Dokumentation und Prüfungen sind in der kerntechnischen Industrie eine besondere Herausforderung. In den USA hat letzteres zu erheblichen Verzögerungen beim Bau des Kraftwerks Vogtle geführt. Ein Hersteller aus Louisiana — der seit Jahrzehnten erfolgreich im Bau von Ölförderanlagen etc. tätig war — war mit diesen "Gepflogenheiten der Kerntechnik" nicht hinreichend vertraut. Im Endergebnis mußten etliche Module aus China nachbestellt werden.
Die Sektionsbauweise ist auch nicht ohne Tücken und erfordert entsprechendes Fachpersonal auf der Baustelle. Es müssen komplizierte und stabile Leergerüste gebaut werden, um die Sektionen aus Modulen passgerecht zusammen zu bauen. Der Verzug beim Schweißen und die Temperaturschwankungen sind bei so großen Bauteilen eine weitere Herausforderung. Der Schwerpunkt ist ebenfalls nicht immer genau festgelegt, was das Anheben ohne zusätzliche Belastungen nicht einfacher macht. Für Sektionen bis zu 1000 to müssen entsprechende Kräne und Transporter bereitgehalten werden. Für diese selbst, muß die Infrastruktur (Schwerlaststraßen, Bewegungsräume, Energieversorgung etc.) geschaffen werden.

Ausblick

Der AP1000 setzt die Maßstäbe für den Bau moderner Druckwasserreaktoren. Seine Weichen werden z. Zt. in China gestellt. Er kann seine wirtschaftlichen Vorteile erst in einer größeren Serie voll ausspielen. Die Lernkurve zeichnet sich bereits in USA und China deutlich ab. Es ist nur eine Frage der Stückzahl, wann die Investitionskosten für ein solches Kernkraftwerk unter das Niveau eines Kohlekraftwerks nach deutschen Standards (Wirkungsgrad 46%, mit Entstickung und Rauchgasentschwefelung, zugehörige Entsorgungsanlagen etc.) gesunken sind. Genau diese Frage, stellt sich aber bereits heute — wie schon in den 1970er Jahren in Deutschland –, wenn man die Luftverschmutzung in Peking betrachtet. Anschließend steht für China ein gigantischer Weltmarkt offen. Wir sprechen bereits in Europa nicht nur über Moorside, sondern auch über Polen, Tschechien und Bulgarien.
Im nächsten Teil4 geht es um die Siedewasserreaktoren, wie sie z. B. für den Standort Wylfa Newydd (Insel Anglesey in Nord Wales, GB) vorgesehen sind.
Zuerst erschienen bei NukeKlaus hier




E – Mobilität und Energiewende, zwei Seiten einer Falschgeld-Medaille

Leserbrief E-Auto AZ vom 8.1.2015: „Wo sind all die Elektroautos?
E – Mobilität und Energiewende, zwei Seiten einer Falschgeld-Medaille
Der AZ-Bericht bietet eine gute Gelegenheit, das Dilemma der fehlenden Speicher für eine erfolgreiche E – Automobilität, ebenso wie für eine erfolgreiche Energiewende objektiv zu betrachten und zu erörtern. Die Thematik wird für alle, die um wirkliche und kostenmäßig realisierbare Fortschritte auf dem Energiesektor oder dem Fahrzeugsektor bemüht sind, von Interesse sein und leider wohl einige Träume zerstören:  Entgegen vieler medialer Bekundungen, hat sich auf dem E-Mobilitätsgebiet, abgesehen von hervorragenden Entwicklungen in der elektrischen Traktion, bis zum Hybrid AUTO z.B. dem BMW i8, in der Stromspeichertechnik zur Bereitstellung ausreichender elektrischer Traktionsenergie, bis auf durchaus erfreuliche Verbesserungen der Speicherfähigkeit und Lebensdauer im zweistelligen Prozentbereich und moderate Kostensenkungen in Relation zur Energiespeicherfähigkeit, den Kosten und der „Aufladezeit“ eines üblichen Benzintanks, nichts Wesentliches getan.  
Es ist offenbar sehr schwer, in Demut vor den physikalischen Gesetzmäßigkeiten zu bekennen, dass die Ursache des Problems einfach verdrängt wird: Tatsache ist nämlich, dass wir nach dem derzeiti-gen Stand der Wissenschaft und Technik kein physikalisches Prinzip zur Stromspeicherung größerer Energiemengen zu bezahlbaren Kosten, jenseits zu der in diesem Sinne untauglichen elektrischen oder magnetischen Feldenergie sowie der chemischen Energie, die allesamt im eV-Niveau (nicht MeV) agieren, kennen. Vergleichbar mit dem Energieinhalt eines 70 l Tanks mit rd. 650 kWh Energieinhalt, der fast nichts kostet, in 2 Minuten geladen ist und länger hält als das Fahrzeug, zu einer Lithium-Ionenbatterie mit 20 kWh Speichervermögen, die 10.000 € kostet, 6 h zur Aufladung benötigt und nach 7 Jahren ersetzt werden muss.  
Dieser realistische Vergleich harten Fakten verkennt nicht die um den Faktor drei höhere Effizienz des Elektromotors gegenüber dem Verbrennungsmotor, sowie dessen höhere wartungsfreie Betriebszeit, obschon die Verlustwärme zumindest im Winter ohne weiteren Primärenergieeinsatz ge-nutzt wird. Beim Übergang der Stromerzeugung von der Primärenergie Kohle zur Energiegewinnung mit 8,14 kWh je kg C hin zur Kernenergie mit 20 Millionen kWh je kg U235, beide Rohsoffe findet man in Natur-Lagerstätten unserer Erde, war eine ganz andere Welt aufgemacht, nicht nur prozentuale Verbesserungen realisiert.  Solange Vergleichbares nicht in der Energie-Speichertechnik gelingt, hat das E-Auto ohne massive staatliche Förderung oder administrativer Bevorzugung nur Nischenchancen, ebenso wie sie die Stromerzeugung aus Wind- und Sonnenanlagen ohne staatliche Förderung auch nur hätte.  Wenn man den 80 kW Elektromotor eines reinen E-Autos mit Nennleistung, d.h. etwa bei 130 km/h und leichter Steigung belastet, ist die Batterie in 15 Minuten leer gefahren, man hat dann 32,5 km zurück gelegt und eine E-Tankstelle ist außer jeder Sichtweite. Wenn man nur 60 km/h schnell fährt und dann auf ebener Strecke mit 10 kW auskommt, könnte man das Spiel 2 Stunden lang betreiben und hat sich dann 120 km weit fortbewegt. Wenn man dann wie-der zu Haus angelangt ist, kann man über Nacht aufladen und die Welt ist in Ordnung für den Einsatz am nächsten Tag.   Auf jegliche Heizung und 20 W Power-Lautsprecher hat der E-Autofahrer selbstverständlich verzichtet, für solchen "artfremden Komfort" ist die nur spärlich verfügbare Energie zu kostbar, da diese voll zu Lasten der Traktion geht.  
An diesem extremen, aber doch sehr realistischen Beispiel, kann man erkennen, wo die Grenzen der E-Mobilität derzeit und sicher auch noch in heute überschaubarer Zukunft von mindestens 20 Jahren liegen!  Genial ist die Problematik beim BMW i8 gelöst: Die 5,2 kWh Batterie (energetisch vergleichbar mit 0,6 Liter Benzin), bringt das Fahrzeug nach (NEFZ-Standard) mit dem 75 kW E-Motor und moderatem Tempo, 37 km weit. Der dazu verfügbare 170 kW Benzin-Motor bringt das Fahrzeug mit dem 42 l Tank rd. 600 km weit! 
  
Fazit: Also ein hervorragendes Hybrid Fahrzeug BMW i8: 6 % E-Betrieb und 94 % Benzin-Betrieb für 126.000 bzw. 145.000 € in komfortabler Ausstattung zu haben. Einen Massenmarkt werden solche Entwicklungen wohl nicht sehen oder begründen können.  Wenn man auf die 6 % E-Betrieb verzichtet und ansonsten das gleiche Komfortfahrzeug für 100 % Benzinbetrieb nimmt, hat man locker 50.000 € gespart. Zu hoffen ist, dass die Kosten solcher Ent-wicklungen nicht auf die erfolgreichen Allgebrauchssegmente „mit 100 % Benzinbetrieb“ umgelegt werden, sondern dort verbleiben, wo sich die Marktnische im Exklusivsegment auftut.  Nach dem Zusammenbruch des planwirtschaftlich basierten Kommunismus geht unsere Koalitionsre-gierung mit dem Wegfall der Wettbewerbsvergleiche  immer mehr zu unsinnigen planwirtschaftlichen politischen Strategien über, wo doch die Ineffizienz solcher Strategien von ein Viertel der Deutschen über 40 Jahre schmerzlich ertragen werden musste. Beim Auto zeigen die mündigen Bürger – als direkt Betroffene -, dass es so nicht geht, bei der extrem teuren „Energiewende“ haben die meisten die noch viel tiefer gehende persönliche Betroffenheit noch nicht erkannt.
Prof. Dr.-Ing. Helmut Alt                                                                
Aus ADAC Zeitschrift Bericht auf Seite 18 des Augustheftes 2014. 




Rekordwärmejahr 2014 – Haben IPCC und CO. doch Recht?

Hatten doch die Naturforscher die stichhaltigsten Belege für Ihre These, da sie die Realität für sich in Anspruch nehmen konnten und das IPCC und Ihre Anhänger sich vor allem auf Modellberechnungen, mit frei wählbaren Parametern in ihren Klimamodellen (Programmen) stützen und seit Jahren Modell und Wirklichkeit Zusehens auseinander drifteten, weil es nicht wärmer, sondern stetig kälter wurde. Abb.1 zeigt die Temperaturentwicklung in Deutschland seit dem Jahr 1998.

Abb.1, Quelle: EIKE, "2014- nur nach den offiziellen Messwerten ein neues Rekordjahr – Kein Beweis für eine sich fortsetzende Klimaerwärmung"
Unschwer zu erkennen, dass seit ca. 15 Jahren die Deutschlandtemperaturen fallen, aber auch, dass der Deutsche Wetterdienst (DWD) mit seine Aussage 2014 "Wärmstes Jahr seit dem Beginn regelmäßiger Temperaturmessungen" ebenfalls richtig liegt.
Der DWD zeigt in seiner Pressemitteilung vom 30.12.2014, detailliert, welche Monate eine besondere Temperaturabweichung gegenüber dem sog. meteorologischen Temperaturvergleichszeitraum (Referenzzeitraum) von 1961-1990 aufweisen (Abb.2).

Abb.2, Quelle: DWD, zeigt die monatlichen Temperaturabweichungen im Jahr 2014 gegenüber dem meteorologischen Referenzzeitraum. Der meteorologische Referenzzeitraum wurde von der Vorgängerorganisation der WMO vor 85 Jahren ins Leben gerufen. Seinerzeit wurde eine Klimaperiode (statistischer Mittelwert des Wetters) mit 30 Jahren festgelegt und der Beginn auf das Jahr 1931. Der erste Referenzzeitraum reichte demnach von 1931-1960 und der zweite, auf den sich derzeit bezogen wird, auf den Zeitraum von 1961-1990. Der dritte wird dann den Zeitraum von 1991-2020 abdecken.
Abb.2 zeigt, dass weniger die Sommermonate, sondern vielmehr die ersten 4 Monate und die letzten 3 Monate, also Herbst-Winter und die ersten beiden Frühjahrsmonate "rekordverdächtig" ausfielen. Bis auf den Juli waren die Sommermonate (und der Wonnemonat Mai) eher bescheiden.
Wie sieht es nun auf der ganzen Erde aus? Hat nur Deutschland (und seine Nachbarländer) Rekordtemperaturen in 2014 zu verzeichnen oder auch die ganze Erde?

Abb.3, zeigt die von Satelliten gemessene globale Temperaturentwicklung von 1979 bis Ende 2014. Deutlich zu sehen, dass 2014 weit davon entfernt ist, global ein Temperaturrekordjahr zu sein. Quelle: http://climate4you.com/

1. Zwischenergebnis:

seit ca. 15 Jahren fallen in Deutschland die Jahrestemperaturen, aber
2014 ist für Deutschland ein Rekordwärmejahr, was die Jahrestemperaturen betrifft
Global ist 2014 kein Rekordwärmejahr der Temperaturen
Wie ist diese Diskrepanz zu erklären? Wir Naturforscher unter den Klimaforschern machen allein die Sonne für den Klimawandel auf der Erde verantwortlich. Entweder die direkten Auswirkungen, der in ihrer Intensität variablen Sonne oder die indirekten, die in den Weltmeeren gespeicherte Energie der Sonne. Daher soll in Abb. 4 die solare Aktivität betrachtet werden. Anzuführen ist, dass die Sonne mehrere Aktivitätszyklen hat. Auf kurzen Zeitskalen sind dies:
– 11-jährige Schwabezyklus (der bekannteste)
– 22-jährige Hale-Zyklus
– 36-jährige Brückner-Zyklus
– 90-jährige Gleißberg-Zyklus
– 207-jährige de Vries/Suess-Zyklus (Hauptsonnenzyklus*)
*Hauptsonnenzyklus deshalb, weil die Fourieranalyse der Wolfzahl (Sonnenflecken im Schwabezyklus) hier die stärkste Beziehung hat.

Abb.4a (Quelle: http://www.solarham.net/) zeigt die solare Aktivität im Schwabe-Zyklus. 2014 war zwar im jetzigen, 24. Zyklus ein besonders aktives Sonnenjahr, aber nur gering im Vergleich zur solaren Aktivität zu BeginnSolarcycle24.com des Jahrhunderts (2002).
Abb.4b zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 und ist ein Indikator für den im Mittel 207-jährigen de Vries/Suess-Zyklus (Hauptsonnenzyklus).
Der Hauptsonnenzyklus hatte sein Aktivitätsmaximum in 2003. Seitdem fällt die magnetische Aktivität der Sonne. Der Brückner-Zyklus hatte sein Aktivitätsmaximum in 2005. Seitdem fällt auch er. Scheint also, dass die Sonne nicht die Ursache für die Rekordtemperaturen in 2014 in Deutschland ist. Zumindest nicht die direkten Auswirkungen der Sonne. Wir erinnern uns: In 2003 lag für weite Teile Europas ein Hitzesommer vor (Abb.5).
 
Abb.5, Quelle Hadley Center, zeigt den Hitzesommer 2003. Unter dem Maximum des Hauptsonnenzyklus erlebte Europa einen Hitzesommer.
Wissenschaftler gehen seit längerem der Frage nach, wie sich die solare Aktivität auf die Jahrestemperaturen auswirkt und ob es dabei einen Zeitverzug gibt. So hat der Direktor des Max Planck Institutes für Sonnenforschung, Prof. Solanki, in seiner Arbeit "Solar Activity Over The Last 1150 Years: Does It Correlate With Climate" herausgefunden, dass es einen Zeitverzug zwischen der solaren Aktivität und den Erdjahrestemperaturen gibt (Abb.6)
 
Abb.6, Solanki et al ("Solar Activity Over The Last 1150 Years: Does It Correlate With Climate"), zeigt den zeitlichen Versatz zwischen Sonnenaktivität und Jahrestemperatur. Die Forscher geben an: "The best correlation between sunspot number and the temperature data are consistently obtained for a time lag of 10 years in the sense that solar data lead temperature data." Schaut man sich das time lag genauer an, so beträgt die zeitliche Differenz exakt 11 Jahre!
Solanki et al, die einen Korrelationszusammenhang (Koeffizient) zwischen solarer Aktivität und Jahrestemperatur von 94%-98% fanden, haben in ihrer Arbeit somit auch die Jahreswärmerekordtemperatur in Deutschland erklärt. In Abb. 6 sind die unmittelbaren Auswirkungen der solaren Aktivität beim Jahrhundertsommer, der mit dem Maximum des Hauptsonnenzyklus zusammenfällt und die unmittelbare Auswirkung dessen ist, auf Europa zu sehen. Dies war in 2003. Damals hatte die Sonne ihre maximale Aktivität. 11 Jahre später sind diese Auswirkungen bei den Jahrestemperaturen "angekommen" und führten zu dem Rekordwärmejahr in Deutschland.
Zur weiteren Analyse sollen die Jahresmonatstemperaturen 2003 und 2014 miteinander verglichen werden (Abb.7).

Abb.7 zeigt nach Daten des DWD blau, die Abweichungen der Monatstemperaturen von 2003 und von 2014 in rot, jeweils zum Temperatur-Referenzzeitraum 1961-1990
2003 waren insbesondere die Sommermonate deutlich über "Normal". Wegen des in unseren Breiten hohen Sonnenstandes im Sommer waren die solaren Auswirkungen auf die Tages-/Monatstemperaturen unmittelbar. In 2014 waren insbesondere die Herbst-/Wintertemperaturen über "Normal". Wird zwischen beide Zeitreihen eine "Spiegelachse" gelegt, fällt auf, das die Monatstemperaturen 2003/2014 zueinander gegensätzlich sind.
Der Grund sind die direkten und indirekten Auswirkungen der solaren Aktivität, die sich unterschiedlich auf die Monats- und damit Jahrestemperaturen auswirken. 2014 sorgten die in den Weltmeeren gespeicherten Sonnenenergien, die, wie Kowatsch/Kämpfe in Ihrer unter Abb.1 genannten Arbeit erkannten, für milde Herbst-und Wintertemperaturen, aufgrund entsprechender Luftströmungen (Abb.8).

Abb.8: Die Autoren Kämpfe/Kowatsch schreiben in Ihrer Arbeit "2014- nur nach den offiziellen Messwerten ein neues Rekordjahr – Kein Beweis für eine sich fortsetzende Klimaerwärmung": "Im Rekordjahr 2014 gab es neben einer überdurchschnittlichen Sonnenscheindauer mit mindestens 126 Tagen (Stand: 30.11.) doppelt so viele Großwetterlagen mit südlichem Strömungsanteil, wie im Langjährigen Mittel! Das ist ebenfalls neuer Rekord. Hinzu kam eine leicht übernormale Anzahl von Westlagen in den Monaten Januar, Februar und Dezember, während Ostwetterlagen, welche besonders in den Wintermonaten stark kühlend wirken, in diesen zu selten auftraten. Weiterhin war im Frühling eine etwas überdurchschnittliche Anzahl der erwärmend wirkenden Zentralhochlagen zu verzeichnen.
Und der Großwettertyp Südwest, welcher im Oktober am stärksten erwärmend wirkt, wurde just in diesem Monat an 16 (!) Tagen beobachtet- fast sechsmal so häufig, wie im langjährigen Oktobermittel! Damit ist klar erwiesen, dass wir das Rekordjahr 2014 einer glücklichen, äußerst seltenen Kombination aus relativ hoher Sonnenscheindauer und einer äußerst günstigen zeitlichen und quantitativen Häufung bestimmter Wetterlagen verdanken- das Richtige stets zur richtigen Zeit!"
Auch die Wissenschaftler des DWD, der Dipl.-Met. Christoph Hartmann, untermauern den o.g. meteorologischen Grund, warum 2014 in Deutschland ein Rekordwärmejahr wurde: "Und genau so ist es mit dem wärmsten Jahr in Deutschland seit Beginn der Wetteraufzeichnung. Wir lagen 2014 ungewöhnlich häufig im Bereich der Ausgleichsströmung von Süd nach Nord und haben dadurch den Rekord erreicht."
Während die DWD-Führung einmal mehr schwadroniert und von einem "klimatologischen Paukenschlag“ redet (DWD-Präsident). Anmerkung: Angesichts solchen Unsinns braucht man den Namen nicht zu kennen und auch nicht zu merken. Klima ist per v.g. Definition (unter Abb.2) das statistische Wettergeschehen im Zeitraum von 30 Jahren. 1 Jahr Wettergeschehen kann daher niemals Klima oder gar ein „klimatologischer Paukenschlag“ sein. Schon traurig, wenn der Präsident des DWD nicht einmal weiß, was Klima ist, also nicht einmal weiß, wovon er spricht. Die DWD-Mitarbeiter können einem leidtun.

2. Zwischenergebnis:

– Die Sonnenaktivität wirkt sich zeitlich versetzt auf die Jahrestemperaturen aus, mit einem time-lag von exakt 11 Jahren.
– 2003 war das Jahr der (bisher) stärksten solaren Aktivität – 11 Jahre später ist diese in den Jahrestemperaturen sichtbar, wobei sich die Erwärmungsmonate 2003 und 2014 (direkte/indirekte solare Auswirkungen) spiegelbildlich zueinander verhalten
– Die indirekten solaren Auswirkungen bewirken entsprechende Großwetterlagen, die für unser Wetter und damit die Temperaturen, insbesondere im Herbst/Winter dominant sind.
Sieht also bisher nicht gut aus, für die Fraktion von IPCC und CO. und ihre Modellszenarien. Sieht ganz so aus, als ob die Fraktion der Naturforscher unter den Klimaforschern auch das Wärmejahr 2014 hinlänglich erklären können. Zur Bestätigung soll nach einem finalen praktischen Beweis gesucht werden. Wie verhielten sich die Temperaturen in Deutschland nach dem vorletzten Maximum im Hauptsonnenzyklus? Wie sie sich nach dem letzten, in 2003 entwickelten, haben unsere Leser gesehen. Da die Länge des Hauptsonnenzyklus im Mittel 207 Jahre beträgt, soll zuerst nach dem exakten Datum gesucht werden, wann dies war (Abb.9 und 10).

Abb.9 zeigt die nach einem Analyseverfahren von Prof. Solanki rekonstruierte Sonnenaktivität, Quelle: (https://tallbloke.wordpress.com/2013/10/05/reconstructed-solar-activity-from-14c-reference-data/). Demnach war das vorletzte Maximum im Hauptsonnenzyklus kurz vor der Jahrhundertwende zum 19. Jahrhundert.
Abb.10, Quelle: United States Geological Survey, zeigt die solare Aktivität der vergangenen 1100 Jahre. Danach war das Maximum im Hauptsonnenzyklus ebenfalls um 1795. Wegen der eingeschränkten Ablesegenauigkeit lässt sich nicht exakt sagen, ob 1795, 1796 oder 1797.
Jetzt gibt es leider keine verlässlichen Deutschlandtemperaturen, die so weit zurückreichen. Nach DWD reichen diese lediglich bis 1881 zurück. Es gibt aber eine Temperaturmessstation, die selbst der DWD als Temperaturreferenzstation ansieht: Es ist sein wissenschaftliches Observatorium auf dem Hohen Peißenberg (HPB), Abb.11.

Abb.11 zeigt nach Daten des DWD den Temperaturgang auf dem Hohenpeißenberg in den Jahren vor und nach dem vorletzten Maximum im Hauptsonnenzyklus. Anhand der Temperaturdaten ist 1797 das exakte Jahr, in dem der Hauptsonnenzyklus sein Maximum hatte. Gehen wir 11 Jahre weiter, so sehen wir, dass die Jahrestemperatur einen Allzeithöchstwert erreichte.
Nun soll der heutige Temperaturgang der Deutschlandtemperaturen, also der, nach dem letzten Maximum im Hauptsonnenzyklus in 2003, mit dem Temperaturgang der Referenzstation HPB und dem vorletzten Maximum im Hauptsonnenzyklus verglichen werden (Abb.12).

Abb.12 nach Daten des DWD zeigt den Temperaturgang der Temperaturreferenzstation HPB und die Deutschlandtemperaturen, jeweils im Zeitraum des Maximums im Hauptsonnenzyklus. Der Gleichklang beider Temperaturreihen, nicht nur in ihrem jeweiligen Höchstständen, sondern auch Tiefstständen und im Verlauf ist frappierend und selbst redend!

Ergebnis:

Dass 2014 in Deutschland ein "Rekordwärmejahr" wird, war zu erwarten und konnte nach den gezeigten Untersuchungen gar nicht anders eintreten! Es ist einzig auf die Sonne zurückzuführen – ihrer direkten und indirekten Auswirkungen auf unser Wetter und damit des Klimas.
Bleibt noch die Frage zu beantworten, warum global kein Spitzenwärmejahr eintreten konnte und eingetreten ist. Auch zu dieser Frage gibt die o.g. Arbeit von Solanki et al.  einen entscheidenden Hinweis. Die Wissenschaftler schreiben von einer Korrelation für die nördliche Hemisphäre von 96% bis 99% und weiter "There is no significant correlation with the southern hemisphere temperatures of MJ03, which is not surprising in view of the fact that the northern and southern temperatures of MJ03 are not correlated either."
MJ03 = NH temperatures from multiproxy data for AD 200 to AD 1980, Mann and Jones, 2003,
Dieses time lag zwischen Sonnenaktivität und Temperatur ist bei den Temperaturrekonstruktionen der Südhalbkugel nicht hinreichend zu finden – gibt es dort nicht und da in 2014 die solare Aktivität vergleichsweise moderat war, kann/konnte es global auch nicht zu einem Wärmejahr 2014 kommen!
Die Untersuchungen anhand der gezeigten Temperaturzeitreihen bestätigen nicht nur die Arbeit von Solanki et al., sie zeigen auch, dass unter Kenntnis der natürlichen Wetterbeobachtungen und deren natürlichen Ursachen, kein Spielraum für Panikmache jeglicher Art ist. Die Wetterfröschin des ZDF, Inge Niedek eröffnete ihren Wetterbericht am 03.01.2015 zur besten Sendezeit vom Brandenburger Tor mit den Worten: "Mit Start 2015 haben wir in Deutschland ein Rekordwärmejahr verabschiedet, und dabei war Berlin übrigens deutschlandweit Spitzenreiter und lag mit 2,2°C über dem langjährigen Mittelwert." Der DWD gibt den Jahresmittelwert von Berlin mit 11,3°C an (Klimareferenzzeitraum = "langjähriger Mittelwert" = 9,1°C)
Nun, was es mit dem "Rekordwärmejahr" in Deutschland auf sich hat, wurde detailliert erläutert und bewiesen, auf was es zurück zu führen ist. Was es mit dem vermeintlichen "Spitzenreiter" Berlin bei den Jahrestemperaturen 2014 auf sich hat, soll noch kurz gezeigt werden.
Das Autorenteam Leistenschneider, Kowatsch, Kämpfe zeigte, dass die Berliner Temperaturaufzeichnungen mit einem Wärmeinseleffekt von +1,2°C behaftet sind (http://www.eike-klima-energie.eu/climategate-anzeige/deutscher-wetterdienst-dwd-im-fantasia-land-wie-die-dwd-fuehrung-die-bevoelkerung-in-die-irre-fuehrt/). Wird die Temperatur von den WI-Einflüssen bereinigt, so liegt die Jahrestemperatur 2014 in Berlin bei 10,1°C. Aber selbst, wenn der WI unberücksichtigt bleibt, ist die in Berlin 2014 gemessene Mitteltemperatur keine Rekordtemperatur, wie Abb.13 beweist.

Abb.13: Als Haupt- und Großstadt verfügt Berlin über eine lange, durchgängige Datenreihe gemessener Temperaturen (Quelle: http://www.wetterzentrale.de/klima/ tberlintem.html). Wird die Jahrestemperatur WI-bereinigt, so war es im 18- und 19 Jahrhundert gleich mehrfach in Berlin wärmer als 2014. Aber selbst ohne WI-Bereinigung wurden in Berlin im 18.Jahrhundert höhere Temperaturen gemessen.
Nach der Lehre der IPCC und CO. können die in Berlin im 18.Jahrhundert gemessenen Rekordtemperaturen nur darauf zurück zu führen sein, dass zu Zeiten des Alten Fritz die Berliner zu viel CO2 in die Atmosphäre verfrachteten. Pulverdampf soll ja kein Treibhausgas sein.
"Mit Start 2015 haben wir in Deutschland ein Rekordwärmejahr verabschiedet" Wann verabschiedet sich das ZDF von solchen "Propheten", die Physik/Meteorologie offenbar mit Science Fiction verwechseln, ohne, wie es für wissenschaftlich ausgebildete Menschen selbstverständlich ist, Dinge zu hinterfragen und nach Begründungen zu suchen und zwar nach Begründungen, die ergebnisoffen gesucht werden – der Maxime wissenschaftlicher Forschung.
Das IPCC wurde 1988 mit dem Auftrag gegründet (1), den Beweis für die menschengemachte Klimaerwärmung herzuleiten. Von Ergebnisoffenheit also keine Spur. Insofern kann daher alles, was aus dem IPCC an die Öffentlichkeit preisgegeben wird, nur den Inhalt von Pseudowissenschaft für sich in Anspruch nehmen, da das Grundmaxim wissenschaftlichen Handelns, die ergebnisoffene Forschung, von Beginn an ausgeschlossen wurde.
Raimund Leistenschneider – EIKE
(1) Quelle http://www.ipcc.ch/about/index.htm
unter Mandate: "The IPCC was established to provide the decision-makers and others interested in climate change with an objective source of information about climate change. The IPCC does not conduct any research nor does it monitor climate related data or parameters. Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change, its observed and projected impacts and options for adaptation and mitigation. IPCC reports should be neutral with respect to policy, although they need to deal objectively with policy relevant scientific, technical and socio economic factors. They should be of high scientific and technical standards, and aim to reflect a range of views, expertise and wide geographical coverage."




Eine neutrale Betrachtung von ozeanischem pH

Zunächst folgt hier die Ansicht eines Profils des Nordpazifik von Alaska nach Hawaii, wobei Hawaii oben links liegt, Alaska oben rechts. Tiefen werden vertikal gezeigt. Ozeanisches pH entlang des Profils:
Abbildung 1 (rechts): Variation des pH über geogr. Breite und Tiefe. Die Graphik stammt aus einem früheren Beitrag von mir zum ozeanischen pH.
Man erkennt, dass der Oberflächen-pH in Hawaii über 8,05 liegt und in Alaska unter 7,7 … und trotzdem ist die maritime Umgebung in Alaska viel, viel artenreicher als die maritime Umgebung von Hawaii. Dies unterstreicht eine einfache Tatsache: Alkalinität ist für Lebewesen problematisch, viel mehr als der Säuregrad. Beispiel: Falls man das Opfer der letzten Mordorgie sich zersetzen lassen will, würde man Lauge (ein starkes Salz) und nicht Schwefelsäure (eine starke Säure) verwenden.
Nun beträgt der Neutralwert auf der pH-Skala 7. Der geringen Alkalinität-Toleranz unserer Körper folgend nehmen wir oft Dinge wie Zitronensaft zu uns, welcher einen pH-Wert von etwa zwei hat, was neutral minus 5 pH-Einheiten ist … während die salzhaltigste Nahrung, die wir noch tolerieren können, einen pH von rund acht hat, was nur einen pH-Wert über neutral liegt.
Darum ist der Körper von Fischen oftmals vollständig mit einer Art Schleim umhüllt … einfach um zu verhindern, dass sie sich im leicht alkalinen Ozean einfach auflösen. Und darum auch ist ein Trend hin zu mehr Neutralität auch nicht im Mindesten besorglich.
Nachdem wir die räumlichen Änderungen des pH-Wertes von Hawaii bis Alaska gesehen haben, zeigt Abbildung 2 die zeitlichen Änderungen des ozeanischen pH in einer Vielfalt anderer maritimer Umgebungen:

Abbildung 2: pH in verschiedenen maritimen Umgebungen. Datenquelle: PLOS
Abbildung 2 zeigt nicht nur den mittleren pH-Wert in diesen Umgebungen, sondern auch die Variation in jeder Umgebung mit der Zeit. Man beachte: während der offene Ozean eine kleine pH-Bandbreite zeigt, zeigt sich in einer Anzahl maritimer Umgebungen eine große Bandbreite mit der Zeit. Korallenriffe und Seetangwälder beispielsweise zeigen eine große Variation der pH-Werte, und zwar bis hin zu einer vollen pH-Einheit innerhalb eines einzigen Monats. Zitat aus der zugrunde liegenden Quelle für Abbildung 2:
Diese Beobachtungen zeigen ein Kontinuum monatelanger pH-Variabilität mit Standardabweichungen zwischen 0,004 und 0,277 sowie Bandbreiten, die von 0,024 bis 1,430 pH-Einheiten reichen. Die Natur der beobachteten Variabilität war auch stark abhängig von der Messstelle, mit charakteristischen täglichen, halbjährlichen und stochastischen Verteilungen variierender Amplituden. Diese Biom-spezifischen pH-Signaturen offenbaren gegenwärtige Niveaus zu sowohl hoch als auch gering gelöstem CO2, was oftmals zeigt, dass örtliche Organismen jetzt schon pH-Regimes ausgesetzt sind, deren Eintreten man nicht vor dem Jahr 2100 vorhergesagt hat.
Also findet bereits jetzt statt, was uns angeblich erschrecken soll, nämlich die so genannte „Versauerung“ der Ozeane, die man für das Jahr 2100 vorhergesagt hatte.
Eine Ansicht aus der realen Welt, was unterschiedliche Variationen mit der Zeit bedeuten, zeigt Abbildung 3 mit den Daten des Hawaii Ocean Timeseries (HOT)-Projektes sowie die Daten von der Küstenlinie der Monterey Bay:

Abbildung 3: Oberflächen-pH-Messungen von HOT open ocean und Monterey Bay upwelling coastline. Die Hawaii-Daten zeigen sowohl gemessene pH (schwarz) als auch aus anderen Messungen berechnete pH-Werte, z. B. gelöster anorganischer Kohlenstoff (DIC), Gesamt-Alkalinität und Salzgehalt.
Wie man sieht, ist es für keine der tausenden unterschiedlichen Spezies im Ozean auch nur ansatzweise ein Problem, eine große und rapide pH-Änderung zu durchlaufen. Es scheint sie nicht im Mindesten zu stören, haben sie das doch seit Millionen Jahren erlebt. Nicht nur das, sondern wie man aus den Hawaii-Daten erkennt, bringt der langsame Rückgang der Alkalinität die Ozeane allmählich zu neutraleren Bedingungen, was den lebenden Organismen egal ist.
Aus all diesen Gründen sage ich, dass die graduelle Neutralisierung der Ozeane durch den zunehmenden CO2-Gehalt bedeutungslos ist. Genau deswegen sage ich auch, dass der „Versauerung“ genannte Prozess lediglich ein Versuch ist, noch mehr Alarmismus zu schüren. Was vor sich geht, ist eine graduelle Neutralisierung mit einer Rate von etwa 0,018 ± 0,001 pH-Einheiten pro Jahrzehnt (Mittel aus sieben multidekadischen Datensätzen) … man betrachte mich als unbeeindruckt.
Damit als Prolog wollen wir jetzt auf die ozeanographischen pH-Daten schauen, die ich in meinem letzten Beitrag mit dem Titel pH Sampling Density angesprochen habe. In jenem Beitrag schrieb ich, dass sowohl aus dem Seegebiet um Japan als auch aus dem Nordatlantik genug Daten vorliegen sollten, um sich Gedanken über die Brauchbarkeit des Datensatzes zu machen. Zu Beginn folgen hier die Daten aus dem Atlantik zusammen mit den HOT-Daten um Hawaii und die Daten aus der Monterrey Bay.

Abbildung 4: Atlantische pH-Messungen aus ozeanischen Profilen (blaue Kreise), Einzel-HOT-Messungen um Hawaii (rot = berechnet, schwarz = beobachtet) und die Messungen der pH-Werte aus der Monterrey Bay (blaugrün mit Standardabweichung). Die schwarze Linie markiert die erwartete Abnahme des ozeanischen pH-Wertes infolge der CO2-Zunahme. „Trend 1970 onwards“ ist der Trend der atlantischen ozeanographischen pH-Daten.
Hier gibt es viele interessante Aspekte. Erstens, die Abnahme in den HOT-Messungen liegt nahe der berechneten Abnahme infolge CO2. Jetzt habe ich diese Abnahme geschätzt unter Verwendung der gemessenen Änderungen der Mittelwerte in gelöstem anorganischen Kohlenstoff DIC infolge steigenden atmosphärischen CO2-Gehaltes. Um das zu tun, habe ich den R-Code lokalisiert (hier).
Und weil das nur eine Schätzung ist, stellt sich heraus, dass es ziemlich nahe sowohl der Abnahme der o. g. HOT- und anderer multidekadischer Messungen an einzelnen Stellen kommt als auch gut zum Trend im Nordatlantik nach 1970 passt mit ozeanographischen Messungen von -0,019. Es ist auch erwähnenswert, dass vor etwa dem Jahr 1960 die berechnete pH-Abnahme so gering ist, dass sie fast unsichtbar daherkommt.
Als nächstes: Japan. Aus diesem Gebiet gibt es deutlich mehr Daten, aber wie im Atlantik gibt es nur wenige Daten aus dem Zeitraum 1940 bis 1960. Abbildung 5 zeigt die Daten um Japan im gleichen Format wie Abbildung 4:

Abbildung 5: pH-Messungen aus ozeanographischen Profilen vor Japan (blaue Kreise), Einzel-HOT-Messungen um Hawaii (rot = berechnet, schwarz = beobachtet) und die Messungen der pH-Werte aus der Monterrey Bay (blaugrün mit Standardabweichung). Die schwarze Linie markiert die erwartete Abnahme des ozeanischen pH-Wertes infolge der CO2-Zunahme. „Trend 1970 onwards“ ist der Trend der atlantischen ozeanographischen pH-Daten.
Wieder erkennen wir die gleiche Verteilung wie in den Daten aus dem Atlantik mit einem zunehmenden Trend in den Jahren nach den Daten, und ein Trend vor 1970 in der gleichen Größenordnung wie das Mittel der o. g. sieben multidekadischen Studien.
Das also ist es. Der ozeanographische Datensatz bestätigt die graduelle pH-Abnahme, bietet aber vor 1960 nicht genug Daten, um uns viel über irgendetwas zu sagen. Wie gewöhnlich liegt das Problem darin, dass Änderungen infolge CO2 so gering sind, dass es schwierig ist, sie aus irgendetwas herauszulesen außer aus dem genauesten aller Datensätze. Das heißt nicht, dass wir die vorhandenen ozeanographischen Messungen nicht nutzen können … es heißt nur, dass wir hinsichtlich deren Verwendung sehr vorsichtig sein müssen.
Link: http://wattsupwiththat.com/2015/01/02/a-neutral-view-of-oceanic-ph/
Übersetzt von Chris Frey EIKE