Schneller Anstieg des Meeresspiegels: Paper von Rahmstorf, Kemp & Mann erneut zweifelhaft

Also was gefällt uns nicht an diesen jüngsten Erkenntnissen von Kemp and Michael Mann?

Figure 1. Kemp Fig. S2 (A) (Zur Quelle
Ich habe den Teil der Grafik von 1650 weiter digitalisiert, um ihn mit jüngeren Beobachtungen zu vergleichen. Abb. 2 zeigt die Ergebnisse:

Abb. 2. Der von Kemp 2011 rekonstruierte Anstieg des Meeresspiegels, 1650-2000 
Zunächst erscheint merkwürdig, dass sie behaupten, es hätte global ein Meeresspiegelanstieg von 200 mm in den vergangenen fünfzig Jahren (1950-1999) gegeben. Ich kenne niemanden sonst, der das behauptet. Church and White schätzen den Anstieg von 1950-2000 auf 84 mm, und Jevrejeva sagt 95 mm. Also, ihre Rekonstruktion beträgt mehr als das Doppelte der allgemein akzeptierten Schätzungen.
Das nächste Problem zeigt sich, wenn man die Rate des Anstiegs betrachtet. Abb. 3 zeigt die Ergebnisse aus der Kemp (2011) Studie, zusammen mit dem durchschnittlichen Meeresspiegelanstieg wie von Jevrejeva und Church & White aufgrund weltweiter Pegelanzeigen geschätzt.

Abb. 3. Die von Kemp 2011 rekonstruierte Rate des globalen Meeresspiegelanstiegs von 1650-2000. Dazu die Beobachtungen von Jevrejeva (rote Kreise) und Church and White (violette Quadrate).
Kemp et al. sagen, dass die globale Rate des Meeresspiegelanstiegs seit 1870 ständig höher geworden sei, dass sie 1950 mehr als 3 mm pro Jahr betragen und seitdem ständig zugenommen hätte. Im Jahre 2000 wären es fast 5 mm/Jahr gewesen.
Jevrejeva und Church & White dagegen sagen, dass sie niemals über 3 mm/Jahr gelegen hätte und dass sie im zeitlichen Verlauf rauf und runter ginge. Im Jahre 2000 hätte sie ~ 2 mm/Jahr betragen. Mit anderen Worten, die Behauptungen stimmen überhaupt nicht mit den Beobachtungen überein.
Darüber hinaus zeigen die Ergebnisse von Kemp 2011 eine Zunahme der Rate des Meeresspiegelanstiegs, beginnend etwa 1700 … Wieso denn das? Und die Anstiegsrate hätte sich seitdem ohne Pause erhöht.
Daher können wir mit diesen beiden Hauptpunkten anfangen — die Schätzungen von Kemp et al. für die Höhe und den Anstieg des Meeresspiegels sind sehr verschieden von den Schätzungen der auf diesem Forschungsfeld anerkannten Experten. So etwas haben wir schon einmal erlebt, als Michael Mann behauptete, dass die Temperatur-Geschichte der vergangenen tausend Jahre ganz anders als die damalige anerkannte Meinung gewesen wäre. In keinem der Fälle gab es irgendwelche Hinweise auf außergewöhnlicher Belege, um die merkwürdigen Behauptungen zu stützen.
Mit dem Papier gibt es noch weitere Probleme, nachfolgend nicht in besonderer Reihenfolge aufgeführt:
1. Ungewissheiten. Wie sind sie berechnet? Sie [die Autoren] behaupten eine Gesamtgenauigkeit bei der Abschätzung des Meeresspiegels bei Tump Point von ± 40 mm. Sie sagen, dass ihre “Transferfunktion” eine Fehlerbreite von ± 100 mm hat. Weil die Transferfunktion nur ein Teil ihrer gesamten Transformation ist, wie kann das Endprodukt so genau sein?
2. Ungewissheiten. Die Ungewissheiten in ihrer Abb. S2 (A) (schattiert dunkel und hellrosa in obiger Abb. 1) sind über der Zeit konstant. Mit anderen Worten, sie sagen, dass ihre Methode zur Vorhersage des Meeresspiegels von vor 2000 Jahren so gut ist, wie für heute … das scheint zweifelhaft zu sein. 
3. Ungewissheiten. In Abb. 4(B) des Hauptpapiers zeigen sie die Zusammenfassung ihrer Rekonstruktion nach GIA-Anpassung [Glacial-Isostatic Adjustment] mit den gleichen Fehlerbändern (dunkelschattiert und hellrosa) wie in der oben gezeigten Abb. S2 (A). Aber getrennt davon zeigen sie in Abb. 4(B) eine viel größere Weite von Unsicherheiten wegen der GIA-Anpassung. Sicher, diese beiden Fehler addieren sich mit der Quadrierung und ergeben schließlich ein weitere Gesamtbandbreite für die Fehler.
4. Tidenhub. Wenn der Tidenhub sich mit der Zeit verändert hat, müsste er sich in ihre Berechnungen als ein Nebenanstieg oder Fall in den Ergebnissen zeigen. Sie sehen das mögliche Problem, aber sie meinen, es könnte nicht eintreten aufgrund der Computer-Modellierung. Sie wären dennoch besser beraten gewesen, auf die Daten zu achten, anstatt närrischerweise den auf Sand gebauten Modellen zu vertrauen. Der Tidenhub bei der Oregon Inlet Marina, in kaum 16 Km Abstand von ihrer Sand Point Hauptörtlichkeit, ist mit einer Rate von 3 mm pro Jahr angestiegen. Das ist schneller als der von Kemp rekonstruierte Meeresspiegel-Anstieg in Sand Point. Weil wir mit Sicherheit wissen, dass Änderungen im Tidenhub stattfinden, klingt ihre computerisierte Zusicherung von der Unmöglichkeit mehr als nur ein wenig hohl. Das gilt ganz besonders angesichts der großen Veränderungen in der örtlichen Unterwasser-Geographie bei Sand Point. Abb. 4 zeigt einige dieser Veränderungen:

Bild 4. Die Veränderungen im Kanal zwischen Roanoke Island und dem Festland, von 1733 bis 1990.
Man beachte die Untiefen zwischen dem Festland und der Südspitze von Roanoke Island 1733, die bis 1870 auf Karten verzeichnet sind. Sie sind seitdem langsam verschwunden. Man sieht auch zwei Zuflüsse durch die meerseitig vorgelagerten Barriere-Inseln (Roanoke Inlet und Gun Inlet), die sich seit 1733 völlig aufgefüllt haben. Die Veränderungen an diesen Zuflüssen könnten für die Veränderungen der Tiefen südlich Roanoke Island ursächlich sein, weil das bedeutet, dass die Fläche zwischen Roanoke und dem Festland sich nicht mehr wir früher durch den Roanoke Inlet an der Nordspitze der Insel entleeren kann. Ihre [der Autoren] Behauptung, dass Veränderungen in dieser Größenordnung den Tidenhub nicht verändern würden, erscheint höchst unwahrscheinlich. 
5. Unterschiedliche Auffassungen in Bezug auf lokale Trends beim Meeresspiegelanstieg. Die nächstgelegene Pegelmessstation in Wilmington zeigt keine statistisch signifikante Änderung beim Trend der mittleren Meereshöhe (Mean Sea Level – MSL) seit 1937. Kemp et al. behaupten, der Anstieg sei in diesem Zeitraum von 2 mm/Jahr auf 4,8 mm pro Jahr hochgegangen. Wenn dem so wäre, warum hat sich das nicht in Wilmington (oder in anderen benachbarten Orten) gezeigt?
6. Und wieder Ungewissheiten, wenn man genau auf die Rechnungen schaut. Sie sagen, der Fehler der mittleren Quadratwurzel RMS (root mean square) ihrer Transferfunktion betrüge 26% des gesamten Tidenhubs. Sie haben aber nicht den gesamten Tidenhub angegeben. Darauf komme ich gleich zurück.  Wenn 26% der durchschnittlichen Quadratwurzelfehler ist, dann ist der 2-Sigma-Fehler doppelt so groß, oder 50% des Tidenhubs. Das halte man sich kurz vor Augen. Die Transferfunktion ist auf die Ansammlung von Foraminfera auf mittlere Meereshöhe bezogen, aber der Fehler beträgt die Hälfte des Tidenhubs. Daher kann ihre Methode im besten Falle noch nicht einmal sagen, ob die Ansammlung von oberhalb oder unterhalb der mittleren Meereshöhe stammt…
Weil die Gezeiten innerhalb der Barriere-Inseln so komplex und so schlecht dokumentiert sind benutzen sie das VDatum-Werkzeug von der NOAA, um den mittleren Tidenhub an ihren Örtlichkeiten abzuschätzen. Das Werkzeug wird aber in der Dokumentation für das Gebiet innerhalb des Pamlico SOund als ungenau bezeichnet. Laut Dokumentation beruhen die Schätzungen für Pamlico SOund auf einem „hydrodynamischen Modell“, anders als bei allen anderen Stationen, wo der Tidenhub anhand von Pegelstandsmessungen abgeschätzt wird.
Sie behaupten auch, dass ihre Transferfunktion für jede Abschätzung „unter 100 mm“ die “speziellen vertikalen Fehler” angäbe. Das bedeutet, dass ihr 2-Sigma-Fehler 100 mm betrug. Verbindet man das mit der Vorstellung, dass ihr VLSI Fehler bei 50% des Tidenhubs liegt, so impliziert das einen Tidenhub von nur etwa 200 mm an der SAND POINT Örtlichkeit. Das stimmt mit der Abschätzung des VDatum überein. Er beträgt fast genau 200 mm.
Die Gezeiten im Gebiet sind extrem ortsabhängig. Der Tidenhub kann innerhalb weniger Meilen um 100% schwanken. Und das bedeutet, dass sich die Spannweite der örtlichen Tidenhube (er ist stark ortsbezogen und extrem abhängig von der lokalen Geographie) sehr wahrscheinlich im Laufe der Zeit  verändert hat. Unglücklicherweise werden derartige lokale Variationen nicht vom VDatum-Werkzeug erfasst. Dieses kann man von hier zusammen mit den Daten herunterladen. Beim Vergleich mehrerer Örtlichkeiten wird man feststellen, dass VDatum im PAMLICA SOUND ein sehr grobes Instrument ist.
Für die gleiche VDatum-Örtlichkeit im Pamlico Sound ergeben sich 2-Sigma-Fehler (mit 95% Zuverlässigkeitsintervall) beim Umrechnen von mittlerer Meereshöhe auf mittlere obere Fluthöhe mit 84 mm, und für mittlere untere Ebbe mit 69 mm. Die Schwierigkeit ergibt sich weil die Spanne des Tidenhubs so klein ist. Alle ihre Daten sind auf einen Standardisierten Wasserhöhen-Index (Standardized Water Level Index – SWLI) umgerechnet. Dieser drückt die Meereshöhe als einen Prozentsatz vom Tidenhub aus, von 0 bis 100. Null bedeutet, dass die Höhe auf der Höhe von mittlerer unterer Ebbe liegt, 100 bedeutet, dass sie auf der Höhe der mittleren oberen Flut liegt. Der Tidenhub wird mit 200 mm angegeben… weil er klein ist und die Fehler groß sind, beträgt das Zuverlässigkeitsintervall bei diesem Tidenhub 90 mm bis 310 mm, eine Spannweite der Veränderung von mehr als drei zu eins.
Sie berechnen den Standardisierten Wasserhöhen-Index (SWLI) wie folgt:
SWLI = (Sample Elevation – MLLW) / (MHHW – MLLW) x 100     (Gleichung 1)
[Standardized Water Level Index    -> standardisierter Wasserhöhen-Index
 Mean Lower Low Water (MLLW)    -> mittlere Höhe der Ebbe
 Mean Higher High Water (MHHW) -> mittlere Höhe der Flut]
Beim Addieren und Subtrahieren von Werten addieren sich die Fehler quadratisch. Der Höhenfehler beim Beispiel (aus der Transferfunktion) ist ± 100 mm. Die MLLW und MHHW 2-Sigma-Fehler sind jeweils 69 mm and 84 mm.
Nun denn … wir können ein paar Zahlen in die Gleichung 1 einsetzen. Zur Vereinfachung des Berechnens nehmen wir einmal an, für ein Beispiel sei die Höhe 140 mm, MLLW sei 0 mm, und MHHW sei 200 mm. Die mittlere Meereshöhe sei halbwegs zwischen Hoch und Niedrig, also etwa 100 mm. Die Fehler berücksichtigen wir (als “±” Werte dargestellt). Beim Einsetzen der Werte (in mm) in Gleichung 1 erhalten wir den Zähler:
(Sample Elevation – MLLW) = (140 ± 100 – 0 ± 69) 
Die Fehler addieren sich quadratisch (der zusammengefasste Fehler ist die Quadratwurzel der Summe der Quadrate der einzelnen Fehler). Wir erhalten als Nenner 140 ± 122 mm
Der Nenner ist beim Einsetzen der quadrierten Fehler von Gleichung 1:
(MHHW – MLLW) = (200 ± 84 – 0 ± 69) = 200 ± 109 mm
Beim Dividieren oder Multiplizieren von mit Fehlern behafteten Zahlen muss man zuerst die Fehler in Prozent des Betrags des Bezugswerts angeben, und diese dann im Quadrat addieren. So erhalten wir:
(140 ± 87%) / (200 ± 55%) *100
Das ist gleich (.7 ± 103 %) x 100, oder 70 ± 72, wobei beide Zahlen Prozentwerte des Tidenhubs mal 100 sind. Da der Tidenhub 200 mm beträgt, bedeutet das für unser Beispiel eine Gesamt-Ungewissheit von etwa 72 Prozent, oder ± 144 mm. Am Schluss all ihrer Transformationen ist die Ungewissheit bei der Höhe des Beispiels (± 144 mm) größer als die Höhe des Beispiels selbst (140 mm).
Bei all dem ist natürlich die Annahme, dass ich ihre sehr unklaren Aussagen über die Ungewissheiten in ihrer Studie richtig interpretiere. Auf alle Fälle ist ein großes Geheimnis, wie sie für Tump Point einen 2-Sigma-Fehler von etwa 40 mm aus all dem erhalten.
Das sind die Probleme, die ich mit der Studie habe. Sowohl der Umfang wie auch die Rate ihres rekonstruierten Meereshöhen-Anstiegs während der vergangenen Jahre sind viel größer als die Beobachtungen; die Gezeitenhöhen schwanken in dem betroffenen Gebiet ständig, sie haben auch sehr wahrscheinlich in der Vergangenheit geschwankt, trotz der Behauptung der Autoren, dass dem nicht so gewesen wäre. Schließlich unterschätzen ihre Methoden zur Abschätzung der Fehler die Gesamt-Ungewissheit grob.
Weitere Punkte. In Bezug auf die C14 Datierung sagen sie:
C14-Altersdaten mit hoher Genauigkeit (8) wurden erhalten durch Bildung von doppelten oder dreifachen Proben aus dem gleichen Tiefenintervall und durch Benutzung eines „gepoolten Mittelwerts“ („pooled mean“ (Calib 5.0.1 software program)) für die Kalibrierung.
Das klang wie ein völlig logisches Verfahren … bis ich auf die Daten schaute. Abb. 5 ist ein Plot der einzelnen Daten, er zeigt Alter versus Tiefe, aus Supplementary Tables DR3 und hier. Sie haben das  “pooled mean” von drei Proben aus 60 cm Tiefe benutzt und drei Proben aus 80 cm Tiefe.
 
Abb. 5. Alter und Tiefe für die Sand Point Proben im oberen Meter des Bohrkerns. Rote Quadrate zeigen C14 Daten. Horizontale schwarze Balken zeigen die 2-Sigma Ungewissheit (95% Zuverlässigkeits-Intervall).
Sehen Sie sich die 60-cm-Tiefe an. Die drei getesteten Proben beziehen sich auf 1580, 1720, und 1776. Keiner der Fehlerbalken überlappt, also haben wir es klar mit drei Proben zu tun, die nachprüfbar unterschiedliche Alter haben.
Also, bevor wir deren Mittelwerte bilden und sie zur Kalibrierung der Alters/Tiefen-Kurve benutzen würde es da nicht Sinn machen, kurz nachzudenken, warum zwei Proben aus der genau gleichen 1-cm-dicken Scheibe des Bohrkerns nahezu zweihundert Jahre im Alter auseinander sind?
Das gleiche gilt für die 80-cm-Tiefe, wo das Alter von 1609 bis 1797 geht. Das sind wieder beinahe zweihundert Jahre Zeitunterschied.
Was übersehe ich hier? Macht es Sinn, diese ungleichartigen Daten zu mitteln, ohne zuvor darüber nachgedacht zu haben, was damit los ist?
Beitrag von Willis Eschenbach vom 26. Juni 2011
Die Übersetzung besorgte Hellmut Jäger EIKE

 (1) Reduce your CO2 footprint by recycling past errors!
(2) “Climate related sea-level variations over the past two millennia




Brainstorming zur „Energiewende“

Mein Name ist Ralf Sträter. Ich bin ein Kind des Ruhrgebiets, zudem Elektroingenieur der Automatisierungstechnik und arbeite für einen großen Automobilzulieferer in Niedersachsen. Mein Wissen über Energieerzeugung im allgemeinen und Kernenergie in besonderem ist nur beschränkt, hauptberuflich beschäftige ich mich mit anderen Dingen. Dennoch raufe ich mir die Haare wegen der energiepolitischen Entscheidungen der vergangenen Wochen. Ich möchte einige dieser Gedanken hier ‚zu Papier / Bildschirm‘ bringen und diese zur Diskussion stellen:

Ist unsere Existenzgrundlage bedroht?

Verlässliche Zahlen fehlen mir – und meines Wissens nach jedem anderen auch. Unübersehbar ist aber, daß sich elektrische Energie massiv verteuern wird. Man spricht in absoluten Zahlen davon, daß Änderungen der Versorgungsinfrastruktur etwa 170 Mrd. Euro kosten werden. Das gesamte Steueraufkommen Deutschlands (Bund, Länder und Gemeinden) macht etwa 600 Mrd. Euro aus, 170 Mrd. sind etwas weniger als 30% dessen. Die von mir geschätzte FAZ spricht in einem Bericht über erwartete Strompreissteigerungen ‚zwischen 0,5 und 5 Cent / kWh‘, also für den Haushaltskunden also zwischen 2.5 und 25%. In der freien Wirtschaft wir jeder gefeuert, der eine Entscheidung trifft von der er sagt "wieviel es kostet weiß ich nicht". Ich persönlich halte selbst die 25% untertrieben, da alle Schätzungen die ich bislang las m.E. die zu installierende Leistungsreserve / die erforderliche Energiespeicherung entweder unter den Tisch fallen ließen oder sehr niedrig ansetzten. Die Speicherung von einer kWh Strom in Batterien kostet überschlägig 50 Cent, die in Pumpspeicherkraftwerken etwa 4 Cent.
Abgesehen von dieser Betrachtung werden die Augen davor verschlossen, wofür der in Deutschland benötigte Strom verbraucht wird, 75% des Stroms nämlich wird eben nicht dafür benötigt ‚essen zu kochen‘ und ‚abends den Fernseher anzuhaben‘, diese 75 % werden von industriellen Verbrauchern aufgezehrt. Eine etwas kurzsichtige Betrachtung ist es zu sagen ‚dann soll die Industrie halt bezahlen‘, vielmehr ist es so, daß wir alle bezahlen, da wir alle direkt oder indirekt von der Industriellen Produktion in Deutschland abhängen. Deutschland machte sich erhebliche Sorgen um Bankenkrisen, Bankenkrisen sind nichts gegen eine Krise der Industrie. Die meisten Arbeitsplätze Deutschlands sind von der Industrie abhängig und eine erhöhte Arbeitslosigkeit müßte teuer finanziert werden; selbst Banken sind von der Industrie stark abhängig, da diese Anlageninvestitionen vorfinanzierten; wenn auf diesen Anlagen nicht mehr produziert wird ist auch dieser Kredit weg.
Persönlich habe ich große Angst um den Industriestandort Deutschland, wir sägen an dem Ast auf dem wir alle sitzen.
Deutschland geht es so gut, da Deutschland einen massiven Außenhandelsüberschuss hat, durch die massive Verteuerung von Energie wird es den nicht mehr lange geben.

Wie gefährlich ist Kernenergie?

Die ‚Energiewende‘ wird damit begründet, daß Kernenergie gefährlich sei. Diese Erkenntnis wird damit begründet, daß man aus Fukoshima gelernt habe. Tschernobyl wird auch immer noch sehr gerne angeführt. Was passierte in Fukoshima; was in Tschernobyl vor 25 Jahren?
In Fukoshima gab es ein heftiges Erdbeben, mit anschließender Tsunamiwelle. Diese setzte die Notstromversorgung des Kraftwerks außer Gefecht, mit den bekannten Folgen, daß die erforderliche Kühlung des Kraftwerks ausgefallen ist und die Kernbrennstäbe überhitzten bis sie zum Teil schmolzen. Dadurch daß zum Teil über Ventile der hohe Druck im Sicherheitsbehälter
kontrolliert abgelassen wurde kam es zu Wasserstoffexplosionen innerhalb der unkritischen Außenhülle des Kraftwerks, das Kraftwerk Fukoshima verfügt augenscheinlich nicht über Wasserstoffrekombinatoren die soetwas verhindern. Zudem wurde sowohl beim Druckablassen als auch beim improvisiertem Notkühlen radioaktives Material freigesetzt. Etwa 10 Menschen kamen ums Leben, wohl keiner ‚durch Radioaktivität‘ aber ‚in Folge des Kraftwerksunglücks‘ bei Aufräumarbeiten, die naturgemäß gefährlich sind – vergleichbar der Arbeit eines Feuerwehrmanns beim Löschen. Der Großteil des Freigesetzten radioaktiven Materials verteilte sich im Pazifik und ist inzwischen auf den natürlichen Anteil radioaktiver Stoffe im Meerwasser herunterverdünnt, im Engeren Radius um das Kraftwerk werden einige langlebige Radioaktive Stoffe zu finden sein (diese sind allesamt sehr schwer und kommen in der gegebenen Situation nicht weit) kurzlebige radioaktive Stoffe wird es in einem größeren Radius verteilt haben.
Bei dem zweiten immer angeführten großem Kraftwerksunfall Tschernobyl wurde ein ohnehin bewußt heikel gebautes Kraftwerk (man wollte auf einfachem Wege Plutonium für Atombomben produzieren) außerhalb der zulässigen Spezifikationen betrieben. Bei der darauf folgenden Explosion und dem Brand von erheblichen Mengen Graphits wurde Radioaktives Material in große Höhen getragen und verteilte sich über weite Teile Europas. Die Sowjetunion begann mehrere Tage nach dem Unfall (den man zunächst komplett zu vertuschen versuchte) mit der Evakuierung der näheren Umgebung. Es ist strittig wieviele Menschen durch diesen Unfall starben, je nach Quelle zwischen 5.000 und 50.000. Um wie viele weniger es gewesen wären, wenn die Sowjetunion rechtzeitig evakuiert hätte kann man erst recht nicht sagen.
Wenn man diese beiden Ereignisse zusammenfaßt und bewust die höheren Opferzahlen zu Grunde legt kann man sagen "Durch die Nutzung der Kernenergie kamen bislang 50.000 Menschen ums Leben." Dies muß man in Relation setzen, zu dem
1.) was die Nutzung der Kernenergie bringt
2.) wieviele Todesopfer andere Techniken fordern
Ich führe Pkt. 1 anhand der Naturkatastrophe in Japan aus. Japan ist ein hochtechnisiertes Land, nicht zuletzt durch die Nutzung von Kernenergie. Das dicht besiedelte Land Japan wurde von einem starken Erdbeben und einem Tsunami heimgesucht, es kamen 25.000 Menschen ums Leben. In dem nicht so dicht besiedeltem Haiti kamen ein Jahr zuvor bei einem schwächerem Erdbeben ohne Tsunami 250.000 Menschen ums Leben. Die nun verhältnismäßig geringe Opferzahl des Erdbebens in Japan ist hauptsächlich der guten Infrastruktur die auf der Nutzung von Kernenergie beruht geschuldet, wäre Japan auf dritte Welt Status wären die Folgen des Bebens verehrender gewesen als die des Bebens in Haiti.
Unter Berücksichtigung der beobachteten 25 Jahres Frist könne wir zu Pkt. 2 sagen, daß Kernenergie maximal 2000 Todesopfer je Jahr forderte, der Straßenverkehr fordert je Jahr weltweit etwa 600.000 Tote.

Setzen wir Nutzen und Risiken in die richtigen Relationen?

Die meisten von uns setzen sich täglich ins Auto um zur Arbeit zu fahren und dann einer potentiell gefährlichen Arbeit nachzugehen. Dies wird unter bewußter Einschätzung der doch noch recht ungefährlichen Fahrt und der recht ungefährlichen Arbeit gemacht, um Geld zu verdienen und ein auskömmliches Leben zu haben. Hier nimmt man das Risiko in Kauf um im Gegenzug Vorteile zu haben. Mein aus den vorher aufgeführten Gedanken resultierender Appell an Medien und Politik ist doch bitte mit kühlem Kopf zu berichten und entscheiden. Panik und Aktionismus waren noch nie in der Geschichte nützlich und werden es auch in der Energiepolitik niemals sein.
Ralf Sträter 3. Juli 2011
    




Experte im „Klartext“ beim MDR: Energiewende macht Strom immer teurer!

Seit langem ist es kein Geheimnis, dass die deutsche Energiepolitik zu einer immer rascheren Erhöhung der Kosten für die Elektroenergieversorgung führt. Nicht zuletzt EIKE (z.B. hier, hier oder hier und hier) hat immer wieder darauf aufmerksam gemacht! Ursachen sind die Außerbetriebnahme der Kernkraftwerke, die nach wie vor zu den kostengünstigsten Versorgern zählen, der starke Ausbau von regenerativen Energiequellen wie Wind- und Solaranlagen, die Einführung des CO2-Emissionsrechtehandels, die Energiebesteuerung („Ökosteuer“) u. a. Gerade die Wind- und Solaranlagen, deren Ausbau politisch und wirtschaftlich von der Bundesregierung gefördert wird, weisen die höchsten Kosten auf. Diese bestehen nicht nur in den unmittelbaren Erzeugungskosten, die so hoch sind, dass sie mit Hilfe des „Erneuerbare-Energien-Gesetzes“ – „geschont“ von den Regeln der rauen Marktwirtschaft – durch alle Bürger zwangsweise subventioniert werden, und darüber hinaus noch das Privileg eines gesetzlich verbrieften sicheren Absatz besitzen.

Zusatzinfo:

Hier können Sie Ihre Meinung zum Energiekonzezpt samt Abstimmung kundtun. Bundesregierung: "Diskutieren Sie Thesen zur Zukunft der Energie" (Hier anklicken)


Professor Joachim Weimann in Klartext vom MDR: Strom wird immer teurer! sowie Ausschnitte einer PHOENIX Diskussion zwischen G. Ederer und H.U. Jörges 

Einschub der Redaktion:  Frau Dr. Merkel am 17. Juni 1997 in der „Frankfurter Rundschau“:

„Energie ist heute zu billig… Es müssen aus meiner Sicht gezielt die Steuern auf Energie angehoben werden, sei es über Mineralöl, Heizgas oder Strom.“

Verprochen und geliefert, auch wenn´s 14 Jahre dauerte

Kostentreibend bei Wind- und Photovoltaikanlagen ist außerdem ihre nicht planbare Erzeugung, weil  Windgeschwindigkeit und Sonneneinstrahlung nicht exakt vorhersagbar sind. Daher muss für diese „Kraftwerke“ eine praktisch hundertprozentige Reserve in konventionellen Kraftwerken oder in Form von Energiespeichern, die allerdings weder heute noch morgen zur Verfügung stehen, vorgehalten werden.
Man sollte sich stets vor Augen halten: Ein Fahrrad-Dynamo ist ein zuverlässigeres „Kraftwerk“ als ein Windrad oder eine Solarzelle, denn der liefert die erforderliche Elektroenergie immer genau zu dem Zeitpunkt, in dem sie benötigt wird!
Der Übergang von der verbrauchernahen Elektroenergieerzeugung, wie sie in Deutschland seit mehr als hundert Jahren praktiziert wird, zur stark zentralisierten, verbraucherfernen Erzeugung in Nord- und Ostsee-„Windparks“ erfordert den Bau von tausenden Kilometern 380-kV-Leitungen. Diese stoßen nicht nur auf starken Bürgerwiderstand, sondern sind extrem teuer, nicht zuletzt deshalb, weil infolge der niedrigen Volllaststundenzahlen der Windenergieanlagen ihre Auslastung nur relativ gering sein kann.
Die deutsche Bundesregierung, gestützt auf die Haltung aller Bundestagsparteien, hat ohne zwingende Notwendigkeit die „Energiewende“ ausgelöst und damit eine unabsehbare Kostenlawine in Gang gesetzt. Eine erste Auswirkung sind Strompreiserhöhungen, die vor allem Menschen mit kleinem und mittlerem Einkommen treffen. In einem MDR-Interview machte der Volkswirtschaftler Prof. Dr. Joachim Weimann von der Otto-von-Guericke-Universität Magdeburg die Politik für die steigenden Energiepreise verantwortlich. (s.o.) Er belegte zugleich, dass die Preise weiter steigen werden – bisher haben wir nur den Anfang erlebt! Alle Beteuerungen unserer Politiker, dass es infolge der „Energiewende“ nur zu minimalen Preissteigerunge kommen würde, entspringen entweder aus (nicht verzeihbarer) Unwissenheit oder aus einer bewussten Irreführung der Bürger! Fakt ist: Der vorgesehene Verzicht auf die Kernenergienutzung und der politisch „gewünschte“ Ersatz durch „erneuerbare“ Energien wurden handstreichartig in Gang gesetzt, ohne dass die ökonomischen Konsequenzen vorher bedacht, viel weniger durchgerechnet, wurden!
Die Verfahrensweise der Bundesregierung erinnert an einen alten DDR-Witz: Zwei Hasen am Waldrand sehen ein Auto kommen. Da sagt der eine Hase: „Pass auf, da kommen Leute aus der Staatlichen Plankommission; die schneiden jedem Hasen ihr fünftes Bein ab!“ Der andere meint: „Da kann mir nichts passieren, denn ich habe nur vier Beine.“ „Vorsicht,“ erwidert der erste, „die schneiden erst und zählen dann!“
Bei der „Energiewende“ handelt es sich – leider! – um keinen Witz. Ihre Konsequenzen gehen auch weit über die Strompreiserhöhungen hinaus: Deutschland wird nicht nur wissenschaftliche, technische und wirtschaftliche Kompetenz verlieren, es werden auch unzählige Arbeitsplätze verloren gehen, weil – nicht nur stromintensive – Industrien aus dem Strom-Hochpreisland Deutschland abwandern werden. Deutlich erkennbare Anfänge gibt es schon!  
Mit seiner Energiepolitik schadet sich Deutschland nicht nur selbst, sondern fügt der Wirtschaft der gesamten Europäischen Union erhebliche Schäden zu: Das Fehlen Tausender Megawatt zuverlässiger Kraftwerksleistung im europaweiten Verbundnetz führt unweigerlich nicht nur zu höheren Strompreisen, sondern auch zur sinkenden Versorgungszuverlässigkeit!
Ausgangspunkt des MDR-Beitrages war die Situation der Hartz-IV-Empfänger, deren Bezüge infolge der steigenden Preise für Elektroenergie eigentlich angehoben werden müssten. Völlig grotesk ist es, dass viele Kommunen alles tun, um die Kosten der Stromversorgung zu erhöhen. So werden im Namen des „Klimaschutzes“ beispielsweise in Leipzig (wie in anderen Kommunen auch) sog. Bürger-Solarkraftwerke errichtet, die nichts weiter bewirken, als den Strom teurer zu machen: Finanzkräftige schröpfen die Allgemeinheit! Und Leipzig treibt die Strompreise in die Höhe, sieht sich aber zugleich außerstande, die Stromkosten seiner Hartz-IV-Empfänger ordentlich zu begleichen! Und keiner merkt es!
Dr. Dietmar Ufer  EIKE

mit Dank an R. Hoffmann für die Videoerstellung




BP, Greenpeace und der „Big Oil“ Jackpot

Es ist schon be­lus­ti­gend, dass die Öl­ka­ta­stro­phe im Golf von Me­xi­ko den Blick auf die enge Part­ner­schaft zwi­schen den Kli­ma­wan­del-Ak­ti­vis­ten und BP (Bri­tish Pe­tro­le­um) lenkt – eine Fir­ma, auf die der Name "Big Oil" si­cher passt.
Der Wa­shing­ton Post  zu­fol­ge, hat die Grü­ne Grup­pe Na­ture Con­ser­vancy – sie er­mu­tigt Nor­mal­bür­ger, sich per­sön­lich zum Kampf ge­gen den Kli­ma­wan­del zu ver­pflich­ten – "na­he­zu $10 Mil­li­o­nen in bar und Zu­wen­dun­gen an Län­de­rei­en von BP und von mit BP ver­bun­de­nen Fir­men er­hal­ten."
O weh, hat nicht Green­peace eine kom­plet­te ExxonSe­crets Web­sei­te zu­sam­men­ge­baut, um die an­geb­lich teuf­li­sche Tat­sa­che zu ver­öf­fent­li­chen, dass Exxon­Mo­bil wäh­rend neun Jah­ren (1998-2006) ins­ge­samt $2,2 Mil­li­o­nen an ein kon­ser­va­ti­ves In­sti­tut be­zahlt hat?

$10 Mil­li­on ge­gen $2 Mil­li­o­nen! Wer hat denn nun die en­ge­re Be­zie­hung mit Big Oil?

Doch es geht wei­ter. Die Wa­shing­ton Post meint, dass Con­ser­va­ti­on In­ter­na­ti­o­nal $2 Millionen an Zu­wen­dun­gen von BP über die Jah­re er­hal­ten hat. Das ist eine wei­te­re Grü­ne Grup­pe, die den Kli­ma­wan­del seit Jah­ren als "ernst­haf­te Be­dro­hung" dar­stellt und die mit BP in meh­re­ren Pro­jek­ten zu­sam­men­ge­ar­bei­tet hat.
Ist doch lus­tig, dass Green­peace da­rü­ber nicht spricht und das Fol­gen­de auch nicht er­wähnt:
°       BP fi­nan­ziert For­schun­gen zur "Be­kämp­fung des Welt-Kli­ma­prob­lems" an der Prin­ce­ton Uni­ver­si­ty mit im gan­zen $2 Mil­li­o­nen seit 15 Jah­ren,
°       BP fi­nan­ziert ein Ener­gie-For­schungs­in­sti­tut, und zwei wei­te­re US Uni­ver­si­tä­ten mit im Gan­zen $500 Mil­li­o­nen – mit dem Ziel "neue Ener­gie­quel­len zu ent­wi­ckeln und die Aus­wir­kun­gen des Ener­gie­ver­brauchs auf die Um­welt zu ver­min­dern."
°       Exxon­Mo­bil hat $100 Mil­li­on der Stan­ford Uni­ver­si­ty zu­ge­wen­det, da­mit For­scher "Mög­lich­kei­ten fin­den zur De­ckung stei­gen­der Ener­gie­nach­fra­ge ohne ne­ga­ti­ve Aus­wir­kun­gen auf die glo­ba­le Er­wär­mung."
Die ein­zi­gen ge­nann­ten Dollar­be­trä­ge in der von Green­peace ver­öf­fent­lich­ten Er­klä­rung für den Start von  ExxonSecrets sind die mick­ri­gen $2,2 Mil­li­o­nen. Da­ge­gen ste­hen 10 + 2 + 30 + 500 + 100.

Schau­en wir mal, wozu sich das auf­sum­miert …$642 Mil­li­o­nen!

Wenn man die Welt in zwei Sei­ten teilt – in eine, die den Kli­ma­wan­del für ein erns­tes Prob­lem hält und in eine an­de­re, die den Ein­fluss des Men­schen auf das Kli­ma für so ge­ring hält, dass er nicht er­kenn­bar ist – dann hat [bild­lich ge­spro­chen] die eine Sei­te eine Bank be­raubt, wäh­rend die an­de­re vor ei­nem Schnaps­la­den um mil­de Ga­ben bet­telt.
In dem glei­chen Do­ku­ment, in dem Green­peace über das Geld von Exxon­Mo­bil re­det, be­haup­tet man be­ru­hi­gend, dass die „Kli­ma­wan­del-Leug­ner" nicht das Recht auf freie Mei­nungs­äu­ße­rung hät­ten.

War­um das?

Weil  "das Recht auf freie Mei­nungs­äu­ße­rung nicht für Fehl­in­for­ma­ti­on und Pro­pa­gan­da gel­ten wür­de“.
Tat­säch­lich aber ha­ben die Geis­tes­grö­ßen zu die­sem The­ma kon­sis­tent das Ge­gen­teil ver­tre­ten. John Stu­art Mill war glas­klar mit sei­ner An­sicht, dass nie­mand das Recht hät­te, für an­de­re zu ent­schei­den, was Pro­pa­gan­da ist und was nicht. Wür­de er sich Green­peace ge­nau an­se­hen, wür­de er den Green­peace-Leu­ten sa­gen, dass sie auf­hö­ren soll­ten, ihr ei­ge­nes Ur­teil für un­fehl­bar zu hal­ten.
Über hun­dert Jah­re spä­ter hat Noam Chomsky deut­lich er­klärt, dass, wer nicht an die Frei­heit des Wor­tes auch für nicht ge­teil­te An­sich­ten glaubt, über­haupt nicht an die Frei­heit glau­be.
Falls  Green­peace ein ernst­haf­tes Ge­spräch da­rü­ber füh­ren möch­te, wer ei­gent­lich die Fehl­in­for­ma­ti­o­nen he­rum­streut – wozu ich ger­ne be­reit bin – weil un­wi­der­leg­bar er­sicht­lich ist, dass der Big Oil Haupt­ge­winn an die Green­peace-Sei­te der De­bat­te ge­gan­gen ist.
Die Tat­sa­che, dass die Kli­ma­wan­del-Ak­ti­vis­ten ei­nen der­art mäch­ti­gen Finan­zie­rungs­vor­teil ha­ben, und den­noch da­rauf be­har­ren, dass das ge­naue Ge­gen­teil der Fall wäre, ist be­sorg­ni­ser­re­gend. Es sagt eine Men­ge über ihre in­tel­lek­tu­el­le Red­lich­keit aus und über ih­ren Cha­rak­ter und ihr Ver­mö­gen, Fak­ten von Fik­ti­o­nen zu un­ter­schei­den.
Wenn es denn wirk­lich eine Kli­ma­kri­se gäbe und eine Ge­fähr­dung der Zu­kunft un­se­rer En­kel, wä­ren die­se Men­schen nicht die Rich­ti­gen, aus der Ge­fahr he­raus zu füh­ren.
Donna Framboise am 4.6.11
Den Originalbeitrag finden Sie hier
Die Übersetzung besorgte Helmut Jäger EIKE




Falscher PIK-Alarm beim Meeres-Spiegel: Neue Satelliten-Daten zeigen keinen Grund für Alarmismus!

Es gibt neue Satelliten-Auswertungen, welche ganz klar zeigen:
Seit Anfang des Jahres 2010 bis Juni 2011 gibt es ein Absinken des Meeres-Spiegels im globalen Mittel.
Die Abbildung 1 zeigt eine Auswertung des Instituts AVISO :

Abbildung 1
Steigen (Transgression) und Rückgang (Regression) des Meeres-Spiegels wird von etwa einem Dutzend natürlicher Faktoren beeinflusst, von denen die wesentlichen sind:
Tabelle: Faktoren Meeres-Spiegel

Von den mindestens 10 Faktoren, welche den Meeresspiegel beeinflussen, können lediglich die Komponenten "Eis" und "Thermische Effekte" in den Klima-Modellen berücksichtigt werden, und selbst diese nur unzureichend und unsicher. Das liegt in der Natur der Szenarien-Rechnerei. Selbst die globale Eisbilanz unterliegt komplizierten Rückkoppelungen und ist ein Prozeß der Jahrhunderte und Jahrtausende: 
"Die Daten von Nord- und Südpol widerlegen düstere Prophezeiungen, der Meeresspiegel könne in kurzer Zeit um mehrere Meter ansteigen. "Bis das Grönlandeis schmilzt, vergehen mehr als tausend Jahre“, versichert Miller, “denn es war in der Vergangenheit auch deutlich wärmer als heute, ohne dass die riesigen Gletscher verschwanden.“ 
Und nochmals das Alfred-Wegener-Institut: 

"Selbst wenn es in Zukunft im Bereich der Antarktis deutlich wärmer werden würde, sind keine wesentlichen Schmelzprozesse zu erwarten. Ein wärmeres Klima in der Antarktis könnte jedoch zu mehr Schneefall führen. Der antarktische Eispanzer würde dann bei einer Erwärmung eher wachsen als schmelzen. Der weltweite Anstieg des Meeresspiegels könnte durch die Antarktis sogar gemindert werden."

Der wesentliche Faktor für den nach-eiszeitlichen Meeres-Anstieg war die Schmelze der riesigen kontinentalen Eismassen etwa im Zeitraum 15 bis 5 Tausend Jahre vor heute. Auch danach stieg und steigt der Meeres-Spiegel immer weiter, unterbrochen von einigen wenigen insgesamt unbedeutenden Regressionen. Dieser bis heute anhaltende Anstieg über die vergangenen Jahrtausende und Jahrhunderte ist durch die w.o. tabellarisch aufgezeigten vielfältigen Ursachen zu erklären, die regional sehr unterschiedlich wirken. Daher gibt es global immer gleichzeitig Regionen mit steigendem bzw. sinkendem Meeres-Spiegel:

 

Abbildung 2
Die Geologen und Geophysiker kennen alle diese Zusammenhänge recht gut, die Klima-Alarmisten anscheinend nicht. Wie sonst ist es zu erklären, daß die Propagandisten des IPCC ("Klimarat") als Ursache des derzeitigen und künftigen Meeres-Anstieges nahezu ausschließlich die Erderwärmung benennen !? Und dabei wird noch – unbewiesen – vorausgesetzt, diese Erwärmung des 20. Jahrhunderts sei "anthropogen". Aus alledem wird der abenteuerliche und absurde Schluß gezogen: ‚Der Mensch verursacht eine dramatische Beschleunigung des Meeres-Anstieges.‘
Alleine schon die Meßwerte der Satelliten und der Küsten-Pegel widerlegen das! Zusätzlich zu Abbildung 1 zeigt eine weitere Auswertung der Satelliten-Daten nahezu das gleiche Ergebnis: 

Abbildung 3
Seit 2010 gibt es insgesamt einen abnehmenden Trend. Dabei ist selbstverständlich anzumerken, daß es auch schon in früheren Jahren und Jahrhunderten immer wieder solche natürlichen Schwankungen und Schwingungen gegeben hat. 
A l l e r d i n g s –  eines zeigen und beweisen die Abbildungen 1 bis 4 gleichermaßen:
Eine säkulare oder dekadische Beschleunigung des Meeres-Anstieges existiert nicht !
Das gleiche Ergebnis dokumentiert die REKLIM-Studie 2010/11 für säkulare Pegel-Messungen :

Abbildung 4
Ausgewertet wurden für den Zeitraum 1843-2008 insgesamt 15 Pegel aus der Deutschen Bucht.

E r g e b n i s :

Eine Beschleunigung des seit Jahrhunderten andauernden Meeres-Anstieges existiert nicht !

Der Trend geht weiter linear aufwärts. Weiterhin muß man berücksichtigen, daß in der Deutschen Bucht noch eine postglaziale Küstenabsenkung stattfindet, deren Ausmaß allerdings unklar ist. Unabhängig vom Ausmaß dieser Küsten-Absenkung: Eine solche führt immer zu einem relativen Meeres-Anstieg. Das bedeutet, daß der maritime Effekt des Meeres-Anstieges in der Deutschen Bucht sich verlangsamt!
F a z i t :
Behauptungen, es gäbe global – oder in der Deutschen Bucht regional – einen beschleunigten Meeres-Anstieg , und ein solcher sei gar "anthropogen", sind frei erfunden. Einer wissenschaftlichen Nachprüfung halten solche Alarm-Meldungen nicht stand !

1 PIK, Presse-Mitt. 20.06.2011, Meeresspiegel steigt heute schneller als je zuvor in den letzten 2000 Jahren
 2 Das Institut AVISO hat seinen Sitz in Ramonville St-Agne, Frankreich. AVISO erfasst und verteilt u.a. Daten der Satelliten-Altimeter-Systeme TOPEX, POSEIDON, Jason 1+2, ERS 1+2, und EnviSat ("Aviso distributes satellite altimetry data from Topex/Poseidon, Jason-1, Jason-2, ERS-1 and ERS-2, and EnviSat…").
3 Prof. Dr. H. Miller, Alfred-Wegener-Institut : Bohrer im Eis, DIE ZEIT, 06.06.2007 , S.40
4 Alfred-Wegener-Institut, Schmilzt die Antarktis?, Poster, 2009
5 REKLIM, Unser Klima, 2010/2011, S.9, Abb.2.4 6 “Anthropogener“ Meeresspiegelanstieg – vom Konstrukt zur Panik ? Naturw. Rdsch. 61 (2008), H.11, S.566-574 


Klaus-Eckart Puls,  EIKE
Der Aufsatz kann als pdf Datei im Anhang herunter geladen werden.

Anmerkung der Redaktion:

Spiegel Online macht derzeit mit der Meldung Furore: 

Klimarat feilscht um Daten zum Meeresspiegel-Anstieg

und leitet dann wie folgt ein:
…Viele Milliarden Euro stehen auf dem Spiel: Ein Uno-Gremium entscheidet über die Prognose zum Anstieg der Ozeane – sie bestimmt, wie viel Steuergeld  die Staaten in den Küstenschutz pumpen müssen. Hunderte Studien werden verhandelt, es geht zu wie auf einem Basar.

Das ist postmoderne Wissenschaft: Bildung tut not

Dieser Beitrag im SPON hat Prof. Rahmstorf nicht ruhen lassen, deswegen hier sein Gegendarstellung auf "Wissenslog" Mit Dank an Spürnase T.L.

Related Files