Das Rätsel der Eiszeiten, Teil VI: Hypothesen im Überfluss

science of doom

Man findet allgemein Blogs und Artikel aus einer Ecke, die wir die „Klimakonsens-Ecke“ nennen können, mit dem Inhalt, dass wir die Gründe kennen, die die Eiszeiten verursacht haben. Diese Gründe waren Änderungen der Sonneneinstrahlung in höheren Breiten durch die orbitalen Änderungen, die in den Teilen IV und V beschrieben worden sind. Das Ganze läuft unter der Rubrik „Milankovitch-Theorie“. Während diese Auffassung in vielen Studien der Klimawissenschaft vorherrscht, wird der Fall immer klarer. Oder, vielleicht sollte ich besser sagen: Es wird immer klarer, dass der Gegenstand von Klarheit eigentlich weit entfernt ist. Er ist im Gegenteil höchst verschwommen.

Smith & Gregory (2012) schreiben beispielsweise:

Allgemein wird akzeptiert, dass das Timing der Eiszeiten mit Änderungen der Sonneneinstrahlung, die aus dem Erdorbit um die Sonne resultieren (Hays et al. 1976 ; Huybers und Wunsch 2005), verbunden ist. Diese solaren Strahlungs-Anomalien müssen durch Rückkopplungs-Prozesse innerhalb des Klimasystems verstärkt worden sein, einschließlich der Änderungen der atmosphärischen Treibhausgas-Konzentrationen (Archer et al. 2000) und dem Wachstum von Eisschilden (Clark et al. 1999). Während es von Hypothesen hinsichtlich der Details dieser Rückkopplungen nur so wimmelt, bleibt keine von Kritik verschont. Wir können also keinesfalls behaupten zu wissen, wie das System Erde die Klimata geschaffen hat, die wir in zahlreichen Proxy-Aufzeichnungen finden.

So weit Smith & Gregory (2012).

Immer noch gibt es in jedem Bereich Ausreißer. Ein einzelnes paper demonstriert noch keinen Konsens – zu was auch immer. Unternehmen wir also einen Spaziergang durch diese von Smith & Gregory angesprochenen Unsicherheiten.

Einstrahlung im Winter der Nordhemisphäre in hohen Breiten

Kukla (1972) schreibt:

Die Verbindung zwischen dem Milankovitch-Mechanismus und dem Klima bleibt unklar. Sommerliche Verläufe der halbjährlichen Einstrahlung auf 65°N werden normalerweise zusammen mit der Hypothese angeboten, dass die einfallende Strahlung direkt den Rückzug oder die Vorstöße von Gletschern beeinflusst und somit das globale Klima kontrolliert.

Schon vor langer Zeit wurde diese Hypothese in Frage gestellt, und zwar von Croll (1875) und Ball (1891). Heutige Satellitenmessungen rechtfertigen Crolls Konzept der Klimaformation in vollem Umfang, wobei die Meeresströmungen eine grundlegende Rolle bei der Verteilung von Wärme und Feuchtigkeit über den Kontinenten spielen. Das vereinfachende Modell von Koppen und Wegener muss daher definitiv aufgegeben werden.

…Es zeigte sich, dass die prinzipiell kalten Perioden innerhalb der Genauigkeitsgrenzen radiometrischer Datierungen genau parallel mit Intervallen abnehmender Einstrahlung auf der Nordhemisphäre auftraten und umgekehrt. Große Klimaänderungen nahmen ihren Anfang in den Wintern auf den Kontinenten der Nordhemisphäre.

Interessehalber für Geschichts-Freaks: Kukla schreibt auch noch:

Zwei Fakten sind sehr wahrscheinlich:

(1) Im Jahre 2100 wird der Globus kälter sein als heute (Bray 1970), und

(2) eine vom Menschen verursachte Erwärmung wird im globalen Maßstab zu jener Zeit kaum erkennbar sein.

So weit zu Kukla.

Eigenoszillationen des Klimasystems

Broecker & Denton (1990) schreiben:

Obwohl wir davon überzeugt sind, dass das Erdklima in gewisser Weise auf orbitale Zyklen reagiert, weisen wir den Standpunkt einer direkten Verbindung zwischen Saisonabhängigkeit und Größe der Eisschilde mit der Konsequenz eines sich ändernden Klimas in weit entfernten Gebieten zurück. Eine solche Verbindung kann synchrone Klimaänderung gleicher Größenordnung in beiden polaren Hemisphären nicht erklären. Auch kann sie nicht als Erklärung für die Schnelligkeit des Übergangs von voll eiszeitlichen in voll zwischeneiszeitliche Bedingungen dienen. Falls die globalen Klimata wirklich von Änderungen der Saisonabhängigkeit getrieben werden, muss es eine andere Verbindung geben.

Wir schlagen vor, dass Eiszeitzyklen im Quartär von abrupten Neuanordnungen des Systems Ozean-Atmosphäre angetrieben werden durch orbital induzierte Änderungen im Transport von Süßwasser, die die Salzverteilung im Ozean beeinflussen. Diese Neuanordnungen markieren Änderungen zwischen stabilen Zuständen der Wechselwirkung des Systems Ozean-Atmosphäre. Obwohl wir glauben, dass Eiszeitzyklen durch orbitale Änderungen getrieben werden, sehen wir keine Grundlage für die Zurückweisung der Möglichkeit, dass die Zustandsänderungen Teil einer sich selbst erhaltenden internen Oszillation sind, die selbst noch beim Fehlen von Änderungen der Erdorbit-Parameter funktionieren würde. Falls das so sein sollte, wie von Saltzman et al. (1984) gezeigt, können orbitale Zyklen lediglich ein selbstoszillierendes Klimasystem modulieren.

Bestehende Daten vom Gletschersystem der Erde implizieren folglich, dass der jüngste Rückzug simultan und abrupt in beiden polaren Hemisphären eingesetzt hat. Dies trotz der Tatsache, dass die sommerlichen Einstrahlungs-Signale in den Breiten der zentralen Eiszeitaufzeichnungen außer Phase waren. Obwohl Änderungen der orbitalen Geometrie der Erde sehr wahrscheinlich der Grund für Eiszeitzyklen sind (Hays et al. 1976, Imbrie et al. 1984), bleibt die Natur der Verbindung zwischen jahreszeitlicher Einstrahlung und dem globalen Klima eine im Wesentlichen unbeantwortete Frage.

So weit Broecker & Denton (1990).

Streng genommen ist dies eine „Nicht-Ganz-Milankovitch-Theorie” (und es gibt Nebenaspekte dieser Theorie, die hier nicht behandelt werden). Ich habe diese Studie in den Vordergrund gerückt, weil Wallace S. Broecker ein sehr einflussreicher Klimawissenschaftler auf diesem Gebiet ist, und weil sein paper die thermohaline Zirkulation (THC) im Klima der Vergangenheit angesprochen hat. Er hat viele papers geschrieben und scheint allgemein an einem „Milankovitch-Aspekt“ bei seinen Theorien festzuhalten.

Temperaturgradient zwischen niedrigen und hohen Breiten

George Kukla, Clement, Cane, Gavin & Zebiak  (2002) schreiben:

Obwohl allgemein angenommen wird, dass die Verbindung zwischen Einstrahlung und Klima in hohen nördlichen Breiten im Sommer zu suchen ist, zeigen unsere Ergebnisse, dass der Beginn der jüngsten Vereisung mit einer Änderung der Einstrahlung während der Übergangsjahreszeiten in den niedrigen Breiten verbunden war.

Ein einfaches Ozean-Atmosphäre-Modell zeigt, dass Änderungen im jahreszeitlichen Zyklus der Einstrahlung die Variabilität der El Nino Southern Oscillation (ENSO) verändert haben können, so dass es etwa doppelt so viele ENSO-Warmereignisse zu Beginn der Eiszeit gegeben hat wie während der letzten Zwischeneiszeit. Dies zeigt, dass die Eisbildung in den kühler gewordenen hohen Breiten durch einen sich erwärmt habenden tropischen Pazifik beschleunigt worden sein könnte. Seit Anfang des 19. Jahrhunderts wurde die Verbindung zwischen Einstrahlung und Klima in den hohen Breiten der Nordhemisphäre gesehen, wo die sommerliche Einstrahlung signifikant variiert.

Die Einstrahlung an der Obergrenze der Atmosphäre (TOA) während der Sommersonnenwende bei 65°N wird gewöhnlich herangezogen, um den solaren Antrieb globaler Klimaänderungen zu belegen. Dies steht im Widerspruch zu den Ergebnissen von Berger et al. (1981), die die variierende monatliche Einstrahlung an der TOA in verschiedenen Breiten auf beiden Hemisphären mit den maritimen Sauerstoffisotopen von Hays et al. (1976) korrelierten. Die höchste positive Korrelation fand sich nicht im Juni, sondern im September, und auch nicht in hohen Breiten, sondern in den drei Bändern geographischer Breiten, die die Tropen repräsentieren (25°N, 5°N und 15°S).

Auf den ersten Blick scheinen die Implikationen unserer Ergebnisse nicht eingängig zu sein. Dies zeigt, dass die frühe Bildung von Gletschereis nicht mit einer Abkühlung einhergegangen war, sondern mit einer relativen Erwärmung der tropischen Ozeane. Jüngste Analogien zeigen, dass das sogar mit einer vorübergehenden Zunahme der global gemittelten jährlichen Mitteltemperatur einhergegangen sein könnte. Falls das stimmt, wäre der Hauptauslöser für Vereisungen nicht die Ausdehnung der Schneebedeckung in den subpolaren Gebieten, sondern eher die Zunahme des Temperaturgradienten zwischen niedrigen und hohen Breiten.

So weit George Kukla, Clement, Cane, Gavin & Zebiak  (2002).

Ein Puzzle I

George Kukla et al. (2002) schreiben:

Am Ende der letzten Zwischeneiszeit vor über 100.000 Jahren sind die Umweltbedingungen auf der Erde, ähnlich wie heute, abrupt in einen ausgeprägt kälteren Zustand gewechselt. Gletscher wuchsen, der Meeresspiegel sank und die Wüsten dehnten sich aus. Die gleichen Veränderungen gab es auch davor schon viele Male, verbunden mit periodischen Verschiebungen des Erdorbits um die Sonne. Der Mechanismus dieser Änderung, das wichtigste Puzzlesteinchen der Klimatologie, bleibt unbekannt.

So weit George Kukla et al. (2002).

Gradient der Einstrahlung von niedrigen zu hohen Breiten

Maureen Raymo & Kerim Nisancioglu (2003) schreiben:

Auf der Grundlage von Klimaproxy-Aufzeichnungen der letzten 0,5 Millionen Jahre hat sich ein allgemeiner wissenschaftlicher Konsens gebildet, dass Variationen der sommerlichen Einstrahlung in hohen nördlichen Breiten zehntausende Jahre lang einen dominanten Einfluss auf das Klima haben. Die Logik hinter fast einem Jahrhundert währenden Überlegungen zu diesem Thema lautet, dass sich in Zeiten mit reduzierter sommerlicher Einstrahlung etwas Schnee und Eis von Jahr zu Jahr haben halten können – auch während der Schmelzsaison. Eine leichte Zunahme von Jahr zu Jahr zusammen mit einer positiven Schnee-Albedo-Rückkopplung könnte eventuell zu Bedingungen mit voller Vereisung führen. Gleichzeitig wird angenommen, dass die kühlen Sommer von milden Wintern begleitet werden, die mittels Temperatur-Feuchte-Rückkopplung zu einer größeren winterlichen Schnee-Akkumulation führen. Beide Effekte, also geringere Schneeschmelze über den Sommer und größere Schnee-Akkumulation über den Winter, scheinen eine logische und physikalisch haltbare Erklärung für das Wachsen und Schrumpfen von Eisschilden zu sein, wenn sich die Einstrahlung in hohen Breiten ändert.

Dann verweisen sie auf die Probleme mit dieser Hypothese und kommen zu ihrer eigenen Theorie:

Wir sagen, dass der Gradient der Einstrahlung zwischen hohen und niedrigen Breiten die dominante Rolle hinsichtlich des Klimas vor 3 bis 1 Million Jahren spielt, und zwar durch dessen Einfluss auf den polwärts gerichteten Fluss von Feuchtigkeit, die der Treibstoff für das Wachstum der Eisschilde ist.

Und sie schließen mit einem bedeutsamen Kommentar:

Falls es gelänge, ein Modell zu konstruieren, das die Eigenschaften erster Ordnung hinsichtlich der Geschichte der Eiszeiten auf der Erde während des Plio-Pleistozäns abbilden kann, wäre dies ein wichtiger Schritt vorwärts für das Verständnis der dynamischen Prozesse, die die globale Klimaänderung treiben.

So weit Maureen Raymo & Kerim Nisancioglu (2003).

Wir werden in einem späteren Artikel auf die Ergebnisse schauen, die die GCMs (Global Circulation Models) hinsichtlich Beginn und Ende von Eiszeiten liefern.

Sommerliche Einstrahlung in hohen Breiten der Nordhemisphäre

Roe (2006) schreibt.

Die Milankovitch-Hypothese wird weithin als einer der Eckpfeiler der Klimawissenschaft angesehen. Überraschenderweise bleibt die Hypothese  trotz umfangreicher Forschungen bzgl. der Verbindung zwischen der globalen Eismenge und Änderungen der Einstrahlung infolge Variationen des Erdorbits nicht klar definiert. In dieser Studie wird eine spezifische Hypothese formuliert, wobei grundlegende physikalische Gesetze herangezogen werden, um zu zeigen, dass es viel informativer ist, die zeitliche Rate der Änderungen des globalen Eisvolumens zu betrachten als sich auf das absolute globale Eisvolumen zu konzentrieren. Mit dieser einfachen und dynamisch-logischen Änderung der Perspektive zeigen wir, dass die verfügbaren Aufzeichnungen eine direkte gegenphasige und verzögerungsfreie Beziehung der Rate der Änderung des globalen Eisvolumens und der sommerlichen Einstrahlung in hohen nördlichen Breiten stützen.

So weit Roe (2006), der es mit sehr hübschen, an die Hypothese angepassten Graphen versieht.

Sommerlänge auf der Südhemisphäre

Huybers & Denton (2008) schreiben:

Wir zeigen, dass die Dauer des Sommers auf der Südhemisphäre eher das antarktische Klima als die Intensität des Sommers der Nordhemisphäre prägt, mit der es sich (oftmals irreführend) mit variiert. Unserer Ansicht nach stammt die fast interhemisphärische Klimasymmetrie im Zeitmaßstab der Bahnschiefe und der Präzession aus einer Reaktion des Nordens auf die lokale Sommerintensität und einer südlichen Reaktion der lokalen Sommerlänge.

So weit Huybers & Denton (2008), die es mit sehr hübschen, an ihre Hypothese angepassten Graphen versehen.

Erwärmung in der Antarktis verändert den atmosphärischen CO2-Gehalt

Wolff et al. (2009) schreiben:

Der Übergang von einem eiszeitlichen zu einem zwischeneiszeitlichen Klima wird gebremst durch Variationen des Erdorbits. Allerdings wird die detaillierte Abfolge von Ereignissen, die zum Ende eiszeitlicher Bedingungen führen, kontrovers diskutiert. Vor allem ist unklar, ob die nördliche oder die südliche Hemisphäre dieses Ende bestimmen. Hier präsentieren wir eine Hypothese für den Beginn und die Fortsetzung eiszeitlicher Verhältnisse, die sich auf die Beobachtung stützt, dass die ursprünglichen Stadien des Endes einer Vereisung nicht unterscheidbar sind von Ereignissen in der Antarktis, die unter der Bezeichnung "Antarktische Isotopische Maxima" bekannt sind. Zu denen kommt es in Eiszeiten häufig. Derartige Erwärmungen in der Antarktis  beginnen im Allgemeinen sich mit dem Einsetzen eines warmen Dansgaard-Oeschger-Ereignisses in der Nordhemisphäre umzukehren.

Allerdings folgt der Erwärmung in der Antarktis in den Frühstadien der Abschwächung einer Eiszeit nicht eine abrupte Erwärmung im Norden. Wir zeigen, dass das Fehlen einer antarktischen Klima-Umstellung die Erwärmung im Süden ermöglicht und der damit verbundene Anstieg des atmosphärischen CO2-Gehaltes einen Punkt erreicht, an dem der volle Eisrückgang unvermeidlich wird. Unserer Ansicht nach geht das Ende von Eiszeiten zusammen mit anderen Erwärmungen, die nicht zum Ende der Eiszeit führen, von der Südhemisphäre aus, aber nur spezielle Bedingungen auf der Nordhemisphäre ermöglichen es dem Klima, seine Änderung hin zu zwischeneiszeitlichen Bedingungen abzuschließen.

So weit Wolff et al. (2009).

Ein Puzzle II

In einem paper zum Strahlungsantrieb während Eiszeiten und dem Versuch, die Klimasensitivität zu berechnen, stellen Köhler et al. (2010) fest:

Natürliche Klimavariationen während des Pleistozäns sind immer noch nicht zur Gänze verstanden. Auch wissen wir nicht, wieviel sich die mittlere jährliche Temperatur im Detail ändert oder welche Prozesse für die Größenordnung der Temperaturvariationen verantwortlich sind.

Noch eine Perspektive

Abschließende Kommentare von dem immer wieder faszinierenden Carl Wunsch:

Die schon lange im Raum stehende Frage, wie ein geringer Milankovitch-Antrieb derartig gewaltige Änderungen zwischen Eiszeiten und Zwischeneiszeiten auslösen kann, wird dadurch beantwortet, dass er das nicht macht.

Der Reiz, Zyklen von Eiszeiten und Zwischeneiszeiten mit dem Milankovitch-Antrieb zu erklären, ist eindeutig: es ist eine deterministische "Story"….

Beweise, dass der Milankovitch-Antrieb die Aufzeichnungsdaten „beherrscht“, vor allem in der Eiszeit/Zwischeneiszeit von 100 ka-Jahren, sind sehr dünn und irgendwie nicht plausibel unter dem Umstand, dass die größte hochfrequente Variabilität irgendwo anders liegt. Diese Ergebnisse sind kein Beweis für die stochastische Steuerung der Pleistozän-Vereisungen und auch nicht dafür, dass deterministische Elemente auch nur teilweise ein Faktor sind. Aber die Hypothese des stochastischen Verhaltens sollte nicht einfach so verworfen werden, hat sie doch zumindest eine ähnlich starke Grundlage wie orbitale Effekte. Es ist allgemein die Ansicht in der paläoklimatischen Gemeinschaft, dass die Beschreibung eines Systems als ‚stochastisch‘ gleichbedeutend ist mit ‚unerklärlich‘.

Nichts könnte weiter von der Wahrheit entfernt liegen (z. B. Gardener 1985): stochastische Prozesse enthalten reichlich Physik und Kinematik, die beschrieben und verstanden und sogar vorhergesagt werden können.

Résumé

Dies ist keine erschöpfende Liste von Hypothesen, weil ich definitiv einige nicht gesehen habe (Carl Wunsch beispielsweise nennt in einer anderen Studie mindestens 30 Theorien). Es ist auch möglich, dass ich einige Schlüsselpunkte von mindestens einer Hypothese oben falsch interpretiert habe (und entschuldige mich bei den jeweiligen Autoren, falls das so sein sollte). Der Versuch, die Eiszeiten zu verstehen und der Versuch, die Denkansätze der Klimawissenschaft bzgl. Eiszeiten zu überblicken, sind beides abschreckende Aufgaben.

Was nach all dem klar sein sollte, ist der Umstand, dass es keine „Milankovitch-Theorie“ gibt. Es gibt viele Theorien mit einer gemeinsamen Prämisse: solare Strahlungs-Veränderungen via orbitaler Änderungen „erklären“ den Beginn und das Ende von Eiszeiten. Aber dann kommen sie alle mit jeweils sich widersprechenden Theorien daher, wie diese Änderungen beeinflusst werden. Daher ist höchsten eine dieser Theorien richtig. Und meine gegenwärtige Perspektive – und einer offensichtlichen gemäß der Lektüre von über 50 Studien zu den Gründen der Eiszeiten – ist: die Anzahl der irreführend „Milankovitch-Theorien“ genannten Theorien, die korrekt sind, ist gleich Null.

Link: http://scienceofdoom.com/2013/11/11/ghosts-of-climates-past-part-six-hypotheses-abound/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/




Irland: Windparkbetreibern werden 10 Millionen Euro gezahlt, damit sie keine Energie erzeugen

Update der Redaktion: Da wir in Deutschland die Energiewende sehr sehr ernst nehmen und auch sonst deutlich größere Summen in Wind und Sonne investiert haben sind auch die Kompensationssummen hier um mehrere Größenordnungen höher. Im Handelsblatt vom 26.4.14 finden wir die Schlagzeile

Abgeklemmte Windparks kosten Verbraucher Millionen

Es sind wohl bis zu 760 Millionen Euro Schadensersatz, die in diesem Jahr an Betreiber von nicht angeschlossenen Windparks zu zahlen sind. An den Kosten bleibt der Verbraucher hängen – über die Stromrechnung.

Bild rechts: Windpark. Photo Arthur Ellis/Press22

EirGrid zufolge hatte die Summe 2013, gezahlt von Bord Gais, ESB und anderen Versorgern, bis zu 10 Millionen Euro betragen.

Allerdings sieht es so aus, als würden diese Kosten noch rasant steigen, da die Drosselungs-Rate [the power-down rate] 2013 3 Prozent betrug, in diesem Jahr 2014 aber voraussichtlich auf 10 Prozent steigen wird. Dies bringt den konventionellen Energieunternehmen Kosten über 30 Millionen Euro und einen Kostenschub auf die Stromrechnungen der Verbraucher. Eine Graphik von EirGrid zu Kürzungen bei der Windenergie-Erzeugung zeigt, dass bis 2016 ein weiterer Anstieg um 50 Prozent droht, was bei den Versorgern mit 40 Millionen Euro zu Buche schlägt.

Irische Windparkbetreiber erhalten Zahlungen von anderen Stromversorgern hinsichtlich der „Hemmnisse“ oder „Kürzungen“, wenn eine Übertragungs- oder Verteilungsleitung wegen Wartung oder einer lokalen Panne nicht in Betrieb ist; oder auch bei starkem Wind zu einer Zeit mit sehr geringer Energie-Nachfrage (z. B. mitten in der Nacht), und wenn Turbinen wegen Überkapazitäten abgeschaltet werden. Die gleiche Politik wird international angewendet.

Die europäischen Energie-Regulatoren haben im vorigen Jahr beschlossen, dass Windparks Kompensationszahlungen aus dem Energiemarkt für diese Schließungen erhalten sollen, und das ist Teil der Regierungspolitik zur Stimulierung des Windenergie-Marktes.

[Da sage noch einer, Windkraft rechnet sich nicht! A. d. Übers.]

Link: http://www.independent.ie/business/irish/windfarm-owners-were-paid-10m-not-to-produce-energy-30200656.html

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei Herrn Jürgen Uhlemann für den Hinweis auf diesem Artikel in einem Kommentar.




Fakten, nichts als Fakten! Globale Erwärmung oder globale Verblödung der Menschen? von Otto Hahn

„Die Weitergabe meiner  Erkenntnisse an die jeweils zuständigen Stellen blieb unbeachtet und somit erfolglos. Doch die Endverbraucher, welche alles bezahlen müssen, gehören informiert und aufgeklärt! So entstand dieses auf Fakten beruhende Buch. Und das ganz bewusst zu einem für jeden erschwinglichen Preis!

In einem schlagwortartigem Text mit kurzen Sätzen breitet der Autor die gängigen Behauptungen zum menschgemachten Klimawandel aus und stellt ihnen eine große Fülle  von faktenbasierten Widerlegungen gegenüber.

 

Die behandelten Themen und Thesen umfassen u.a.

Photosynthese und Sauerstoff, woher kommt er wirklich – der CO2-Klimaschwindel – der CO2-Ablasshandel – alternative Energien und  die daraus resultierende EEG-Abzocke der Endverbraucher –  Schildbürgerstreich Energiewende – Windenergie und Photovoltaik,  der teuerste Strom der Welt – ANDASOL das weltgrößte  solarthermische Kraftwerk – das Kyoto-Protokoll – die CO2-Petition  von 31.478 US- Wissenschaftlern (Global Warming Petition Project) – das Wasserstoffauto – Natur- und Umweltschutz ja, Klimaschutz  nein, weil unmöglich und völlig sinnlos – die Aktivität der Sonne  und das Universum steuern unser Klima – der Svensmark-Effekt –  Eisfläche der Arktis hat um 50 Prozent zugenommen – Definition von Wetter und Klima – Eiszeiten und Warmzeiten – CO2-Düngung  in Gewächshäusern – Wahnsinn Wärmedämmung – Kernkraftwerke  in Europa, allein 60 in Frankreich.

Das Buch ist eine kühle Abrechnung mit dem herrschenden Klimaschutz-Paradigma und besticht durch sein einfache Sprache, die es erlaubt auch kompliziertere Sachverhalte zu verstehen.

Wegen der vielen authentischen Zitate bleibt es nicht aus, dass gelegentlich auch Widersprüchliches vermeldet wird. So werden z.B. in einem davon, Kohlekraftwerke als „Dreckschleudern par Excellence“ bezeichnet. Offensichtlich hat der so zitierte keines dieser Kraftwerke von innen gesehen, denn sonst hätte ihm auffallen müssen, dass es in der Industrie nur sehr wenige vergleichbare Prozesse gibt, die derart sauber in allen  Teilprozessen ablaufen. Denn bei der Stromerzeugung durch Kohle wird jedes Zwischenprodukt zu fast 100 % abgetrennt und in gut eingeführten Verwertungsketten zu marktüblichen Preisen verwertet. Und nur die gewünschten Hauptprodukte – nämlich stabiler, billiger Strom zu jedem gewünschten Zeitpunkt, und bei vielen inzwischen auch Prozess- und Fernwärme-  werden erzeugt, und natürlich, dass bei jeder sauberen optimalen Verbrennung zwangsläufig anfallende CO2. Dass dies keinen erkennbaren Einfluss auf die globale Mitteltemperatur hat, zeigt der Autor an sehr vielen Beispielen auf, und man kann diesen Ausrutscher übersehen.

Daher tut es der Freude dieses Büchlein zu lesen oder jemandem Intelligenten auf den Gabentisch zu legen, keinen Abbruch.

Das  Buch ist im Wittgenstein Verlag erschienen mit der ISBN: 978-3-944354-19-4

Zum von Preis: 8,90 €; Details  hier www.wittgenstein-verlag.de




330 Jahre lang Messung des Meeresspiegels

Wie in meinem letzten Artikel Rebound beschrieben, macht PGR für die Nordischen Länder und andere Häfen der Ostsee Messungen des Meeresspiegels zu einer Messung von PGR, nicht des Meeresspiegels. Glücklicherweise wurden GPS-Messungen des PGR an allen Tiden-Messstellen in der Welt durchgeführt, und diese Messungen kann man dazu benutzen, die Messungen des Meeresspiegels an Pegelständen zu korrigieren.

15 Aufzeichnungen an Pegel-Messstellen in der Welt wurden vom PSMSL Explorer heruntergeladen und eine vom Amsterdam NAP. Diese wurden nach Qualität ausgewählt: schlechte/keine Qualität (rote Flaggen), Länge (vorzugsweise über 100 Jahre), gute Kontinuität, geringe PGR, geringe tektonische Aktivität in dem jeweiligen Gebiet. Diese wurden zu ihrem mittleren Niveau der Jahre 1960 bis 1980 normalisiert und dann für PGR  korrigiert. Das Ergebnis zeigt Abbildung 1.

Abbildung 1 zeigt die normalisierten Daten von 16 langzeitlichen Tidenmessungen mit guter Qualität.

Abbildung 2 zeigt das Mittel der Tidenmessungen aus Abbildung 1:

Dies sind die Mittelwerte von 15 Messungen des mittleren Meeresspiegels seit 1958, 11 von 1948 bis 1958, mindestens 10 seit 1900 und mindestens 7 seit 1885, mindestens 5 seit 1864, 4 seit 1849 und 2 während fast des gesamten Zeitraumes seit 1807.

Abbildung 3 ist eine Graphik aus climatedata.info. Dies wird als eine Validierung von Abbildung 2 gezeigt.

Wir erkennen hier, dass der Meeresspiegel seit 1855 bis 1860 gestiegen ist. Davor war der Meeresspiegel gleich geblieben oder gefallen. Hier folgt eine Darstellung mit den Trends in 30-Jahres-Intervallen:

Abbildung 4: Darstellung der Trends des Meeresspiegels seit 1810 aus den gemittelten Daten der Abbildung 2.

Der Meeresspiegel blieb fast unverändert im gesamten 19. Jahrhundert mit einem Aufwärtstrend von 0,4 mm/Jahr in der ersten und dann 0,9 mm/Jahr in der zweiten Hälfte dieses Jahrhunderts mit dem Ende der kleinen Eiszeit zur Mitte des Jahrhunderts. Im gesamten 20. Jahrhundert hatte der Trend weniger als 1,7 mm/Jahr betragen. Insgesamt ist der Meeresspiegel während der letzten 150 Jahre um 25 cm gestiegen. Der Trend verlangsamte sich während der Kaltphase von 1950 bis 1980, um dann mit der Erwärmung zum Ende des Jahrhunderts auf 2,25 mm/Jahr zuzunehmen. Die Satellitenmessungen beginnen zum Zeitpunkt der stärksten Abkühlung seit dem Pinatubo-Ausbruch. Darum zeigt diese Aufzeichnung in Kombination mit der künstlichen GIA/PGA-„Korrektur“ von 0,3 mm/Jahr in der Auflistung der University of Colorado einen Trend von 3,2  ± 0.4 mm/Jahr.

Abbildung 5a: Meeresspiegel-Trend seit 1890. Abbildung 5b: Der Meeresspiegel-Anstieg der letzten 33 Jahre.

Der jüngste Sprung nach oben während der Jahre 2012 und 2013 infolge der Erholung nach dem La Niña 2011 währt gerade mal zwei Jahre lang und ist nicht annähernd so dramatisch wie zahlreiche andere kurzfristige Änderungen des Meeresspiegels in beide Richtungen zuvor. Sie alle sind verbunden mit kurzen Erwärmungs- und Abkühlungsperioden im Zuge von El Niños, La Niñas und vulkanischer Ereignisse. Die Abkühlung nach den Vulkanausbrüchen des El Chichon 1983 und des Pinatubo 1992 treten in Abbildung 5b besonders deutlich hervor.

Es gibt eine gute Aufzeichnung des Meeresspiegels aus der Zeit vor dem Jahr 1800. Die Holländer waren lange Zeit sehr besorgt wegen des Meeresspiegels, liegt doch ein Drittel ihres Landes unter dem Meeresspiegel [siehe Bild oben rechts!]

Abbildung 6: siehe oben rechts!

Die Abbildung oben rechts zeigt einen Huddestenen, benannt nach dem Amsterdamer Bürgermeister Hudde, ein Marmorblock, der im Jahre 1684 gesetzt worden ist, 2,67 Meter über dem Meeresspiegel bei Amsterdam.

Nach einer schweren Flut im Jahre 1675 kam der Bürgermeister von Amsterdam zu der Erkenntnis, dass nur die Sicherstellung einer ausreichenden Höhe der Deiche zur Verhinderung von Überschwemmungen führen würde. Zu diesem Zweck war die präzise Kenntnis darüber erforderlich, wo die Deichkronen relativ zur normalen Hochwassermarke lagen. Zu diesem Zweck wurde von September 1683 bis September 1684 ein ganzes Jahr lang täglich die Tide gemessen und eine mittlere Hochwassermarke berechnet. Seit dieser Zeit wurden Messungen des Meeresspiegels an dieser Stelle durchgeführt, und zwar fast kontinuierlich von 1700 bis 1925. Diese Aufzeichnung trägt die Bezeichnung „Normaal Amsterdams Peil” (NAP) oder Amsterdam Ordinance Datum Meeresspiegel-Aufzeichnung. Diese Aufzeichnung sieht folgendermaßen aus, nach Korrektur  bzgl. PGR (oder GIA), normalisiert und im Vergleich geplottet zu dem Mittel der Abbildung 2:

Abbildung 7 zeigt 300 Jahre gemessene Daten des Meeresspiegels.

Der Meeresspiegel-Anstieg während der letzten 200 Jahre von 1807 bis 2007 beträgt nicht mehr als 27 cm. In den 125 Jahren davor gab es überhaupt keinen Anstieg.

Was also wird in Zukunft geschehen? Falls sich die von den Anhängern des solaren Klimatreibers vorhergesagte Abkühlung einstellt, wird es während der nächsten 30 Jahre eine Verzögerung des Meeresspiegel-Anstiegs ähnlich der Periode von 1950 bis 1980 geben. Ein großer Teil der während der Kleinen Eiszeit angesammelten Eismassen ist bereits geschmolzen, so dass nur die großen Eisreservoire in Grönland und der Antarktis zum Anstieg des Meeresspiegels beitragen können. Der größte Teil des Anstiegs durch Abpumpen von Grundwasser und Drainage von Seen auf dem Festland hat eine Grenze erreicht. Die thermische Ausdehnung durch Erwärmung der Ozeane hat wegen der verstärkten Verdunstung in tropischen Meeresgebieten ein Limit erreicht. Betrachtet man all dies, kann der Anstieg des Meeresspiegels im restlichen 21. Jahrhundert nicht denjenigen des vorigen Jahrhunderts übersteigen, also 1,7 mm/Jahr; vermutlich ist er geringer. Dies zeigt, dass der Meeresspiegel bis zum Jahr 2100 kaum 15 cm betragen dürfte.

In Gebieten mit einer Erholung der Vergletscherung wird man überhaupt keinen Anstieg des Meeresspiegels bemerken. In Gebieten mit Absinken sollte dieses Absinken Gegenstand von Belang sein. In den wenigen Gebieten, wo nichts dergleichen geschieht, werden normale Deichhöhen und –wartung sowie normale Infrastrukturmaßnahmen ausreichen. Koralleninseln können mit 1 cm/Jahr wachsen, so dass sie kein Problem mit einem Meeresspiegel-Anstieg von einem Sechstel dieses Wertes haben dürften. Wenn die Vergangenheit ein Wegweiser für die Zukunft ist, gibt es vom Anstieg des Meeresspiegels wenig zu befürchten.

Mehr: http://notrickszone.com/2014/04/18/long-term-tide-gauge-data-show-21st-century-sea-level-rise-will-be-approximately-as-much-as-the-20th-century/#sthash.O24Zg4po.dpuf

Link: http://notrickszone.com/2014/04/18/long-term-tide-gauge-data-show-21st-century-sea-level-rise-will-be-approximately-as-much-as-the-20th-century/

Blog-Betreiber Pierre Gosselin kommentiert diesen Sachverhalt so: „Langzeitliche Tidenmessungen: Meeresspiegel wird im 21. JHD etwa so stark steigen wie im 20. JHD“. Dies wählt er auch als Überschrift zu diesem Beitrag auf seinem Blog.

Übersetzt von Chris Frey EIKE




Strahlenschutzkommission will Sicherheitszonen um KKW erweitern – und fördert so nur die Strahlenangst der Deutschen

Was sagt die Strahlenschutzkommission?

Es wurden Rechnungen mit Freisetzungen von 3,1*1017Bq Jod-131 und 2,9*1016Bq Cs-137 gemacht, das sind etwa doppelt so große Werte als wie sie von Japan berichtet worden sind. Als berechnete Häufigkeit des Ereignisses wird mit 2,1*10-7 pro Jahr angegeben, das bedeutet, daß einmal in 5 Millionen Jahren mit dieser Freisetzung zu rechnen ist. Die Rechnungen wurden für die Wetterverhältnisse der Kernkraftwerke Unterweser, Grohnde und Philippsburg durchgeführt. Das Kriterium zur Evakuierung war 100mSv innerhalb von 7 Tagen bei angenommenem ungeschütztem Daueraufenthalt im Freien. Es wurde berechnet, bis zu welcher Entfernung vom KKW mit schwerwiegenden deterministischen Effekten zu rechnen ist, wenn bestimmte Schwellendosen überschritten werden. Bei den Schwellendosen handelt es sich um Werte, die bei 99% der exponierten Personen noch KEINE Effekte hervorrufen.

Die SSK kommt zu der Empfehlung, die Planungsgebiete rund um ein KKW für den Fall der schlimmsten Katastrophe (GAU, INES 7) zu erweitern, und zwar

·       die „Zentralzone“ mit den vorgesehenen Maßnahmen „Evakuierung“, „Einnahme von Jodtabletten“ und „Aufenthalt in Gebäuden“ von 2km auf ca. 5km. Die Maßnahmen sind vor einer absehbaren Freisetzung von Nukliden durchzuführen, eine Evakuierung soll nach 6 Stunden abgeschlossen sein.

·       die „Mittelzone“ soll auf 20km Entfernung ausgedehnt werden. Die Maßnahmen sind identisch mit denen der Zentralzone, jedoch bleibt zur Durchführung der Evakuierung 24 Stunden Zeit.

·       Die „Außenzone“ reicht bis 100km Entfernung. Dort sollen die Maßnahmen „Aufenthalt in Gebäuden“, Verteilung von Jodtabletten und Warnung vor dem Verzehr frischer Lebensmittel vorbereitet werden.

Was ist dazu zu sagen?

·       Die Freisetzungen in Japan stammen von den Kernschmelzen dreier Reaktoren, diese hatten zusammen eine elektrische Leistung von 2028MW. Die deutschen Vergleichsreaktoren haben jeder eine geringere Leistung um 1400WM. Obwohl also die deutschen Reaktoren im Vergleich zu denen in Japan kleiner sind, wurden höhere Freisetzungen als in Japan angenommen, es wurde von der SSK also ein schlimmeres Ereignis als in Japan angenommen. Ein Grund dazu wird nicht genannt.

·       Deutsche Reaktoren besitzen Filter, in denen eventuell austretende radioaktive Nuklide aufgefangen werden und abklingen können. Diese gab es in Fukushima nicht, nur deshalb gab es die Freisetzungen. Die hohen angenommen Freisetzungen kann es bei deutschen Reaktoren nur ohne Filter geben. Ist das möglich?

·       Im März 2011 konnte man aus den täglich veröffentlichten online-Berichten mit den Aufzeichnungen zur Ortsdosisleistung auf dem Kraftwerksgelände von Fukushima schließen, daß außerhalb des Kraftwerksgeländes kein Mensch einen gesundheitlichen Schaden durch Strahlung erleiden wird. Diese Schlußfolgerung wurde ein Jahr später bei den Vorträgen der Fachtagung [2] bestätigt.

·       UNSCEAR hat in seinem kürzlich veröffentlichten Bericht [3] vom 2.4.2014 festgestellt, daß auch in Zukunft keine gesundheitlichen Schäden durch Strahlen für Menschen (Krebs) in Japan zu erwarten sind.

·       Der Fukushima-Unfall wurde als INES 7-Ereignis eingestuft. Zur Definition von INES 7 heißt es: „Auswirkungen außerhalb der Anlage: Schwerste Freisetzung, Auswirkungen auf Gesundheit und Umwelt in einem weiten Umfeld, Gesundheitliche Spätschäden über große Gebiete, ggf. in mehr als einem Land.“ Folglich stehen die Einstufung als INES 7 und der Bericht von UNSCEAR im Widerspruch zueinander.
Dazu ist zu bemerken, daß die Reaktoren in Fukushima etliche Mängel hatten: zu kleines Containment, unzureichender Tsunamischutz, keine Wasserstoffrekombinatoren, keine Filterstrecken, und dennoch ist KEIN Mensch zu Schaden gekommen. Also trotz der Mängel kein Schaden, das kann als grandioser Erfolg der weltweit verfolgten Sicherheitsphilosophie im Reaktorbau angesehen werden.

Worin liegt die Gefährlichkeit bei der Kernenergie?

Bei der friedlichen Nutzung der Kernkraft gibt es eine Gefahr, die bei Nutzung der fossilen Energien nicht vorhanden ist, das ist die Strahlung. Diese Gefahr konnte man im Anfang (1953, „Atome für den Frieden“) noch nicht richtig einschätzen, weil die Wirkung der hochenergetischen Strahlung auf Lebewesen nur wenig erforscht war. Man hatte daher aus Vorsicht damals recht niedrige Grenzwerte für die erlaubte Exposition von Menschen angesetzt [4]. Diese Werte flossen in die Gesetzgebung ein und wurden in späteren Jahren immer nur herab gesetzt. Die Vorsicht hatte letztendlich zur Folge, dass es von 1945 bis 2007 weltweit nur ca. 147 Todesopfer durch Strahlung gegeben hat, dabei sind die Opfer des Tschernobyl-Unfalles und Unfälle durch Fehler im medizinischen Bereich eingeschlossen [3]. Es gibt Erläuterungen zu diesen Unfällen in [5]. Man kann festhalten:

Die friedliche Nutzung der Kernenergie war von Anfang an eine einzigartige Erfolgsgeschichte mit einer Sicherheit, wie sie in keinem anderen technischen Bereich erreicht worden ist.

Heute ist die Gesetzgebung zum Schutze vor Strahlung durch Radioaktivität sehr streng. Sie verlangt, jede noch so kleine Strahlendosis zu vermeiden. Der Grund für diese Vorgabe ist die Annahme, dass jede noch so kleine Strahlendosis unabhängig von der Zeit der Einwirkung schädlich sei (Konjunktiv!!!). Das ist die LNT-Hypothese (linear-no-threshold). Man weiß, dass diese Hypothese nicht die Realität beschreibt. Im Niedrigdosisbereich ist genau das Gegenteil der Fall, dort ist Strahlung der Gesundheit förderlich. Es gibt sehr viel Literatur darüber [6]. In der Fachzeitschrift „StrahlenschutzPRAXIS“ wird zuweilen über diese Dinge berichtet. Allerdings waren früher gesundheitsfördernde Effekte von Niedrigdosisstrahlung oft schwach, Zweifel kamen auf. Neuerdings gibt es mit dem Co-60-Ereignis von Taiwan [7] ein sehr deutliches Zeichen auf die Nützlichkeit von Strahlung an einem großen Kollektiv von Menschen. Es ist ein unfreiwilliger Großversuch mit Ganzkörper-Langzeitbestrahlung von Menschen mit harter gamma-Strahlung, wo die Krebsrate fast auf NULL sank. Daraus sollten Konsequenzen gezogen werden: Diese Effekte sollten von den internationalen und nationalen Strahlenschutzauthoritäten nicht mehr ignoriert, sondern in alle Überlegungen einbezogen werden.

Was nützt eine Evakuierung bei Unfällen?

Die Evakuierung in Japan hat Todesfälle zur Folge gehabt, das wird von der SSK berichtet: Entwurzelung der Evakuierten, Suff, Suizide sind die Folge. Es wurden an verschiedenen Stellen Zahlen um 1000 Opfer genannt, was plausibel erscheint. Ähnliches ist aus den weitreichenden Evakuierungen nach dem Tschernobyl-Unfall bekannt, die IAEA kritisierte 1991 die überzogenen Evakuierungsmaßnahmen und Lebensmittelrestriktionen. Allerdings hatte die ganze Welt nichts aus der IAEA-Kritik gelernt. Die Maßnahmen der Regierung in Japan sind noch weitgehender als diejenigen beim Tschernobyl-Unfall.

Durch die beim Strahlenschutz ignorierte nützliche Wirkung von Niedrigdosisstrahlung kommt ein weiterer Gesichtspunkt hinzu, denn durch die Evakuierungen hat man den Menschen eine nützliche Strahlendosis vorenthalten. Schon beim Tschernobyl-Unfall wurde eine um 15% bis 30% niedrigere Krebsrate unter den „emergency workers“ und 5 bis 17% weniger Krebs bei den Bewohnern der Gegend von Bryansk festgestellt [8], so daß bei NICHT-Evakuierung einige tausend bis vielleicht sogar 10 000 Menschen vor Krebs bewahrt worden wären. Ein ähnliches ist in Japan zu sagen, bei NICHT-Evakuierung wären viele Menschen vor Krebs bewahrt worden.

Was ist zu tun?

Die weltweit seit einem halben Jahrhundert gültige Strahlenschutzphilosophie sollte geändert werden. Das ist in der Fachwelt bekannt, aber es wird offenbar nicht darüber geredet. So fanden die Leser der Fachzeitschrift „StrahlenschutzPRAXIS“ dort 2006 in einem Bericht von Prof. Becker die Schlußfolgerung:

Aus diesen und Gründen wissenschaftlicher Korrektheit und intellektueller Redlichkeit ist ein baldiger Paradigmenwechsel im Strahlenschutz erforderlich.“

Prof. Becker erhielt für einen Aufsatz mit ähnlichem Inhalt in Nuclear Europe Worldscan 1998 in London den Preis der European Nuclear Society für die beste Publikation des Jahres 1998. Die Erkenntnisse vom Co-60-Ereignis von Taiwan waren darin noch NICHT eingeflossen, ein überaus wichtiger Grund für erforderliche Änderungen also noch nicht bekannt.

Die SSK hat die Erkenntnisse zu den nützlichen Effekten von Strahlung im Niedrigdosisbereich nicht beachtet. Evakuierungen könnten im engen Nahbereich eines Kernkraftwerkes nützlich sein, nicht jedoch im Fernbereich.

Alle Erkenntnisse, Meinungen, Gesetze werden von Menschen gemacht, und Menschen können irren. Die Geschichte hat dazu Beispiele parat. Die Strahlenschutz-Fachwelt sollte den Mut besitzen, zum Wohle der Menschen die Politik auf Irrtümer aufmerksam zu machen und auf Korrektur zu drängen.

Literatur

[1] http://www.ssk.de/SharedDocs/Beratungsergebnisse_PDF/2014/Planungsgebiete.pdf?__blob=publicationFile

[2] Fachsymposium „Strahlenschutz – Ein Jahr nach Fukushima“ des Deutsch-Schweizerischen Fachverbandes für Strahlenschutz e.V. (FS), 8. und 9.März 2012 in Mainz

[3] http://www.unscear.org/

[4] Paul Laufs, „Reaktorsicherheit für Leistungskernkraftwerke“, Springer-Vieweg 2013, Abschnitt 3.2.2. „Gefahrenpotenzial und Reaktorsicherheit“

[5] http://www.kernfragen.de/kernfragen/documentpool/strahlenexpo_03_2014.pdf

[6] http://www.energie-fakten.de/pdf/hormesis.pdf; Berichte in www.buerger-fuer-technik.de unter 5. Radioaktivität, Strahlung; ein exzellentes Buch ist kostenlos unter http://tinyurl.com/nlsm4wm zu finden

[7] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/ , oder: http://www.eike-klima-energie.eu/climategate-anzeige/die-dosis-macht-das-gift-auch-bei-strahlung/

[8] Z. Jaworowski in http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2889503/

[9] StrahlenschutzPRAXIS 2/2006, Seite 44 bis 48; auch in www.buerger-fuer-technik.de mit der Überschrift „LNT or not LNT, that ist he question“