Golfstrom im Visier der Klima-Alarmisten!

Seit einiger Zeit kann man Schlagzeilen dieser Art lesen [4]: "Forscher warnen – Der Golfstrom läuft heiß", dagegen aber auch [5]: "Golfstrom ist stabil" und [6] "Kein Trend bei der Meeresströmung an der Grönland-Schottland-Schwelle".

Der Golfstrom 

Das weiß jeder: Die warme Meeres-Strömung namens Golfstrom transportiert große Mengen warmen Wassers von West nach Ost über den Nordatlantik und sorgt an den Westküsten Europas zwischen etwa 50 und 70 Grad nördlicher Breite ganzjährig für ein mildes Klima. Diese Wohltat der Natur begreift man erst, wenn man in der genannten geographischen Breite über den Atlantik an die Ostküste des nordamerikanische  Kontinents schaut. Dort bestimmt der Antagonist des Golfstroms Wetter und Klima, nämlich der aus der eisigen Baffin-Bay nach Süden strömende kalte Labrador-Strom. So hat St. Jones an der Ostküste von Neufundland in 47°N ein Jahresmittel von 5°C, dagegen haben am Westeingang des Englischen Kanals die Orte Brest auf 48°N und Plymouth auf 50°N ein Jahresmittel von jeweils 11°C ! Das sind Wetter- und Klima-Welten in einer anderen Liga!

Wer von den historischen Seefahrern diese quer über den Atlantik reichende Meeres-Strömung als erster bemerkt hat, wird im Dunkel der Geschichte verborgen bleiben. Fest steht soviel [7]: "1513 entdeckte der spanische Seefahrer Ponce de Leon vor der Küste Floridas eine starke Strömung, die seinen Schiffen das Vorwärtskommen nach Westen erheblich erschwerte. Später wurde diese Strömung als Golfstrom bezeichnet, weil ein großer Teil der Strömung aus dem Golf von Mexiko stammt."

Zur Namensgebung findet man [8] : "Der Name Golfstrom wurde von Benjamin Franklin geprägt und bezieht sich auf den Golf von Mexiko. Früher wurde er auch "Floridastrom“ genannt, auf den Karten des 16. und 17. Jahrhunderts heißt er Canal de Bahama."

Die erste systematische Erfassung und Untersuchung von Meeres-Strömungen, also auch des Golf-Stromes, wurde auf Veranlassung des US-Amerikanischen Seefahrers und Wissenschaftlers Matthew Fontaine Maury (1806-1873) veranlasst [9]: "Maury war Initiator und Organisator der Golfstromforschung, durch die wichtige technische Entwicklungen angestoßen wurden. Diese wurden speziell durch Probleme sowohl bei der Erfassung der Wassertiefe und die Beschaffung von guten Bodenproben als auch durch die Messung der Wassertemperatur als Funktion der Tiefe ausgelöst."

Was treibt die Meeres-Ströme ?

Die Planetarischen Windsysteme sind Ursache und Antrieb der weltweiten Meeres-Ströme (Abb.1).

 

Abbildung 1

Planetarische Windsysteme

Wie die Abbildungen 1 und 2 veranschaulichen, sind die Passate und die West-Wind-Gürtel dabei von herausragender Bedeutung. Die Zusammenhänge sind unübersehbar.

 

Abbildung 2

Meeres-Ströme, Schema

Auf dem Nord-Atlantik entsteht durch stetigen Nordostpassat die Meeresströmung  "Nördliche Passat-Drift" (Abb.3). Dieser Meeres-Strom wird durch die in Strömungsrichtung nach rechts ablenkende Kraft der Erdrotation, die so genannte Coriolis-Kraft, zunächst in eine nach Westen und dann mehr und mehr nach Nordwesten und Norden gerichtete Strömung umgelenkt. Zusätzlich trägt dazu die Küsten-Konfiguration Mittel- und Nordamerikas bei, wie die Abb.3 veranschaulicht. Eine bedeutsame Rolle spielt dabei auch der Golf von Mexiko, letztlich sogar als Namensgeber. Bei 40° Nord – also östlich von New York – hat der Golfstrom eine Strömungs-Geschwindigkeit von 5 km/h. Das ist für einen Meeresstrom gewaltig, die Seefahrer müssen damit seit eh und je zurecht kommen.

Abbildung 3

Entstehung und Verlauf des Golf-Stromes

Meeres-Ströme: "Flüsse" im Meer ?

Nein  –  ganz und gar nicht. Denn es gibt weder Ufer noch sonstige Begrenzungen, abgesehen von Küsten natürlich. So passiert auch bei den Meeres-Strömen das, was wir von jeglicher strömender, fließender Materie auf der Erde kennen: Infolge von Reibungen, physikalischen Instabilitäten, Temperatur- und Dichte-Unterschieden, Corioliskraft sowie auch Wetterlagen (Stürme) bilden sich Wirbel in verschienen Größenordnungen. Die Natur arbeitet in Wirbeln, fast überall, insbesondere auch in der Atmosphäre. Wirbel transportieren Masse und Energie. Natürlich entstehen bei Meeres-Strömen durch Wind und Wellen auch vertikale Wirbel, im Wesentlichen in den oberen Dekametern. Die Wirbel an der Meeres-Oberfläche sind seit etwa 20 Jahren in den Infrarot-Aufnahmen der Satelliten erkennbar, auch beim Golfstrom – Abb.4.

Abbildung 4

Infrarot-Bild des Golf-Stromes [10]

Aus vielen solcher IR-Aufnahmen kann man dann ein detailliertes Schema modellieren, wie in der Abb. 5 dargestellt [11].

Abbildung 5

Modell-Bild des Golf-Stromes [11]

In den Abbildungen 3 und 5 ist erkennbar, daß der Golfstrom nach dem Einschwenken in die gemäßigten Breiten nun von den Stürmen des Westwind-Gürtels in östlicher Richtung weiter getrieben wird. Dabei fächert der Golfstrom auf (èAbb. 3). Der Hauptstrom geht an Irland, Schottland und Skandinavien vorbei bis in Barents-See, und sorgt entlang seiner Bahn ganzjährig für eisfreie Häfen. Ein kräftiger Seitenarm schwenkt in die Biskaya und den Englischen Kanal. Ein anderer Arm zweigt ab in die Irminger See, und zum Teil sogar weiter zwischen Grönland und Island hindurch nach Norden.

Die thermo-haline Zirkulation

Der Golfstrom verliert auf seinem Weg durch die Subtropen und die gemäßigten Breiten Wasser und Wärme durch Verdunstung. Hinzu kommt ein Verlust von fühlbarer Wärme an die immer kälter werdende Luft, je weiter der Golfstrom nach Norden kommt. Infolge von Verdunstung und Temperatur-Abfall steigt die Salz-Konzentration, das Wasser wird dichter und  –  bezogen auf die Volumen-Einheit  –  damit auch "schwerer". So beginnt in höheren Breiten ein Absinken des Golf-Oberflächen-Wassers. Das hat eine masse-ausgleichende Gegenströmung zu Folge: Kaltes Tiefenwasser strömt aus nördlichen Breiten nach Süden. Damit gibt es also  – zusätzlich zu den o.a. Windsystemen (Abb. 1)  – für das System der Meeres-Strömungen mit dieser thermo-halinen Zirkulation einen weiteren Antrieb, der wie eine "Umwälzpumpe" wirkt.

AGW: Kollabiert der Golfstrom ?

Im Zusammenhang mit der seit etwa 150 Jahren gemessenen mäßigen Erderwärmung von einem Dreiviertel Grad werden nun immer wieder Horror-Meldungen durch die Medien gejagt – z.B. derart, daß es zu einem Kollaps des Golfstromes und damit zu einer "Europäischen Eiszeit" kommen könne.

Dabei werden häufig zunächst drei Aspekte außer Acht gelassen:

(1)       Schwingungen und Veränderungen (auch) des Golfstroms gehören zur Normalität der globalen Zirkulationen;

(2)       Selbst in den Warmzeiten unserer aktuellen Klima-Periode (Holozän) hat es keine solche Kollapse gegeben, obwohl z.B. die Temperaturen während der Optima des Holozäns (4000-8000 vor heute), der Römer (um 2000 v.h.) und des Mittelalters (um 1000 v.h.) phasenweise höher lagen als heute;

(3)       Es gibt zwar auch in den letzte Jahrzehnten "Pendelungen" im Golfstroms bezüglich Strömungs- und Temperatur-Änderungen, aber keinerlei Anzeichen für dramatische Veränderungen oder gar Umbrüche.

So ließ jüngst das MPI Hamburg zu (1) verlauten [12] :

"Doch was die Forscher noch gar nicht so lange wissen: Die Zirkulation schwankt. Sie variiert mit den Jahren und kann mal schwächer, dann wieder stärker ausfallen."

Bei den Diskussionen zum Golfstrom sollte man  –  zumindest im Ansatz  –  zwei Aspekte unterscheiden:

(A)      Änderungen der Strömung in Intensität und Richtung, als ggf. signifikante Abweichungen von normalen säkularen Schwingungen;

(B)      Temperatur-Änderungen, ebenfalls unter dem Gesichtspunkt extremer Veränderungen gegenüber normaler säkularer Fluktuation.

Zu alledem gibt es eine Menge Literatur, mit z.T. widersprüchlichen Aussagen.

Intensität und Richtung

Seit 1996 beobachten und untersuchen Forschungs-Institute aus Kiel [13] in einem umfangreichen Projekt den Golfstrom: "Nahezu alle Klimamodelle zeigen, dass sich der Golfstrom in Zukunft abschwächen wird und einige unserer ausländischen Kollegen meinten, erste Anzeichen dafür in Messdaten erkennen zu können … Dies konnte aber in den von uns durchgeführten Langzeitbeobachtungen nicht bestätigt werden“. Und weiter heißt es in diesem Forschungsbericht: "Selbst wenn sich die Vorhersagen der Klimamodelle bestätigen sollten, werden wir hier in Europa nicht über kurz oder lang in eine Eiszeit rutschen … Bestenfalls wird die zu erwartende Klimaerwärmung in Nordeuropa etwas moderater ausfallen".

Für die Seegebiete vor Neufundland, in dem Golf- und Labrador-Strom aufeinander treffen, gibt es ebenfalls Ernüchterung: "Anders als erwartet zeigten die Strömungsmessungen am Ausgang der Labradorsee zwar große Schwankungen über Zeiträume von Wochen und Monaten, aber bislang keine dramatischen langfristigen Trends, die auf eine Abnahme der Golfstromzirkulation hindeuten würden."

Sogar in den katastrophilen Medien [5] steht dann manchmal Sachliches:

"Entgegen Befürchtungen von Klimaexperten ist der Golfstrom in den vergangenen Jahren nicht schwächer geworden. Seit 1995 habe die warme Meeresströmung, die für das Klima in Europa von großer Bedeutung ist, keinerlei Anzeichen einer Verlangsamung gezeigt, berichtet der NASA-Ozeanograf Josh Willis in der Fachzeitschrift ‚Geophysical Research Letters‘. Seine Studie stützt sich auf  Satellitenbilder und Messdaten von mehr als 3000 Forschungs-Bojen, die unter anderem Informationen über Temperatur und Salzgehalt lieferten. Die Fließgeschwindigkeit des Golfstroms habe sich demnach sogar leicht erhöht, was einem natürlichen  Zyklus entspreche. Klimaforscher hatten indes vorhergesagt, daß  die globale Erwärmung und das mit ihr einher gehende Abschmelzen polarer  Gletscher viel Süßwasser in den Atlantik spülen würde. Dadurch könnte, so ihre Befürchtung, der Golfstrom abgeschwächt werden."

Von Grönland über Island bis nach Schottland erstreckt sich am Meeresboden ein Höhenrücken – die Grönland-Schottland-Schwelle. Diese wirkt hemmend für den Wasser-Austausch, folglich auch bei Meeres-Strömen. Wenn der kalte nördliche Tiefenstrom sich in diesem Bereich verändert, so kann sich das auch auf den in oberen Atlantik-Schichten nach Norden fließenden Golfstrom auswirken, wegen einer abschwächenden themo-halinen Zirkulation (vgl.w.o.). Das wurde bereits 1973 in einer großen internationalen Forschungs-Expedition untersucht [14], und die Ergebnisse bis heute immer wieder überprüft [6]: "Kein Trend bei der Meeresströmung an der Grönland-Schotland-Schwelle : … Im Nordatlantik fließt warmes Wasser in den Arktisraum, sinkt dort durch Abkühlung ab, und gelangt als Tiefenwasser wieder nach Süden. Bisher wird vermutet, daß sich zukünftig diese Zirkulation durch den Klimawandel abschwächen kann. Messungen und Modellrechnungen einer neuen Studie lassen aber zumindest lokal für die Tiefenwasser-Strömung in der Nähe der Faröer-Inseln keinen Trend seit 60 Jahren feststellen."

Bleibt festzuhalten:

In den letzten 60 Jahren keine signifikanten Änderungen, kein Klima-Trend!

Golfstrom-Prognose möglich ?

Neuerdings gibt es Ansätze, den Golfstrom zu modellieren [12] : "Nun präsentieren Hamburger Klimaforscher im Fachmagazin "Science" ein Verfahren, mit dem sich die Schwankungen des Golfstroms treffsicher prognostizieren lassen."

Bei den Untersuchungen dazu gab es offensichtlich Erkenntnisse, die den ganzen Golfstrom-Alarmismus der letzten Jahre widerlegen: "Bis 2014 bleiben Atlantikzirkulation und Golfstrom weitgehend konstant und ändern sich kaum." …. "Eine durchaus beruhigende Nachricht. Denn im Frühjahr 2010 hatte es so ausgesehen, als würde die Zirkulation nachlassen. Manche werteten das schon als Zeichen einer dauerhaften Abschwächung oder gar eines Versiegens des Golfstroms, und zwar als mögliche Folge des Klimawandels. Doch heute ist klar: Das Nachlassen der Zirkulation vor zwei Jahren war nichts anderes als ein Intermezzo, hervorgerufen durch kurzzeitige Störungen in der Atmosphäre."

Ist nun eine Vorhersage des Golfstrom-Verhaltens möglich? Bezüglich des komplizierten Zusammenspiels zwischen Golfstrom, atmosphärischer Zirkulation, Wechselwirkungen mit anderen Meeres-Strömen sowie mit der themo-halinen Zirkulation gilt das, was auch für das ganze Klima-System gilt: Es handelt sich um ein nicht-lineares, überwiegend stochastischen System [15], daher sind Zweifel an einer realistischen Modellierbarkeit und gar Vorhersagbarkeit angebracht. Zumindest das Versagen der Klima-Modelle hinsichtlich der stagnierenden bzw. leicht zurück gehenden Temperaturen der letzten 14 Jahre gestatten auch bezüglich einer Vorhersagbarkeit des Golfstrom-Verhaltens erhebliche Zweifel. Unter all diesen Aspekten mutet die o.a. Aussage [12] über "… ein Verfahren, mit dem sich die Schwankungen des Golfstroms treffsicher prognostizieren lassen" … recht vermessen an. Aber auch hier gilt für Gegenwart und Zukunft: Die Natur schreibt die Wahrheit, und die sieht meist ganz anders aus, als die Ergebnisse der Modell-Szenarien!

Temperaturen des Golfstromes

Die Temperaturen des Oberflächenwassers sinken auf dem langen Weg des Golfstromes von etwa 30°C in den Subtropen bis auf Werte nahe Null in den hohen Breiten ab.

Nun gab es jüngst dramatische Meldungen [16]: "Der Golfstrom dreht Europas Fernheizung auf!", wozu u.a. ausgeführt wurde: Ein "internationales Forscherteam … kommt im Fachmagazin ‚Nature Climate Change‚ zu dem Schluss, dass sich der Golf- beziehungsweise Nordatlantikstrom im Verlauf eines Jahrhunderts doppelt bis dreifach stärker erwärmt hat als der Rest des Atlantiks und die Weltmeere insgesamt. Während der Atlantik an der Oberfläche um 0,9 Grad Celsius zulegte und die Ozeane weltweit um 0,6 Grad, erwärmte sich der Golfstrom um 1,8 Grad."

AGW-Klima-Katastrophe ? Nicht unbedingt, denn (a.a.O.): "Noch ist nicht definitiv geklärt, was Auslöser der Erwärmung ist."

Mehr noch: Noch ist auch nicht geklärt, ob diese Erwärmungs-Meldungen überhaupt signifikant und bewiesen sind, denn z.B. die Messungen des ARGO-Bojen-Systems zeigen das nicht (vgl.w.u.).

Dennoch Alarm (a.a.O.): "Die thermohaline Zirkulation könnte im Extremfall ganz zum Stillstand kommen", …aber zugleich wieder Entwarnung:  "In diesem Jahrhundert wird dies allerdings kaum passieren".

Und dann wird  – ausnahmsweise  –  auch mal darauf hingewiesen, daß weder die Forscher noch die Modelle irgend etwas im Griff haben (a.a.O.): "An diesem Punkt sehen sich die Forscher mit einer verzwickten Situation konfrontiert. Was überwiegt: die gerade entdeckten überproportional steigenden Temperaturen des Golfstroms, die dem Norden mehr Wärme bringen? Oder dessen Stocken, was Europas Fernheizung drosselt? Die Forscher wissen es noch nicht."

Schließlich wird für die ganz Ängstlichen sogar noch eine kleine Beruhigungspille verabreicht [16]: "Keineswegs würde das Stocken des Nordatlantikstroms also bedeuten, dass sich die Nordhemisphäre plötzlich dramatisch abkühlt".

Fazit: Vielleicht rettet AGW uns Europäer doch noch vor der Kälte-Starre ?

Wie dem auch sei  –  einer Nachprüfung halten die angeblich dramatischen Anstiege von Golfstrom-Temperaturen nicht stand, denn umfangreiche und langfristige Messungen der Temperaturen der Weltmeere u.a. auch mit dem Bojen-System ARGO finden nichts dergleichen:

Meeres-Temperaturen

Alarmistische Behauptungen, die Meere würden sich dramatisch erwärmen, werden durch Messungen widerlegt.

Zum Beispiel: Seit 1999 gibt es ein globales Netz von mittlerweile 3000 Bojen, die durch Auf- und Absteigen in den oberen 2000 Metern die Meeres-Temperaturen messen : ARGO.

 

Abb. 6

Das Bojen-System ARGO

Auswertungen von ARGO ergaben zum Beispiel [17]:

"Die ARGO-Bojen haben die AGW-Alarmisten enttäuscht, weil sie keinerlei Anzeichen für einen bevorstehenden Klimawandel gefunden haben. Wie Dr. Josh Willis, der für das Jet Propulsion Laboratory (JPL) der NASA arbeitet, in einem Interview mit National Public Radio bemerkte: Es gab eine ganz schwache Abkühlung …. aber das ist nicht wirklich signifikant.”

Eine Übersicht zu den zeitlichen Verläufen von Meeres-Temperaturen auf den Ozeanen geben die Abbildungen 7 bis 13 :

Abb. 7 [18]

Wasser-Temperaturen (SST) ARGO ; 2003-2008;

Fluktuationen, aber kein Trend.

 

Abb. 8 [19]

Wasser-Temperaturen ARGO (10 – 1500 Meter Tiefe); 2005-2011;

Fluktuationen im Bereich von Hundertstel(!) Graden, aber kein Trend.

 

Abb. 9

Wasser-Temperaturen östlich vor New York (1984-2010);

Die erheblichen Temperatur-Schwankungen zwischen 27°C im Sommer

und 5°C im Winter lassen erkennen, daß diese Meßboje im

mäandernden Bereich zwischen Golf- und Labrador-Strom liegt (è Abb.3);

Fluktuationen, aber kein Trend.

 

Abb. 10

Wasser-Temperaturen im Pazifik (Hawaii-Inseln);

1984 – 2010; Fluktuationen, aber kein Trend.

 

Abb. 11

Trends von CO2, Sea-Level und Meeres-Temperaturen (1993-2009)

(Hinweis-Pfeile eingefügt)

Auch in der Fram-Sraße zwischen Grönland und Spitzbergen ist kein Erwärmungs-Trend erkennbar, obwohl die Arktis sich angeblich dramatisch erwärmt :

Abb. 12

Meeres-Temperaturen (0 – 500 Meter Tiefe) in der Fram-Straße

zwischen Grönland und Neufundland; 1997-2010.

 

Abb. 13

Meeres-Temperaturen in den oberen 300 Metern;

Pazifik 130°E – 80°W; 1979-2011;

Fluktuationen, aber kein Trend.

=================================================================

F a z i t

Als Fazit genügt hier die Einschätzung zweier Fach-Institute, welche die Golf-Strom-Debatte kurz+knapp auf den Punkt bringen:

(1) Das Max-Planck-Institut in Hamburg: [20]

"Kann die globale Erwärmung zum Abriss des Golfstroms führen? Kann dies eine neue Eiszeit hervorrufen? Die kurze Antwort ist: Nein. Einen Golfstrom wird es immer geben, solange der Atlantik von Kontinenten umgeben ist, sich die Erde dreht und die Passat- und Westwinde wehen. Der Golfstrom kann also nicht abreißen. Ebensowenig kann die menschengemachte globale Erwärmung eine globale Abkühlung, vergleichbar mit der letzten Eiszeit, nach sich ziehen."

(2) Der Deutsche Wetterdienst: [21]

"Über eine Abschwächung des Golfstromes bei weiter zunehmender globaler Erwärmung wird immer wieder spekuliert. Bisher liegen jedoch keine verläßlichen Messungen über eine Abschwächung vor. Vorübergehende Schwankungen sind normal."

Klaus-Eckart Puls EIKE

Q u e l l e n :

[1]       http://www.eike-klima-energie.eu/news-cache/g-l-o-b-a-l-c-o-o-l-i-n-g-wo-bleibt-die-erderwaermung/  ; 25.02.2012 

[2]       (a) http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-un-klimakonferenz-neuer-ipcc-bericht-zunahme-von-extremwetterlagen/  ; 23.11.2011

(b) http://www.eike-klima-energie.eu/news-cache/presseschau-zum-ipcc-extremwetterbericht-mehr-extremwetter-fehlanzeige/ 09.12.2011

[3]       http://www.eike-klima-energie.eu/climategate-anzeige/falscher-pik-alarm-beim-meeres-spiegel-neue-satelliten-daten-zeigen-keinen-grund-fuer-alarmismus/ 16.07.2011

[4]       http://www.welt.de/wissenschaft/umwelt/article13840350/Forscher-warnen-Der-Golfstrom-laeuft-heiss.html  ; 29.01.2012

[5]       DIE WELT: Wissenschaft/Umwelt, 03.04.2010

[6]       Naturwissenschaftliche Rundschau, Heft 2 (2009), Seite 82-83

[7]       http://www.google.com/imghp

[8]       http://de.wikipedia.org/wiki/Golfstrom#Entstehung

[9]       R. A. Krause, Matthew Fontaine Maury, Pathfinder of the Seas, Deutsches Schiffahrtsarchiv, 32 (2009), Oceanum Verlag

[10]     http://www.revelation-of-silence.com/upload/golfstrom.jpg

[11]     http://www.ifm-geomar.de/index.php?id=3583

[12]     http://www.dradio.de/dlf/sendungen/forschak/1646447/

Deutschlandfunk, Forschung aktuell : Stabile Wärmepumpe, 6. Januar 2012

[13]     http://www.ifm-geomar.de/index.php?id=3583 ; 16.11.2010

PULS, K.E.; MEINCKE, J.: General Atmospheric Circulation and Weather Conditions in

the Greenland-Scotland-Area for August and September 1973, "Overflow ’73" – Expedition

Contribution No.17, Ber.Inst.f.Meeresk.Univ.Kiel, Nr.14 (1975), 24 S.

[14]      PULS, K.E.; MEINCKE, J.: General Atmospheric Circulation and Weather Conditions in the Greenland-Scotland-Area for August and September 1973, "Overflow ’73" – Expedition Contribution No.17, Ber.Inst.f.Meeresk.Univ.Kiel, Nr.14 (1975), 24 S.

[15]     IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774

[16]     DIE WELT, 01.02.2012; http://www.welt.de/wissenschaft/umwelt/article13845405/Der-Golfstrom-dreht-Europas-Fernheizung-auf.html?wtmc=Newsletter.NL_Weltbewegt

[17]     http://www.klimaskeptiker.info/index.php?seite=einzelmeldung.php?nachrichtid=407 ; 26.03.2008

[18]     http://www.klimaskeptiker.info/index.php?seite=einzelmeldung.php?nachrichtid=1504 ; 16.01.2012

[19]     http://www.eike-klima-energie.eu/climategate-anzeige/mr-spock-uebernehmen-sie-ueber-die-bearbeitung-der-daten-der-argo-bojen/  ; 16.01.2012

[20]     MPI Hamburg; http://www.mpimet.mpg.de/aktuelles/presse/faq-haeufig-gestellte-fragen/kann-die-globale-erwaermung-zum-abriss-des-golfstroms-fuehren-kann-dies-eine-neue-eiszeit-hervorrufen.html, August 2011

[21]     DWD, Gerhard Müller-Westermeier, Leiter DWD-Abt. "Nationale Klima-Überwachung": "Wetter ist nun mal chaotisch", Sächs.Zeitg., 01.02.2011, S.5

Related Files




Fukushima – Der Jahrestag – Die Medien – Die Fakten! Stellungnahme des Strahlenschutzverband Schweiz 13.3.2012

Ich habe die Veranstaltung besucht und möchte Ihnen hiermit eine kurze qualitative Zusammenfassung im Telegrammstil liefern, die in Diskussionen vielleicht hilfreich sein dürfte.   

   Fakten:

·         Kernaussage aller Referenten: Fukushima ist nicht Tschernobyl

·         Durch den Ozean und die günstige Wetterlage wurden Radionuklide größtenteils auf das Meer getragen und extrem verdünnt

·         Alle radiologischen Daten aus Fukushima umfassen den Zeitraum 2 Monate nach dem Ereignis bis jetzt, d.h. die ersten 2 Monate nach dem 11. März 2011 sind nicht erfasst, können nur abgeschätzt bzw. müssen rekonstruiert werden

·         Dies läge an der mangelnden messtechnischen Ausrüstung in dieser Region auch schon vor dem Ereignis; die unzureichende vorhandene Ausrüstung zum Zeitpunkt des Ereignisses sei durch das Erdbeben bzw. die Flutwelle überdies größtenteils verloren gegangen.

·         Inklusive Faktum fehlender bzw. nur zu rekonstruierender radiologischer Daten: Kein einziger radiologisch bedingter Todesfall und auch kein einziger radiologisch bedingter nachweisbarer Krankheitsfall infolge des Reaktorunglücks liegt vor – weder bei Arbeitern der Anlage noch in der Bevölkerung

·         Zwei Arbeiter in den Anlagen seien ertrunken, 4 Arbeiter seien mechanisch verletzt worden, z.B. durch Frakturen

·         Block 2 der insgesamt 4 relevanten Reaktorblöcke wird als Hauptquelle für radioakt. Emissionen bezeichnet

·         Die geborstene Kondensationsringkammer (KoKa) von Block 2 war trotz der Leckagen wiederum auch Rückhaltequelle für Schwermetalle

·         Da radioaktiver Dampf vor Austritt ins Freie erst die KoKa durchströmte musste, konnten Strontium, Uran und Plutonium dort durch Restwasser / Schwerkraft sowie andere Effekte gebunden werden

·         Hauptradionuklid heute und für die Zukunft ist Cäsium, die Werte seien jedoch „beruhigend“

·         Es gibt mehrere Dutzend „hot spots“ radioaktiver Belastung in der Gegend um Fukushima, die meisten Flächen weisen heute nur Belastungen wie die Hintergrundstrahlung im Schwarzwald auf  

·         Nahrungsmittel in Fukushima und generell in Japan und sind entgegen der öffentlichen Wahrnehmung kein Problem. Nur Pilze und Wildfleisch sollten gemieden werden.

·         Interne und externe Exposition der Bevölkerung bewegt sich im Bereich von Millisievert  (mSV)

·         Einige wenige Arbeiter kamen auf Werte bis 250 mSv, der maximale Einzelfall wird auf 680 mSv geschätzt, was i.w. eine Schilddrüsenbelastung wegen nicht benutzter (doch vorhanderner!) Atemschutzmasken darstellen wird

·         Damit sind keinerlei pathologische Folgen zu verzeichnen, d.h. keine direkten Auswirkungen des Unfalls auf die Gesundheit der Menschen sind nachweisbar, auch wird dies später nicht möglich sein.

·         Es gibt lediglich ein theoretisches, rein zurechenbares Risiko einer zusätzlichen Krebserkrankung, d.h. gegenüber zivilisatorisch auftretendem Krebs. Dieses entspricht pro Jahr dem Risiko durch Höhenstrahlung bei einem Transatlantikflug.

·         Zu beachten ist hingegen das toxikologische Risiko durch havarierte Chemieanlagen in der Tsunamiregion, was momentan unverständlicherweise weder amtlich noch öffentlich thematisiert wurde

Die Folgen und Aussichten:

·         80.000 Menschen wurden evakuiert, 156.000 haben insgesamt die Gegend um Fukushima verlassen

·         Die Gegend um Fukushima wird relativ schnell wieder besiedelt werden, Dekontamination mittels Hochdruckreinigern und Erdabtrag an Hotspots oder neuralgischen Punkten wie z.B. Kinderspielplätzen hat stattgefunden bzw. findet noch statt

·         Es wird in der Nähe der Reaktoren erwogen, den Meeresboden zu betonieren, um eine Sedimentversiegelung zu schaffen

·         Alle Maßnahmen zur Wiederherstellung des öffentlichen Lebens inkl. privaten Wohnraumes werden mittlerweile generalstabsmäßig von den Behörden geplant und durchgeführt, ab diesem Monat (März 2012) existieren Aktionspläne für jede Gemeinde

·         Es besteht kein Zweifel daran, dass größtenteils normales Leben in und um Fukushima wieder einkehren wird

·         Hot spots (im Umkreis bis 60 km) mit weiterhin bzw. dauerhaft >20mSV/Jahr werden allerdings weiterhin evakuiert bleiben oder Zugangsbeschränkungen unterliegen

·         Japanische Exportgüter werden bereits in Japan auf Kontamination strengstens kontrolliert

·         Es gibt nochmals in DE eine entsprechende Kontrolle an den Flughäfen

·         Die INES Skala, nach der Fukushima ebenfalls wie Tschernobyl in Kategorie 7 eingestuft wurde, wird von allen seriösen Experten in Bezug auf schwere Unfälle als nicht mehr zeitgemäß bzw. nicht mehr brauchbar eingestuft, da beide Ereignisse radiologisch nicht vergleichbar seien

·         Es gibt weiterhin in den (insbes. deutschen Medien) eine beispiellose Vermischung der Erdbebentoten mit dem Reaktorunglück, was nur als Hetze bezeichnet werden kann

·         Ein offizieller Uno-Bericht von UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) zu Fukushima und den Folgen wird 2013 vorliegen.

 A. Opitz/Leipzig    

mit Dank an "Bürger für Technik" Herrn Dr. Lindner




Und immer wieder grüßt das Murmeltier! – Der NAS-Bericht

Im Besonderen war es unsere Aufgabe

  1. 1. die primären Voraussetzungen zu finden, auf denen unser gegenwärtiges Verständnis der Frage (der Klimaeffekte des CO2) basiert,
  1. 2. quantitativ die Eignung und die Ungewissheit unseres Wissens über diese Faktoren zu bestimmen, und
  2. 3. präzise und objektiv das gegenwärtige Verständnis in Sachen Klima/Kohlendioxid für politische Entscheidungsträger zu beschreiben.

Nun, das klingt alles ziemlich vernünftig. Tatsächlich wären wir ein riesiges Stück weiter als jetzt, wenn wir die Antworten auf diese Fragen kennen würden.

Bild rechts: Der neue Cray-Supercomputer „Gaea“, der kürzlich bei der National Oceanic and Atmospheric Administration NOAA installiert worden ist. Er wird zur Simulation von Klimamodellen benutzt werden.

Aber wie sich heraus stellte, hat sich die aus AGW unterstützenden Klimawissenschaftlern bestehende Arbeitsgruppe der NAS entschlossen, es besser zu wissen. Sie verkündeten, dass es zu schwierig wäre und zu lange dauern würde, die gestellten Fragen zu beantworten.

Das ist schon in Ordnung. Manchmal stellt man Wissenschaftlern Fragen, die zu beantworten ein Jahrzehnt dauern würde. Und das ist es auch, was diese Wissenschaftler ihren politischen Herren sagen sollten – können wir nicht, dauert zu lange. Aber neeeiiiin…, sie wissen es besser, so dass sie sich entschlossen haben, stattdessen eine andere Frage vollständig zu beantworten. Nach der Auflistung der Gründe, warum diese ihnen gestellten Fragen zu beantworten zu schwierig war, sagten sie (Hervorhebung von mir):

„Eine vollständige Beschreibung all dieser Dinge wäre eine lange und schwierige Aufgabe.

Es ist jedoch plausibel, mit einer einzigen grundlegenden Frage zu beginnen: Falls wir wirklich sicher wären, dass das atmosphärische Kohlendioxid in bekanntem Rahmen zunehmen würde, wie gut können wir dann die Konsequenzen für das Klima projizieren?“

Oooookaaaay … Ich denke, dass dies jetzt die neue post-normale wissenschaftliche Methode ist. Erstens geht man davon aus, dass das zunehmende CO2 „Konsequenzen für das Klima” hat. Danach schaut man, ob man diese „Konsequenzen projizieren“ kann.

Sie haben recht, dass dies leichter zu bewerkstelligen ist als tatsächlich klar zu stellen, OB es klimatische Konsequenzen gibt. Es wird so viel einfacher, wenn man einfach annimmt, dass das CO2 das Klima treibt. Hat man einmal diese Antwort, werden die Fragen viel einfacher…

Immerhin haben sie zumindest versucht, ihre eigene Frage zu beantworten. Und was haben sie herausgefunden? Nun, angefangen haben sie hiermit:

„Wir schätzen die wahrscheinlichste globale Erwärmung bei einer Verdoppelung des CO2-Gehaltes auf nahe 3°C mit einem möglichen Fehler von ± 1.5°C.“

Bis hier also keine Überraschung. Sie weisen darauf hin, dass diese Schätzung natürlich von Klimamodellen stammt. Überraschend jedoch stellen sie dazu keine Frage und sind sich auch nicht unsicher darüber, ob die Klimamodelle auf der gleichen Wellenlänge liegen. Sie sagen (Hervorhebung durch mich):

„Da die Bewölkung individuell unter der Gitterpunktsweite der allgemeinen Zirkulationsmodelle liegt, müssen Wege gefunden werden, die Gesamtbewölkungsmenge in Beziehung zu den Gitterpunktsvariablen zu stellen. Bestehende Parametrisierungen der Wolkenmenge sind physikalisch sehr grob. Wenn empirische Anpassungen der Wolkenmenge in den allgemeinen Zirkulationsmodellen zur Erreichung von Plausibilität vorgenommen werden, könnten die Modellergebnisse mit dem gegenwärtigen Klima verglichen werden. Aber ein solches Trimmen durch sich selbst garantiert nicht, dass die Reaktion der Bewölkung auf Änderungen der CO2-Konzentration auch getrimmt ist. Daher muss betont werden, dass die Modellierung der Wolken eines der schwächsten Glieder in den Rechnungen der Zirkulationsmodelle ist.“

Die Modellierung der Wolken ist eines der schwächsten Glieder… da kann ich nicht widersprechen.

Wie ist also der derzeitige Stand hinsichtlich der Klimarückkopplung? Die Autoren sagen, dass die positive Rückkopplung des Wasserdampfes jedwede negativen Rückkopplungen überkompensiert:

„Wir haben sorgfältig alle negativen Rückkopplungsmechanismen untersucht, wie z. B. Zunahmen tiefer und mittelhoher Wolken, und sind zu der Schlussfolgerung gekommen, dass die Vereinfachungen und Ungenauigkeiten in den Modellen wahrscheinlich die grundlegende Schlussfolgerung nicht beeinträchtig haben, dass es eine merkliche Erwärmung geben wird. Die bekannten negativen Rückkopplungsmechanismen können die Erwärmung reduzieren, scheinen aber nicht so stark wie die positive Rückkopplung durch die Feuchtigkeit zu sein.“

Wie es jedoch seit Jahren der Fall ist, wenn man zum tatsächlichen Abschnitt des Berichtes kommt, in dem die [Rolle der] Wolken behandelt wird (die wesentliche negative Rückkopplung), wiederholt der Bericht lediglich, dass die Wolken kaum verstanden und kaum repräsentiert sind… wie soll das gehen, dass sie sich dann der positiven Rückkopplung so sicher sind, aber die negative Rückkopplung nicht verstehen und nur sehr vage repräsentieren können? Sie sagen zum Beispiel:

„Wie wichtig alles in allem die Auswirkungen der Wolken ist, ist jedoch eine sehr schwierig zu beantwortende Frage. Die Verteilung der Bewölkung ist ein Ergebnis des gesamten Klimasystems, in dem es viele weitere Rückkopplungen gibt. Vertrauenswürdige Antworten können nur durch die flächendeckende numerische Modellierung der allgemeinen Zirkulationen der Atmosphäre und der Ozeane gegeben werden, zusammen mit dem Vergleich der beobachteten mit den simulierten Wolkentypen und –mengen.“

Mit anderen Worten, sie wissen es nicht, sind sich aber sicher, dass die Gesamtbilanz positiv ist.

Hinsichtlich der Fähigkeit der Modelle, genau regionale Klimata zu reproduzieren heißt es in dem Bericht:

„Gegenwärtig können wir nicht genau die Details regionalen Klimas simulieren und daher auch nicht zuverlässig die Örtlichkeiten und Intensitäten regionaler Klimaänderungen vorhersagen. Es wird erwartet, dass sich diese Lage durch das zunehmende wissenschaftliche Verständnis und schnellere Computer allmählich verbessern wird.“

Da haben wir es! Die Klimasensitivität beträgt 3°C pro Verdoppelung des CO2-Gehaltes mit einem Fehler von ± 1.5°C. Die Gesamtrückkopplung ist positiv, obwohl wir [das Verhalten der] Wolken nicht verstehen. Die Modelle sind noch nicht in der Lage, regionales Klima zu simulieren. In keiner dieser Aussagen steckt irgendetwas Überraschendes. Es ist genau das, was man von einer Kommission der NAS erwartet.

Bevor ich hier weitergehe – da der NAS-Bericht auf Computermodellen beruht, möchte ich einen kleinen Exkurs machen und einige Fakten über Computer auflisten, welche mich seit langer Zeit fasziniert haben. So lange ich mich erinnern kann, wollte ich einen eigenen Computer haben. Als kleines Kind träumte ich davon, einen zu haben. Ich spreche ziemlich gut ein halbes Dutzend Computersprachen, und es gibt noch mehr, die ich vergessen habe. Mein erstes Computerprogramm habe ich im Jahr 1963 geschrieben.

Das Verfolgen der Änderungen dessen, was Computer inzwischen alles können, war erstaunlich. 1979 war der schnellste Computer der Welt der Cray-1-Supercomputer. Dessen Fähigkeiten lagen weit jenseits dessen, wovon die meisten Wissenschaftler je geträumt haben. Er hatte 8 MB Speicher, 10 GB Platz auf der Festplatte und lief mit 100 MFLOPS (Millionen Operationen pro Sekunde). Der Computer, auf dem ich dies schreibe, hat 1000 mal so viel Speicherplatz, fünfzig mal so viel Platz auf der Festplatte und 200 mal die Geschwindigkeit von Cray-1.

Und das ist nur der Computer auf meinem Schreibtisch. Der neue Supercomputer der NASA „Gaea“ auf dem Bild oben rechts läuft zweieinhalb Millionen mal schneller als die Cray-1. Dies bedeutet, dass Cray-1 für eine Ein-Tages-Simulation auf „Gaea“ etwa siebentausend Jahre brauchen würde…

Warum aber ist die Geschwindigkeit eines Cray-1-Computers für den NAS-Bericht von Bedeutung, aus dem ich oben zitiert habe?

Es ist von Bedeutung, weil – wie Einige von Ihnen vielleicht bemerkt haben – der NAS-Bericht, aus dem ich oben zitiert habe, der „Charney Report“ genannt wird. So weit ich weiß, war es der erste Bericht der NAS zur CO2-Frage. Und wenn ich davon als einem „kürzlichen Bericht“ spreche, dachte ich darüber in historischer Bedeutung. Er wurde 1979 veröffentlicht.

Und das ist das Bizarre hier, der Elefant auf dem Gebiet der Klimawissenschaft. Der Charney-Report hätte gestern geschrieben worden sein können. Die AGW-Befürworter stellen immer noch die gleichen Behauptungen auf, als ob seitdem überhaupt nichts passiert wäre. Zum Beispiel sagen die AGW-Befürworter genau wie damals das Gleiche über die Wolken wie 1979 – sie geben zu, dass sie das Verhalten der Wolken nicht verstehen, dass sie das größte Problem in den Modellen sind, aber dass sie immer noch genauso sicher sind, dass die Gesamtrückkopplung positiv ist. Ich weiß nicht, wie das geht, aber so war es unverändert seit 1979.

Das ist das Kuriose für mich – wenn man den Charney-Bericht liest, wird offensichtlich, dass sich beinahe nichts auf diesem Gebiet seit 1979 geändert hat. Es gab keine wissenschaftlichen Durchbrüche, kein wesentlich neues Verständnis. Die Leute stellen immer noch die gleichen Behauptungen auf über die Klimasensitivität mit fast keinen Änderungen in den riesigen Fehlergrenzen. Die Bandbreite variiert immer noch um einen Faktor drei, von 1,5°C bis 4,5°C pro Verdoppelung des CO2-Gehaltes.

Inzwischen hat die Computerleistung bis weit jenseits der wildesten Vorstellungen zugenommen. Das gilt auch für den Umfang der Klimamodelle. Die Klimamodelle im Jahr 1979 bestanden aus eintausend codierten Zeilen. Die modernen Modelle enthalten Millionen von Zeilen. Damals wurde die Atmosphäre nur mit wenigen Schichten und großen Gitterquadraten modelliert. Heute haben wir vollständig gekoppelte Ozean-Atmosphäre-Cryosphäre-Biosphäre-Lithosphäre-Modelle mit viel kleineren Gitterquadraten und dutzenden Schichten sowohl in der Atmosphäre als auch in den Ozeanen.

Und seit 1979 hat sich eine ganze Klimaindustrie gebildet, die Millionen menschlicher Arbeitsstunden aufgewandt hat, um die Leistung der Computer zum Studium des Klimas zu verbessern.

Und nach den Millionen Stunden menschlicher Bemühungen, nach den Millionen und Abermillionen Dollar, die in die Forschung gesteckt worden waren, nach all der millionenfachen Zunahme der Computerleistung und –größe, und nach der phänomenalen Zunahme der Verfeinerung und des Detailreichtums der Modelle… nach all dem hat sich die Unsicherheit der über den Daumen gepeilten Klimasensitivität nicht signifikant verkleinert. Sie liegt immer noch um 3 ± 1.5°C pro Verdoppelung des CO2, genau wie 1979.

Und das gilt auch für die meisten anderen Fronten der Klimawissenschaft. Wir verstehen immer noch nichts von den Dingen, die vor einem Dritteljahrhundert schon mysteriös waren. Nach all den gigantischen Fortschritten bzgl. der Modellgeschwindigkeit, deren Größe und Detailreichtum können wir immer noch nichts Definitives über die Wolken sagen. Wir haben keine handhabe hinsichtlich der Gesamtrückkopplung. Es ist, als ob der ganze Bereich der Klimawissenschaft in einer Zeitfalle 1979 stecken geblieben ist und sich seitdem nirgendwohin bewegt hat. Die Modelle sind tausendfach größer und tausendfach schneller und tausendfach komplexer – aber sie sind für regionale Vorhersagen immer noch unbrauchbar.

Wie kann man dieses überwältigende Fehlen jeglichen Fortschritts verstehen, diese intensive Arbeit während eines Drittels des Jahrhunderts mit einem so geringen Ergebnis?

Für mich gibt es nur eine Antwort. Der fehlende Fortschritt bedeutet, dass es einige fundamentale Missverständnisse in den Grundmauern des modernen Klimagebäudes gibt. Er bedeutet, dass das zugrunde liegende Paradigma, auf dem das Gebäude fußt, einige grundlegende und weitreichende theoretische Fehler aufweisen muss.

Jetzt können wir darüber debattieren, worin dieses fundamentale Missverständnis besteht.

Aber ich sehe keine andere sinnvolle Erklärung dafür. In jedem anderen Bereich der Wissenschaft gab es seit 1979 enorme Fortschritte. Neue Forschungsfelder tauchten auf, und ältere Forschungsbereiche sind voran gekommen. Genetik und Nanotechnologie und Proteomik und Optik und Kohlenstoffchemie und all die anderen… außer der Klimawissenschaft.

Das ist der Elefant im Raum – das unglaubliche Fehlen von Fortschritten in diesem Bereich trotz eines Dritteljahrhunderts intensiven Studiums.

Nach meiner Einschätzung besteht das fundamentale Missverständnis darin, dass die Lufttemperatur an der Erdoberfläche eine lineare Funktion des Antriebs ist. Datum war es verheerend für die Charney-Leute, die falsche Frage zu beantworten. Sie haben mit der Hypothese begonnen, dass eine Änderung des Antriebs zu einer Änderung der Temperatur führen würde, und fragten sich: „wie gut können wir die klimatischen Konsequenzen projizieren?

Wenn man das einmal getan hat, wenn man einmal CO2 für den Schuldigen hält, hat man das Verstehen des Klimas als Wärmemaschine außen vor gelassen.

Wenn man das einmal getan hat, hat man den Gedanken ausgeschlossen, dass das Klima wie alle Strömungssysteme bevorzugte Stadien hat und dass es nach dem Erreichen maximaler Entropie strebt.

Wenn man das einmal getan hat, hat man all die zahlreichen thermostatischen und homöostatischen [?] Mechanismen ausgeschlossen, die in zahlreichen räumlichen und zeitlichen Scales wirken.

Und wie sich herausstellt, wenn man das einmal getan hat, wenn man einmal die Hypothese aufgestellt hat, dass die Oberflächentemperatur eine lineare Funktion des Antriebs ist, hat man jeden Fortschritt in diesem Bereich ausgeschlossen, bis dieser Irrtum behoben ist.

Aber das ist lediglich meine Ansicht. Sie könnten eine andere Erklärung für das fast vollständige Fehlen jedweden Fortschritts in der Klimawissenschaft während des letzten Drittels des vorigen Jahrhunderts finden. Falls das so ist, heiße ich alle freundlichen Kommentare willkommen. Erlauben Sie mir Sie zu bitten, dass Ihre Kommentare kurz, klar und interessant sind.

Willis Eschenbach (abgekürzt w.)

P.S. – Bitte vergleichen sie dieses Fehlen von Fortschritten nicht mit so etwas wie bei der Kernfusion. Anders als die Klimawissenschaft ist das ein praktisches Problem und ein teuflisch komplexes. Die Herausforderung besteht hier darin, etwas zu bauen, dass es in der Natur nie zuvor gegeben hat – eine Flasche, die die Sonne hier auf der Erde einfangen kann.

Klima andererseits ist eine theoretische Frage und keine Herausforderung, etwas zu bauen.

P.P.S. – …

[man schaue im Original nach den paar Zeilen, die hier noch fehlen. Dann wird klar, warum aus Zeitgründen auf deren Übersetzung hier verzichtet wird. A. d. Übers.]

Link: http://wattsupwiththat.com/2012/03/07/under-the-radar-the-nas-report/#more-58606

Übersetzt von Chris Frey EIKE




Hart aber Daneben: Ranga Yogeshwar als Wirtschafts-Ignorant! Todesanzeige für Peakoil!

Eine Energiewende sei für ihn damit unverzichtbar und natürlich müsse dafür anfangs Geld in die Hand genommen werden. Dieser Öko-Mythos ist unsterblich wie ein Zombie, ungeachtet aller gegenteiliger Daten und Fakten.

Todesanzeige für „Peak Oil“

Das Konzept, das in den Neunzigerjahren das Salon-Geschwätz dominierte – „Peak Oil” – ist irrelevant geworden. Das sagen die Rohstoff-Spezialisten der Citigroup und vielleicht wären politische Entscheidungsträger wohlberaten, diese Ergebnisse genauer zu betrachten.

„Peak Oil” ist der Punkt, an dem die Produktion von normalem Rohöl unumkehrbar rückläufig wird. Für die einen ist das der Punkt, an dem die knappheitsbedingten Preissteigerungen einen gewaltigen Wandel in den Industriegesellschaften erzwingen würden. Für die anderen war „Peak Oil“ nichts anderes als der Ruf von Mutter Erde, doch zu einem vorindustriell geprägtem Lebensstil zurückzufinden. Ein Beispiel für diese Auffassung ist die „Transition Towns“-Bewegung, ein Mittelklasse-Phänomen, das sich in Pendler-Vororten Großbritanniens entwickelt hat.

Doch eine lesenswerte Studie [PDF], die jetzt veröffentlicht wurde (und die auch implizit Kritik an der Industrie übt), hält das für voreilig. Auf Grund von “unkonventionellem” Erdöl und Erdgas, das dank des technologischen Fortschritts gefördert werden kann, ist “Peak Oil“ einfach tot:

Der Glaube, dass die globale Erdölproduktion ihren Gipfel überschritten hat oder kurz davor steht, hat über zehn Jahre den Run auf Öl beflügelt. Die Wiederauferstehung der US-Gasförderung, die mittlerweile ihren Höhepunkt der Siebzigerjahre weit hinter sich gelassen hat und in den letzten sieben Jahren global zur Nummer Eins aufgestiegen ist, lässt sich auf das Hydraulic Fracturing – Fracking – zurückführen, Fördertechnologien, die bei Schiefergasvorkommen in allen Teilen der USA angewendet werden. Die gleichen Unternehmen nutzen nun diese neuen Techniken bei Schieferölvorkommen, mit Ergebnissen, die in vielen Fällen ähnlich erfolgversprechend sind, wie in den Frühstadien der Schiefergas-Revolution. Die US-Ölförderung steigt mittlerweile an, und zwar ausschließlich auf Basis der Schieferöl-Förderung, da konventionelle Quellen wie in Alaska oder Kalifornien strukturbedingt immer weniger hergeben und die Förderung im Golf von Mexiko im Nachfeld von Macondo erst noch auf Erholung wartet.

Die Schwarzseher hatten gute Gründe, daran zu zweifeln – doch ihnen entging das vollständige Bild, nämlich eines, das auch technische Innovationen einbezieht. Sie wollten einfach zu gerne Schwarzsehen. Die Studie sagt weiter:

Der Glaube an „Peak Oil“ wurde bestärkt durch wiederholte Fälle, in denen die tatsächlichen Fördermengen nie die optimistischen Prognosen erreichten, die von diversen Regierungsstellen und internationalen Energieagenturen propagiert wurden. Die IEA, die Benchmark der Industrie, machte gerne Jahres-Prognosen über große Zuwächse bei der Förderung im Nicht-OPEC-Bereich und war dann die nächsten 18 Monate damit beschäftigt, diese wieder zurückzunehmen.

Die Citigroup kritisiert auch die Ölindustrie und die Experten dafür, dass sie einen Faktor nicht berücksichtigt haben – zu viel versprechen und zu spät liefern.

Man muss es gelesen haben. Die Ölförderung ist weitaus abhängiger von Upstream-Investitionen, als es sich viele Leute vorstellen können. Wenn sie aber anspringt, springt sie rasch an; in den USA hat sich die Anzahl der Bohrstellen in drei Jahren um 500 Prozent erhöht.

Wie geht’s weiter?

“Peak Oil” ist nicht das einzige Opfer der jüngsten Entwicklungen auf dem Energiesektor. Der Tod von „Peak Oil“ zieht etlichen durch unsere Bürokraten und ihrer Berater verfolgten Politikentwicklungen den Teppich unter den Füßen weg. Während der letzten zwei Jahrzehnte konnten wir ein Anwachsen der „Nachhaltigkeitssektors“ beobachten, der fast vollständig von staatlicher Förderung abhängt und von den gleichen falschen Grundvoraussetzungen ausgeht.

Die These war, dass wir in jedem Fall zu akzeptieren haben, dass die moderne Industriegesellschaft auf einer Ressource aufgebaut ist, die nur endlich vorhanden und nur schwer ersetzbar ist. Da gibt es aber noch einen wichtigen anderen Aspekt. Das „Peak Oil“ Gedankengebäude basiert auf der Idee, dass Rohöl nicht durch unkonventionelles Öl bzw. nicht rechtzeitig durch synthethische Kohlenwasserstoffe ersetz werden könnte. Wir können jetzt aber einen Anstieg der unkonventionellen Ölförderung feststellen und in zehn Jahren werden auch kohlenstoffarme synthetische Ersatzstoffe für Öl produktionsbereit sein, unter der Annahme, dass der Preis pro Barrel zwischen 40 – 50 $ bleibt.

Das Problem, dass der Denke von “Nachhaltigkeit“ und „Peak Oil“ gemeinsam zu Grunde liegt ist, das, dass in beiden Fällen eine Ressource nicht als Vektor, sondern als Sache gesehen wird – eine Sache, die selten, einzigartig und unersetzlich ist.

Zu viktorianischen Zeiten war man von Walfett für Beleuchtungs- und Heizungszwecke abhängig und sorgte sich – ähnlich wie die Nachhaltigkeitsleute von heute – darüber, was da als Ersatz dienen könnte. Der menschliche Erfindungsgeist lieferte Altenativen. Auch gab es Zeiten, als sich Politiker über das limitierte und volatile Angebot an Salpeter erregten, ein Nitrat, dass zur Ernährung der Bevölkerung und zur Produktion von Schießpulver unerlässlich war. Die Rettung kam durch die Chemie. Natürlich ist eine Ressource eine Kombination aus vielen Dingen – die Grenze des menschlichen Erfindergeistes ist da nur eines.

Diese Unflexibilität des Denkens jedoch ist verhängnisvoll.

Nur, weil wir einfach ganz gut sind, wenn es um Erfindungen geht, heißt das natürlich nicht, dass wir kurz vor der Gründung von Utopia stehen oder dass sich die normale Politik irgendwie aufhört. Zukünftige Technologien werden ihren Preis kosten, nur begrenzt verfügbar sein und sich auch missbrauchen lassen. Aber sie setzen ein Signal für das nahende Ende dessen, was wir Apokalypse-Politik nennen könnten – mit der unpopuläre und dämliche Politmaßnahmen Erfolg haben können, nur weil ihre Advokaten behaupten, dass sie durch irgendwelche katastrophalen und unverrückbare historische Trends zu rechtfertigen seien. Nur Abergläubische können das noch glauben. ®

Dr. Benny Peiser

Übersetzung H.B.

Originalartikel: The Register

Zuerst erschienen bei ACHGUT




Fukushima Gedenken: hochgespielter Super-Gau!

Es sind für viele Mitteleuropäer erstaunliche Aussagen, die Wolfgang Weiss vor kurzem machte. Weiss ist Vorsitzender des Uno-Wissenschaftskomitees zu den Auswirkungen atomarer Strahlung (UNSCEAR). Gemäss den heute zur Verfügung stehenden Informationen seien die gesundheitlichen Auswirkungen der Atomkatastrophe von Fukushima wohl gering, sagte Weiss. Vor allem wegen der zügigen Evakuation seien die Radioaktivitätsdosen, die die Bevölkerung abbekommen habe, «sehr tief». Einige wenige Arbeiter im havarierten Werk hätten zwar hohe Dosen abbekommen. Es seien bis jetzt aber keine gesundheitlichen Probleme bei ihnen zu beobachten – insbesondere auch keine Strahlenkrankheiten, wie sie bei vielen Arbeitern nach der Atomkatastrophe 1986 in Tschernobyl auftraten.

Weiss’ Aussagen kontrastieren mit dem Bild, das man sich in der Schweiz und in Deutschland von «Fukushima» macht. Das Unglück gilt als «eine der grössten Technik­katastrophen aller Zeiten» (Bild der Wissenschaft). Zum Jahrestag sprechen die Medien von der «Strahlen­hölle» (Tages-Anzeiger), suggerieren verhee­rende Auswirkungen auf die Gesundheit der Bevölkerung und betonen unablässig, dass die Evakuierten wohl nie mehr in ihre Heimat zurückkehren könnten. Dass der Tsunami, der die Havarie auslöste, etwa 20.000 Menschen ­tötete, fast eine halbe Million Häuser zerstörte und etwa 500 Quadratkilometer Land verwüstete, trat in der hiesigen Berichterstattung rasch in den Hintergrund. Das Atomunglück war auch der Grund, dass die Schweiz und Deutschland kopfüber den Ausstieg aus der Atomenergie beschlossen. Wer sich hingegen auf Fakten stützt, muss zum Schluss kommen, dass Wolfgang Weiss richtig liegt. «Fukushima» war, verglichen mit anderen Katastrophen, nur ein Ereignis mittlerer Bedeutung. Das zeigen Recherchen der Weltwoche.

Nach der Atomkraftwerk-Havarie in Fukushima am 11. März letzten Jahres gelangte an radio­aktivem Material grob geschätzt etwa ein Zehntel dessen in die Umwelt wie nach der Katastrophe in Tschernobyl 1986. Ein grosser Teil davon wurde Richtung Pazifik weggetragen und hat darum kaum Schaden angerichtet. Trotz düsterer Medienberichte waren freigesetztes Strontium und Plutonium nie ein Problem. Von Bedeutung bei den ausgestossenen radioaktiven Substanzen waren Iod, das mit einer Halbwertszeit von acht Tagen aber nur einige Wochen lang relevant war, und Cäsium. Mit ­einer Halbwertszeit von dreissig Jahren ist Cäsium hauptverantwortlich für die heute noch vorhandenen Belastungen um das AKW Fukushima.

Wegen der Radioaktivität infolge des Atom­unglücks ist bis heute kein einziger Mensch ums Leben gekommen. Und die Chancen stehen gut, dass es auch in Zukunft kaum Opfer geben wird. Die meisten Arbeiter, die nach der Havarie im AKW im Einsatz waren, haben eine Dosis unter 100 Millisievert (mSv) erhalten. Es gibt keine wissenschaftlichen Belege dafür, dass einmalige Radioaktivitätsdosen bis zu diesem Wert schädlich sind. Allerdings ist auch das Gegenteil nicht bewiesen. Darum ­gehen Präventivmediziner davon aus, dass es ­keine untere Schwelle der Schädlichkeit gibt. Sie rechnen die negativen gesundheitlichen Folgen, die man bei hohen Dosen beobachtet, linear auf tiefe Dosen herunter. Auch unter diesen Annahmen hat sich aber das Risiko, im Alter an Krebs zu erkranken, bei den Arbeitern mit einer Dosis bis 100 mSv um maximal ein halbes Prozent erhöht. Es gibt jedoch 110 Arbeiter, die stärker bestrahlt wurden, sechs davon mit mehr als 250 mSv (Spitzenwert 678 mSv). Ihr Risiko für Krebs in späteren Jahrzehnten ist aber gegenüber nichtbestrahlten Menschen höchstens um wenige Pro­zent gestiegen.

Dank der zügigen Evakuationen unmittelbar nach dem Unglück wurde die Bevölkerung gesundheitlich kaum beeinträchtigt. Etwa 100.000 Bewohner im Umfeld des AKW Fuku­shima müssen (auf die ganze Lebenszeit hochgerechnet) mit einer zusätzlichen Dosis von bis zu 50 mSv rechnen. Das ist wenig im Vergleich zur natürlichen Strahlung, die im weltweiten Schnitt für eine Lebensdosis von etwa 150 mSv sorgt. In einigen Gebieten der Welt ­beträgt die Belastung durch natürliche Radioaktivität sogar das Zwei-, Drei- bis Zehnfache dieses Durchschnittswerts. Dazu zählen viele Orte in den Alpen. Bis heute konnten an solchen Orten aber nie negative Auswirkungen der Strahlung auf die Gesundheit nachgewiesen werden. Doch selbst wenn man annimmt, dass auch tiefe Dosen schädlich sind, sind die Auswirkungen in Fukushima für die Bevöl­kerung gering. Die statistische Lebenszeit­verkürzung bei einer zusätzlichen Dosis von 10 mSv beträgt etwa zweieinhalb Tage, bei 50 mSv knapp zwei Wochen. Im Vergleich zu anderen Lebensrisiken ist das fast vernach­lässigbar.

Wie eine Zigarette alle acht Jahre

Auch die Belastung durch verstrahlte Lebensmittel kann als unbedeutend angenommen werden. In Japan wurde und wird die Bevölkerung konsequent vor belasteter Nahrung geschützt. Während im Mai noch bei fünf Prozent aller Lebensmittelproben die Grenzwerte überschritten wurden, waren es im Juli noch drei Prozent und im August weniger als zwei. Zudem stellt die Überschreitung eines Grenzwertes noch längst keine Gesundheitsgefahr dar. In der Regel liegen die Grenzwerte (in ­Japan und bei uns) um das Tausendfache unter den Dosen, die medizinisch relevant sind. Die Schweizer Medien bauschen die Gefahren aber auf. So berichtete der Gesundheitstipp im letzten Oktober von angeblich verstrahltem Tee aus Japan in Schweizer Läden. Die maximal gemessene radioaktive Verstrahlung betrug dabei 6,1 Becquerel pro Kilogramm. Greenpeace warnte düster vor dem Konsum des Tees. In Wahrheit entspricht das Risiko – selbst wenn man dauerhaft täglich sechs Tassen dieses Tees trinken würde – lediglich dem Risiko ­einer Zigarette alle acht Jahre. Das zeigen Berechnungen der Weltwoche.

Viele Schlagzeilen erzeugte das Wasser, das in Fukushima zur Kühlung eingesetzt wurde und darum radioaktiv belastet war. Als im letzten April ein Teil dieses Wassers infolge von Lecks ins Meer floss, wurde in den Medien eine Verseuchung des Pazifiks suggeriert. Meerwasser ist aber ganz natürlich ebenfalls radioaktiv. Ein Kubikkilometer Wasser enthält im weltweiten Schnitt zum Beispiel drei Tonnen Uran. Die zusätzliche Radioaktivität, die ins Meer gelangte, entspricht der natürlich vorhandenen Radioaktivität einiger hundert Kubikkilometer Meerwasser. Das tönt nach viel, ist es aber nicht: Man kann davon ausgehen, dass das Kühlwasser innert kurzer Zeit stark verdünnt wurde und die Kontamination der entsprechenden Wasserschichten schon bald vernachlässigbar klein war. Ein Teil des radioaktiven Materials setzte sich zwar in Meeres­sedimenten fest, was jedoch höchstens lokal von Bedeutung ist: Nimmt man an, dass etwa zehn Prozent des radioaktiven Materials in den Meerboden sickerte, und vergleicht man diese Menge mit der natürlichen Radioaktivität von Böden (oberster Meter), entspricht die zusätzliche Belastung derjenigen, die etwa hundert Quadratkilometer Meerboden ganz natürlich aufweisen – ein eher geringer Betrag.

Auch das Kühlwasser, das sich im Untergrund der Reaktoren gesammelt hat, stellt kein Problem mehr dar: Dessen maximale ­radioaktive Belastung entsprach im vergangenen Februar lediglich der von gewöhnlichem Regenwasser, wie Messungen zeigen. In manchen Gebieten der Welt ist Regenwasser sogar mehr als hundertfach höher belastet. Denn ­Regen wäscht natürlich vorhandene radioaktive Substanzen in der Luft aus.

Doch was ist mit den etwa 100.000 Menschen, die noch immer nicht in ihre Häuser zurückkehren können? Ist die Errichtung grossflächiger Sperrzonen von unbestimmter Dauer nicht der Beweis, dass die Produktion von Atomenergie unverantwortlich ist? Zum Jahrestag des Reaktorunglücks sind die Medien voll von berührenden Berichten über Menschen, die noch immer in Notunterkünften leben und alle Perspektiven verloren haben.

Eine Evakuation unbestimmter Dauer ist tatsächlich eine gewaltige Belastung. Allerdings scheint es, dass statt der radioaktiven Strahlung vielmehr die übertriebene Angst vor ihr für solches Leid verantwortlich ist. «Weil Evakuierte Haus und Heimat, meist auch ihre Jobs und Zukunftsperspektiven verlieren, können Stress und Angst ihre Gesundheit viel stärker gefährden als niedrige Strahlendosen», sagte Maria Blettner von der deutschen Strahlenschutzkommission, deren Mitglieder vom Bundesumweltministerium berufen werden. Angesichts der Tatsache, dass die zu erwartende (zusätzliche) Lebensdosis in weiten Teilen der Sperr­zone in Fukushima nicht höher liegt als in bekannten Kurorten der Welt, muss man sich fragen, ob eine Rückkehr nicht angezeigt ist. Bezüglich der Atomkatastrophe von Tschernobyl, die viel gravierender war, kam ein breit abgestütztes Wissenschaftsgremium unter Leitung der Uno zum Schluss, dass nicht die Strahlung, sondern die Beeinträchtigung der Psyche infolge von Stress und Angst das grösste Gesundheitsproblem war.

Eine Million Kubikmeter Giftschlamm

Tatsächlich können in Japan viele Evakuierte mit einer Rückkehr in ihre Häuser rechnen, denn die Entgiftung der belasteten Gebiete schreitet voran. Die Regierung hat ­diese Gebiete in drei Zonen eingeteilt. Für ­etwa 300 km2, in denen die Belastung unter 20?mSv pro Jahr liegt, soll die Rückkehr der Bevölkerung in einigen Monaten beginnen und bis März 2014 abgeschlossen sein. Weitere ­zirka 600 km2, wo die Belastung heute zwischen 20 und 50 mSv beträgt, sollen so weit dekontaminiert werden, dass eine Rückkehr ebenfalls bis März 2014 möglich ist. Nur etwa 150 km2, wo die Belastung über 50 mSv pro Jahr liegt, ­bleiben für die nächsten fünf Jahre evakuiert.

Eher geringfügig sind die Auswirkungen von «Fukushima» auch dann, wenn man mit anderen Umweltkatastrophen vergleicht. Im Ok­tober 2010 brach im ungarischen Kolontár ein Rückhaltebecken zur Lagerung von Rotschlamm, der bei der Aluminiumproduktion anfällt. Etwa eine Million Kubikmeter Giftschlamm ergossen sich über 40 km2 Fläche. Zehn Menschen starben. Der Schlamm enthielt unter anderem ungefähr fünfzig Tonnen hochgiftiges Arsen. Die ausgestossene Menge an Gift, gemessen in potenziell tödlichen Dosen, war beim Schlammunglück in Ungarn etwa zehnmal grösser als beim Reaktorunglück in Fukushima. All das zeigt, dass der Bruch des Rückhaltebeckens viel gravierendere Auswirkungen für Mensch und Umwelt hatte als das AKW-Unglück in Japan. Während aber nach der Atomhavarie der Ausstieg aus der Kernenergie sofort zum Thema wurde, verlangte nach dem Unglück in Ungarn niemand den Verzicht auf die Produktion von Aluminium.

(Axel Reichmuth – WELTWOCHE 10/12) mit freundlicher Genehmigung

Siehe auch:

» Zettels Raum: ein sehr lesenswerten Artikel um Thema finden Sie hier

» WELT: Die deutsche Atomhysterie ist welt weit verpufft

» Kritischer Hörer beim WDR 5-Tagesgespräch zu Fukushima (9.3.)