Der deutsche Atomausstieg bereitet den Franzosen keine Freude!

In Frankreich liefern heute insgesamt 58 Kernreaktoren, die zunächst auf der Grundlage einer Lizenz des US-Reaktorbauers Westinghouse errichtet wurden, über 78 Prozent des nationalen Strombedarfs zu einem unschlagbar niedrigen Selbstkostenpreis von etwa 24 Euro je Megawattstunde. Der Stromtarif für die Privathaushalte („Tarif bleu“) wurde bislang vom Staat festgesetzt. Er liegt zurzeit noch bei etwa 15 Cent je Kilowattstunde. Davon können deutsche Stromverbraucher nur träumen. Doch wird der „Tarif bleu“, Vorgaben der EU folgend, demnächst auslaufen. EdF wird dann den französischen Verbrauchern den Strom nicht mehr so günstig liefern können. Denn der in der Folge der panikartigen Abschaltung von acht deutschen Kernkraftwerken bereits eingetretene sprunghafte Anstieg der Strompreise an der Europäischen Strombörse in Leipzig (EEX) wird sich auch auf den nun geöffneten französischen Strommarkt auswirken. Hinzu kommt, dass die Kernenergie von der EU nicht als „erneuerbar“ anerkannt wird. Frankreich muss also neben dem völlig CO2-freien Betrieb seiner KKW noch teure und obendrein unnütze Wind- und Solarkraftwerke bauen, um die 20-Prozent-Quote des EU-Klima-Energie-Pakets für „Erneuerbare“ zu erfüllen.
Der in Deutschland durch die Vorgaben des Erneuerbare Energien Gesetzes (EEG) künstlich verteuerte Strom wird die Strompreise im gesamten europäischen Binnenmarkt nach oben ziehen. Das wird die Begeisterung für die europäische Einigung in Frankreich sicher nicht steigern. Im Gegenteil dürfte davon in den im kommenden Jahr anstehenden Präsidentschaftswahlen vor allem die schon jetzt aussichtsreiche nationalistische Kandidatin Marine Le Pen profitieren. Allerdings würde der Strom in Frankreich auch nach den zurzeit gültigen Plänen der Erneuerung der französischen Kernkraft-Kapazitäten, die im Wesentlichen zwischen 2020 und 2030 erfolgen soll, spürbar teurer werden. Denn die derzeit noch arbeitende erste Generation von Druckwasserreaktoren, deren Investitionskosten bei ungefähr anderthalb Millionen Euro je Megawatt lagen, soll durch sicherere Reaktoren der dritten, wenn nicht vierten Generation erfolgen, die mindestens doppelt so viel kosten.
Es scheint, dass der von AREVA und Siemens gemeinsam entwickelte Evolutionary Power Reactor (EPR), der zurzeit in Olkiluoto (Finnland), in Flammanville in der Normandie und in China gebaut wird, wie einst das Überschall-Verkehrsflugzeug „Concorde“ nur einen sehr eingeschränkten Markt finden wird. Denn der in Flammanville entstehende Reaktor kostet fünf Milliarden Euro und wird den Strom zu einem Preis von schätzungsweise über 47 Euro je Megawattstunde liefern, der bei weitem den Preis von Strom aus modernen Gas- und Dampf-Kraftwerken überschreiten wird. (Vermutlich ist das der tiefere Grund für das vor kurzem beschlossene gesetzliche Verbot der Förderung von „unkonventionellem“ Gas in Frankreich und für die Flucht von Siemens aus dem EPR-Konsortium AREVA NP.) Zu Beginn dieses Jahres hat AREVA die Ausschreibung von vier Kernreaktoren durch das Emirat Abu Dhabi an den südkoreanischen Nuklear-Newcomer KEPCO verloren, was in Paris als beschämende Niederlage empfunden wurde. Im Unterschied zum EPR von AREVA, der auf dem Prinzip aktiver Sicherheit mit vierfacher Redundanz beruht, fußt der von KEPCO erfolgreich angebotene Reaktor vom Typ AP1400 auf passiver Sicherheit und ist deshalb bei vergleichbarem Sicherheitsniveau deutlich preisgünstiger.
Das Konzept passiver Sicherheit wurde von der inzwischen zu 60 Prozent dem japanischen Mischkonzern Toshiba gehörenden Reaktorbaufirma Westinghouse entwickelt. Im Falle einer drohenden Kernschmelze führt die Aufheizung des Druckgefäßes zur Bildung von Wasserdampf, der bis zur Spitze des Sicherheitsbehälters aufsteigt, dort durch den Kontakt mit einer Wasserdusche kondensiert und dann als Regen auf den heißen Druckbehälter zurückfällt. Die Überhitzung des Druckgefäßes treibt so seine automatische Kühlung an. Westinghouse Electrique France hätte dieses Konzept natürlich gerne den Franzosen verkauft. Doch die zuständige regionale Sicherheitsbehörde untersagte AREVA, ein passives Sicherheitskonzept anzuwenden. Jean Bergougnoux, ehemaliger Chef von EdF, erklärte am 9. Juni 2011 bei einer vom liberalen Institut Turgot in der Pariser Nationalversammlung organisierten Diskussion über die Zukunft der Kernenergie in Frankreich, die Entwicklung des EPR sei ein großer Fehler gewesen, der auf den Einfluss der deutschen Reaktorsicherheitskommission zurückgehe.
Auch in Frankreich ist die Kernenergie nach Fukushima alles andere als unumstritten. In der Medienöffentlichkeit mehren sich Stimmen, es Deutschland und der Schweiz gleichzutun und den Ausstieg aus der Atomkraft einzuleiten. In den Gremien, die über die energiepolitische Zukunft des Landes diskutieren und energiepolitische Entscheidungen vorbereiten, sind die Gegner einer Renaissance der Kernenergie inzwischen sogar zahlenmäßig in der Mehrheit. Außerdem ist es schwer geworden, den Ausbau der Nuklearenergie über den Kapitalmarkt zu finanzieren. Die meisten Großbanken verlangen für Kredite an Nuklearfirmen überhöhte Zinsen, wenn sie die Finanzierung von Kernkraft-Projekten nicht ganz ablehnen. Die französische Atom- und Stromwirtschaft steht heute vor einer schwerwiegenden Entscheidung. Es läge nahe, dass AREVA und EdF das EPR-Projekt begraben und für die Erneuerung des französischen Nuklearparks einen Reaktortyp mit passivem Sicherheitssystem wählt. Doch es ist derzeit noch nicht absehbar, dass die beiden Staatskonzerne diesen Schritt tun werden. Es gibt keine Anhaltspunkte dafür, dass die am 16. Juni 2011 verkündete Ablösung der langjährigen AREVA-Chefin Anne Lauvergeon durch ihren bisherigen Stellvertreter Luc Oursel als Schritt in diese Richtung gedeutet werden könnte.

Von Edgar L. Gärtner EIKE

Literatur: Jean-Michel Bélouve: Nucléaire Civil: Le Rebond! Edition Liber Media, Vendeuvre du Poitou 2011




Offziell durch IAEA bestätigt: „Kein Mensch erlitt gesundheitlichen Schaden durch Radioaktivität“

Die Experten der Wiener Internationalen Atomenergiebehörde (IAEA) waren vom 24.5. bis 1.6.2011 in Japan und konnten dort die Lage beurteilen. Ein vorläufiger Bericht vom 1.6.2011 wurde veröffentlicht, er kann unter  http://www.iaea.org/newscenter/focus/fukushima/missionsummary010611.pdf eingesehen werden. Die Ergebnisse dieser Reise nach Japan sollen der IAEA Konferenz über nukleare Sicherheit im IAEA-Standort in Wien am 20. bis 24. Juni 2011 vorgetragen werden.
Die weiteren wichtigsten Aussagen in dem vorläufigen Bericht der IAEA:

  1. Ein Bericht über den Verlauf der Ereignisse in Japan, 

    a) das Erdbeben mit bestimmungsgemäßem Abfahren der Kernkraftwerke und sicherer Nachwärmeabfuhr durch die Notstromdiesel, trotz totaler Zerstörung der Infrastruktur in der Kraftwerksgegend,

    b) dem Tsunami 46 Minuten später mit Überflutung des Kraftwerksgeländes, Ausfall der Notstromdiesel und folglich Ausfall der Reaktorkühlungen,

    c) der unausweichlichen Erhitzung der Reaktoren durch die Nachzerfallswärme mit der Folge von Schäden an Brennelementen und Freisetzung von Radioaktivität.

  2. Es wird der mutige Einsatz des Kraftwerkspersonals gewürdigt, das in Dunkelheit und bei fehlender Kenntnis über den tatsächlichen Zustand der Anlage wegen Ausfall aller Kontrollsysteme zu arbeiten hatte.

  3. Es wird die Zusammenarbeit zwischen der Regierung, Nuklearbehörden und Kraftwerkspersonal und den Fachleuten der IAEA gelobt, die sich in der Bereitschaft zur Auskunft, Besichtigungen, Erörterungen aller Maßnahmen zeigte.

  4. Als Verbesserung wird hingewiesen auf die in deutschen Anlagen selbstverständlichen Sicherungseinrichtungen wie Diversitäten, örtlich getrennten Redundanzsystemen und Vorsorge gegenüber Wasserstoffexplosionen.

  5. Es wird der Zweck der IAEA-Mission bekräftigt, die Ereignisse in Japan als ein Mittel zur weltweiten Erhöhung der nuklearen Sicherheit zu benutzen.

Eigentlich ist also nichts passiert in Japan, eben nur ein Kraftwerk wurde zerstört, das repariert oder durch ein neues und besseres ersetzt werden kann. Deutschland steigt dennoch aus, denn „es hätte ja etwas passieren können,“ so wird häufig argumentiert – aber ist diese Denkweise in Hinblick auf die Wichtigkeit der Stromversorgung wirklich gerechtfertigt?
Dr. Lutz Niemann für EIKE
Eine Übersetzung des IAEA Berichtes finden Sie im Anhang

Related Files




„Weltklimarat“ IPCC lässt sich vom Medienkonzern Greenpeace als Sprechpuppe missbrauchen! Energiebericht von Greenpeace verfasst!

Klimalüge: Erneuter Schwindel beim IPCC

Wissenschaftliche Politikberatung soll politischen Entscheidungsträgern das Werkzeug für rationale Entscheidungen in die Hand geben. Dies gilt offiziell auch für das Intergovernmental Panel on Climate Change (IPCC). Inoffiziell fungiert dieses Gremium jedoch als Durchlauferhitzer des Umweltlobbyismus von Umweltschutz-NGOs, wie Steven McIntyres (Climate Audit) Quellenanalyse der jüngsten Szenarien zum weltweiten Ausbau der Nutzung erneuerbarer Energieträger belegt.
Seiner Recherche nach sind Greenpeace-Szenarien die Grundlage des vom IPCC jüngst veröffentlichten Materials, wobei der verantwortliche IPCC-Autor auch gleichzeitig bei der Erstellung der Szenarien für Greenpeace federführend war. Steve McIntyre kommentiert dieses PR-Desaster: 1)

The public and policy-makers are starving for independent and authoritative analysis of precisely how much weight can be placed on renewables in the energy future. It expects more from IPCC WG3 than a karaoke version of Greenpeace scenario. (1)

Aber beim IPCC hat man es mit der Wahrheit noch nie sonderlich genau genommen. Bereits 2009 wurde enthüllt, dass die Erzeugnisse dieses IPCC ein kompletter Schwindel sind, der auf der Manipulation von Computermodellrechnungen basiert, die eine Erwärmung wegen des exzessiven Ausstoßes von CO2 simuliert haben. Dabei gab es nie irgendeine Bedrohung durch CO2. Es handelt sich dabei um ein für die Vegetation auf der Erde unabdingbar notwendiges Gas. Es repräsentiert nur einen sehr kleinen, ja winzigen Anteil der Erdatmosphäre.
Damals hatte Dr. Phil Jones, führender Klimaforscher und führendes Mitglied des UN-Welklimarates (IPCC) zerknirscht die Echtheit der veröffentlichten Daten bestätigt, wollte aber keinen Kommentar zu den unglaublichen Abgründen an Betrügereien und Geldbeschaffungen abgeben. (2)
Die gehackten Dateien und E-Mails unter IPCC-Klimawissenschaftlern gaben unter anderem darüber Aufschluss, wie Datensätze mit Tricks und Fälschungen erzeugt werden konnten, um damit anschaulich eine globale Erwärmung der Neuzeit vorzutäuschen.
Sie zeigen auch auf, wie „Abweichler“ gezielt öffentlich persönlich angegriffen und in ihrer wissenschaftlichen Reputation herabgewürdigt wurden. Dazu gehörte auch die Rückweisung ihrer abweichenden wissenschaftlichen Arbeiten im sogenannten „Peer-Review“-Verfahren, die offenbar schon vorher abgesprochen und vereinbart wurde.
(1) http://climateaudit.org/2011/06/14/ipcc-wg3-and-the-greenpeace-karaoke/
(2) http://community.zeit.de/user/schneefan/beitrag/2009/11/21/cruklimawissenschaftler-gehackt-ipccschwindel-weltweit-entlarvt
Autor Roger Baettig | June 16, 2011 Copyright International Business Times Originalartikel Hier
Mit dank an Spürnase Wolfgang Nabers
Wie zur Bestätigung hier ein Link zu einem Artikel bei Joanne Nova : .

Auszug:
The IPCC issued a press release (May 9th) though as usual, with no details or sources at the time. They got the media headlines, then quietly “backed” it up a month later with a 1000 page report they figure no one will read. Certainly, they must be a little surprised that within two days of quietly releasing the tome, it is spreading like fire across the blogosphere, and some of it’s deepest secrets are already out of the bag.
Let’s be clear about this, Greenpeace is a $200-million-euro-per-year machine (see theGreenpeace annual report for 2009). Their charity status was recently revoked in New Zealand. They are a big political animal, like the IPCC. But both are claiming to use science to support them. And both, it seems, cite each other as if they were scientific. Greenpeace openly, but the IPCC hides the reverse-citations in invisible ink, between the lines.




Wenn sich Blinde an Blinden orientieren – die Messreihen der GISS et al.-Oder Hütchenspieler unter sich!

Update: Solarforscher befürchten Beginn einer kleinen Eiszeit innerhalb der nächsten 10 Jahre! hier und hier

“If we are right, this could be the last solar maximum we’ll see for a few decades,” Hill said. “That would affect everything from space exploration to Earth’s climate.”

Prof. Rahmstorf untermauerte dann seine These mit fünf Temperaturdatenreihen (Abbildung 1), die des Hadley Centers, GISS, NOAA, UAH und RSS. Bei den beiden letztgenannten handelt es sich um Satellitenmessungen, von denen allgemein angenommen wird, sie seien korrekt.

Aber dazu später. Über die ersten drei, braucht seit Climategate nichts mehr gesagt zu werden. EIKE berichtete vielfach darüber. Sie sind durch Weglassen von kälteren Stationen verfälscht. Hier dazu ein Beispiel aus den USA, wie mit manipulierten Daten Temperaturwerte in die Höhe getrieben werden/wurden.

Abbildung 2 zeigt die Temperaturwerte für die USA des GHCN (Global History Climate Network – stellt die globalen Temperaturreihen zusammen, an denen sich GISS und NOAA anlehnt). Rot ist die Temperatur und blau die Anzahl der Messstationen. Ab 1880 erhöhte sich die Anzahl der Messstationen von ca. 200 auf ca. 1.800, wobei die neuen Stationen größtenteils nicht mehr in den Städten (waren bereits gut versorgt), sondern in ländlichen und gebirgigen Gebieten aufgestellt wurden. Zwischen 1970 und 2005 wurden die Stationen auf ca. 1.200 reduziert und insbesondere die „unpassenden“ Stationen in ländlichen Gebieten ausgesondert, wodurch es zu einem deutlichen Anstieg der Temperaturen kam (blauer und roter Pfeil). In 2009 wurden die Stationen von ca. 1.200 auf unter 200 (136!) reduziert. Diese verbliebenen Stationen liegen alle in Städten oder auf Großflughäfen.
Wie der Wärmeinseleffekt (WI) und Großflughäfen die Temperatur verfälschen, hatte EIKE berichtet:
http://www.eike-klima-energie.eu/news-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/
und hier
http://www.eike-klima-energie.eu/news-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/
So ist denn auch in Deutschland in der von EIKE erstellten richtigen Vergleichskurve der Jahrestemperaturen von einer Erwärmung nichts zu sehen.

Abbildung 3 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI aus Abbildung 4, wurde, wie dies beim IPCC üblich ist, den Fehlertoleranzbereich angegeben (grüner Bereich).
Doch Rahmstorf bezieht sich ja auf die globale Mitteltemperatur, bzw. deren Änderung. Aber auch die globalen Temperaturreihen zeigen nicht nach oben, sondern nach unten – es wird kälter.

Abbildung 4 zeigt die Temperaturreihe des Hadley Centers, Quelle, (http://www.climate4you.com/GlobalTemperatures.htm) von 1850 – 2010. Wie unschwer zu erkennen, fällt seit Beginn des Jahrhunderts die Temperatur. Erwärmung leider: Fehlanzeige.
Inwieweit wir uns heute, wie die Temperaturreihen von Prof. Rahmstorf in seinem Artikel suggerieren sollen, in einer außergewöhnlichen Erwärmungsphase befinden, zeigt unbestechlich ein Blick in die Vergangenheit.
Abbildung 5 zeigt die Temperaturreihe seit der letzten Eiszeit (rot, gemessene Werte). Die heutigen Temperaturen sind vergleichsweise niedrig. Auch der Anstieg ist nichts Außergewöhnliches, Quelle, wie oben.
Das gleiche Bild ergibt sich, wenn noch weiter in die Vergangenheit der Blick gerichtet wird.

Abbildung 6 zeigt die Temperaturschwankungen der letzten 450.000 Jahre. Zum einen sind die Temperaturschwankungen zyklisch und zum anderen ist das heutige Niveau vergleichsweise niedrig! Quelle, wie oben.
Prof. Rahmstorf bezieht sich u.a. auf die berüchtigte GISS-Temperaturkurve. Hier ein kleines Beispiel, wie die GISS unter seinem Direktor, dem, spätestens seit Climategate, ins Gerede (Kohlezüge sind „Todeszüge“) geratenen Prof. James Hansen, Temperaturreihen, manipuliert werden.

Abbildung 7 (Quelle: http://icecap.us/images/uploads/GHG_Model_failure_AO.pdf) zeigt die GISS-1980-Datenreihe (blau) und zum Vergleich, für exakt denselben Zeitraum, die GISS-Datenreihe 2010 (rot), in der auf wundersame Weise, der Temperaturverlauf gänzlich anders ist. Zum Vergleich ist die Abweichung der Satellitenmessungen (+0,26°C) für 2009 eingetragen.
Eingangs wurde erwähnt, dass Satellitenmessungen allgemein als verlässlich angesehen werden. Dies ist jedoch nicht so, wie die folgenden Zeilen zeigen.
Die MSU-Messgeräte (Microwave Sounding Unit) auf Satelliten messen die Mikrowellenstrahlung von Sauerstoffmolekülen im Wellenlängenbereich von 0,5cm – 0,6cm (50,3GHz – 57,95GHz) in der Atmosphäre, deren Abhängigkeit (Strahlungsverteilung) von der Temperatur sehr genau und bekannt ist. Grundlage der Berechnung (auch hier, wie bei der bodengestützten Temperaturmittelwertbildung, werden die Temperaturen nicht direkt gemessen, sondern berechnet) ist die Strahlungsübertragungsgleichung, in Form der Schuster-Schwarzschild-Gleichung, in der die Plancksche Strahlungsformel unter der Annahme eines lokalen thermodynamischen Gleichgewichts als Quellfunktion dient und der Gewichtung der unterschiedlichen Satellitenkanäle, für die sog. mathematische Quellfunktionen (Gewichtsfunktionen) verwendet werden. MSU, der von der University of Alabama bereitgestellt wird und RSS (Remote Sensing Systems) basieren auf den selben Rohdaten (MSU-Radianzen), weisen aber teils unterschiedliche Werte aus. An der Beobachtung und Aufnahme der Daten sind immer mindestens 2 Satelliten beteiligt, deren Daten untereinander verglichen werden, um die Fehlertoleranzen einzugrenzen. MSU-Daten besitzen den großen Vorteil, dass mit ein und demselben Messgerät an allen Flächen der Erde gemessen wird und nicht an wenigen, ausgesuchten Stellen, wie dies bei Bodenmessungen der Fall ist.
 
Abbildung 8: MSU-Daten werden seit 1979 aufgenommen. Satelliten messen Strahlungsdichten! Links, Nimbus-Satellit aus der Anfangszeit der Satellitenbeobachtung und rechts, derzeitiger Aqua Satellit mit AMSU (Advanced Microwave Sounding Unit, der in 20 Kanälen misst) der NASA liefern täglich ca. 300.000 Messungen.
Die MSU-Messgeräte besitzen vier Kanäle, mit denen die Strahlungsverteilung und somit die Temperatur in verschiedenen vertikalen Profilen (Höhenbereichen) gemessen wird. Die Kanäle wurden dabei so gewählt, dass die Wolkenbedeckung keinen Einfluss auf das Messergebnis ausübt. Die Kanäle im Einzelnen sind:

  • TLT = Temperature Lower Troposphere
  • TMT = Temperature Middle Troposphere
  • TTS = Temperature Troposphere / Stratosphere und
  • TLS = Temperature Lower Stratosphere

TLT deckt die tiefe Troposphäre mit dem stärksten Gewicht bei 850 hPa (siehe Diagramm “Relative Weighting Function“). In diesem Höhenprofil tritt eine starke Beeinflussung der Bodenbeschaffenheit (Bodenstrahlung) auf (10% über Wasser, 25% über Land und 60% über Eis).
Da der Kanal sehr nahe am atmosphärischen Fenster liegt, bestehen die gemessenen Rohdaten nicht nur aus den Emissionen aus der Atmosphäre, sondern auch aus Bodenemissionen und Bodenreflexionen aufgrund der Flüsse von sensibler und latenter Wärme. Die Troposphäre wird mehr durch die Flüsse sensibler und latenter Wärme, als durch IR-Strahlung erwärmt, die insbesondere die unteren Schichten dominieren.
TMT repräsentiert die mittlere Troposphäre im Bereich zwischen 300 hPa und 850 hPa. Auch hier bedingt die Nähe zum atmosphärischen Fenster Beeinflussung durch Bodenemissionen. Etwa 10% der Rohdatenwerte stammen von Bodeneinflüssen. Wie beim TLT werden auch hier zum Datenabgleich Temperaturdaten von Bodenstationen benötigt. Satellitendaten werden also mit den Daten von Bodenstationen abgeglichen, sozusagen „geeicht“.
Sind diese Temperaturdaten zu hoch (falsch, siehe Climategate), so sind zwangsläufig, wenn auch weniger in der Höhe, die Temperaturdaten von Satelliten falsch, sprich, zu hoch! Aus diesem Grund sind auch die Trends gleich.
TTS umfasst den Übergangsbereich Troposphäre und Stratosphäre mit Schwerpunkt bei 220 hPa (ca. 10 km-Höhe). Daten liegen seit 1987 vor.
TLS deckt den Atmosphärenbereich zwischen 90 hPa und 150 hPa in der Stratosphäre ab. Wie aus der “Relative Weighting Function“ hervorgeht, liegt seine Gewichtung bei 90 hPa. In dieser Höhe sind sowohl die Tag/Nacht-Unterschiede, als auch die Land/Meer-Unterschiede zu vernachlässigen, als auch der Einfluss der Bodenemissionen auf die Rohdaten.

Abbildung 9: Um den gemessenen Strahlungswerten eine Temperatur in den verschiedenen Schichtdicken zuordnen zu können, wird neben der Strahlungsübertragungsgleichung, eine Gewichts- oder Quellfunktion benötigt. Diese Gewichtsfunktion ordnet den Hauptdurckflächen Gewichte zu, wie die Abbildung 8 für die vier MSU-Kanäle zeigt. Die Gewichtsfunktion ist dabei die Ableitung des optischen Weges, der Transmission nach der Höhe und beschreibt, welche vertikale Schicht den größten Beitrag an den gemessenen Rohdaten besitzt. Unter der Annahme, dass die Verteilung des Sauerstoffgehalts in der Atmosphäre genau bekannt ist, so ist auch über die Kenntnis des optischen Weges die Transmission bekannt.
Die Abbildung 9 zeigt, dass die Kanäle TTS und TLS nicht von Bodenemissionen beeinflusst werden. Mittlere und vor allem tiefe Troposphäre haben dagegen unterschiedliche Gewichtsfunktionen über der jeweiligen Höhe.

Abbildung 10 links zeigt das Emissionsspektrum der Erde im Wellenlängenbereich von 0,1 – 3 cm. Dazu die Absorptionen/Emissionen von Sauerstoff und Wasserdampf. Im Frequenzbereich von 50,3 – 57,95 GHz liegt der Messbereich der MSU-Kanäle. Die Messbereiche, die für die untere und mittlere Atmosphäre relevant sind, liegen nahe dem atmosphärischen Fenster und werden somit von Emissionen des Bodens beeinflusst.
Abbildung 10 rechts, Quelle: Uni Graz, “Monitoring des Klimawandels mit Satellitenmethoden“, zeigt die unterschiedlichen Gewichtsfunktionen von RSS und UAH, die einen Grund für die unterschiedlichen Temperaturwerte der beiden Datenreihen darstellen.
Auch Satellitendaten, denen eine hohe Richtigkeit zugebilligt wird, sind von den Landmessungen abhängig. Sind diese zu hoch, siehe Climategate, können die Satellitendaten nicht richtig sein, sondern sind ebenfalls zu hoch.
Aber der Autor möchte mit Herrn Prof. Dr. Rahmstorf nicht zu hart ins Gericht gehen, da es in der Tat eine menchen-gemachte Erwärmung gibt, wenn sich diese auch lediglich auf die Messsationen bezieht. Anbei für unsere Leser zwei Beispiele der menschen-gemachten Erwärmung.
 
Abbildung 11 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld, Quelle: Watts up with that.
 
Abbildung 12 (http://www.albwetter.de/Wetterstationsbilder.htm) zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen Rom, wie von Prof. Watts gezeigt.
 
Abbildung 13 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände (roter Pfeil). Sie wird von den startenden und landenden Jets von deren heißen Triebwerksabgasen direkt getroffen.
Prof. Dr. Rahmstorf, sowie seine Kollegen vom PIK sollten sich lieber etwas mehr mit handfester Wissenschaft, als mit Zukunftsforschung beschäftigen, möchte man ihnen zurufen. Mit 5-Jahresplänen hat die Menschheit bekanntermaßen keine guten Erfahrungen gemacht. Mit 50-Jahresplänen sieht es ganz sicher nicht besser, sondern nur schlechter aus. Wie auch immer, beide haben mit Wissenschaft nichts zu tun. Stattdessen versucht sich Rahmstorf als Hütchenspieler und bot dem von ihm direkt angegriffenen Prof. Fritz Vahrenholt eine Wette an.

Ich möchte Herrn Vahrenholt daher hiermit eine Klimawette vorschlagen. Das vergangene Jahrzehnt (2000 – 2009) war das wärmste seit Beginn der Temperaturmessungen, wahrscheinlich sogar seit mindestens 2000 Jahren. Wenn das angelaufene Jahrzehnt (2010 – 2019) global kühler ausfallen sollte, dann spende ich ein Monatsgehalt an einen gemeinnützigen Zweck seiner Wahl – wenn es wärmer ausfällt als das letzte, dann spendet er ein Monatsgehalt an eine gute Sache meiner Wahl.

Dieser mochte sich dem Vorschlag nicht anschließen und antwortete unter der Überschrift ebenfalls in der SZ: „Ich stehe für Hütchenspiele nicht zur Verfügung“.
Recht hat er, sollte man hinzufügen. Darüber wetten nur Spieler oder eben Klimafolgenforscher. Auch EIKE hat einen offiziellen Widerspruch an die SZ geschickt, dieser wurde aber mit fadenscheinigen Begründung nicht veröffentlicht. Wir holen das demnächst nach.
Raimund Leistenschneider – EIKE, unter Mitarbeit von M. Limburg EIKE




Wie gewonnen, so zerronnen? Frankreich verbietet Schiefergasförderung!

Frankreich: Verbot von Hydraulic Fracturing zur unkonventionellen Gasförderung passiert Senat

In Frankreich ist am 9.6.11 das erste mal in Europa ein Gesetz zum Verbot von Hydraulic Fracturing bei der unkonventionellen Gasförderung in Schiefergas verabschiedet worden.
Der Gesetzentwurf passierte in der Rekordzeit von unter 2 Monaten alle politischen Instanzen und zwingt jetzt die gasfördernden Unternehmen, nach alternativen Fördermethoden zu suchen.
Begründet wird das neue Gesetz damit, dass die Anwendung  der aktuellen Form von Hydraulic Fracturing zur Gewinnung von Erdgas grundsätzlich gegen die französischen Umweltschutzziele verstößt.

  • der Genehmigungsprozess sei intransparent und schließe Bürgerinnen und Bürger, Umweltschutzverbände, Behörden und die lokale Politik aus.
  • Statt Energie einzusparen, werde nur der Wunsch der Unternehmen nach kurzfristigen Gewinnen berücksichtigt
  • Hydraulic Fracturing stelle eine Gefahr für Mensch und Umwelt dar
  • der Wasserverbrauch sei sehr groß
  • die Förderung und Nutzung sei schädlich für das Klima – statt CO2 zu vermeiden, wird zusätzliches CO2 in die Atmosphäre gebracht
  • die Entsorgung der Frackwasser sei ungeklärt
  • die eingesetzten Chemikalien seien ein Risiko für das Grundwasser
  • die Förderung stehe in Konkurrenz zu Landwirtschaft und Tourismus

Die Trennung des Genehmigungsprozesses von Explorationsbohrungen und Förderung wird in der Begründung des Gesetzes angezweifelt. Zur Zeit gebe es keine andere Technik, um an das unkonventionelle Gas zu gelangen. Die hohen Investitionen zeigen, dass die Unternehmen eine Förderung von Anfang an erwarten. Die Exploration würde über Probefracks nahtlos in die Vorbereitung zur Förderung übergehen.
Ausgenommen vom Gesetz ist Hydraulic Fracturing zu Forschungszwecken. Damit soll die Tür zur Förderung von unkonventionellem Gas nicht vollständig geschlossen werden und den Unternehmen einen Anreiz zur Entwicklung umweltfreundlicher Technologien gegeben werden.
Die bisher erteilten Aufsuchungslizenzen werden innerhalb von 3 Monaten ungültig. In dieser Zeit haben die Unternehmen die Möglichkeit, vorzustellen, wie sie ohne Gefährdung von Mensch und Natur und ohne Hydraulic Fracturing an das Gas gelangen wollen. Dazu können die Aufsuchungen auch in Forschungsprojekte umgewandelt werden, die unter Aufsicht der staatlichen Behörden durchgeführt werden.
Die Opposition kritisiert diese Ausnahme und befürchtet eine Hintertür, durch welche die Unternehmen weiter arbeiten können wie bisher.
Beitrag von Jörn Krüger am 10. Juni 2011 
Erschienen hier
Quelle: http://www.senat.fr/dossier-legislatif/ppl10-510.html

Update  vom 15.6.11: Polen will billige Schiefergas-Energie vorantreiben.

Wie die unabhängige European Energy Review schreibt will Polen das Thema Schiefergas anlässlich seiner Übernahme der EU Präsidentschaft am 1.7.11 kräftig vorantreiben. Hier lesen From Poland with love 

EXXON SCHEINT IN NRW EINEN SCHWEREN WEG ZU GEHEN:

… Das nehmen wir Ihnen nicht ab. Die sind riesig. Anwohner werden Sturm laufen.
Remmel: Natürlich steht der Schutz der Anwohner an erster Stelle. Aber, was das Landschaftsbild angeht. Da gilt: Windräder gehören mittlerweile zur Kulturlandschaft wie Überlandleitungen und Kühltürme von Kraftwerken. Das ist auch eine Geschmackssache.
Glauben Sie, dass in zehn Jahren auch Gas-Bohrtürme zur Kulturlandschaft von NRW gehören?
Remmel: Nein.
ExxonMobil und andere wollen hier aber nach Gas bohren – auch mit Chemikalien.
Remmel: Es ist doch relativ leicht erkennbar, dass die Menschen in NRW nicht wollen, dass beim sogenannten „Fracking“ Chemikalien in den Boden gepresst werden. Das ist doch inzwischen einhellige Meinung. Das kann weder ExxonMobil noch ein anderes Unternehmen gegen die Bevölkerung durchsetzen. Warum auch? Offenbar treten auch nach vielen Jahren noch Umweltschäden durch diese Fördertechnik auf – siehe USA. Ich glaube, das muss man sehr ernst nehmen.
Braucht NRW diese Bohrungen?
Remmel: Wir wollen sie nicht. Aber das muss rechtssicher sein. Wir müssen das Gutachten über mögliche Gefahren abwarten, das in den kommenden Tagen ausgeschrieben werden soll. …
Quelle: http://www.ruhrnachrichten.de/nachrichten/politik/inland/art29862,1306510