Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #25 bis #27

..Kernkraftwerke müssen 200 mal so stark wie Krankenhäuser gegen Erdbeben abgesichert sein, aber nur bei Kernkraftwerken gibt es in der Sladek-Welt Verletzte (#25). Außerdem sind Kernkraftwerke wahre Flugzeug-Magneten (#26). Der doppelt gepanzerte und von Betriebsgebäuden eingerahmte Europäische Druckwasserreaktor EPR wird von Flugzeugen natürlich locker durchschlagen (#27), und alles, was möglich ist, tritt in der Katastrophenwelt der Sladeks auch prompt ein. Dabei wird permanent der Reaktorkern mit der Außenhülle, und der Schadensfall mit einer internationalen Katastrophe verwechselt. Nur der kleinste Riss in der Außenhülle, und die Welt ist verloren. Wir trauern schon jetzt um die Sladeks.
Hundert gute Antworten #25 – #27, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013.

#25: Erdbebengefahr

Behauptung: Atomkraftwerke sind nicht ausreichend gegen Erdbeben geschützt.

Die EWS behaupten

Fessenheim bei Freiburg, Philippsburg bei Karlsruhe und Biblis bei Darmstadt – alle drei Atomkraftwerke stehen im Oberrheingraben, der seismisch aktivsten Zone Deutschlands. Trotzdem sind sie wie alle Reaktoren in Deutschland;nur leicht gegen Erdbeben gesichert.
Das Atomkraftwerk Fessenheim etwa würde ein Beben, wie es 1356 die Stadt Basel zerstörte, nur überstehen, wenn das Epizentrum mindestens 30 Kilometer entfernt wäre. Ob sich die Kräfte im Untergrund daran wohl halten?
Das Atomkraftwerk Biblis ist nur gegen Erdbeschleunigungen von 1,5 m/s2 ausgelegt. Seismologen erwarten zwischen Mannheim und Darmstadt allerdings deutlich stärkere Stöße. Und im kalkigen Untergrund des AKW Neckarwestheim wäscht das Grundwasser Jahr für Jahr bis zu 1.000 Kubikmeter neue Hohlräume aus.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Auch ein Vielfaches der 1,5 m/s2 ist technisch kein Problem, wie japanische Reaktoren zeigen. Da derartige seismische Beschleunigungen an einem in Deutschland stehenden Kernkraftwerk statistisch aber nur alle 100.000 Jahre zu erwarten sind, ist eine höhere Auslegung nicht sinnvoll. Diesbezüglich hat sich sogar die EU-Kommission in ihrem letzten Stresstest geirrt, die offenkundig sämtliche Berichte deutscher Behörden und Betreiber zur Erdbebensicherheit nicht richtig gelesen hatte. Die seismischen Messinstrumente und Standsicherheiten gegen das oben genannte Bemessungserdbeben sind natürlich vorhanden sowie vorgeschrieben. Zum Vergleich, Notfalleinrichtungen wie Krankenhäuser sind auf seismische Aktivitäten ausgelegt, wie sie alle 500 Jahre auftreten. In diesen Einrichtungen sind dann Opfer garantiert, nicht aber bei Kernkraftwerken.
Außerdem gibt es eine große Sicherheitsmarge, so dass deutsche KKWs vermutlich auch die doppelte Erschütterung schadlos überstehen. Und auch hier gilt natürlich: Ein Schadensfall bedeutet noch lange keine Kernschmelze, und eine Kernschmelze noch lange keine nennenswerten Kontaminationen bei der Bevölkerung.
Quellen von KRITIKALITÄT


#26: Flugzeugabsturz

Behauptung: Atomkraftwerke sind nicht gegen Flugzeugabstürze geschützt.

Die EWS behaupten

Kein Atomkraftwerk in Deutschland würde den Absturz eines vollgetankten Passagierflugzeuges überstehen. Das hat die Gesellschaft für Reaktorsicherheit in einem – ursprünglich geheimen – Gutachten für das Bundesumweltministerium erläutert.
Sieben Reaktoren haben sogar nur so dünne Betonwände, dass bereits der Absturz eines Militärjets oder ein Angriff mit panzerbrechenden Waffen eine Katastrophe auslösen kann.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Statistisch gesehen muss ein deutsches Kernkraftwerk alle 1,6 Millionen Jahre mit einem Treffer durch ein Verkehsflugzeug rechnen. Selbst für die sieben älteren Reaktortypen, die nicht explizit gegen Flugzeugabstürze gesichert sind, führt dies nur mit einer Wahrscheinlichkeit von 15% zum Durchschlagen der äußeren Hüllen. Die neueren Reaktoren haben deutlich dickere Außenwände, der EPR, den Deutschland maßgeblich mitentwickelt hat, aber nun nicht mehr haben will, sogar eine Doppelwand.
Und selbst wenn das Flugzeug ein Loch reisst und es innen zu Bränden und Kühlmittelverlust käme – eine Kernschmelze zu bewerkstelligen ist extrem schwierig, da die Sicherheitsvorrichtungen überall verteilt sind. Die mehrere Meter dicke innere Barriere (biologischer Schild und Reaktordruckbehälter) schirmt den schmelzenden Kern ab, über einen separaten Kamin kann gefiltert entlastet werden – die Folgen für die Bevölkerung wären dieselben wie 1979 in Harrisburg, nämlich außer einer kurzen (unnötigen) Evakuierung, keine. Panzerbrechende Geschosse scheitern zwangsläufig an den viel zu dicken inneren Barrieren.
Flugzeuganschläge auf Kernkraftwerke haben nicht mal versuchsweise stattgefunden. So makaber es klingt – Terroristen können offensichtlich rechnen.
Quellen von KRITIKALITÄT


#27: Einstürzende Neubauten

Behauptung: Selbst neue Reaktortypen sind nicht sicher.

Die EWS behaupten

Auch bei dem angeblich so hochmodernen Europäischen Druckwasserreaktor (EPR), an dem der französische Atomkonzern AREVA derzeit in Finnland und Frankreich baut, sind schwere Unfälle bis hin zur Kernschmelze möglich. Große Mengen radioaktiver Stoffe könnten in die Umgebung gelangen. Die Leittechnik, die den Reaktor steuern und im Notfall sicher herunter fahren soll, halten die finnische, die britische und die französische Atomaufsicht gar für so riskant, dass sie dagegen mit einer gemeinsamen Erklärung protestierten.
Noch nicht einmal gegen einen simplen Flugzeugabsturz ist der angeblich supersichere neue Reaktor geschützt. Anstatt dessen Bau zu stoppen, stempelte die französische Regierung die brisante Expertise lieber zur militärischen Verschlusssache.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Es handelt sich mitnichten um eine Protestnote. Die drei Aufsichtsbehörden haben lediglich ihren Job getan und Verbesserungen vorgeschlagen, die von AREVA sofort umgesetzt wurden. In der gleichen Note werden die gute Zusammenarbeit und die hohen Sicherheitsstandards gelobt.
Allgemeinplätze wie „schwere Unfälle sind möglich” sind bedeutungslos, wenn keine Wahrscheinlichkeiten dafür angegeben werden. Die sind nämlich extrem gering, wie umfangreiche Studien zeigen. Die Wahrscheinlichkeit eines Schadensfalls, der noch lange nicht zu einer Kernschmelze führt, ist beim EPR 1:1.000.000 pro Jahr. Sogar ein komplett geschmolzener Reaktorkern, wie es ihn in der ganzen Geschichte noch nie gegeben hat, kann hier noch kontrolliert gespeichert und gekühlt werden.
Gerade gegen Attacken von außen wie Flugzeugabstürze ist der EPR durch die gesamte Bauweise (meterdicke doppelwandige Stahlbetonsicherung) und die kompakte Anordnung der umliegenden Gebäude extrem gut gesichert, das kann sogar ein Laie erkennen. Nur noch die allergrößten Jumbojets könnten bei einem gezielten Anflug mit hoher Geschwindigkeit rein hypothetisch die Kuppel beschädigen, kaum aber das Innenleben, und schon gar nicht den Reaktorkern. Dass der EPR „nicht einmal gegen einen simplen Flugzeugabsturz” geschützt sei, ist eine freie Erfindung. Oder eine freche Lüge.
Quellen von KRITIKALITÄT





Rajendra Pachauris Verschwörungstheorie

Bild rechts: Wikipedia
Aber Pachauri geht mit einer eigenen Verschwörungstheorie hausieren. Ihm zufolge hat der Grund, warum die Welt seine Ratschläge bzgl. des Klimas nicht übernimmt, nichts mit den ausgeprägten Glaubwürdigkeits-Problemen des IPCC zu tun. Und auch nichts damit, dass er sich selbst eher wie ein Aktivist als wie ein leidenschaftsloser Wissenschaftler verhält.
Nein, Pachauri hat dafür eine viel erstaunlichere Erklärung: Involviert ist eine Verschwörung von „mächtigen persönlichen Interessen“. Wenn die bösen Ölgesellschaften im Hintergrund nicht ihren Einfluss geltend machen würden, wäre alles in der Welt in bester Ordnung.
In einem Artikel, den er 2010 für die Zeitung Guardian geschrieben hatte, hat Pachauri dick aufgetragen, indem er bei vier unabhängigen Gelegenheiten „persönliche Interessen“ ansprach (ohne den Untertitel oben):
Es ist wohlbekannt, dass mächtige persönliche Interessen sowie diejenigen, die gegen Aktionen gegen den Klimawandel opponieren, Überstunden machen, weil sie danach trachten, diese Aktionen so lange wie möglich zu verzögern.
mächtige persönliche Interessen werden vielleicht während der nächsten Monate überaktiv werden und werden vielleicht alles in ihrer Macht stehende tun, den Fortschritt hin zu einem bindenden Abkommen zu behindern, das man Ende 2010 zu schließen hofft…
…angesichts des geringen Fortschritts und der Macht, die persönliche Interessen über die Legislative und politische Initiativen ausüben werden…
… die Bemühungen der Skeptiker und persönlicher Interessen zu durchkreuzen, die alles in ihrer Macht stehende tun werden, um den Status quo zu erhalten. (Fettdruck hinzugefügt; backed up hier)
Es gibt viele persönliche Interessen. Einige davon richten sich gegen die Ansichten von Pachauri. Viele jedoch gehen mit ihnen konform.
Es ist intellektuell unehrlich, sich über die ihre Interessen schützenden Ölgesellschaften zu beklagen und dabei die Tatsache zu ignorieren, dass Unternehmen involviert in Wind- und Sonnenkraft, Kohlenstoff-Offsets oder grüne Investmentfonds genau das Gleiche tun.
Die massiven persönlichen Interessen von Greenpeace, dem World Wildlife Fund, dem Sierra Club, Friends of the Earth, dem Environmental Defense Fund und hunderte anderer Organisationen zu übersehen, die diese jetzt durch den Verkauf alarmierender Geschichten an die Öffentlichkeit haben, ist naiv.
Und doch macht Pachauri genau das. Er beleuchtet einen kleinen Splitter auf dem Schlachtfeld und brüllt, was dort nicht alles passiert, ignoriert aber geflissentlich alles andere, was darum herum vor sich geht.
Tatsächlich sind die Menschen auf allen Seiten der Klimadebatte – und auch alle Menschen im gesamten politischen Spektrum – anfällig für Verschwörungstheorien.
Zum Beispiel glauben viele, dass Elektroautos inzwischen allgemein verbreitet wären, wenn es da nicht eine Verschwörung der Ölgesellschaften geben würde, die bis Anfang des vorigen Jahrhunderts zurück reicht. (Siehe den Dokumentarfilm Who Killed the Electric Car?)
Aber das wirkliche Leben ist komplizierter als das. Während der letzten Jahre hat [die Firma] Fisker Automotive großzügige Unterstützung von der US-Regierung erhalten (259 Millionen Dollar an niedrig verzinsten Darlehen). Das gilt auch für den Hersteller der Steckdosen-Hybridautos (eine Zuwendung in Höhe von 250 Millionen Dollar). Trotz all dem hat Fisker inzwischen 75 Prozent seiner Mitarbeiter gefeuert und auf Bankrotte spezialisierte Rechtsanwälte angeheuert.
Im vorigen Monat veröffentlichte Reuters einen Artikel mit der Schlagzeile Electric cars headed toward another dead end [etwa: Elektroautos fahren in eine weitere Sackgasse]. Darin wird berichtet, dass jüngste Entwicklungen zeigen, dass Elektroautos immer noch nicht „zur hauptsächlichen Nutzung“ ausgereift genug sind – und es wohl auch niemals werden“. Weiter heißt es in dem Artikel:
Trotz Milliarden Dollar Investitionen … werden Elektroautos immer noch von vielen der Problemen geplagt, die letztendlich die Entwicklung der Elektrizität zu Beginn des vorigen Jahrhunderts und vor kürzerer Zeit in den neunziger Jahren behindert haben. Diese Probleme schließen hohe Kosten, kurze Fahrstrecken und das Fehlen von Ladestationen ein (Fettdruck hinzugefügt; backed up hier)
Wenn man einer Verschwörungstheorie anhängt, übernimmt man eine überaus vereinfachte Sichtweise einer komplexen Situation. Noch verstörender, wir degradieren andere Menschen zu Charakteren aus Comic-Heften – gute Menschen mit reinen Herzen und ruchlosen Bösewichten.
Bei Gelegenheit sind wir alle dieser Art zu denken schuldig. Wenn Rajendra Pachauri die Menschen anklagt, Verschwörungstheoretiker zu sein, sagt er eigentlich nur, dass sie menschlich sind. Ho-Hum.
Kann sich also ein Erwachsener darüber unterhalten, warum so viele Menschen seiner Organisation misstrauen?
Donna Laframboise
Link: http://nofrakkingconsensus.com/2013/04/06/rajendra-pachauris-conspiracy-theory/
Übersetzt von Chris Frey EIKE




Australische Meldungen über Meeresspiegelanstieg nicht gerechtfertigt

Der international renommierte schwedische Meeresspiegelexperte Prof. Nils-Axel Mörner hat deshalb zusammen mit Albert Parker untersucht, ob die Befürchtungen einen substantiellen Hintergrund haben.
Das Ergebnis: Es gibt nichts zu befürchten, Vorbereitungen gegen gefährlich ansteigende Meereshöhen sind unnötig.
Nach Mörners und Parkers Meinung sind die normalerweise von den Klimatologen untersuchten Trendlinien ungeeignet, die Dynamik der Veränderungen des Meeresspiegels wiederzugeben.
Daraus schlussfolgern die Wissenschaftler:
(1) Die regierungsamtlichen Behauptungen Australiens von einem gegenwärtigen Anstieg des Meeresspiegels in der Größenordnung von 5,4 mm/Jahr sind deutlich übertrieben.
(2) Die durchschnittlichen Veränderungen im Meeresspiegel, wie sie australische Pegel und das globale Netz der Pegel zeigen, bewegen sich zwischen 0,1 bis 1,5 mm/Jahr.
(3) Die Behauptungen einer aktuellen Beschleunigung der Anstiegsrate wird nicht gestützt von den Aufzeichnungen der Gezeitenpegel – nicht in Australien und nirgendwo sonst auf der Welt, ganz im Gegenteil.

Abstract der Studie
Mörner, N.-A.; A. Parker: "Present-to-future sea level changes: The Australian case"

Wir untersuchen verfügbare Gezeitenpegel-Daten von der australischen Küste und wir zeigen, dass die Änderungsrate zwischen 0,1/ und 1,5 mm/Jahr schwanken kann, und dass es in den vergangenen Jahrzehnten keine Beschleunigung gegeben hat. Das National Tidal Center (Nationales Gezeitenzentrum) behauptet auf der Basis von Daten von 16 Stationen über einen Zeitraum von 17 Jahren, dass der Meeresspiegel mit einer Rate von 5,4 mm/Jahr ansteigen würde. Wir haben teilweise zeitlich längere Aufzeichnungen analysiert von den gleichen 16 Stationen, wie sie im Australian Baseline Sea Level Monitoring Project (ABSLMP) benutzt wurden, dazu 70 weitere Stationen; d. h., unsere Datenbasis umfaßt 86 Stationen über einen viel längeren Zeitraum. Diese Datenbasis ergibt einen mittleren Anstiegstrend in der Größenordnung von 1,5 mm/Jahr. Daher halten wir für falsch, was das National Tidal Center in Australien als Anstiegsrate des Meeresspiegels vorgelegt hat, wie auch dessen allgemeinere Behauptung von einer Anstiegs-Beschleunigung während der jüngsten Jahrzehnte. 
Einleitung und Übersetzung: Helmut Jäger, EIKE
undefinedOriginal der Studie hier



Warum Europa Schiefergas braucht

Bild rechts: Schiefergas in Deutschland. Quelle: http://tinyurl.com/c44c6x9 (www.science-skeptical.de)
Europas Bemühungen, aus der Rezension herauszukommen, werden durch die relative hohe Kostenbasis in Europa behindert, vor allem hinsichtlich der Kosten für Arbeit und Energie. Lohnkosten, die mehr als doppelt so hoch sind wie in der Region Asien – und etwa 5 bis 8 mal so hoch sind wie in China.

Abbildung 1: Unterschied der Lohnkosten in der Welt, Stand: 2010
Es kann sein, dass die europäischen Regierungen nicht viel gegen den Nachteil der strukturellen Lohnkosten tun können, obwohl Länder wie Deutschland einige Fortschritte gemacht haben. Lohnkosten werden sehr stark durch historische Umstände sowie Regulierungen der sozialen Sicherheit beeinflusst. Die Lohnkosten in Europa sind hoch und werden mittel- bis langfristig auch hoch bleiben.
Allerdings können die europäischen Regierungen etwas gegen die Differenz der Energiekosten tun. Und die Erschließung der Schiefergas-Reserven ist die offensichtlichste Option.
Während der vergangenen zehn Jahre war Erdgas aus der Golf-Region 8 bis 10 mal billiger als in den USA, Europa und Asien. [i] Die Schiefergas-Entwicklung in den USA war 2008 bereits in vollem Gange und führte zu einer nationalen Gas-Goldgrube mit Gaspreisen, die grob geschätzt etwa ein Drittel der Preise in Europa ausmachen. Und obwohl China weder einen Erdgas- noch einen Öl-Kostenvorteil hat, setzt das Land seinen Vorteil hinsichtlich der Lohnkosten voll ein, was zu einer drastischen Steigerung der Produktivität und von Innovationen führt. In Europa bleiben die Kosten dagegen weiterhin genauso hoch wie zuvor.  [ii]
Bereiche wie die petrochemische Industrie, die in hohem Maße von den Kosten für Öl und Erdgas (Naphta [?] oder Äthan) abhängig sind, stehen an einem kritischen Punkt. Im Jahr 2012 waren in diesem Bereich etwa 1,2 Millionen Menschen beschäftigt, das ist ein Verlust von 200000 Arbeitsplätzen. [iii] Von 2006 bis 2011 wies sie lediglich ein Zehntel der Wachstumsrate im asiatisch-pazifischen Raum auf (0,9% gegen 9,7%) und hat weniger als ein Drittel investiert im Vergleich in jener Region (600 gegen 200 Milliarden Dollar). Inzwischen sind die Verkaufsanteile von Chemikalien in Europa von 2001 bis 2011 von 30% auf 20% gefallen, während sie sich im asiatisch-pazifischen Raum verdoppelt haben, von 23% auf 45%. Gleichzeitig werden die Kapazitäten in der Golf-Region massiv ausgeweitet und machen mehr als 50% der globalen petrochemischen Kapazität aus, wobei man danach trachtet, den Zugang zu billigen Lagerstätten zu sichern. [iv]

Abbildung 2: Internationale Joint-Venture-Investitionen in Schiefergas USA von 2008 bis 2012 [v]

Andere Länder investieren stark

In den Jahren von 2008 bis 2012 beliefen sich die Investitionen in Schiefergas in den USA auf 133,7 Milliarden Dollar, wovon Joint Ventures mit Nicht-US-amerikanischen Firmen etwa 20% ausmachten. Es gab auch ausgeprägte Zukäufe: Aber trotz des Zukaufs von Petrohawk Energy Corp. [vi] durch BHP Billiton gab es in Europa bislang nur eine geringe Zahl von Erschließungen, vor allem in Polen, obwohl die Schiefergasreserven des Kontinents sehr groß sind.

Abbildung 3: Wichtige Schiefer-Lagerstätten der Welt [vii]
In den USA gehört den Landbesitzern nicht nur das Land, sondern auch alle Ressourcen darunter. Das ist hinsichtlich der Entwicklung der Schiefergas-Industrie ein großer Vorteil. In Europa gehören die Ressourcen unter der Oberfläche den Regierungen, und der heutige aktuelle Streit darum behindert die Entwicklung der Schiefergas-Erzeugung. Das ist ein schwaches Argument und eine ärmliche Entschuldigung für Nichtstun.

Regierungen müssen handeln

Regierungen können tatsächlich Bewegung in die Entwicklung von Schiefergas bringen, so wie sie es in der Vergangenheit in anderen öffentlichen Bereichen getan haben: Die Entwicklung eines umfangreichen Eisenbahnsystems, die beeindruckende Nuklearindustrie in Ländern wie Frankreich. Mit den notwendigen Visionen und dem Willen können die Regierungen die Schiefergas-Entwicklung voranbringen und ökonomisches Wachstum beschleunigen, aber sie werden ihre legalen Rechte brauchen, um Land zu enteignen – und die Landbesitzer entsprechend zu entschädigen. Sie können mit vereinten Kräften auch Lösungen finden für die Herausforderungen bzgl. der Umwelt durch die Ausbeutung von Schiefergas.
Ohne derartige Aktivitäten werden sich Bereiche wie die chemische Industrie in Europa auf dem gleichen langfristigen Weg befinden wie andere Bereiche, die unter hohen Kosten und Überkapazitäten leiden wie z. B. die Auto- und die Stahlindustrie, mit Konsequenzen, die nur allzu bekannt sind.
Karel Cool und Quentin Philippe, Forbes
Link: http://www.thegwpf.org/europe-shale-gas/
Bemerkung: Im Original steht unten dieser Link: Full story. Darin findet sich auch eine Liste mit Referenzen, auf die sich die Markierungen in diesem Artikel beziehen.
Übersetzt von Chris Frey EIKE




Neubewertung von bei der Klimamodellierung verwendeten Temperaturrekonstruktionen

Instrumenten-Aufzeichnungen
Die meisten wenn nicht alle Klimamodelle benutzen die Temperaturaufzeichnung aus Zentral-England [Central England Temperature CET], um historische Temperaturen mit Modellergebnissen zu vergleichen (hindcasting). Die CET ist die längste Temperaturaufzeichnung mittels Instrumenten der Welt und reicht zurück bis zum Jahr 1659.
Die Temperaturen im Rahmen von CET wurden an Orten aufgezeichnet, die von Lancashire im Norden über Bristol im Südwesten und London im Südosten von England reichen. Seit 1974 waren die Temperaturwerte angepasst worden, um dem UHI Rechnung zu tragen. Mehr: http://www.metoffice.gov.uk/hadobs/hadcet/ [1]
Als Beispiel einer CET-Meßstation sei hier Ringway in Chesire genannt als eine der nördlich gelegenen Original-Meßstellen. Von dort gibt es Aufzeichnungen der Ringway-Kapelle, die während des Englischen Bürgerkriegs (1642 bis 1651) verwendet worden sind. Im Jahr 1723 war die alte Kapelle durch ein neues Gebäude aus roten Klinkersteinen ersetzt worden. Im Jahr 1894 war sie erneut zerstört und dann als Ringway-Pfarrkirche wieder aufgebaut worden.
Ringway, eine typische ländliche Örtlichkeit, wurde als Ort für einen Flugplatz von Manchester ausgewählt, und die Arbeit begann im Jahr 1935. Das erste Flugzeug landete in Ringway im Jahr 1937 auf einer teilweise fertig gestellten, komplett grasbewachsenen Landebahn. Der erste Hangar wurde ebenfalls im Jahr 1937 fertig gestellt. Bis zum Jahr 1938 waren ein Terminal-Gebäude, ein Kontrollturm und andere Bauwerke eröffnet worden, und die ersten Linienflüge starteten mit 400 Passagieren im ersten Jahr.
Im Jahr 1939 begann der Bau der Luftwaffenbasis Ringway [RAF Ringway] im nordöstlichen Teil des Flugplatzes mit zwei weiteren neuen Hangars an der Südseite und noch zwei weiteren im Nordwesten. Während des Jahres 1941 wurden zwei asphaltierte Rollbahnen (3000 Fuß) [ca. 900 m] gelegt auf einer Achse von 06/24 und 10/28 [?]. Weitere drei riesige Hangars wurden an der Südseite während der Jahre 1942 und 1943 errichtet. Ebenfalls 1943 wurde die Rollbahn 06/24 auf 4200 Fuß [ca. 1300 m] verlängert, und eine weitere, 3300 Fuß [ca. 1006 m] lange Rollbahn wurde gebaut.
Nach dem Krieg, zwischen den Jahren 1946 und 1957 fand Ringway überwiegend wieder eine zivile Verwendung, obwohl die RAF dort weiterhin ein Geschwader stationiert hielt. Während dieser Zeit wuchs der Flugplatz erheblich. Im Jahre 1952 wurde ein 24-Stunden-Betrieb eingeführt mit internationalen und transatlantischen Flügen. Im Jahre 1954 zählte man den millionsten Passagier seit dem Zweiten Weltkrieg. 1962 wurde ein weiteres, 2,7 Millionen Pfund teures Terminal eröffnet, das das erste „Gangway“-System Europas war, und im Jahre 1969 wurde die Rollbahn auf  9006 Fuß [ca. 2700 m] verlängert. Bis zum Jahr 1978 flogen über 100 Fluggesellschaften den Flughafen an, und die Zahl der Beschäftigten wuchs auf über 5000.
Im Jahre 1981 war die Rollbahn nochmals verlängert worden, diesmal auf 10000 Fuß [über 3000 m], um Langstreckenflieger anzulocken, und bis zum Jahr 1987 erreichten die Passagierzahlen 1 Million pro Monat. 1986 wurde ein neues Welt-Frachtterminal eröffnet und 1989 ein neues Inland-Terminal mit extra Parkplätzen. Während der neunziger Jahre wurde Terminal 2 1993 eröffnet, gemeinsam mit einer Bahnstation, die direkte Verbindungen zu vielen Städten im Nordwesten bot. Bis 1995 erreichten die Passagierzahlen 15 Millionen pro Jahr.
Eine neue zweite Rollbahn wurde 2001 fertig gestellt, Erweiterungen der Terminals 1 und 2 2003. 2007 gab es eine wesentliche Renovierung von Terminal 1 und die Einweihung eines neuen Terminals 3. 2008 eröffnete das Concord-Konferenzzentrum.
Parallel zu all diesen Entwicklungen entstanden auch viele Parkplätze, Hotels sowie andere Betriebs- und Nebengebäude.

Abbildung 1: Wachstum des Flughafens Manchester bzgl. Flugbewegungen und Passagierzahlen .
Es gibt eine Reihe von Dingen, die in Abbildung 1 beachtenswert sind: Der Zuwachs der Passagierzahlen war größer als der der Flugbewegungen. Dies bedeutet, dass mehr Menschen mit größeren Flugzeugen geflogen sind oder dass freie Plätze in bestehenden Flugverbindungen besser ausgefüllt werden konnten. Abbildung 2 zeigt, dass die Wachstumsrate auf einer Linie mit dem Wachstum aller anderen Flughäfen in UK liegt.

Abbildung 2: Gesamtzahl der Flugbewegungen in UK seit 1956
Interessant ist der Rückgang des Luftverkehrs nach einer Spitze im Jahr 2005, der in beiden Abbildungen hervor tritt.
Aus der Entwicklung des Flughafens Manchester wird offensichtlich, dass sich die Infrastruktur  erheblich ausgeweitet hat, und zwar praktisch von einem Acker mit einer kleinen Landebahn in den dreißiger Jahren zu einem wichtigen internationalen Flughafen heute. Dies macht den Flughafen Manchester zu einem guten Beispiel für den UHI-Effekt. Allerdings gibt es keine vergleichbare ländliche Örtlichkeit in der Umgebung, um den Unterschied zu messen.
In einer Studie in dem Magazin Weather im Dezember 2009 verglich Dr. Philip D. Jones [2] verschiedene Orte in und um London, um den UHI-Effekt zu bestimmen. In der Studie wurden zwei Stellen im Zentrum von London (St. James Park und London Weather Centre) mit ländlicheren Gegenden verglichen (Rothampstead und Wisley). Vergleiche gab es auch zwischen den Orten Kew und Heathrow; die Stellen Gatwick und Stansted wurden aber ausgeschlossen. Das Argument für den Ausschluss dieser beiden basierte auf dem Umstand, dass sie nicht vom Met. Office, sondern seit 1990 von der Civil Aviation Authority CAA betrieben worden waren und „nur sporadisch Eingang in die Datenbasis des Met. Office“ gefunden hatten. Dass alle CAA-Beobachter vom Met. Office angelernt worden waren und die Daten von beiden Stellen vollständig verfügbar waren, spielte keine Rolle. Ich selbst habe die Daten von Gatwick seit 15 Jahren gesammelt.
In seinen Schlussfolgerungen stellt er fest: „Die UHIs haben zugenommen, und zu einer mit der Verstädterung verbundenen Erwärmung kam es in Heathrow und Kew am Stadtrand von London. In Heathrow ist die mittlere Temperatur um 0,4°C gestiegen, und zwar zwischen dem Beginn der Aufzeichnungen im Jahr 1949 und 1980. Seit 1981 gab es keine weitere Zunahme des UHI. Es wird erwartet, dass sich die UHIs an anderen Orten am Rand von Zentral-London (wie Heathrow und Kew) während des 20. Jahrhunderts ähnlich verhalten haben. Orte innerhalb Zentral-Londons würden keinen mit der Verstädterung verbundenen Erwärmungstrend zeigen (d. h. konstante UHIs) im Vergleich mit ländlichen Orten rund um London“.

Abbildung 3: Wetterstation des Met. Office bei Heathrow (courtesy Google Maps)
Nicht nur, dass die Station des Met. Office bei Heathrow (seit 1949 nicht mehr verlagert) im Norden, Osten und Westen sehr nahe stark befahrener Autobahnen liegt (Northern Perimeter Rd W), sich im Süden geteerte und betonierte Rollbahnen befinden und 500 m entfernt von wichtigen Terminals (T1, T2,T3), sondern auch, dass sich eine der am stärksten frequentierten Rollbahnen (27R/09L) 200 m entfernt befindet. Jüngsten Aufzeichnungen zufolge (2011) benutzen 652 Flugzeuge jeden Tag diese Rollbahn. Die Station befindet sich sehr nahe der Stelle, an der die Flugzeuge ihre Triebwerke zum Start auf maximale Stärke hochfahren oder den Umkehrschub zum Landen einschalten. In beiden Fällen wird sehr viel Wärmeenergie freigesetzt.

Abbildung 4: Luftaufnahme von Heathrow (courtesy Google Maps)

Abbildung 5: Luftaufnahme von Gatwick (courtesy Google Maps)
Vergleicht man die Luftaufnahmen von Heathrow (Abb. 4) mit Gatwick (Abb. 5), wird sofort augenfällig, dass Heathrow viel städtischer ist als Gatwick. Der ländliche Charakter des Letzteren kommt schon durch die Menge der Vegetation (grün) in der Umgebung heraus. Beide Flughäfen liegen auf NN, so dass keine Temperaturanpassung infolge eines Höhenunterschieds erforderlich ist.

Abbildung 6: Vergleich der Maximum-Temperatur zwischen Heathrow und Gatwick in °C.

Abbildung 7: Vergleich der Minimum-Temperatur zwischen Heathrow und Gatwick in °C.

Abbildung 8: Vergleich der Mitteltemperatur zwischen Heathrow und Gatwick in °C.
Während der letzten 11 Jahre war es in Gatwick anhaltend kühler als in Heathrow, wie die Abbildungen 6 bis 8 zeigen.

Tabelle 1: Temperaturdifferenz zwischen Heathrow und Gatwick
In diesen Beispielen ebenso wie in Tabelle 1 wird natürlich eine mehr städtische Stelle in Heathrow mit einer weniger städtischen Stelle in Gatwick verglichen. Aber Gatwick hat sich wie die meisten Flughäfen mit der Zeit in seiner Infrastruktur ausgeweitet und hat jetzt sein eigenes UHI-Niveau. Die UHI-Differenz zwischen Heathrow und Gatwick beträgt 0,8°C. Unter der Annahme, dass Gatwick im Vergleich zu einer gänzlich ländlichen Stelle ebenfalls einen UHI von 0,8°C aufweist, beträgt der potentielle UHI in Heathrow 1,6°C und nicht 0,4°C (mittlerer Wert), wie er in der Schlussfolgerung der Studie von Philip Jones angeführt wird.
Anekdotisch: wenn man mit dem Auto durch große Städte fährt, steigt die Temperatur am Autothermometer unvermeidlich um mindestens 2°C im Vergleich zu ländlichen Gebieten. Und selbst in den Wettervorhersagen in der BBC heißt es in bestimmten Situationen, dass es auf dem Lande „ein paar Grad kühler“ ist.
Eine wirklich ländliche Stelle gibt es natürlich nicht, weil selbst an ländlichen Stellen in der Umgebung der Messeinrichtungen die Vegetation wächst (Bäume, Büsche usw.), was das Temperaturprofil an dieser Stelle beeinflusst.
Viele der Stationen, an denen auf dem Festland die Temperatur gemessen wird, liegen an Flughäfen, hauptsächlich aus historischen Gründen, weil meteorologische Messungen für die Luftfahrtindustrie wichtig waren und sind. Hat man an diesen Stellen Anpassungen bzgl. des UHI vorgenommen?
Die Schlussfolgerung dieser Untersuchung zeigt, dass UHI-Anpassungen für Instrumenten-Messungen, die für Temperatur-Rekonstruktionen verwendet werden, nicht robust genug sind, um die erforderliche hohe Genauigkeit aufzuweisen.
Verwendung von Photosynthese betreibende Organismen als Temperaturproxies
Für die Photosynthese benötigen alle Bäume und andere lebende Organismen (Alkenone/Phytoplankton) spezielle Mengen Luft (Gase), Wärme, Licht (Photonen) und Wasser. Mit anderen Worten, ohne Luft (Gase), ohne Wärme, ohne Licht und ohne Wasser kann der Baum jeweils keinen Baumring ausbilden. Es ist eine Kombination von Wetterelementen, die das Wachstum des Baumes und die Bildung von Baumringen stützt.
Aber um einen Baumring zu bilden braucht der Baum auch einen biologischen Mechanismus, der die Aufnahme bestimmter Nährstoffe kontrolliert, die für das Wachstum notwendig sind. Nun ändert sich jedoch die Zufuhr von Luft, Wärme, Licht und Wasser fortwährend. Daher muss dieser biologische Mechanismus in der Lage sein, mit unterschiedlichen Niveaus von Sauerstoff/CO2, Wärme/Kälte, Licht/Dunkelheit und nass/trocken umzugehen. Als solcher reagiert dieser biologische Mechanismus auf das Wetter. Dieser mit dem Wetter umgehende Mechanismus ist auch ein genetischer An- und Ausschalt-Mechanismus, ein homöostatischer Regulator und eine biologische Uhr.
In diesem Teil dieser Untersuchung wird eine spezifische Kombination von Wetterelementen (Luft, Wärme, Licht und Wasser), die im Folgenden als Photosynthese-Index (P-Index) bezeichnet wird, mit der Temperatur allein verglichen. Der P-Index hat eine Bandbreite von 0 bis 100. Die Photosynthese wird ab einem Wert von 6,9 ausgelöst, ist jedoch variabel, da jede Spezies sein eigenes Toleranzniveau zu diesem Input entwickelt hat (Luft, Wärme, Licht oder Wasser).

Abbildung 9: 14-jähriger Vergleich zwischen der täglichen Höchsttemperatur (Tx) und dem P-Index an einer Stelle in UK.
Der Vergleich zwischen den Höchstwerten der Temperatur und dem Photosynthese-Index (Abbildung 9) ergibt eine Korrelation von +0,69. Vergleicht man jedoch den P-Index mit den niedrigsten bzw. höchsten Werten der Maximum-Temperatur, ergibt sich ein anderes Bild, wie Abbildung 10 zeigt:

Abbildung 10: Höchste bzw. niedrigste Werte der Maximum-Temperatur im Vergleich zum P-Index.
Abbildung 10 zeigt, dass alle Temperaturen bis zu 23°C einen P-Indexwert von 0 annehmen können. Bei einem PI von 0 gibt es keine Photosynthese. Hinsichtlich des Photosynthese auslösenden Wertes von 6,9 zeigt sich eine klarere Erklärung in Tabelle 2.

Tabelle 2: Vergleich zwischen Tx und P-Index min/max.
Aus den 14-jährigen täglich erfolgten Aufzeichnungen des Vergleichs zwischen Tx und P-Index (min und max) ergibt sich ein Indexwert von 6,9 für die volle Photosynthese. Die meisten Bäume werden keine Baumringe ausbilden, bis die Temperatur etwa 7,5°C beträgt. Der wichtigste Punkt: Photosynthese findet in der Bandbreite von 7,5°C bis 27°C statt.

Abbildung 11: Anzahl der Tage mit Photosynthese
Aus der Analyse der 5114 Tage an einer Stelle in UK gibt es an 4125 Tagen Höchstwerte, die Photosynthese zulassen würden, aber nur 1600 PI-Tage, wenn die volle Photosynthese wirklich stattfindet. Mit anderen Worten, es gibt 2525 von 5114 Tage (49,9%), an denen das Wachstum von Baumringen kein gutes Proxy für Temperatur-Rekonstruktionen ist.
Diese Untersuchung wirft Zweifel auf die Verwendung von Baumring-Proxies als zulässige Temperatur-Rekonstruktionen.
(Letzte Meldung: Die jüngste Studie von Marcott et al. mit der Verwendung von Alkenone-Daten (erzeugt durch Phytoplankton) erweckt wahrscheinlich die gleichen Zweifel (unabhängig von der schlecht durchgeführten statistischen Analyse) wie andere lebende Organismen wie Baumringe!!!)
Proxies aus Eisbohrkernen:
Nicht genug Hintergrundwissen für eine Besprechung!
CO2
Eine sehr einfache Analyse des Vergleichs zwischen Temperatur und CO2 zeigt nur eine geringe Korrelation (mehr Daten wären erforderlich, um eine gesicherte Studie durchzuführen).

Tabelle 3: Mitteltemperatur (Ta), CO2 und Relative Feuchtigkeit (RH) in Hawaii

Abbildung 12: Vergleich zwischen Mitteltemperatur (Ta), CO2 und Relativer Feuchtigkeit (RH) in Hawaii
Die Korrelationen zeigen -0,23 zwischen Ta und CO2 sowie -0,08 zwischen RH und CO2. Beide Werte sind statistisch nicht gesichert.
Das gegenwärtige CO2-Niveau beträgt 390 ppm in der Atmosphäre (0,039%), was auch Wasserdampf und andere Treibhausgase einschließt. Der natürliche Kohlenstoff-Kreislauf erzeugt 2960000 metrische Tonnen CO2 [3]. Der Beitrag der Menschheit wird mit 33500 metrischen Tonnen angenommen[4], was 1,13% ausmacht. Der UK-Beitrag bleäuft sich auf 458 metrische Tonnen CO2 [3] oder 0,0155%. Daher ergibt sich die Gesamtmenge aller Treibhausgase zu 2960*0.039%*100=758974358974 metrischen Tonnen.
[*Die Einheit in diesem Absatz lautet „{Zahl}m tonnes“. Ich habe das mit metrischen Tonnen angenommen, weil in diesem ganzen Aufsatz ausschließlich britische Maßeinheiten verwendet werden. Sollten „Millionen Tonnen“ gemeint sein, bitte ich das im Geiste zu korrigieren. A. d. Übers.]
Der prozentuale UK-Anteil der globalen atmosphärischen [Treibhaus?]Gase beträgt: 0,0000000604%.
Diskussion:
Es scheint, dass historische Daten, Temperatur-Proxies, die in der Analyse der Klimaänderung verwendet werden, nicht robust genug sind, um eine genaue Temperatur-Rekonstruktion zu ermöglichen. Ich zeige, dass die UHI-Anpassungen zu gering sind und dass Baumring-Proxies keine genauen Temperatur-Rekonstruktionen ergeben können.
Was die Beziehung und die Hypothese von Klimawissenschaftlern zwischen Temperatur und CO2 betrifft, zeigt sich einfach keine signifikante Korrelation. Hat irgendjemand eine in die Tiefe gehende Studie unter Verwendung signifikanter Daten durchgeführt, in der Temperatur und CO2 miteinander verglichen werden? Oh, es gibt die historischen Temperaturaufzeichnungen aus Hawaii; alle 13 Meßstationen liegen an Flughäfen. Man wähle sich eine aus und sie wird den UHI-Effekt aufweisen. Man beziehe Bevölkerungswachstum und daraus folgende Infrastruktur-Ausweitungen ein – oh, noch mehr UHI. Aber was würden wir vergleichen, CO2-Niveau mit realer Temperatur oder CO2-Niveau mit dem UHI-Effekt? Auf der einen Seite der Mauer zeigen die „realen Temperaturen“ nur sehr geringe Korrelationen. Auf der anderen Seite der Mauer ANTHROPOGENE GLOBALE ERWÄRMUNG.
Noch eine Bemerkung zum Schluss: Das vom IPCC eingeräumte Fehlen von Wissen der Strahlungs-Rückkopplung von Wolken und Wasserdampf ist interessant. Man betrachte irgendein globales Satellitenbild im Infrarot-Bereich, im sichtbaren Bereich oder im Wasserdampf-Bereich (Abbildung 13*). Dann erkennt man die Bedeutung dieser zwei Faktoren für die Klimaforschung. Und doch zeigt das Wissen des IPCC in ihrer Graphik aus dem 3. Zustandsbericht, dass deren Kenntnisse sehr gering sind. Der P-Index (Luft {Gase}, Wärme, Licht und Wasser) zeigt eine Korrelation von 0,69 im Vergleich zur Maximum-Temperatur (14 Jahre lang tägliche Daten), die statistisch signifikant ist. Aber man erinnere sich an die Auswirkung auf die Photosynthese und das Wachstum von Baumringen und in dieser Hinsicht an alle Photosynthese durchführende Organismen.
[*Abbildung 13 im Anschluss an die References fehlt im Original!]
Vielleicht ist der P-Index ein sinnvollerer Indikator von Strahlungs-Rückkopplung und der Auswirkung auf die Temperatur, da er wie Photosynthese wirkt.
Schlussfolgerung: Das gegenwärtige Wissen über das Klima ist nicht ausreichend für politische Entscheidungen, die auf diesem Wissen basieren. Politische Entscheidungen hinsichtlich des Climate Change Act und der Energiepolitik basieren auf zweifelhafter Wissenschaft, gleichbedeutend mit Homöopathie.
References:
1. http://www.metoffice.gov.uk/hadobs/hadcet/
2. Jones P. D., Lister D. H. The urban heat island in Central London and urban-related warming trends in Central London since 1900, Weather, December 2009, Vol. 64, No.12
3. http://www.esrl.noaa.gov/gmd/infodata/faq_cat-3.html#9
4. G.P. Peters et al. Global carbon budget 2010 (summary), Tyndall Centre for Climate Change Research
5. https://www.gov.uk/government/publications/final-uk-emissions-estimates
Mid-IR/Water Vapour 18Mar2013 1200 Vis Green/Red 18Mar2013 1200 IR 18March2013 1200
Abbildung 13: Satellitenbilder in drei Spektralbereichen – fehlen im Original!
Link: http://wattsupwiththat.com/2013/04/16/revisiting-temperature-reconstructions-used-in-climate-change-modeling/
Übersetzt von Chris Frey EIKE
Bemerkung des Übersetzers: Der gesamte erste Teil dieser Arbeit ist eine eindrucksvolle Bestätigung der vor einiger Zeit hier bei EIKE veröffentlichten Ergebnisse von Leistenschneider et al. Für mich ein weiteres Indiz dafür, dass die letzte globale Erwärmung eben nicht global, sondern überwiegend an den ausgewählten Messpunkten aufgetreten ist – und hier tatsächlich anthropogenen Ursprungs ist.
Welchen prozentualen Anteil haben diese Messpunkte an der gesamten Erdoberfläche?
C. F.