Wenn die Wirklichkeit nicht mit der Vorstellung übereinstimmt – schlecht für die Wirklichkeit! NASA: Messungen zur globalen Erwärmung benötigen eine weitere Aufwärts-Adjustierung um 19%

Presseerklärung des Jet Propulsion Laboratory JPL:

Eine neue Studie der NASA kommt zu den Ergebnis, dass fast ein Fünftel der globalen Erwärmung während der letzten 150 Jahre in den historischen Aufzeichnungen verloren gegangen ist, und zwar aufgrund von Mängeln bzgl. der Art und Weise, wie globale Temperaturen aufgezeichnet worden waren. In der Studie wird erklärt, warum Projektionen des zukünftigen Klimas allein auf der Grundlage historischer Aufzeichnungen geringere Erwärmungsraten abschätzen lassen als Prophezeiungen der Klimamodelle.

In der Studie wurden die historischen Aufzeichnungen entsprechend der Mängel korrigiert und an die Ergebnisse der Klimamodelle angepasst. Danach wurden die gleichen Berechnungen durchgeführt, sowohl mit Modellergebnissen als auch mit den korrigierten Aufzeichnungen, um zum ersten Mal einen Vergleich von Erwärmungsraten nach der Methode ,Äpfel mit Äpfeln-Vergleich‘ zu erstellen. Nach dieser Modifikation stimmen Modelle und Beobachtungen bei der zu erwartenden kurzfristigen globalen Erwärmung weitgehend überein. Die Ergebnisse wurden dann in dem Journal Nature Climate Change veröffentlicht. Mark Richardson vom JPL der NASA in Pasadena, Kalifornien, ist der Leitautor.

Die Arktis erwärmt sich schneller als die übrigen Gebiete auf der Erde, aber es gibt von dort weniger historische Temperaturaufzeichnungen als aus niedrigeren Breiten, weil das Gebiet so schwer zugänglich ist. Ein Datensatz mit weniger Temperaturmessungen aus der Arktis zeigt natürlich eine geringere Erwärmung als ein Klimamodell, welches die Arktis in Gänze repräsentiert.

Weil es nicht möglich ist, weitere Temperaturmessungen aus der Vergangenheit hinzuzufügen, haben die Forscher stattdessen auf Klimamodelle zurück gegriffen, um die begrenzte Abdeckung mit historischen Daten aufzubessern.

In der neuen Studie geht es außerdem um noch zwei andere Themen. Erstens, die historische Mischung von Luft- und Wassertemperaturen, während sich die Modellergebnisse allein auf Lufttemperaturen beziehen. Dieser Mangel verzerrt auch die historischen Messungen in Richtung der kühlen Seite, weil sich Wasser weniger schnell erwärmt als Luft. Beim zweiten Thema geht es darum, dass es zu Beginn von Temperaturmessungen in der Arktis während der sechziger Jahre des 19. Jahrhunderts deutlich mehr Meereis gab als heute, und frühe Messungen zeichneten Lufttemperaturen über den vom Eis bedeckten Meeresgebieten benachbarten Landgebieten auf. Als das Eis schmolz, gingen spätere Beobachter stattdessen zu Wassertemperaturen über. Dies erniedrigte ebenfalls die Temperaturänderung.

Den Wissenschaftlern waren diese Mängel schon seit einiger Zeit bekannt, aber dies ist die erste Studie, um die Auswirkungen dieser Mängel zu berechnen. „Sie sind jeder für sich ziemlich gering, aber sie addieren sich in der Summe alle in die gleiche Richtung“, sagte Richardson. „Wir waren überrascht, dass sich in der Summe eine so große Auswirkung zeigte“.

Diese Mängel verschleierten rund 19% des Anstiegs der globalen Lufttemperaturen seit den sechziger Jahren des. 19. Jahrhunderts. Das reicht aus, dass Berechnungen auf der Grundlage historischer Aufzeichnungen allein niedrigere Werte ergaben als etwa 90% der Ergebnisse der Klimamodelle, die das IPCC verwendet für seine maßgeblichen Klima-Zustandsberichte. Bei diesem Äpfel-mit-Äpfeln-Vergleich lag die historische Temperatur-Berechnung nahe der Mitte der Bandbreite von Berechnungen der IPCC-Modellkette.

Jedwede Forschung, bei der modellierte und gemessene Langzeit-Temperaturaufzeichnungen miteinander verglichen werden, könnte unter den gleichen Problemen leiden. Richardson sagte: „Forscher sollten sich darüber im Klaren sein, wie sie Temperaturaufzeichnungen verwenden um sicherzustellen, dass Vergleiche in Ordnung sind. Es sieht so aus, als ob Daten aus der realen Welt zeigen würden, dass die globale Erwärmung ein wenig geringer ausfallen würde als die Modelle prophezeien. Bei einem ordentlichen Vergleich verschwindet dieser Umstand zum größten Teil“.

Die NASA zieht den Blickwinkel aus dem Weltraum heran, um unser Verständnis über unseren Heimatplaneten zu verbessern, ebenso wie unsere Lebensumstände, und um unsere Zukunft sicher zu machen. Die NASA entwickelt neue Wege, um die Wechselwirkungen zwischen den natürlichen Systemen der Erde und langzeitlichen Datenaufzeichnungen zu erfassen und zu untersuchen. Die Agentur stellt dieses einmalige Wissen frei zur Verfügung und arbeitet mit Institutionen auf der ganzen Welt zusammen, um neue Einsichten darüber zu gewinnen, wie sich unser Planet ändert.

Mehr Informationen über die erdwissenschaftlichen Aktivitäten der NASA stehen hier: http://www.nasa.gov/earth

Weiteres: http://www.jpl.nasa.gov/news/news.php?feature=6576

Das Abstract der Studie lautet wie folgt:

Abgleich von Schätzungen der Klima-Reaktionen durch Klimamodelle und der Energiehaushalt der Erde

Klimarisiken nehmen mit einer Erwärmung der mittleren globalen Temperatur zu, daher ist das Wissen um die Stärke der zukünftigen globalen Erwärmung dazu gedacht, Politikern bessere Risiko-Abschätzungen für ihre Entscheidungen zu liefern. Die erwartete kurzfristige Erwärmung ist eingebettet in der ,vorübergehenden Klima-Reaktion‘ (transient climate response TCR), vormals definiert als die Erwärmung, die 70 Jahren einer Zunahme um jeweils 1% pro Jahr an CO2-Konzentrationen folgt, bis zu dem Punkt also, an dem sich der atmosphärische CO2-Gehalt verdoppelt hat. Studien auf der Grundlage des historischen Energiehaushaltes der Erde haben typischerweise geringere Werte der TCR ergeben als die Klimamodelle, was vermuten ließ, dass einige Modelle die zukünftige Erwärmung überschätzen könnten. Allerdings beruhen die Schätzungen des Energiehaushaltes auf historischen Temperaturaufzeichnungen, die geographisch unvollständig sind und Temperaturen auf dem Festland und Meereis mit der Wassertemperatur über offenen Ozeanen vermischen. Wir zeigen, dass es keine Beweise dafür gibt, dass Klimamodelle die TCR überschätzen, wenn deren Output in der gleichen Weise berechnet wird wie die auf Messungen beruhende HadCRUT4-Temperaturaufzeichnung. Die Modelle zeigen, dass die Erwärmung der Lufttemperatur um 24% größer ist, als es aus den gemessenen HadCRUT-Reihen im Zeitraum 1861 bis 2009 hervorgeht, weil Gebiete mit geringerer Erwärmung bevorzugt betrachtet wurden und sich Wasser weniger erwärmt als Luft. Mit der Korrektur dieser Verzerrungen und der Berücksichtigung größerer Unsicherheiten beim Strahlungsantrieb aufgrund jüngster Beweise kommen wir auf eine auf Beobachtungen gestützte Best Estimate der TCR von 1,66°C mit einer 5% bis 95%-Bandbreite von 1,0°C bis 3,3°C. Dies ist konsistent mit den Ergebnissen der Klimamodelle im 5. Zustandsbericht des IPCC.

Mehr: http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3066.html (paywalled)

Offen gesagt, ich habe keine Ahnung, warum das NASA-Team damit fortfährt, ihre immer lächerlicher werdenden Adjustierungen der Messungen aus der realen Welt zu rechtfertigen – sie scheinen sämtliche Informationen, die zu brauchen sie glauben, aus ihren Computermodellen zu nehmen.

Link: https://wattsupwiththat.com/2016/07/24/nasa-global-warming-observations-need-a-further-19-upward-adjustment/

Übersetzt von Chris Frey EIKE




UN beschuldigt Deutschland, Großbritannien des „Verrats“ am Pariser Klimaabkommen

Ban Ki-moon’s Klimawandel Gesandte isoliert beide Länder wegen der Subventionierung der fossilen Brennstoffindustrie und sagt, das Vereinigte Königreich hat seine Position als Klima Führer verloren.

Mary Robinson, die ehemalige Staatspräsidentin Irlands und UN-Sonderbeauftragte für Klimawandel und El Niño, sagte sie muss es aussprechen, nachdem Deutschland Kompensation für Kohlekraft versprach und das Vereinigte Königreich Steuererleichterungen für Öl und Gas vorsieht.

 

Mary Robinson.

Die Regierungen in Paris sagten im vergangenen Jahr zu, nicht nur fossile Brennstoffe langfristig auslaufen zu lassen, sondern Finanzflüsse im Einklang mit der Reduktion der Treibhausgas-Emissionen zu lenken.

"Sie [die britische Regierung] haben neue Steuererleichterungen für Öl und Gas im Jahr 2015 beschlossen, die die britischen Steuerzahler zwischen 2015 und 2020 Milliarden kosten und zur gleichen Zeit beschneiden sie die Unterstützung für erneuerbare Energien und für Energieeffizienz", sagte sie dem [linksgerichteten] Guardian.

"Es ist bedauerlich. Das ist nicht im Sinne [von Paris]. In vielerlei Hinsicht war das Vereinigte Königreich ein wirklicher Führer [über den Klimawandel] und hoffentlich wird das Vereinigte Königreich wieder ein wirklicher Führer werden. Aber das ist es im Moment nicht. "

Lesen Sie mehr: https://www.theguardian.com/environment/2016/jul/18/un-criticises-uk-and-german-for-betraying-the-spirit-of-the-paris-climate-deal

Da Ban Ki-moon‘s Amtszeit als UN-Generalsekretär zu Ende geht, wird er ohne Zweifel über sein Vermächtnis nachdenken und wie die Historie sich an ihn erinnern wird. Bei gegebener Beschleunigung des Zusammenbruchs der politischen Klimabegeisterung in der ganzen Welt, lautet meine Vorhersage, dass Ban Ki-moon als Generalsekretär der Vereinten Nationen in Erinnerung bleiben wird, der dem Untergang der grünen Bewegung vorstand.

Erschienen auf WUWT am 18.07.2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/07/18/un-accuses-germany-britain-of-betraying-the-paris-climate-accord/

 ****

Die Entscheidungen in Deutschland und in Britannien haben in den Pro-Erneuerbaren Medien für Wirbel gesorgt.

Hier die auf WUWT angegebenen Pressestimmen:

Deutschland; Bericht in Energydigital

Deutschland will den Ausbau der Erneuerbaren dämpfen

Angela Merkel hat nach umfangreichen Gesprächen mit den Landesministern die Einführung [weiterer] erneuerbarer Energien abgebremst.

Die rasche Expansion der grünen Energie im Rahmen des Energiewende-Programms hat die Stromkosten hochgetrieben und eine hohe Belastung für das Versorgungsnetz in der größten Volkswirtschaft Europas aufgebaut. Im vergangenen Jahr lieferten erneuerbare Energien ein Drittel der gesamten Strommenge in Deutschland [– geglättet, aufs Jahr gerechnet-], bei 3.5GW neuer Onshore-Windkapazität.

Neue Beschränkungen werden [den weiteren Aufbau von] Onshore-Windkraft auf 2.8GW pro Jahr begrenzen. Auch der Photovoltaik wird eine Ausbaugrenze von 600 MW [Auch nur pro Jahr! ; der Übersetzer] auferlegt.

Deutschland Wirtschaftsministerium unterstützt die Energiekürzungen [eher die Verlangsamung des weiteren Ausbaus; der Übersetzer] und erklärt, dass der Ausbaus sauberer Energie verlangsamt werden muss, um Verbesserungen im nationale Stromnetz nachzukommen.

Einige Kritiker befürchten, dass die Kürzungen zu Arbeitsplatzverlusten im grünen Energiesektor führen und Deutschlands Fähigkeit hemmen, seine langfristigen Energieziele zu erreichen.

Bis zum Jahr 2025 will Deutschland 40 Prozent seiner Energie aus erneuerbaren Quellen gewinnen. Die vorgeschlagenen Kürzungen in der grünen Energieversorgung werden nun durch das Kabinett überprüft und werden voraussichtlich im nächsten Jahr Gesetz werden.

WUWT berichtet ebenfalls gesondert über Britannien

https://wattsupwiththat.com/2016/07/14/britain-abolishes-the-department-of-energy-and-climate-change/

 und zitiert: The Independent berichtet im Mainstream:

Die Entscheidung, die Abteilung für Energie und Klimawandel abzuschaffen wurde als "einfach nur dumm", "zutiefst beunruhigend" und "schrecklich" von Politikern, Aktivisten und Experten unterschiedlich verurteilt.

Einer von Theresa Mays ersten Handlungen als Premierministerin im Mai, war die Verantwortung für den Klimawandel in das neue Ministerium für Wirtschaft, Energie und Industrie-Strategie zu verlegen.

[Gleich] Montags warnten Regierungsberater vor der Notwendigkeit, dringend Maßnahmen zu ergreifen, um Großbritannien auf Überschwemmungen, Dürren, Hitzewellen und Nahrungsmittelknappheit durch den Klimawandel vorzubereiten.

Die Nachricht kam nach der Ernennung von Andrea Leadsom – deren erste Frage an die Funktionäre wieder zum Vorschein kam, als sie im vergangenen Jahr Energieministerin wurde: "Ist der Klimawandel real? – Sie wurde als neue  Umweltministerin ernannt.

Und nachdem der ehemalige Sekretär für Energie und Klimawandel Bernstein Rudd im November angekündigte, dass Großbritannien bis zum Jahr 2025 auf "Kohle verlassen wird", fragte Frau Leadsom später die Kohleindustrie, „mitzuhelfen, zu definieren, was das eigentlich bedeutet“.

Ausgewählt und übersetzt durch Andreas Demmig




Warum die Lämmer schweigen – sie sind einfach noch viel zu satt

Aber sind wir tatsächlich wegen einer menschengemachten Klimakatastrophe gezwungen, unsere westlichen Volkswirtschaften und damit unseren Lebensstandard durch eine Aufgabe unserer gegenwärtigen technologischen Basis zu zerstören? Der Mainstream der Klimawissenschaft verdächtigt Kohlenstoffdioxid (CO2) aus dem industriellen Verbrauch von fossilen Energieträgern, den natürlichen Treibhauseffekt soweit zu verstärken, dass die Erde schließlich unbewohnbar wird. Legionen von Klimaalarmisten, weltweit bezahlt mit Milliarden von Euros aus staatlichen Forschungsmitteln, von privaten Stiftungen und ökologischen NGOs, stützen die Wahrnehmung einer angeblichen Klimakatastrophe in der Bevölkerung und behaupten, ihre AGW-Theorie sei gesicherte Wissenschaft. In einer abartigen Verzerrung wissenschaftlicher Ideale fordern sie ein Ende der Klimadebatte und werden dabei von einer ideologisierten Mehrheit der Massenmedien unterstützt.

Unprofitable Wissenschaftszweige drängen sich an die Tröge des Klimawahns, Psychologen und Historiker publizieren eine wachsende Zahl von Veröffentlichungen, in denen der häretische Einfluss von unabhängigen Klimawissenschaftlern, sogenannten „Klimaleugnern“, auf die öffentliche Wahrnehmung einer Klimakatastrophe gegeißelt wird. Gegenwärtig wird von einigen Politikern sogar gefordert, die wissenschaftlichen Standpunkte solcher „Klimaleugner“ unter Strafandrohung zu stellen, um diese in der öffentlichen Diskussion mundtot zu machen.

Solche unabhängigen Klimawissenschaftler, mit abweichenden wissenschaftlichen Ergebnissen zum angeblich menschengemachten Klimawandel, arbeiten meist mit spärlichen Forschungsmitteln oder sogar ehrenamtlich. Aber anstelle einer offenen und fairen wissenschaftlichen Diskussion über ihre Erkenntnisse  werden sie üblicherweise persönlich diskeditiert, und der Klimamainstream versucht, sie aus der wissenschaftlichen Gemeinschaft herauszumobben.
Es sieht so aus, als wären der klimawissenschaftliche Mainstream und seine politischen Unterstützer vom Virus einer Gutmenschen-Korruption befallen, die von einem ökologischen kohlenstoff-freien Paradies auf Erden träumt.

Im Angesicht der geplanten Dekarbonisierung unserer Welt sollten wir nicht vergessen, dass sich im Laufe der kulturellen Evolution des Menschen die verfügbare pro-Kopf Energiemenge mehrfach drastisch erhöht hatte und unseren heutigen Lebensstandard erst ermöglicht:

  • Steinzeit (= kleine dörfliche Gemeinschaften):
    Die verfügbare pro-Kopf Energiemenge betrug etwa das 3 bis 6-fache des Grundbedarfs.
  • Zeitalter des Ackerbaus (=fortgeschrittene regionale Kulturen):
    Die verfügbare pro-Kopf Energiemenge betrug etwa das 18 bis 24-fache des Grundbedarfs.
  • Industriezeitalter (=globalisierte Welt):
    Die verfügbare pro-Kopf Energiemenge beträgt etwa das 70 bis 80-fache des Grundbedarfs.

Der industrielle Gebrauch von fossilen Energieträgern seit Beginn der Industrialisierung hat das Gesundheitswesen, die individuelle Lebenserwartung, unseren Lebensstandard, die Verfügbarkeit und die Qualität von Lebensmitteln, das Transportwesen, die Kommunikation und den allgemeinen technologischen Standard für jedermann nachhaltig verbessert.
Im Umkehrschluss heißt dass, unser gegenwärtiger Lebensstandard beruht zwingend auf der Nutzung fossiler Energieträger.

Das Prinzip der menschengemachten Klimakatastrophe kann jeder Laie ganz einfach verstehen: Je höher der atmosphärische CO2-Anteil steigt, umso höher wird die globale Durchschnittstemperatur. Folglich glaubt eine überwältigende Mehrheit der Bevölkerung in den Industrienationen, der Verbrauch fossiler Energieträger würde durch den verursachten CO2-Ausstoß zu einer Klimakatastrophe führen. Aber ist diese direkte Abhängigkeit zwischen Temperatur und atmosphärischem CO2-Gehalt wissenschaftlich wirklich bewiesen?

Die AGW-Theorie steht in fundamentalem Widerspruch zu diversen wissenschaftlichen und wirtschaftlichen Fakten:

(1) Die gegenwärtigen Klimamodelle können die tatsächliche Klimahistorie gar nicht abbilden: Aktuelle Klimamodelle sind nicht einmal in der Lage, den historisch gemessenen Temperaturverlauf bis zum Jahr 1850 korrekt zurückzurechnen. Diese Schwäche der Klimamodelle beweist, dass weder alle klimarelevanten Parameter, noch ihr tatsächlicher Klimaeinfluss und schon gar nicht die Interaktion dieser Parameter miteinander korrekt in die aktuellen Klimamodelle eingeflossen sind. Mit solchen Klimamodellen wird dann aber das zukünftige Klima bis weit in die Zukunft hinein hochgerechnet und die Politik beruft sich bei der vorgesehenen globalen Dekarbonisierung auf solche Modellergebnisse.

(2) Die Klimawissenschaften sind bis heute nicht in der Lage, den natürlichen und den angeblich menschengemachten Klimaantrieb zu trennen. Bis heute wurde eine solche quantitative Trennung beider Effekte nirgendwo veröffentlicht. Die meteorologischen Temperaturmessungen begannen um 1850, am Ende der „Kleinen Eiszeit“ und zu Beginn der Industrialisierung. Der Temperaturanstieg von der „Kleinen Eiszeit“ muss eine natürliche Ursache gehabt haben, denn diese „Kleine Eiszeit“ endete ohne jeden menschlichen Einfluss. Aber im Gegenteil, die Klimawissenschaft rechnet diesen Anstieg der menschengemachten Klimaerwärmung zu, obwohl der Temperaturanstieg viel schneller verlaufen ist, als die Entwicklung der Industrialisierung.

(3) Klimamodelle ignorieren den Einfluss von natürlichen solaren Zyklen auf das Klima. Die bekannten Zyklen (Schwabe, Hale, Yoshimura, Gleißberg, Seuss-de-Vries, Dansgaard-Oeschger, and Hallstatt)mit Perioden von 11 bis mehr als 2.000 Jahre sind in den computerbasierten Klimamodellen nicht enthalten. Die Klimawissenschaft argumentiert mit der geringen Veränderung der Solarkonstanten über solche Zyklen. Aber diese Zyklen waren vor der Industrialisierung die einzige Ursache für natürliche Klimaschwankungen in unserer aktuellen Warmzeit. Die Klimawissenschaft ignoriert die Ergebnisse von Svensmark, dass nämlich die Kerne zur Wolkenbildung aus der kosmischen Strahlung geliefert werden, die wiederum vom Magnetfeld der Sonne gesteuert wird. Dieser Effekt stellt eine natürliche Verstärkung der Strahlungsschwankungen unserer Sonne dar. Bei einer schwachen Sonne kann vermehrt kosmische Strahlung in die Erdatmosphäre eindringen und führt über eine verstärkte Wolkenbildung zu einer weiteren Abkühlung. Das CLOUD-Experiment am Züricher CERN Institut hat das herkömmliche Aerosolmodell für die Wolkenbildung in Klimamodellen um einen Faktor von einem Zehntel  bis einem Tausendstel reduziert und gleichzeitig die Wirksamkeit des Svensmark-Effekts bis zum Zehnfachen bestätigt.

(4) Die historisch gut dokumentierte Mittelalterliche Warmzeit (MWP), die der “Kleinen Eiszeit” vorausgegangen war, wurde im dritten Bericht des  IPCC (TAR 2001) von der Mann’schen „Hockeystick-Kurve“ unterdrückt, offenbar, um zur Stützung der AGW-Theorie ein konstantes vorindustrielles Klima auf dem Niveau der „Kleinen Eiszeit“ nachzuweisen. Diese „Hockeystickkurve“ wurde inzwischen zwar wissenschaftlich widerlegt, dient aber Klimaalarmisten immer noch als Argument für den menschengemachten Klimawandel, während die Mittelalterliche Wärme Periode von der Klimawissenschaft auf ein europäisches Phänomen herabgestuft worden ist.
Aber das Gegenteil ist der Fall: Die Auswertung von hunderten von wissenschaftlichen Veröffentlichungen weltweit  durch Lüning und Vahrenholt beweist, dass die mittelalterliche Wärmeperiode ein globales Ereignis war, das durch die Variabilität der Sonneneinstrahlung verursacht worden ist. Dadurch wird aber die Theorie vom menschengemachten Klimawandel existenziell in Frage gestellt. Online Atlas von Lüning/Vahrenholt.

(5) Die Klimawissenschaft verleugnet in ihren Klimamodellen die natürlichen Bahnschwankungen unserer Erde um die Sonne(Milanković-Zyklen), um ihren eingängigen linearen Zusammenhang zwischen Globaltemperatur und CO2-Gehalt der Atmosphäre aufrecht zu erhalten. Inzwischen reduziert die Klimawissenschaft die historische Klimaentwicklung sogar auf die zweite Hälfte des vergangenen Jahrhunderts, nur um CO2 als den angeblichen Hauptklimaantrieb zu stützen. Bereits im Jahre 1924 hatten Wladimir Köppen und Alfred Wegener, der Vater der modernen Plattentektonik, die orbitalen Milanković-Zyklen als Ursache der paläoklimatischen Schwankungen der vergangenen Eiszeitalter identifiziert und nachgewiesen.
Reprint des Buches “Die Klimate der geologischen Vorzeit” (Bornträger 1924) mit englischer Übersetzung.

(6) Eine wachsende Versauerung der Ozeane durch den vom Menschen verursachten CO2-Aussoß soll in Zukunft zu einer Einschränkung des marinen Artenreichtums führen. Erstens kann eine bestimmte Menge an CO2 entweder als klimaaktives Gas in der Atmosphäre wirken oder, gelöst in Meerwasser, zu einer Versauerung der Ozeane führen, aber nicht beides zur gleichen Zeit. Üblicherweise werden aber beide Effekte für sich mit dem gesamten anthropogenen CO2-Aussoß berechnet.
Zweitens sinkt die Lösungsfähigkeit von CO2 mit steigender Wassertemperatur. Je wärmer also das Meerwasser wird, umso weniger CO2 kann es aufnehmen und versauern. Der verzögerte Anstieg von atmosphärischem CO2 nach paleoklimatischen Temperaturanstiegen beweist diesen Zusammenhang und wird von Eiskernanalysen bestätigt.

(7) Ein globaler Meeresspiegelanstieg durch eine vom Menschen verursachte  Klimaerwärmung soll zu einem Verschwinden der pazifischen Inseln führen und Tieflandgebiete und Hafenstädte in aller Welt überfluten. Ein dramatischer Meeresspiegelanstieg von mehr als einhundert Metern ist ein natürliches Phänomen zu Beginn aller Warmzeiten. Die Existenz mariner Eismassen wird offenbar allein durch die Meerwassertemperatur bestimmt, während landgebundene Eismassen auf eine Veränderung der vertikalen geographischen Klimazonen reagieren. Die Durchschnittstemperaturen in zwischeneiszeitlichen Warmperioden schwanken üblicherweise um einige Grade und terrestrische Gletscher reagieren darauf mit natürlichen Vorstößen und Rückzügen. Aus den Alpen ist bekannt, dass Gletscher beim gegenwärtigen Abschmelzen Bäume aus der Mittelalterlichen Warmzeit freigeben, die damals dort natürlich gewachsen waren.
Was wir heute auf Grönland und der antarktischen Halbinsel beobachten, ist ein Gletscherrückzug in größere Höhenlagen, während die Eismassen auf dem antarktischen Kontinent weiter anwachsen. Satellitenmessungen der Meeresspiegelschwankungen im offenen Ozean sind sehr viel anfälliger für Fehler bei der Gezeitenkorrektur, Meeresströmungen, zusätzlichen  windgetriebenen Wassermassen und Meereswellen als feste Pegel an den Küsten. Diese konventionellen Pegelmessungen zeigen aber seit vorindustriellen Zeiten einen konstanten Meeresspiegelanstieg von einigen Millimetern pro Jahr. Ohne zielgerichtete Adjustierung historischer Messwerte wird sich dieser Trend sicherlich auch in Zukunft weiterhin so fortsetzen.

(8) Der „Stillstand“ des globalen Temperaturanstiegs, der inzwischen etwa 20 Jahre andauert, hat bereits mehrfach zu Korrekturen an den historischen Temperaturmessungen geführt. Verbesserte Klimamodelle verlagern diese „fehlende Wärme“ jetzt in die Tiefen der Ozeane. Offensichtlich hatten die Klimamodelle diesen Stillstand des globalen Temperaturanstiegs nicht abgebildet. Aber anstatt nun die Eingangsbedingungen der zugrundeliegenden Gleichungssysteme zu korrigieren, um die Modelle mit den aktuellen Messwerten in Übereinstimmung zu bringen, werden die Ergebnisse aktueller Klimamodelle dahingehend angepasst, dass sie zu den Vorhersagen veralteter Modellrechnungen passen.
Es bleibt die Frage offen, wie die „fehlende Wärme“ in tiefere Lagen der Ozeane entweichen konnte, ohne von dem weltumspannenden Messbojennetz ARGO bemerkt worden zu sein.

(9) Die Klimawissenschaften reduzieren die Auswirkungen einer globalen Klimaerwärmung auf dessen negative Folgen und veröffentlichen Horrorszenarien über einen Temperaturanstieg von 3 Grad bis zum Jahre 2100, während in jedem Winter tausende Menschen erfrieren. Für das Jahr 2014 wurde allein in Europa von etwa 40.000 Kältetoten berichtet, einfach weil diese Menschen ihre Stromrechnungen nicht mehr bezahlen konnten.

(10) Die Klimawissenschaft nimmt für sich in Anspruch, sie würde das Vorsorgeprinzip für die gesamte Menschheit verfolgen, indem sie den angeblich menschengemachten Klimawandel bekämpft. Die letzte große Klimaprophezeiung wurde von den wohlversorgten Propheten der Apokalypse rechtzeitig zum Pariser COP21-Klimagipfel veröffentlicht:
Der menschliche CO2-Ausstoß wird die nächste Eiszeit verhindern – in 50.000 Jahren! Ist es wirklich das Vorsorgeprinzip, eine gefährdete Eiszeit in 50.000 Jahren vor dem Menschen zu retten? Nein, das ist wahrhaftige Science-Fiction, wenn die Klimawissenschaft gesichertes paläoklimatisches Wissen über hunderttausende von Jahren ignoriert und auf der Datenbasis eines halben Jahrhunderts Spekulationen über eine in 50.000 Jahren ausfallende Eiszeit verbreitet. Mit dem Vorhaben, die Welt von ihren natürlichen Klimaschwankungen zu befreien, zerstören wir unsere Wirtschaft und die Zukunft unserer Kinder und Enkel. Und was ist mit den tatsächlichen Gefahren, die in Zukunft die Existenz der Menschheit bedrohen könnten, was ist mit Supervulkan-Eruptionen, Asteroideneinschlägen und der Abschwächung des Erdmagnetfeldes, was ist das Vorsorgeprinzip gegen diese sehr realen Bedrohungen?

(11) Erneuerbare Energien aus Sonnenstrahlung und Wind sollen die konventionelle Energieerzeugung ersetzen, um eine Klimaerwärmung durch CO2 zu vermeiden. Bisher kann solche erneuerbare Energie aber nur mit hohen Subventionen erzeugt werden, die direkt vom Verbraucher eingezogen werden, der wiederum einen Lebensunterhalt in einer mit konventioneller Energie betriebenen Industriegesellschaft verdient. Um unseren Lebensstandard zu erhalten, muss also nach einer globalen Dekarbonisierung der globale Energieverbrauch vollständig durch erneuerbare Energien gedeckt werden. Es werden in den Medien Zahlen verbreitet, die besagen, eine solche Dekarbonisierung sei bezahlbar und bis zum Jahre 2100 umsetzbar.
Aber diese publizierten Zahlen schließen nicht einmal die Kosten für die lebensnotwendigen Energiespeicher und die neuen Verteilungsnetzwerke ein, um bei nächtlicher Windstille die Versorgungssicherheit zu garantieren; und ebenfalls fehlen dort die steigenden Herstellungskosten für nahezu alle Produkte des täglichen Lebens. Durch diese steigenden Kosten, bei möglicherweise sinkenden Stückzahlen, werden durch fallende Löhne oder gar insgesamt weniger Beschäftigte die globalen Bruttoinlandsprodukte sinken. Die Frage ist, wer dann die steigenden Subventionen für erneuerbare Energien bezahlen soll.

(12) Der Landschaftsverbrauch in naturnahen Gebieten durch die Erzeugung von Solar- und Windenergie ist etwa 1.000- bis 10.000-mal höher als der Flächenverbrauch für konventionelle Kraftwerke. Es fragt sich, was die Dekarbonisierung der Welt aus unseren naturnahen Landschaften und den natürlichen Ressourcen unserer Erde machen wird.

(13) Gleichzeitig wird Druck auf die industrielle Landwirtschaft ausgeübt, sich auf eine ökologische Produktion ohne Kunstdünger und chemischen Pflanzenschutz umzustellen. Die landwirtschaftliche Erzeugung von Nahrungsmitteln steht bereits in Konkurrenz mit der Landnutzung für erneuerbare Energien. Durch die Einführung von Öko-Kraftstoffen, Stichwort E10, hat sich die weltweite Anbaufläche für Nahrungsmittel bereits verringert und Millionen Menschen zusätzlich leiden unter Unterernährung und Hunger. Die beabsichtigte globale ökologische Nahrungsmittelproduktion geht mit einem geringeren spezifischen Flächenertrag einher und dürfte daher den Ansprüchen einer wachsenden Weltbevölkerung in keiner Weise genügen.

Diese Zusammenstellung legt nahe, dass die Theorie vom menschengemachten Klimawandel auf falschen wissenschaftlichen Annahmen und wirtschaftlichen Spekulationen aufbaut.

Trotzdem verbreiten die Propheten des Weltuntergangs mit sehr unterschiedlichen persönlichen Motiven weiterhin ihre Weltuntergangs-Spekulationen und befeuern damit eine Massenhysterie gegen unser gegenwärtiges Wirtschaftssystem, das allein auf der Nutzung fossiler Energien basiert. Der religiöse Glaube an eine vom Menschen verursachte Klimaerwärmung ist ihre Waffe, um unsere gegenwärtige technische Zivilisation zu zerstören und die Menschheit in eine schöne neue kohlenstoff-freie Welt zu führen. Wir leben heute in einer neuen kulturellen Epoche, dem Anthropozän, in dem sich die fundamentalen Unterschiede zwischen wissenschaftlichen Fakten, persönlichen Meinungen und religiösen Gewissheiten zunehmend verwischen, während übersättigte Menschen ernsthaft glauben, sie könnten ihre Kuh schlachten und weiterhin deren Milch trinken. 

Das wirkliche Problem der Menschheit bleibt eine ständig wachsende Weltbevölkerung und deren ausreichende Versorgung mit Nahrungsmitteln und Energie sowie der Erhalt natürlicher Lebensräume, die das Erbe der gesamten Menschheit darstellen.

Die Armut in der Dritten Welt ist aber eine direkte Folge von Energiemangel und fehlender demokratischer Beteiligung. Der einzige Weg, der aus diesem Dilemma herausführt, ist eine Demokratisierung und wirtschaftliche Entwicklung dieser Gesellschaften. Eine solche Entwicklung würde ein weiteres Wachstum der Weltbevölkerung eindämmen, wie es der demographische Wandel in den Industrienationen im vergangenen Jahrhundert bewiesen hat. Während einer solchen Entwicklung kann der Verbrauch fossiler Energien in den Industrieländern unter Beibehaltung des gegenwärtigen Lebensstandards minimiert und der Schutz der weltweiten natürlichen Ressourcen sukzessive ausgeweitet werden.

Aber mit dem religiösen Glauben an eine menschengemachte Klimakatastrophe haben sich nun die gewählten und nicht gewählten politischen Führer dieser Welt, unterstützt von wissenschaftlichen Wahrsagern, indoktrinierten Massenmedien, religiösen Führern, mißgeleiteten ökologischen NGOs und malthusianischen Stiftungen entschieden, die Menschheit genau in die entgegengesetzte Richtung zu führen.

Ihr Fahrplan für die herbeigesehnte Dekarbonisierung der Welt bis zum Jahre 2100 wird eher über den Niedergang demokratischer Rechte in den Industrienationen zu einer nachhaltigen globalen Energieverknappung führen, die uns malthusianische Perspektiven für eine Globale Dritte Welt von ökologischen Biokleinbauern eröffnen mag. Oder um es weniger verklausuliert zu formulieren, in einer dekarbonisierten Welt werden die Menschen, unabhängig wie groß deren Zahl am Ende noch sein mag, zwölf Stunden am Tag in der Landwirtschaft arbeiten, um ein Viertel der gegenwärtig verfügbaren pro-Kopf Energiemenge zu erzeugen – gerade so viel wie einstmals in vorgeblich glücklicheren ökologisch-vorindustriellen Zeiten.

Und nun, während in Vorbereitung einer globalen Dekarbonisierung die Klimaideologen bereits weltweit ihre Messer wetzen, um die Menschheit aus diesem fossil befeuerten Paradies zu vertreiben, schauen die übersättigten Lämmer in den westlichen Industrienationen diesem Unterfangen gelassen wiederkäuend zu, als ginge sie das Ganze überhaupt nichts an…

Uli Weber ist Autor des Buches Klimahysterie ist keine Lösung.

Übernommen vom Die kalte Sonne Blog




Wann wird Afrika aufblühen und wohlhabend sein?


Afrika kämpft immer noch mit „Übergangsproblemen“, von Sklaverei und Kolonialismus hin zu Neokolonialismus und Öko-Imperialismus. Die Kriege dort und das Leiden werden niemals enden, solange es dort habgierige Führer gibt, die sich nur um ihre Familien, ihre Kumpel und Stammesmitglieder kümmern.

Der Kontinent verfügt über genügend natürliche Ressourcen, um Frieden, Gesundheit und Wohlstand für nahezu jeden zu bringen. Und doch fehlen 90% aller Afrikaner immer noch der Zugang zu Strom und grundlegenden Bedarfsartikeln, während korrupte Führer, welche helfen könnten, die Nationen zu transformieren, Milliarden unterschlagen und Eltern nebst Kindern hungernd und arm hinterlassen.

Von Ruanda und Liberia bis hin nach Sudan und Uganda erleben wir jeden Tag die schrecklichen Folgen von Krieg – verkrüppelte Menschen, verwitwete Frauen, verwaiste Kinder sowie gebrechliche alte Menschen, ohne Hände und Füße, mit Narben am ganzen Körper. Sie fristen ihr Dasein als Lumpensammler, brechen vor Hunger und Krankheit zusammen, während die Politiker immer reicher werden.

Derweil diktieren Umweltaktivisten, Westmächte und UN-Agenturen, welche Dinge wichtig sind – und benutzen diese, um uns arm und mittellos zu halten: Vom Menschen verursachter Klimawandel, kein Genfood, kein DDT zur Bekämpfung von Malaria, die Nutzung von Wind- und Solarenergie und niemals den Bau von Kohle-, Erdgas- oder Kernkraftwerken. Dies sind kriminelle Machenschaften, um uns unsere grundlegenden Rechte bzgl. bezahlbarer Energie, Arbeitsplätze und modernem Lebensstandard vorzuenthalten.

Anfang dieses Jahres sah ich in Südsudan tausende hungernde Menschen, die unter Kriegsverletzungen litten sowie unter Malaria, Meningitis, Hepatitis, Vitaminmangel und anderen Krankheiten. Hier in Uganda sehe ich Hunderte, die versuchen, diese Krankheiten, Herzattacken, Diabetes, Nierenversagen und Krebs zu überleben und sich davon zu erholen, obwohl sie kaum oder gar keine Medikamente bekommen und in Krankenhäusern, die schon zerfallen und nicht einmal Fenster oder eine sichere Versorgung mit frischem Wasser aufweisen, eine miserable Behandlung erfahren.

Im Januar 2015 besuchte ich das Mulago Hospital in Kampala. Dort war mein Freund und Mentor Cyril Boynes (Foto) in Behandlung wegen Nierenversagens nach einer Herzattacke. Die Ärzte und Krankenschwestern versuchten, ihn zu retten, aber ihnen standen nur eine alte, defekte Ausrüstung zur Verfügung, und ewig kam es zu Stromausfällen. Oftmals gingen dabei die Lichter aus, die medizinischen Geräte stellten ihren Dienst ein, und die Menschen starben, bevor der Strom wieder da war.

Für all jene, die nicht nach Europa zur Behandlung fliegen können, unterscheidet der Tod nicht zwischen arm und reich, zwischen Ugandern und Ausländern. Jedermann ist von den gleichen furchtbaren Mängeln und dem Fehlen von Medikamenten betroffen. In einer Welt mit so viel Geld, Technologie und Wissen gibt es keinen Grund, dass sich dieses immer weiter fortsetzt, Jahr für Jahr.

Bevor im Jahre 2013 der Krieg in Südsudan ausgebrochen war, gab es dort eine gewisse Stabilität und viele Nicht-Regierungs-Organisationen, Unternehmen wie Ford Motor Company, private Investoren und andere Geschäftsleute. Viele dachten, gute Profite zu erzielen, und einige waren erfolgreich.

Einige Menschen in Ostafrika, in Uganda, Kenia, Tansania, Ruanda, Burundi, Somalia, Kongo und anderen Ländern um Südsudan bekamen neue Gelegenheiten und Erfahrungen. Sie konnten ihre Familien ernähren, ihre Kinder zur Schule schicken, Arztrechnungen bezahlen und andere Ausgaben stemmen.

Aber heute herrscht dort Krieg und ökonomische Rezession; die Ölpreise sind kollabiert, und Ford und andere Unternehmen haben ihre Tätigkeit längst eingestellt und sind gegangen. Jetzt haben wieder etwa 80% der Menschen keine Arbeit. Ihre Familien sind wieder verarmt und hungern.

In Südsudan praktizieren die meisten Menschen immer noch eine primitive Landwirtschaft für den Lebensunterhalt. Einem Bericht des UN-Entwicklungsprogramms zufolge sind 90% der Landfläche Südsudans für Ackerbau geeignet, aber nur weniger als 5% werden auch bearbeitet. Ursache hierfür war, dass Öl die primäre Einkommensquelle des Landes war, aber auch der Kollaps der Wirtschaft, und nur wenige Landwirte verfügen über moderne Geräte, Dünger oder Saatgut, um Überschüsse zu erzielen.

Falls die Südsudanesen überhaupt elektrischen Storm haben, stammt dieser aus kleinen Dieselgeneratoren für Wohnungen, Geschäfte und Krankenhäuser. Das ist völlig unzureichend, nur zeitweise verfügbar, und es gibt fast keinen Strom außerhalb der Hauptstadt Juba und anderer größerer Städte. Auch haben nur sehr wenige Menschen Treibstoff für Motoren, für Autos oder landwirtschaftliche Fahrzeuge, und das Land ist zu groß, um von Hand oder durch Huftiere bearbeitet zu werden.

Wenn wir aufgefordert werden, „nachhaltig“ zu leben, und ausschließlich Wind- und Solarenergie sowie Biotreibstoffe, aber niemals fossile Treibstoffe zu verwenden, ist dies die Forderung, dass wir weiterhin Hunger und Tod in unseren armen Ländern akzeptieren sollen. Sie befeuern damit verzweifelte Menschen, furchtbare Dinge zu tun, um zu überleben, jeden Tag aufs neue.

Im Jahre 2006 traf ich im Mulago Hospital eine Frau, deren Sohn wegen Malaria im Sterben lag. Der Congress of Racial Equality [etwa: Kongress zur Rassengleichheit], dem ich angehörte, fragte sie, ob sie wüsste , dass DDT ein gutes Hilfsmittel zum Kampf gegen Malaria war, würde dieses Mittel doch Krankheitserreger tragende Mücken davon abhalten, in die Häuser zu fliegen. Sie erwiderte ja, aber „DDT ist schlecht für die Umwelt“. Also lehnte sie den Gebrauch ab.

Es ist verrückt, wie Lügen über diese Chemikalie Mütter dazu bringt, willentlich ihre Kinder sterben zu lassen, anstatt die Wohnungen zu besprühen. Malaria hat Millionen Menschen in Uganda getötet und ist nach wie vor die Haupttodesursache in Afrika. Über 1000 Babys und Mütter sterben jeden Tag an dieser Krankheit. Wir schützen die Umwelt vor imaginären Problemen und sterben an Krankheiten aus dieser Umwelt.

Welchen Nutzen hat es, eine Umwelt ohne Menschen zu haben, ohne mich und Sie?

Im Jahre 2010 wurden in Südafrika 32 Kohlebergleute erschossen. Sie hatten für mehr Lohn demonstriert, was jedoch die Minenbetreiber und die Regierung von Südafrika mit der Begründung ablehnten, dass sie es sich nicht leisten konnten – wegen der schlimmen Weltwirtschaftslage und niedrigen Kohlepreisen. Inzwischen hungern die Familien der Bergleute.

Unsere Regierung plant den Bau einer Pipeline vom westlichen Uganda nach Tansania. Das Projekt könnte über 15.000 Menschen in Lohn und Brot bringen. Zusammen mit anderen Ölgeschäften wäre sie ein Schub für unsere Wirtschaft und würde uns mehr unabdingbar notwendige Energie bringen. Aber einige Agenturen und Organisationen sind dagegen, weil dies „zur globalen Erwärmung“ beitragen würde, und sie würden lieber sehen, wenn wir arme Bettler beim Westen bleiben würden.

Genau wie diese „Umwelt“-Aktivisten, scheren sich afrikanische Führer nicht um das Wohlergehen ihrer Bürger. Sie sind inkompetent, habgierig, gefühllose Kriminelle, getrieben von Ideologien und einer Sucht nach Macht über Menschen.

Sie lieben ihre Armeen und ihre schnellen Autos, behandeln ihre eigenen Bürger wie Terroristen und haben unseren Kontinent betrogen. Die dringendsten und fundamentalsten Bedürfnisse und Sorgen der Menschen, die arbeitslos und hungrig sind oder Krankheiten und der Umwelt ausgeliefert sind, sind ihnen völlig egal. Es kümmert sie nicht, dass die meisten ihrer Bürger niemals sauberes Wasser, ein vernünftiges Zuhause, genug zu essen oder Strom auch nur für eine Glühbirne oder einen kleinen Kühlschrank haben.

Im Jahre 2007 organisierte Cyril Boynes einen 332 Kilometer langen Marsch von Menschen von Kampala nach Gulu in Uganda, um für die Verwendung von DDT zur Bekämpfung von Malaria zu demonstrieren. Dieses Jahr nahm ich an einem Marsch von Gulu nach Kampala teil, um an all jene zu erinnern, die unter dem langen Krieg mit der mörderischen Gottesarmee von Joseph Kony gelitten hatten; um meine Mutter zu ehren, die jeden Tag 20 Kilometer laufen musste, damit ihre Kinder essen und leben konnten – und um für Gesundheit und Wohlstand für unseren Kontinent einzutreten.

Wann wird jener Tag anbrechen? Wann werden Politiker und Aktivisten, die vorgeben, sich um die Armen dieser Welt zu kümmern, aufhören, über die globale Erwärmung zu schwadronieren, über Pestizide und GMO-Nahrungsmittel – und anfangen uns zu helfen, die Energie, Nahrungsmittel, medizinischen Einrichtungen, Technologien, Arbeitsplätze und ökonomisches Wachstum zu bekommen, die wir zur Verbesserung unseres Lebens brauchen?

—————————————–

Steven Lyazi is a student and day laborer in Kampala, Uganda. He served as special assistant to Congress of Racial Equality-Uganda director Cyril Boynes, until Mr. Boynes died in January 2015.

Link: http://www.cfact.org/2016/07/14/when-will-africa-get-healthy-and-prosperous/

Übersetzt von Chris Frey EIKE




TRANSATOMIC – schon wieder ein neuer Reaktortyp?

Gänzlich anders als in Deutschland, in dem man sich mehr denn je zurück ins Mittelalter träumt, setzt man in USA verstärkt auf die Ausbildung junger Ingenieure und Wissenschaftler und ermutigt sie, eigene Unternehmen zu gründen. Eines der Programme ist das Gateway for Accelerated Innovation in Nuclear (GAIN), des U.S. Department of Energy (DOE). Vereinfacht gesagt, gibt es dort Gutscheine, die die (sonst kostenpflichtige) Nutzung staatlicher Forschungseinrichtungen durch Unternehmensgründungen ermöglicht. Acht solcher “Gutscheine” im Gesamtwert von zwei Millionen Dollar gingen an sog. startups aus der Kerntechnik.

Eines dieser jungen Unternehmen der Kerntechnik ist Transatomic Power Corporation (TPC). Wie so oft in den USA, ist es eine Gründung von Absolventen des MIT. Glückliches Amerika, in dem noch immer tausende junger Menschen bereit sind, sich den Strapazen eines Kerntechnik-Studienganges aussetzen, während man hierzulande lieber “irgendwas mit Medien” studiert. Allerdings kennt man in den USA auch keine Zwangsgebühren zur Schaffung von hoch dotierten Nachrichtenvorlesern und Volksbelehrern. Jeder Staat setzt halt seine eigenen Prioritäten.

Noch etwas ist in den USA völlig anders. Das junge Unternehmen hat bereits mehrere Millionen Dollar privates Risikokapital eingesammelt. Es braucht noch mehr Kapital und hat deshalb ein Papier veröffentlicht, in dem das Konzept seines Reaktors näher beschrieben ist. Sicherlich ein erhebliches wirtschaftliches Risiko. Man vertraut offensichtlich darauf, mangelnde “Geldmacht” durch Schnelligkeit kompensieren zu können. Erklärtes Ziel ist es, möglichst schnell einen kleinen Versuchsreaktor mit 20 MWth zu bauen. Das erste kommerzielle Kraftwerk soll rund 500 MWel (1250 MWth) Leistung haben und rund zwei Milliarden Dollar kosten.

Abgebrannte Brennelemente als Brennstoff

Der Reaktor ist vom Typ “molten salt”. Der Brennstoff wird in geschmolzenem Salz gelöst, welches gleichzeitig dem Wärmetransport dient. Populär ist dieser Reaktortyp im Zusammenhang mit Thorium gemacht worden. Man beschränkt sich hier bewußt auf Uran als Brennstoff, um auf die dafür vorhandene Infrastruktur zurückgreifen zu können. Thorium wird eher als Option in ferner Zukunft gesehen.

Der besondere Charme dieses Konzeptes liegt in der Verwendung abgebrannter Brennelemente aus Leichtwasserreaktoren als Brennstoff. Solche abgebrannten Brennelemente bestehen zu rund 95% aus Uran–238 und etwa je einem Prozent Uran–235 und Plutonium. Der Rest sind Spaltprodukte als Abfall. Das klassische Modell, wie es z.B. in Frankreich praktiziert wird, ist die Wiederaufbereitung nach dem Purex-Verfahren: Man erhält sehr reines Uran, welches als Ersatz für Natururan wieder in den Kreislauf zurückgeführt wird und reines Plutonium, welches als Mischoxid zu neuen Brennelementen verarbeitet wird. Die Spaltprodukte mit Spuren von Aktinoiden werden verglast und als Atommüll endgelagert. Für diese chemischen Prozeßschritte (Wiederaufbereitungsanlage) geht man von Kosten in Höhe von 1300 bis 3000 US-Dollar pro kg aus. Bei heutigen Preisen für Natururan eine unwirtschaftliche Angelegenheit. Deshalb füllen sich die Lager mit abgebrannten Brennelementen auch weiterhin. Allein in den USA lagern über 70.000 to ausgedienter Brennelemente. Für die “Zwischenlagerung” in Behältern (ähnlich den Castoren in Deutschland) geht man von etwa 100 Dollar pro kg aus. Für die “Entsorgung” haben sich bereits über 31 Milliarden US-Dollar Rücklagen angesammelt – was etwa 400 Dollar pro kg entspricht.

Wem es gelingt, einen Reaktor zu bauen, der die abgebrannten Brennelemente “frißt”, ist in der Rolle einer Müllverbrennungsanlage: Er wird für die Beseitigung des Mülls bezahlt und kann sich mit seinem Preis an den anderen Möglichkeiten (z. B. Müllkippe) orientieren. Die entstehende Wärme ist umsonst. Die elektrische Energie aus der “Müllbeseitigung” ist ein weiteres Zubrot. Es kommt lediglich darauf an, eine besonders günstige “Müllverbrennungsanlage” zu bauen. Genau an diesem Punkt, setzt TPC an.

Das Transatomic Konzept

Die Angst vor dem “Atommüll” wird mit seiner Langlebigkeit begründet. Es gibt wahrlich gefährlichere Stoffe, als abgebrannte Brennelemente. Solange man sie nicht aufisst, sind sie recht harmlos. Es ist aber die berechtigte Angst, ob man diese Stoffe für Jahrmillionen sicher von der Biosphäre fern halten kann, die viele Menschen umtreibt. Spaltprodukte sind in diesem Sinne kein Problem, da sie in wenigen hundert Jahren faktisch von selbst verschwunden sind. Jahrhunderte sind aber durch technische Bauwerke (Kathedralen, Pyramiden etc.) oder natürliche Barrieren (einige hundert Meter gewachsene Erdschichten) sicher beherrschbar.

Man kann aber alle langlebigen Aktinoide durch Spaltung in kurzlebige Spaltprodukte umwandeln und dabei noch riesige Mengen Energie erzeugen – am besten in einem Kernkraftwerk. Ein solcher Reaktor muß besonders sparsam mit den bei einer Spaltung freiwerdenden Neutronen umgehen, um möglichst viele andere Kerne umzuwandeln und letztendlich zu spalten.

Spaltprodukte haben teilweise sehr große Einfangquerschnitte. Mit anderen Worten, sie wirken parasitär indem sie wertvolle Neutronen “wegfangen”. Die Konsequenz ist eine integrierte Wiederaufbereitung. Dies läßt sich nur über eine Brennstofflösung erreichen.
Es dürfen nur möglichst wenig Neutronen das System verlassen. Dazu muß man den Reaktor mit einem Reflektor versehen, der die Neutronen wieder in den Reaktor zurück streut. Idealerweise verwendet man dafür ebenfalls Uran, damit nicht zurück streubare Neutronen bei ihrem Einfang wenigstens neuen Spaltstoff – hier Plutonium – erzeugen.
Bei Reaktoren mit festen Brennstoffen, kann man die Spaltstoffe nicht kontinuierlich ersetzen. Man benötigt deshalb zu Anfang eine Überschußreaktivität. So zu sagen, mehr Spaltstoff als eigentlich zuträglich ist. Diese Überschußreaktivität muß durch Regelstäbe und abbrennbare Gifte kompensiert werden: Wertvolle Neutronen werden unnütz weg gefangen.
Will man mit möglichst geringer Anreicherung auskommen – was einem bereits abgebrannten Brennelement entspricht – muß man zwingend auf ein thermisches Neutronenspektrum übergehen. Sogenannte “Schnelle Brüter” erfordern eine zweistellige Anreicherung. Also wesentlich höher, als sie in einem frischen Brennelement für einen Leichtwasserreaktor vorliegen. Man kann in einem thermischen Reaktor zwar nicht brüten – also mehr Spaltstoff erzeugen als beim Betrieb verbraucht wird – aber fast genau soviel erzeugen, wie verbraucht wird. Man muß es auch gar nicht, da ja der “Atommüll” noch Spaltstoff enthält.

Wieviel wird nun gespart?

Ein heutiger Leichtwasserreaktor produziert pro 1000 MWel etwa 20 to abgebrannter Brennelemente pro Jahr. Geht man von einer direkten Endlagerung aus, ist dies die Menge “Atommüll” die in ein Endlager muß. Erzeugt man die gleiche elektrische Energie aus eben solchem “Atommüll”, ist diese Menge schon mal komplett eingespart.

Gleichzeitig wird aber auch der ursprünglich vorhandene “Atommüll” in der Form abgebrannter Brennelemente weniger. Die Energie wird durch die Spaltung von Atomkernen erzeugt. Sie sind nach der Spaltung unwiederbringlich vernichtet. Wird Uran noch von vielen Menschen als natürlich und damit relativ harmlos angesehen, ist z. B. Plutonium für sie reines Teufelszeug. Genau diese Stoffgruppe dient aber bei diesem Reaktortyp als Brennstoff und wird beständig verbraucht.

Ein solcher Reaktor produziert rund 1 to Spaltprodukte pro 1000 MWel und Jahr. Die Spaltprodukte sind darüberhinaus in einigen Jahrhunderten – gegenüber 100.000den von Jahren bei Plutonium – verschwunden. In Bezug auf die Energieversorgung sind solche Reaktoren eine echte Alternative zu sog. “Schnellen Brütern”. Bereits die vorhandenen abgebrannten Brennelemente und die absehbar hinzukommenden, wären eine schier unerschöpfliche Energiequelle.

Was ist neu bei diesem Reaktortyp?

In den USA hat man über Jahrzehnte Erfahrungen mit Salzschmelzen in Versuchsreaktoren gesammelt. Hier strebt man bewußt die Verwendung von Uran und nicht von Thorium an. Dies hat bezüglich des Salzes Konsequenzen: Lithiumfluorid kann wesentlich höhere Konzentrationen Uran gelöst halten (LiF-(Actinoid)F4) als das bekanntere FLiBe-Salz. Erst dadurch ist der Einsatz abgebrannter Brennelemente (niedrige Anreicherung) möglich. Allerdings liegt die Schmelztemperatur dieses Brennstoffs bei etwa 500 °C. Ein wesentliches Sicherheitskriterium ist daher, Verstopfungen in Kanälen und Rohrleitungen durch Ablagerungen sicher zu vermeiden.

Als Moderator sollen Stäbe aus Zirconiumhydrid eingesetzt werden. Sie wirken wie “umgekehrte Regelstäbe”: Je tiefer sie in die Schmelze eingetaucht werden, um so mehr Neutronen werden abgebremst und die Spaltungsrate erhöht sich. Die Moderation solcher Stäbe ist gegenüber früher verwendetem Graphit so viel besser, daß fast der doppelte Raum für die Salzschmelze bei einem vorgegebenen Reaktorvolumen zur Verfügung steht. Ein weiterer wichtiger Schritt zu der Verwendung von “Atommüll” als Brennstoff.

Die integrierte Wiederaufbereitung

Die Spaltprodukte müssen kontinuierlich aus der Salzschmelze entfernt werden. Sie wirken nicht nur parasitär, sondern stellen auch das eigentliche Sicherheitsproblem dar. Je weniger Spaltprodukte gelöst sind, um so weniger Radioaktivität könnte bei einem Störfall freigesetzt werden.

Etwa 20% der Spaltprodukte sind Edelgase. Sie sollen mit Helium aus der Salzschmelze abgeschieden werden und anschließend in Druckgasflaschen gelagert werden.

Rund 40% der Spaltprodukte sind Metalle, die Kolloide in der Schmelze bilden. Sie sollen mit Geweben aus Nickel ausgefiltert werden.

Der Rest – hauptsächlich Lanthanoide – sind sehr gut in der Salzschmelze gelöst. Sie sollen mittels flüssigen Metallen extrahiert werden und anschließend in eine keramische Form zur Lagerung überführt werden.

In der Abscheidung, Behandlung und Lagerung der Spaltprodukte dürfte die größte Hemmschwelle bei der Einführung von Reaktoren mit Salzschmelzen liegen. Welcher Energieversorger will schon gern eine Chemiefabrik betreiben? Vielleicht werden deshalb erste Anwendungen dieses Reaktors gerade in der chemischen Industrie liegen.

Zusammenfassung

Der Gedanke, “Atommüll” möglichst direkt als Brennstoff einzusetzen, hat Charme. Wirtschaftlich kommt man damit in die Situation einer Müllverbrennungsanlage. Man kann sich an den Aufbereitungs- und Entsorgungspreisen des Marktes orientieren. Diese Einnahmen sind schon mal vorhanden. Die Stromproduktion ist ein Zubrot. Es wird noch sehr viel Entwicklungszeit nötig werden, bis ein genehmigungsfähiger Reaktor vorliegt. Auch die Kostenschätzung über zwei Milliarden Dollar für den ersten kommerziellen Reaktor, ist in diesem Sinne mit der gebotenen Vorsicht zu betrachten. Allerdings handelt es sich bei diesem Reaktor nicht um ein Produkt einer “Erfindermesse”. Man hat sehr sorgfältig den Stand der Technik analysiert und bewegt sich auf allen Ebenen auf dem machbaren und gangbaren Weg. Es ist nur zu hoffen, daß diesem jungen Unternehmen noch etwas Zeit verbleibt, bis es – wie so viele vor ihm – auf und weg gekauft wird.

Weltweit tut sich etwas in der Entsorgungsfrage: Salzbadreaktoren, Entwicklung metallischer Brennstoffe – sogar für Leichtwasserreaktoren – und abgespeckte chemische Wiederaufbereitungsverfahren in Rußland.

Übernommen von NUKEKLAUS hier