Wenn es vorbeugend Bedarf für Immunität gibt, liegt eine Verbrechensabsicht vor!

Riesiger neuer grüner Klimafonds möchte diplomatische Immunität nach Vorbild der UN, obwohl er nicht UN-Mitglied ist

Von George Russell

EXKLUSIV: Der Grüne Klimafonds, der helfen soll, bis zu 100 Milliarden Dollar pro Jahr zu mobilisieren, um die globalen Treibhausgase zu reduzieren, möchte einen Blankoscheck in Gestalt von Immunität nach UN-Vorbild haben, der seine Aktivitäten vor jedem juristischen Vorgehen schützen soll, einschließlich zivil- und strafrechtlicher Verfolgung, und zwar in allen Ländern, in denen er tätig ist. Da gibt es nur ein Problem: er ist nicht Mitglied der Vereinten Nationen.
Ob der Fonds, der auf der UN-Klimakonferenz in Durban, Südafrika, offiziell ins Leben gerufen worden ist, jemals all das Geld bekommen wird, das er ausgeben möchte, ist in Zeiten einer Wirtschafts- und Finanzkrise fraglich. Das Ausgabeziel liegt über etwa 30 Milliarden Dollar als „Schnellstart“, was von den Mitgliedsstaaten der UN für Aktivitäten hinsichtlich der Klimaänderung gefordert worden ist.
Ein vorläufiger Verwaltungsrat aus 24 Nationen für den Grünen Klimafonds (GCF) ist dazu verpflichtet, im nächsten Monat das erste Treffen in der Schweiz abzuhalten, um das Sekretariat einzurichten und bis November zum Laufen zu bekommen und um eine permanente Zentrale für die GCF-Operationen zu finden. Der Rat erwartet, von jetzt an bis zum Juni nächsten Jahres etwa 6,7 Millionen Dollar auszugeben.
Aber vor der voll umfänglichen Aufnahme der Tätigkeiten wollen die Gründer des GCF – 194 Nationen, die zur UNFCCC gehören und die außerdem UN-Mitglieder sind –, dass der Fonds gegen juristische Herausforderungen und Anklagen immun ist, selbstredend auch gegen unabhängige Untersuchungen von außen, genauso wie die UN nicht durch ein einzelnes Regierungs- oder Rechtssystem eines souveränen Landes beeinflusst werden kann.
Trotz seines Namens wurde die UNFCCC 2006 vom UN-Büro für Juristische Angelegenheiten informiert, dass es nicht als ein „Organ“ der UN angesehen werde und dass es daher keine Immunität für ihre untergeordneten Institutionen oder das Personal im Rahmen der Allgemeinen Konvention beanspruchen könne, die die Immunität der UN seit Ende des Zweiten Weltkriegs autorisiert hatte.
Eine Resolution, der UNFCCC eine ähnliche Immunität zuzubilligen, müsste laut Anweisung des UN-Rechtsbüros vor dem Inkrafttreten von jedem einzelnen Mitgliedsland des Kyoto-Protokols „akzeptiert, genehmigt oder ratifiziert“ werden. Dies gilt auch dann, wenn Mitglieder der UNFCCC sich entschließen, dass UN-Generalsekretariat zu fragen.
Click here for the legal office communication. 
Die von der UNFCCC verlangte Immunität bestimmt auch, wo der Grüne Klimafonds seinen Hauptsitz haben kann. Unter Anderem ist der GCF-Rat damit betraut zu überlegen, ob und welche potentiellen Gastländer die „Fähigkeit haben, dem Fonds Privilegien und Immunität zur Verfügung zu stellen, die zur Erfüllung ihrer Aufgaben erforderlich ist, und den Funktionären des Fonds’, die zur Ausübung ihrer offiziellen Tätigkeiten notwendig ist.“
Mit anderen Worten, ohne Immunität kann der Grüne Klimafonds nirgendwo seine Zelte aufschlagen.
Click here for the resolution launching the fund and seeking immunities. 
Länder, die an der Aufnahme des Grünen Klimafonds’ interessiert sind, haben bis zum 15. April Zeit, dem Rat dies mitzuteilen. Die USA werden wahrscheinlich nicht dazu gehören.
Einem Funktionär des US-Finanzministeriums zufolge, welches die Existenz des GCF stark unterstützt, muss der volle Umfang der Immunität noch durch den Rat des Fonds’ ausgearbeitet werden, obwohl die Wortwahl zahlreicher UNFCCC-Resolutionen darauf hindeuten, dass eine Immunität nach Art der UN ganz klar anvisiert wird.
Selbst jenseits der UN wurden Immunitäten gegen Untersuchungen von außen und juristische Schritte zu einem Eckpfeiler internationaler Organisationen, dessen Mitglieder diese oft als Notwendigkeit ansehen, ihre Operationen durchzuführen, ohne in nationalen Gerichten Rede und Antwort stehen zu müssen. Unter Anderen wurde dem Globalen Fonds zur Bekämpfung von AIDS, Tuberkulose und Malaria (GFATM), einer ursprünglich von Bill Gates gegründeten Organisation, solche Immunitäten nach US-Gesetzen gewährt, jedenfalls dem International Organizations Immunities Act zufolge. Die Weltbank erfreut sich neben anderen, die Entwicklungsländer finanzierenden Institutionen ebenfalls solcher Immunität.
Kritiker solcher Immunitäten sagen andererseits, dass sie eine Barriere für ordentliche Überwachungen zur internationalen Ausgabe riesiger Geldmengen darstellen, was potentiell zu Korruption verleitet, und dass sie eine gefährliche Waffe gegen den Schutz von Eigentums- und anderen zivilen Rechten derjenigen sind, die von den Aktionen der Institutionen betroffen sind.
„Immunitäten akkumulieren sich zu einem Schleier des Geheimnisses”, sagt Bea Edwarts, geschäftsführende Direktorin des Government Accountability Project, einer Organisation zum Schutz vor Informanten mit Sitz in Washington. „Sie sind immun vor externen Audits und Überwachung. Sie enthalten einen strukturellen Interessenkonflikt bei jeder immunen Institution vor jedem internen Überwachungsmechanismus“.
Diese unterschiedlichen Ansichten könnten selbst noch in den kommenden Jahren deutlich zu spüren sein, und zwar wegen der Umweltaktionen, die der GCF mit seinen Anstrengungen zu finanzieren gedenkt, eine neue, globale „grüne Ökonomie“ zu erschaffen, um der kommenden gefährlichen „Klimaänderung“ zu begegnen.
Einmal gibt es da die erhoffte Höhe der Summe für den GCF: 100 Milliarden Dollar an jährlichen Ausgaben wäre weit mehr als das Doppelte dessen, was die Weltbank 2010 ausgegeben hat (44 Milliarden Dollar), bisher die größte Einrichtung zur Entwicklung in der Welt. Die Bandbreite der Ambitionen des GCF wird sich wahrscheinlich auch vielfach über die Entwicklungswelt ausbreiten – wo die Überwachung schwach ist und nationale Regierungen, die die meisten der GCF-Projekte ausführen, oftmals spektakulär korrupt sind.
Zum anderen könnten private Investoren ebenso wie öffentlich-private Partnerschaften zusätzlich zu den Regierungen zu den Ressourcen des GCF beitragen, was bedeutet, dass die privaten Interessen ebenfalls von der Wolke des Geheimnisses profitieren können, die die Immunitäten über die Operationen des GCF ausbreiten würde.
 (Den UN-Immunitätsregeln zufolge gelten Eigentum und Fonds, deren „Förderung seiner konstitutionellen Funktionen“ von einer UN-Agentur „administriert“ werden, als eigenständig.)
Diese Wolke von Geheimniskrämerei und Privilegien – zumindest nach Verständnis der UN, ist beeindruckend.
Der UN-Konvention zu Privilegien und Immunitäten zufolge, wie sie 1947 auf „spezielle Agenturen“ der UN angewendet worden ist, soll deren Eigentum und Vermögen „von jeder Form legaler Aktionen befreit sein“, außer bei deren Schließung. Und selbst dann können die Betreiber niemals „irgendeiner Maßnahme juristischer Verfolgung“ ausgesetzt werden, was bedeutet, dass sie machen können, was sie wollen.
Die Einrichtungen der UN sowie deren Eigentum und Vermögen sind immun gegen „Untersuchung, Anforderung, Beschlagnahme, Enteignung sowie jede andere Form der Einmischung, egal ob seitens der Exekutive, der Legislative, administrativer oder juristischer Aktionen“. Alle Archive und Dokumente einschließlich der von den Agenturen „gehaltenen“, werden als „unantastbar“ angesehen.
Diese Agenturen können Geld, Gold oder irgendeine Art von Fondsgeldern außerhalb jeder nationalen Gesetzgebung hin und her schieben; sie sind ausgenommen von Steuern, Zollerklärungen oder Restriktionen hinsichtlich Im- und Export.
Der gleiche kugelsichere Status gilt für ihre Funktionäre.
Betrachtet man so etwas wie den GCF, ist dies „eine Angelegenheit ausgedehnter Privilegien und Immunitäten hinsichtlich von Eigentumsrechten“, jedenfalls nach Meinung von Allan Meltzer, einem angesehenen Professor der politischen Ökonomie an der Carnegie Mellon University. „Und diese Privilegierten werden nicht zwangsläufig das Eigentum Anderer schützen“, fügt er hinzu.
Als Berater des US-Finanzministeriums, der Federal Reserve und des Kongresses zu verschiedenen Zeiten war Meltzer während der Clinton-Ära auch Vorsitzender einer Beraterkommission mit Mandat des Kongresses für internationale Finanzinstitutionen einschließlich des International Monetary Fund und der Weltbank.
Er sagt: „Wir sollten viel eher die gesetzlichen Regeln anwenden als die Immunitäten immer weiter auszudehnen. Wenn wir etwas für die Umwelt tun wollen, sollten wir das öffentlich und nicht im Geheimen tun!“
Beurteilt nach dem selbst gestellten Anspruch stimmen die Herren des Grünen Klimafonds’ offensichtlich dem nicht zu. Allerdings gab es auf Fragen von Fox News, gestellt in der vergangenen und zu Beginn dieser Woche an den GCF hinsichtlich seiner Operationen und Immunitäten bis zur Veröffentlichung dieses Artikels keine Antworten.
George Russell
Link: http://www.foxnews.com/world/2012/03/22/mammoth-new-green-climate-fund-wants-un-style-diplomatic-immunity-even-though/
Link bei Wattsup: http://wattsupwiththat.com/2012/03/24/where-theres-a-need-for-immunity-theres-a-crime-green-climate-fund-looking-to-un-for-diplomatic-immunity-protection-from-lawsuits/#more-60058
Übersetzt von Chris Frey EIKE




Weitere Beweise für eine verfälschte Erwärmung im IPCC-Temperaturdatensatz -McKitrick & Michaels hatten recht!

Graphik rechts: Der Graph zeigt den UHI per Einwohnerzahl pro Landkreis in Kalifornien. Quelle: Goodridge 1996, veröffentlicht im Bulletin of the American Meteorological Society.
Der städtische Wärmeinseleffekt (UHI) ist den meisten Leuten vertraut: in Städten ist es typischerweise wärmer als in den ländlichen Gebieten der Umgebung, und zwar wegen der Ersetzung natürlicher Vegetation durch menschliche Strukturen. Wenn dieser Effekt an Stationen mit Thermometern mit der Zeit zunimmt, gibt es bei der Berechnung globaler Temperaturtrends mit diesen Daten eine verfälschte Erwärmung.
Anhand nicht adjustierter Daten von International Surface Hourly (ISH), die bei NCDC archiviert werden, werde ich in dieser Studie zeigen, dass der Erwärmungstrend der Nordhemisphäre, aus der fast alle Thermometerdaten stammen, eine Funktion der Bevölkerungsdichte an der Messstation ist.
Abhängig davon, bis zu welcher immer geringeren Bevölkerungsdichte man die Ergebnisse ausweitet, beträgt die Bandbreite der fälschlichen Erwärmung im CRUTem3-Datensatz 14% bis 30%, wenn man drei Klassen der Bevölkerungsdichte zugrunde legt, und sogar 60% mit 5 Klassen.
DATEN & METHODE
Die Analyse der Stationsrohdaten kommt nicht von ungefähr. Im Zeitraum von 1973 bis 2011 gibt es Hunderttausende von Datenfiles im ISH-Archiv des NCDC. Jeder File repräsentiert die Daten einer Station von einem Jahr. Das Volumen der Daten macht viele Gigabytes aus.
Aus diesen Daten berechnete ich tägliche Temperaturmittelwerte von jeder Station, deren Reihe mindestens bis zum Jahr 1973 zurückreichte, dem Jahr einer großen Zunahme der Anzahl globaler Stationen, die in die ISH-Datenbasis Eingang gefunden hatten. Die tägliche Mitteltemperatur berechnete sich aus den 4 Standard-Synopzeiten (00, 06, 12, 18 UTC), einer Methode, die allgemein an Stationen in der ganzen Welt üblich ist.
Mindestens 20 Tage mit einem vollständigen Datensatz waren erforderlich, um eine monatliche Mitteltemperatur zu berechnen, und die Aufzeichnungsperiode von 1973 bis 2011 musste mindestens zu 80% vollständig sein, um in der Analyse berücksichtigt zu werden.
Dann teilte ich die Stationen aufgrund einer Volkszählung aus dem Jahr 2000 nach verschiedenen Bevölkerungsdichten an jeder Station ein; der diesbezügliche Datensatz hat eine Flächenauflösung von 1 km.
Dann akzeptierte ich nur alle Gitterquadrate mit 5 mal 5 Grad Länge/Breite (den gleichen, die Phil Jones bei der Konstruktion des CRUTem3-Datensatzes verwendet hat), die alle folgende Bedingungen erfüllen mussten: sie mussten eine CRUTem3-Temperatur und mindestens 1 Station aus jeder der drei Bevölkerungsklassen enthalten. Die Grenzen: 0, 15, 500 und 30000 Personen pro Quadratkilometer.
Durch die Bedingung, dass alle drei Bevölkerungsklassen in den Gitterquadraten vorkommen müssen, die wir analysierten, erhalten wir den besten ‚Äpfel-mit-Äpfeln-Vergleich’ zwischen Stationen mit unterschiedlicher Bevölkerungsdichte. Der Nachteil ist, dass die geographische Abdeckung geringer ist als im Datensatz von Jones, weil relativ wenige Gitterquadrate alle Bedingungen erfüllen.
Aber der Zweck dieser Studie ist es nicht, eine beste Abschätzung von Temperaturtrends im Zeitraum 1973 bis 2011 zu erhalten; stattdessen wollen wir eine Abschätzung der verfälschten Erwärmung im CRUTem3-Datensatz erhalten.
Ergebnisse
Die Ergebnisse zeigt die folgende Abbildung, die darauf hindeutet, dass der mittlere lineare Erwärmungstrend umso geringer ist, je geringer die Bevölkerungsdichte um diese Station ist (Periode 1973 bis 2011). Man beachte, dass der CRUTem3-Trend ein wenig höher ist als die einfache Mittelung aller ISH-Stationen zusammen; aber sie ist nicht so hoch, wie wenn man nur die Stationen mit der höchsten Bevölkerungsdichte mittelt.

Die Zeitreihe der Anomalien von CRUTem3 und die niedrigste Bevölkerungsdichte, die in die Berechnung dieser Trends eingehen, zeigt die nächste Graphik, zusammen mit polynomischen Fitts der Daten:

Noch einmal: der obige Graph steht nicht notwendigerweise für die gesamte Landmasse der Nordhemisphäre, sondern nur für jene 5 mal 5 Grad-Gitterquadrate, in der alle drei Klassen der Temperatur aufzeichnenden Stationen präsent sind.
Der Unterschied zwischen diesen beiden Temperaturverläufen zeigt die folgende Graphik:

Aus diesem letzten Plot geht eindeutig hervor, dass es eine zunehmende Verzerrung (Bias) im Vergleich der CRUTem3-Temperaturwerten mit den Temperaturen der niedrigsten Bevölkerungsklasse gibt.
Der lineare Trend von CRUTem3 ist um etwa 15% wärmer als der Temperaturtrend an Stationen mit der niedrigsten Bevölkerungsklasse. Aber wenn man diese Ergebnisse in der ersten Graphik auf eine Bevölkerungsdichte nahe Null extrapoliert (0,1 Personen pro Quadratkilometer), erhält man eine Überschätzung der Temperaturtrends von CRUTem3 von etwa 30%.
Wenn ich die Anzahl der Bevölkerungsklassen von 3 auf 5 erhöhe, erscheint der CRUtem3-Datensatz bei einer Bevölkerungsdichte von 0,1 Personen pro Quadratkilometer mit einer Überschätzung um 60%, aber da die Anzahl der Gitterquadrate mit Stationen in allen 5 Klassen nur etwa 10 bis 15 Mittelbildungen pro Monat zulässt anstatt 100 pro Monat, denke ich, dass diese Ergebnisse weniger zuverlässig sind.
Ich finde, dass die obigen Ergebnisse ziemlich überzeugend das bestätigen, was Anthony Watts, Pat Michaels, Ross McKitrick et al. schon vor Jahren betont haben: dass die bloße Lage der Thermometerhütten wahrscheinlich verfälschte Erwärmungstrends zeigte, die dann durch das IPCC für die offizielle Schätzung der Erwärmung aufgeblasen worden waren. Diese Resultate sind in etwa konsistent mit der Studie von McKitrick and Michaels (2007), in der sie herausfanden, dass bis zu 50% der berichteten Erwärmung seit 1980 verfälscht sein könnte.
Es wäre zu schön, wenn ich diese Arbeit zur Veröffentlichung einreichen könnte, aber ich bin es leid, dass die Wächter des IPCC meine Studien regelmäßig töten; je mehr sie den Schlussfolgerungen des IPCC widersprechen, umso unwahrscheinlicher ist deren Veröffentlichung. Das ist die Welt, in der wir leben.
Aktualisierung: Ich habe die Ergebnisse nur für die USA berechnet, die beweisen, dass CRUTem3 die Erwärmungstrends in den USA im Zeitraum 1973 bis 2011 um mindestens 50% überschätzt haben.
Ich habe Ergebnisse nur für die USA berechnet, und die sind ein wenig spezieller. Die ISH-Stationen wurden erneut nach der lokalen Bevölkerungsdichte eingeteilt. Temperaturtrends wurden individuell für jede Station berechnet, und die oberen bzw. unteren 5% der ‚Ausreißer’ in jeder der drei Bevölkerungsklassen wurde in der Analyse nicht berücksichtigt. Für jede Bevölkerungsklasse habe ich auch die ‚offiziellen’ CRUTem3-Trends berechnet und gemittelt, genau wie ich es mit den ISH-Stationsdaten gemacht habe.
Die Ergebnisse im folgenden Bild zeigen, dass für die 87 Stationen in der niedrigsten Bevölkerungsklasse der mittlere CRUTem3-Temperaturtrend um 57% wärmer war als der aus den ISH-Stationen berechnete Trend.

Hier werden also wirklich Äpfel mit Äpfeln verglichen… für jede Station, die in die Mittelbildung für jede Bevölkerungsklasse einbezogen worden ist, wurde eine korrespondierende nächstgelegene Station ebenfalls in die Mittelbildung für diese Bevölkerungsklasse einbezogen.
Wie kann man solche Ergebnisse anders deuten als dass es eine verfälschte Erwärmung im CRUTem3-Datensatz gibt? Ich sehe schon jetzt in den Kommentaren, dass es einige wenige Versuche gibt, die Aufmerksamkeit von diesem zentralen Punkt abzulenken. Ich würde gerne eine alternative Erklärung für diese Ergebnisse hören.
Roy W. Spencer, Ph.D.
Link: http://wattsupwiththat.com/2012/03/30/spencer-shows-compelling-evidence-of-uhi-in-crutem3-data/
Übersetzt von Chris Frey EIKE




Atommüll ein (ökologisches) Problem

..Letzteres ist allerdings teuer und würde den Preis des umweltfreundlichen Stroms signifikant erhöhen. Ein Verschwinden des Atommülls würde andererseits keinen Gegner der Atomenergie von seinem Glauben abbringen. Es gibt analog der chemotoxischen Abfälle zahlreiche  Wege den anfallenden Atommüll zu entsorgen. Der heutzutage am häufigsten  gegangene Weg ist es diese Abfälle in geologisch sicheren Formationen in Salz, Ton, oder Granit zu lagern. Der Artikel geht auch auf die Alternativen, wie das Lagern in der Wüste, im Meer, oder im ewigen Eis, ein. Verfahren die eleganter und günstiger sind.(sehen Sie hier die undefinedVollversion des nebenstehenden offenen Briefes)

Einleitung

Derzeit werden jährlich 200.000 to Arsen, Zyanid, Dioxin und Furanhaltiger Giftmüll im ehemaligen Kalisalzbergwerk Herfa-Neurode eingelagert(14). Große Mengen giftiger Filterstäube, z.B. aus Kohlekraftwerken, werden als Bergversatz in Kohlezechen endgelagert (13). Filterstäube und Kohleasche können neben diversen Giften auch bis zu 200ppm Uran enthalten. In China ist die Urangewinnung aus den Hinterlassenschaften mehrerer Kohlekraftwerke geplant. (4) Langfristig, d. h. in der Nachbetriebsphase  ist das Gefährdungs-Potenzial der radioaktiven Abfälle bzw. Endlager niedriger als das der chemotoxischen Abfälle bzw. einer UTD (Untertagedeponie)….. Es besteht eine Diskrepanz zwischen dem tatsächlichen Risiko und der Risikowahrnehmung in der Öffentlichkeit. Aus Strahlenschutzpraxis (15)

 Es ist nur ökologisch (irrational) zu erklären, warum der Atommüll ein derartiges mediales Aufsehen genießt. Ausgerechnet die geringen Mengen an Atommüll werden seitens der Ökologen als  unlösbares Problem (wobei Sie mögliche Lösungen blockieren),  dargestellt. Nüchtern betrachtet ist die Müllentsorgung ein Vorteil für die Kernenergie. Aufgrund der enormen Energiedichte des Brennstoffs ist das Müllproblem wesentlich geringer als bei Kohle, Wind und Sonne.

1. Anfall hochradioaktiver Abfälle in Kernkraftwerken

Ein typisches Leichtwasserkernkraftwerk, ein Druckwasserreaktor, ist mit etwa 100 to leicht angereicherten Uran (Oxid) beladen. Die Spaltung von 1g 235Uran erzeugt ca. 22000 KWh entsprechend der Verbrennung von 2700 kg Kohle(2). In einem Jahr erzeugt ein derartiges Kraftwerk bei 33% Wirkungsgrad 10.000 GWh Strom. Dabei wird 1100 kg Uran und im Reaktor erbrütetes Plutonium gespalten. Jeweils nach einem Jahr wird z.B. knapp 1/4 des Brennstoffs (Abbrand 50,55 MWd/kg) ausgetauscht. Die Zusammensetzung des ausgetauschten Brennstoffs* kann wie folgt aussehen:

Als Brennstoff nutzbar

 

20,9 to Uran, entsprechend 23,6 to Uranoxid, Isotopenzusammensetzung z.B.  0,68% U235, 0,58% U236, Spuren U234,  Rest 238U*
240 Kg Plutonium, entsprechend 272 Kg  Plutoniumoxid, Zusammensetzung: 3% Pu238, 50% Pu239, 26% Pu 240, 13% Pu241 u. 8% Pu242*

Atommuell teilweise nutzbar

 

1100 Kg Spaltprodukte incl. Sauerstoff (Oxide) davon
830 Kg Stabile Spaltprodukte, z.B. 24 Kg Molybdän 95 (Keine Radioaktivität)
39 Kg Caesium137, Halbwertszeit 30,2J, Strontium90 Halbwertszeit 28,1J,  Jod
24 Kg Technetium,
30 Kg langlebige Spaltprodukte

Als Brennstoff  in Brütern nutzbar

 

29 Kg Transurane (Minore Actinide), davon. 15,5 Kg Neptunium Np237, 7,4 Kg Americium Am 241,  5,6Kg Am 243, Curium *(Mit schnellen Neutronen spaltbar, bzw. in schnellen Brütern nutzbar)
*Gem. einer ICP-MS Analyse Mittelwert mehrerer Brennstäbe  aus einem Druckwasserreaktor, mit 4% Anfangsanreicherung und 50,55 MWd/Kg  mittlerer Abbrand
Zu dem oben genannten hochradioaktiven Abfall kommen 50 m3 (konditioniert) leicht u. mittel-radioaktive Abfälle, wie gebrauchte Kittel, Handschuhe, aber auch 9to (Erläuterung e) Strukturmaterial, in erster Linie Brennstabhüllen, hinzu.

2. Reduzierung des Atommülls durch weitere Nutzung als Kernbrennstoff

   
Eine sehr elegante Möglichkeit mehr Energie aus dem Kern-brennstoff, bzw. weniger Atommüll je erzeugter KWh (Ener-gieeinheit) zu gewinnen ist der  DUPIC (Direct Use of used PWR fuel in CANDU reactors) Prozess. CANDU (CANadian Deuterium Uranium) Reaktoren werden mit dem wesentlich effektiveren Schwerwasser moderiert. Dadurch kann dieser Reaktortyp mit für Leichtwasserreaktoren bereits abgebranntem Brennstoff betrieben werden. Candu Reaktoren sind in Kanada, Indien, Rumänien, Korea und China im Einsatz. Der Abbrand der Brennstäbe erhöht sich um etwa 20%, oder 10 – 12 MWd/Kg. Hierzu müssen die hochradioaktiven Brennelemente in einer geeigneten Anlage auf die Brennstoffkonfiguration des CANDU Reaktors konvertiert werden  (Erläuterung g). Umfangreiche Tests dieses Verfahrens werden derzeit in China und anderen Ländern durchgeführt (30).

3. Reduzierung des Atommülls durch Wiederaufarbeitung (Recycling)

Langlebige Radioaktive Stoffe wie Uran, Thorium kommen in der Natur häufig vor und strahlen nur geringfügig. Kurzlebige radioaktive Stoffe zerfallen größtenteils bereits im Reaktor. Problematisch sind, wie man auch aus der obigen Darstellung erkennen kann die radioaktiven Stoffe mit Halbwertszeiten von mehreren Jahren bis zu 1 Mio. Jahre. Plutonium ist sehr giftig, radioaktiv und hat (z.B.239Pu) eine Halbwertszeit von 24000 Jahren. Das bedeutet es ist als Abfall sehr schwierig zu entsorgen. Andererseits ist 239Pu ein wertvoller Brennstoff in Kernkraftwerken. Deshalb ist es geboten den genutzten Brennstoff wieder aufzuarbeiten. Die abgebrannten Brennstäbe enthalten etwa 96% Uran und Plutonium, die  als wertvolle Brennstoffe wiederverwertet werden können.

Das Bild zeigt die Radioaktivität abgebrannten Kernbrennstoffs. Es unterscheidet sich  von der obigen Analyse.

Es verbleibt 1100 Kg hochradioaktiver Müll der nach einigen Jahrhunderten (bei Abtrennung der Actinide) auf das Niveau von Natururan abgeklungen ist und etwa 10m3 Betriebsabfälle aus der Wiederaufbereitung. In Deutschland wurde die Wiederaufarbeitung von Minister Trittin aus ökologischen (=irrationalen) Gründen verboten. Ein erheblicher Teil der Atommüllproblematik beruht auf dieser ökologischen Entscheidung

Die Bilder Links zeigen die Abfüllung einer Mischung aus Borsilikatglas versetzt mit hochradioaktivem Müll in der Wiederaufbereitungsanlage in La Hague, sowie einen der verwendeten Edelstahlbehälter in denen diese Masse eingeschmolzen wird

 

Radioaktivität der Reststoffe aus der Wiederaufbereitung

Man beachte die Rolle der Transurane (Actinide). Bei einer vollständigen Abtrennung derselben ist die Radioaktivität des hochradioaktiven Abfalls nach ein paar Jahrhunderten auf das Niveau von Uranerz abgeklungen.

4. Mögliche Nutzung der verbleibenden Reststoffe aus der Wiederaufbereitung 

4a. Extrahieren und Nutzung der Reststoffe

Gem. einer ICP-MS Analyse von mehreren Brennstäben  aus einem Druckwasserreaktor, 4% Anfangsanreicherung und einem mittleren Abbrand von 50,55MWd/Kg Abbrand kann man auf 25 to Brennstoff bezogen, in dem nach der Abtrennung des Urans und Plutoniumoxids verbleibenden 1100 kg Restabfall folgende Spaltprodukte erwarten:
Rh 103 13,4 kg Rhodium ist eines der wertvollsten Elemente der Welt, Der Preis beträgt etwa 65.499€/kg (19). Neben dem 103Rh kommt auch ein radioaktives Rhodium Isotop in Spuren vor, das jedoch mit einer Halbwertszeit von 39 Tagen bereits vor einer möglichen Wiederaufarbeitung zerfallen ist und eine Nutzung nicht behindert.
Ru 101 25 kg. Ruthenium, Preis 4540 €/kg (29) ist gleichfalls ein sehr seltenes teures Metall. Durch Verunreinigung mit Spuren des radioaktiven 106Ru, mit einer Halbwertszeit von 373 Tagen, kann man dieses erst nach einigen Jahren nutzen.
Ag 109 1,4 kg, Preis 535 €/kg (27)  nicht radioaktives Silber.
Sm 149,150,151,152. Gilt als seltene Erde. 151Sm hat eine Halbwertszeit von 90 Jahren und verhindert durch radioaktive Verunreinigung eine Nutzung des Samariums.
Tc99 24 kg, Preis 83.000$/kg (20) Technetium wird dringend als Radiopharmaka benötigt. Als Tracer wird es in die Blutbahn gespritzt und lagert sich in schwerzugänglichen Organen an Krebszellen an. Derzeit wird überlegt aufgrund der Knappheit desselben neue spezielle Reaktoren zum erbrüten dieses Isotops zu errichten (16). In der Wiederaufbereitungsanlage Sellafield wird das anfallende 99Tc teils gewonnen. Eine Produktion im Bereich mehrerer to aus der Wiederaufbereitung abgebrannten Kernbrennstoffs würde einerseits den Preis für 99Tc massiv einbrechen lassen, andererseits eine Behandlung für viele Menschen erschwinglich machen und diesen  helfen.
Sr90 Radioaktiv, Strontium wird in Radionuklidbatterien als Stromquelle genutzt
Nd 143, 145, 148 Gesamtmenge der Isotope 54 Kg. Der Preis von 68 €/Kg (26) bietet begrenzten Anreiz für eine Nutzung. Die Isotope des Neodyms sind stabil, oder haben sehr lange Halbwertszeiten im Bereich 1015 Jahren. Neodym wird in Hochleistungsmagneten genutzt
Ein paar weitere Isotope können z.B. in der Messtechnik, zum Einsatz kommen. Aus den Stellitrollen der SWR lassen sich 60Co Strahlenquellen fertigen (1) mit denen Gewürze, Obst und Gemüse haltbarer gemacht werden.
Russland berechnet für die Wiederaufbereitung abgebrannten Kernbrennstoffs aus ausländischen Reaktoren, z.B. Bulgarien, 620$/Kg (18). In La Hague, Frankreich werden ausländischen Kunden, z.B. Italien, 1000 €/kg berechnet. (22). Gewonnen werden in der Wiederaufbereitung das Uran und das Plutonium. Bei einem Pu Gehalt des verbrauchten Brennstoffs von 1% ergibt sich bei einem Uranpreis von 66 €/Kg, (17) und einem Faktor von 200 für das Reaktorplutonium, 10g x 200 = 2 Kg Uran, einen Wert für den wieder gewonnenen Brennstoffs von etwa 198 €/Kg. Das bedeutet dass die Wirtschaftlichkeit der Wiederaufbereitung derzeit von den Kosten der vermiedenen Atommüllentsorgung abhängt. Die Extrahierung seltener Elemente aus Atommüll steckt in den Kinderschuhen. Die Weiterentwicklung hin zu einer besseren Wirtschaftlichkeit und der besseren Nutzung aller Reststoffe, ist unbedingt erforderlich um die Wiederaufbereitung von Kernbrennstoff wirtschaftlich attraktiver zu machen. 

4b. Nutzung hochradioaktiver Abfälle als Wärmequelle

Eine wesentliche Eigenschaft des hochradioaktiven Abfalls ist dessen starke Wärmeabgabe.
Ein Block hochradioaktiven Abfalls aus der Wiederaufarbeitung (4J nach der Entnahme aus dem Reaktor) in Frankreich hat einen Durchmesser von 430mm, einen Inhalt von 150L, wiegt 490 Kg und enthält ca. 23% hochradioaktive Abfälle (77% Glasanteil) die in Borsilikatglas eingeschmolzen und mit Edelstahl ummantelt sind. Ein derartiger Block gibt direkt nach der Wiederaufarbeitung bis zu 2 KW Wärme ab (21).  Blöcke hochradioaktiven Atommülls können für mehrere Jahre als Energiequelle in anderen nuklearen Einrichtungen,  beispielsweise in Anreicherungsanlagen zur Erhitzung des UF6, dienen, oder auch für Polarstationen, Militärstützpunkte und Inseln genutzt werden, bis die Radioaktive Wärme weitgehend abgeklungen ist.

Die größte Herausforderung ist es bei einer derartigen Nutzung sicherzustellen dass der Müll nicht durch Gotteskrieger gemopst und zur Herstellung schmutziger Bomben verwandt wird. Der Gedanke an eine derartige Nutzung wurde in den 70er Jahren im Kernforschungszentrum Karlsruhe erwogen. Er wurde jedoch aufgegeben, da eine derartige Energiequelle nicht wirtschaftlich (a) konkurrieren kann, wenn der Müll mit riesigem Aufwand, dem atomrechtlichen Verfahren ausgesetzt, mit staatlich geduldetem Ökologen-Polizisten Prügelspiel (b) zugestellt wird.

5. Deaktivierung des Atommülls durch Mutation der Actinide und Spaltstoffe in nichtradioaktive Elemente

Grundsätzlich kann man die radioaktiven Spaltprodukte und Actiniden in die einzelnen Elemente auftrennen und die kritischen Elemente durch Neutronenbeschuss in nichtradioaktive Stoffe verwandeln. Die Transurane (Minore Actinide), die aufgrund ihrer langen Halbwertszeiten die größte Herausforderung bei dem aus der Wiederaufbereitung verbleibenden atomaren Restmüll darstellen, lassen sich in der Wiederaufbereitung abtrennen.
Ein schneller Brüter mit seiner hohen Dichte schneller Neutronen ist ideal geeignet um die in Leichtwasserreaktoren gebildeten Actinide (Transurane), als Brennstoff zu nutzen. Es gibt Studien bei dem neuem Konzept des SCWFR Reaktors, der sich durch einen hohen Brutfaktor auszeichnet, Targets aus Minoren Actiniden einzubringen (8).
Eine anderer Weg die Minoren Aktinide zu deaktivieren und diese gleichzeitig als Brennstoff zu nutzen sind Beschleuniger, s. Abbildung.
Der Gedanke der Nutzung der Neutronen eines Kernreaktors zur Deaktivierung von Spaltprodukten, oder Neutronen aus einem Neutronenbeschleuniger, s.o. zur Deaktivierung radioaktiver Spaltprodukte ist machbar, ist jedoch sehr aufwendig und eine Verschwendung die der ökoreligiösen Diskussion geschuldet ist.
Es ist eine sehr teure Lösung eines fiktiven Problems. Ein Verschwinden des Atommülls würde keinen Jünger der Ökoreligion von seinem Glauben abbringen.   

6. Endlagerung des radioaktiven Mülls

a.Versenken des Atommülls im Meer:

Eine Möglichkeit leicht und mittelradioaktiven Atommüll preisgünstig zu deponieren ist diesen im Meer zu versenken. Die Weltmeere enthalten 66 Mrd. to radioaktives Kalium40 und 4 Mrd. to radioaktives Uran (Erläuterung h), Thorium, Tritium und viele andere radioaktive Stoffe. Man kann sich leicht ausrechnen das die Menschen die Weltmeere nicht mit den geringen Mengen Atommüll verseuchen können wie sie durch Kernkraftwerke  entstehen. Die Engländer hatten bis 1982 den anfallenden Atommüll im Meer versenkt. Auch die Russen haben z.B. ausgediente Atom U-Boote im Weißen Meer versenkt. Derzeit wird lediglich flüssiger Atommüll im Meer entsorgt. Die natürliche Radioaktivität des Meeres von 12 Bq/l (6) kann  sich jedoch örtlich erhöhen, wenn dieser unachtsam eingeleitet wird. So wurde einst in der Britischen Wiederaufbereitungsanlage Sellafield der flüssige radioaktive Müll über ein Rohr ins nahe Meer eingeleitet. Im Umfeld der Einleitung ist die Radioaktivität noch Heute höher.
b.Vergraben des Atommülls in der Wüste

Der Kernforscher und Physiknobelpreisträger Heisenberg schlug einst vor den Atommüll mit 3 m Erde zu bedecken. Wenn man dies in der Wüste ohne besondere Grundwasserströme vornimmt, z.B. in einer Senke, ist dies unproblematisch. Der Wüstensand bedeckt den Atommüll innerhalb weniger Jahre m-dick. Ein Vorteil liegt darin das der Atommüll in einigen 100 Jahren ohne großen Aufwand wieder ausgegraben werden kann und dann Rhodium, Ruthenium und andere Materialien kostengünstig gewonnen werden können. Schwierig ist jedoch die politische Situation in vielen Wüstenstaaten. Terroristen könnten diesen Müll zum Bau schmutziger Bomben nutzen. Verschwörungsgerüchte könnten die politischen Führungen der Länder destabilisieren. Die Nutzung der Wüsten in politisch stabilen, nichtökoreligiösen Ländern ist ein preisgünstiger, sinnvoller Weg. In diesem Sinne kam in den 80er Jahren eine chinesische Delegation nach Deutschland, die neben einigen Porzellanlöwen auch das Angebot hinterließ den Deutschen Atommüll gegen gutes Geld in der Wüste Gobi abzulagern.

c. Deponieren des Atommülls im ewigen Eis


Die radioaktive Zerfallswärme lässt die Atommüllkokillen  durch das Eis bis zum felsigen Untergrund des antarktischen Kontinents gleiten. 
Die Antarktis ist mit einem bis zu 4000m dicken Eispanzer versehen. Sofern man den stabil verglasten, mit Edelstahl ummantelten, hochradioaktiven Müll (der Eisdruck ist enorm) dort verbringt, wird dieser sich durch seine Wärme mit abnehmender Geschwindigkeit und Radioaktivität durch den Eispanzer schmelzen und irgendwann auf den Fels treffen. Diese Alternative ist elegant und preisgünstig.
Die inländische Durchschnittstemperatur der Antarktis beträgt -55C°. Das antarktische Inlandeis wird auch bei einer signifikanten Erwärmung der Erde durch eine eventuelle Klimaänderung nicht schmelzen. Möglicherweise wird der Kontinent durch die Kontinentaldrift im Laufe von Millionen Jahren an einen wärmeren Platz der Erde wandern. 
Die radioaktive Zerfallswärme des Atommülls ist viel zu gering und die Wärmeleit- fähigkeit des Eises zu gut um das Antarktische Inlandeis zu schmelzen (f).
Derzeit ist die Nutzung der Antarktis durch den Antarktisvertrag verboten. Eine Alternative zur Antarktis könnte der Inlandsgletscher Grönlands darstellen. 

d. Deponierung des Atommülls Untertage

 
Das Bild zeigt die Untertage Atommülldeponie WIPP (USA)
Die meisten Länder haben sich entschieden ihren Atommüll unter Tage in geologisch stabilen Gebieten in Granit, Ton oder Salz zu lagern. Derzeit sind 16 (7) atomare Endlager in Betrieb. Dem in Deutschland geplanten und seit Jahrzehnten blockierten Atommüllager in Gorleben ist die WIPP Anlage in New Mexico (23) (USA) am Ähnlichsten.
In einem Salzstock in New Mexiko wird seit 1999 der  hoch-radioaktive Abfall militärischer Einrich-tungen deponiert. Un-tertagedeponien sind Das Bild zeigt die Untertage Atommülldeponie WIPP (USA) teurer und weniger elegant als die oben genannten Verfahren. Stabile Salzstöcke ermöglichen allerdings einen idealen Abschluss der radioaktiven Abfälle von der Biosphäre über geologische Zeiträume hinweg.
 In Dukovany (Bild links) werden heutzutage die Leicht- und Mittelradioaktiven Abfälle Tschechischer KKW endgelagert. Verglichen mit Asse aus den 60er Jahren, wo der Atommüll tief unter den genutzten Grundwasserschichten liegt, ist dieses eher ungünstiger zu bewerten.
Das Versuchsatommüllendlager Asse setzte im Umfeld der 60er Jahre Maßstäbe (c). Im Vergleich zur vielfach üblichen Deponierung des Leicht- und Mittelradioaktiven Mülls in Betonwannen, z.B. Frankreich, CSR, ist Asse auch nach heutigen Maßstäben eher übertrieben. Allerdings ist auch Asse nicht perfekt. Aus wirtschaftlichen Gründen wurde einst der Salzabbau bis an die Ränder des Vorkommens betrieben. Von außerhalb des Salzstocks drückt das Grundwasser mit ca. 50 bar. Die Hohlräume üben keinen Gegendruck aus. Dadurch sickert etwas Wasser in das ehemalige Salzbergwerk. Es wird von 12m³/Tag geschrieben.
   
  Dies ließe sich allerdings beheben indem man die Hohlräume mit weiteren Abfällen verfüllt, oder einfach flutet wie man dies mit vielen ehemaligen Salzbergwerken getan hat. Letztere Maßnahme hätte zur Folge, dass sich das Wasser im Salzstock mit Salz sättigt und dann als Salzlauge stabil bleibt. Durch ein Auffüllen, oder Fluten des Salzstocks entfällt die Druckdifferenz und der Salzstock kann dann die gebrauchten Kittel und Handschuhe für geologische Zeiträume einschließen. Die meisten Salzstöcke Deutschlands bergen Laugeneinschlüsse die beispielsweise in Gorleben seit 240Mio Jahren stabil sind. Entscheidend ist, dass keine nennenswerte Wasserbewegung stattfindet die Salz aus dem Salzstock spült und diesen im Negativfall auflöst. Der Salzstock in Gorleben wurde noch nicht genutzt. Insofern entfällt diese Thematik.

 

Horst Trummler (Vandale)
Der Beitrag kann als pdf im Anhang herunter geladen werden.
www.oekoreligion.npage.de
Erläuterungen

Solarmüll

Auf dem Gelände der kürzlich verkauften Antec Solar Energy AG in Arnstadt lagern 600 Tonnen Sondermüll. Wie Holger Wiemers von der Landesentwicklungsgesellschaft auf Anfrage von MDR 1 RADIO THÜRINGEN sagte, handelt es sich um 35.000 defekte Solar-Module. Diese müssten in einer Sonderdeponie eingelagert werden, weil sie mit giftigem Kadmium beschichtet seien (10).  Die Produktion einer derartigen Solarzellenfabrik beträgt 1/100 eines KKWs ausgedrückt als Peakleistung. Da die Durchschnittserzeugung weniger als 10% der Peakleistung beträgt und eine Solarzelle wahrscheinlich etwas mehr als 20 Jahre betrieben werden,  kann man das Verhältnis des Problemmülls auf 1/5000 schätzen. (9).
Anbei Bilder der Giftmülluntertagedeponie Herfa-Neurode in der jährlich etwa 200.000 to Giftmüll (alle Kernkraftwerke zusammen 20 to/a nach einer Wiederaufbereitung) endgelagert werden. Darunter PCB-haltige Transformatoren (z.B. Windmühlen), Filterstäube aus Kraftwerken (11), oder arsenhaltige Abfälle (7)wie sie  z.B. bei der Herstellung von Solarzellen auftreten..

a. Die technisch notwendigen Einrichtungen wie ein im Vergleich zu Heizöl größerer Kessel und eine 50cm Betonabschirmung gegenüber der Gammastrahlung ließen sich leicht aus der Brennstoffeinsparung finanzieren.
b Sofern der Staat die Prügelspiele nicht gewollt hätte, hätte man ernsthaft gegen die Organisatoren wie Grüne, BUND usw. als kriminelle Vereinigungen ermitteln können. Regelmäßig wurden Polizeiführer abgesetzt die zu hart mit den Ökologen umgingen.

Es wird zur Zerstörung von Schienen und Straßen aufgerufen.

Das Plakat hing an einer von der Stadt Frankfurt finanzierten Einrichtung

Sofern es sich nicht um geduldete/geförderte linke Kräfte handeln würde, würde man derartige Organisationen analog Rocker, oder NP.. juristisch bekämpfen.

c Asse wurde als Atommüllversuchsendlager für Leicht- und Mittelradioaktiven Müll 1967 in Betrieb genommen, zu einem Zeitpunkt als man chemotoxische Abfälle schlicht vergraben hat, bzw. ganz andere Maßstäbe an die Entsorgung angelegt hat. Aufgrund dessen, daß man Salz bis nahe an den Rand des Salzstocks abgebaut hatte, mußte mit Laugeneinbrüchen gerechnet werden. Dies war bereits in den 60er Jahren bekannt (28). Durch geschickte Skandalisierung (Eine Ameise zum Elefanten aufblasen) ist Asse zum Spektakel geworden anhand dessen die Endlagerung zum Problem erklärt wird.
d Allein der Materialaufwand für die Stromerzeugung aus Windkraftanlagen vs. Kernenergie beträgt ein 37-faches, s. Artikel CO2 Bilanzen.
e. Ausgehend von einem Außendurchmesser v. 9,5mm und einer Brennstabwandstärke von 0,65mm (EPR) ergibt sich bei Dichten von Zirkaloy von 6,5g/cm3 und Uox von 10,4 ein Gewichtsverhältnis von mU/mZ = (8.22 x 10.4)/(6.5 x (9.52 – 8.22) = 4.67. Sofern man die Endstücke, Abstandhalter usw. Hinzufügt erhält man ein Verhältnis von 3:1
f. Wenn man die aus der Wiederaufbereitung stammenden Reststoffe von 400 Kernkraftwerken aus 50 Betriebsjahren in einem Gebiet von 500 x 500Km ablagert, entsprechend 1000 MW Wärmeabgabe (das Abklingen der Radioaktivität und der Wärme ist hierbei nicht berücksichtigt), so ist dies verglichen mit der Sonneneinstrahlung von 55W/m2 und dem natürlichen Erdwärmestrom (Hauptanteil ist der radioaktiver Zerfall im Erdinnern) von 63mW/m², entsprechend 13.750.000 MW vernachlässigbar. Die Eisoberfläche der Antarktis strahlt mehr Wärme in den Weltraum ab, als ihr zugeführt wird.
g. Für den DUPIC Prozess ergeben sich 3 Optionen:
·       Die genutzten hochradioaktiven Brennelemente werden zerlegt, die Brennstäbe in 50cm lange Stücke geschnitten und wiederum verschlossen. (25) Üblicherweise enthalten die Brennstäbe eine Feder um die Brennstofftabletten im Brennstab zu positionieren und ein Spaltgasplenum um einen Überdruck zu vermeiden. Somit erscheint mir fraglich ob dieser Prozess so funktioniert. Dieser Prozess, obwohl einfach , erfordert aber auch Investition in eine geeignete Anlage.  
·       Die genutzten Brennelemente werden zerlegt, der hochradioaktive Brennstoff von den Brennstabhüllen befreit, zu Pulver gemahlen, mit Sauerstoff erhitzt um einen Teil der Spaltprodukte zu entfernen und wiederum zu Tabletten gepresst, in Brennstäbe gefüllt und daraus Brennelemente gefertigt. Dieser Prozess wird in einer Zusammenarbeit von AECL Kanada und der Ukraine entwickelt. (12) Der Prozess erfordert Investitionen in eine geeignete Anlage.
·       Die genutzten Brennelemente werden in einer Wiederaufbereitungsanlage in kochender Salpetersäure zersägt, der Brennstoff löst sich in Salpetersäure auf. Uran und Plutonium werden in TBT gebunden und der von Spaltprodukten befreite Brennstoff zur Fertigung von neuen Brennelementen genutzt. Auf die Trennung von Pu und Uran, wie im Purex Verfahren üblich, kann verzichtet werden. Dieser Wiederaufbereitungsprozess ist erprobt, jedoch sehr teuer!  (s. Artikel Wiederaufbereitung!)
h. Radioaktive Substanzen im Meerwasser
Gem. Wikipedia http://de.wikipedia.org/wiki/Meer  ergibt sich das Volumen der Weltmeere zu  1338 Mrd. km³
Gem. Wikipedia http://de.wikipedia.org/wiki/Kalium die durchschnittliche Konzentration von Kaliumionen bei 399,1 mg K+/kg = 408,4 mg K+/l.  Der Anteil  des  40K beträgt 0,012 %. Daraus ergibt sich:
1,338 x 10exp12  Mrd to  x 408 x 10exp-6 Kg K x 0.12 x 10 exp-3 = 65,5 Mrd to 40k
Uran hat einen Anteil von 3mg/m3 im Meerwasser resultierend in = 4 Mrd. to Uran.
Der Anteil an Thorium, Radium, Rhadon, wurde nicht berücksichtigt.
Verwendete Quellen:
1.             Homepage Fa. Hoefer & Bechtel
2.             Kernenergie u. Kerntechnik Lothar Lüscher
3.  Abbildung aus "Will time heal every wound?" (Monitor 17), Swedish     Environmental Protection Agency. (Das Buch ist über Miljobokhandeln erhältlich)
4.         Referat Prof. Horst Michael Prasser ETH Zürich gehalten am 29.05.08 in Lausanne
5. Uran limitierender Faktor für die Kernenergie Ohnemus Gronau 2006
6. Umweltradioaktivitaet. und Strahlenbelastung BMU Jahresbericht 2001 * gem. Diesem Bericht liegt die Radioaktivität des Meerwassers bei 12 Bq/l.
7. Wikipedia
8. CORE DESIGN ANALYSIS OF THE SUPERCRITICAL WATER FAST REACTOR Dissertation von Dr. Ing. Magnus Mori
9. Gegenwärtig verfügt die Antec Solar Energy AG am Produktionsstandort Arnstadt über 10 Megawatt (MW) Produktionskapazitäten. Der thüringische Standort bietet
www.solarserver.de/solarmagazin/artikelmai2005.html – 36k – Im CacheÄhnliche Seite
10. http://www.mdr.de/mdr1-radio-thueringen/nachrichten/5616073.html 26. Juni 2008, 18:44 Uhr
11. http://www.ks-entsorgung.com/standorte/neurode.cfm. Homepage Zugriff vom 23.11.08
12. http://www.world-nuclear-news.org/C-Canadian_technology_agreement_with_Ukraine-3005084.htmlCanadian technology agreement with Ukraine
xx
13. Köster, S.: Relevante Abfallströme für eine Immobilisierung, Tagungsband des 15. Aachener Kolloquiums Abfallwirtschaft im Dezember 2002
14. http://www.sueddeutsche.de/wissen/647/301644/text/ SZ Wissen 12/2006 (20.10.2006)
15. Strahlenschutzpraxis (Zeitschrift) Ehrlich, Dietrich/ Schulze, Hartmut/ Schlagwort(e)Endlagerung konventionelle Abfälle radioaktive Abfälle Heft/Jahr4/2003Seite/Seitenzahl61/5
16. Mangel an medizinisch verwendbaren Isotopen 
17. http://www.uxc.com/review/uxc_Prices.aspx UxC Nuclear Fuel Price Indicators (Delayed) Zugriff v.25.02.2010 , Preis U3O8 66,16 €/Kg
18. http://www.world-nuclear.org/info/inf87.html World Nuclear Organization Nov08
19. http://www.metal-pages.com/metalprices/

Zugriff 26.03.2010
1 tr Oz = 31,1g → 1 kG Rhodium 88424$ = 65499 €
20. http://en.wikipedia.org/wiki/Technetium 18.02.09
21. FZKA6651 Forschungszentrum Karlsruhe, Wissenschaftliche Berichte, Endlagerrelevante Eigenschaften von hochradioaktiven Abfallprodukten, Bernhard Kienzler, Andreas Loida, 2001 S64 des Dokuments
22. Areva Pressemitteilung  09.05.07 http://www.areva.com/servlet/news/pressroom/pressreleases/cp_07_05_2007-c-PressRelease-cid-1177488959131-p-1140584426338-en.html
23. Homepage von WIPP http://www.wipp.energy.gov/ U.S. Department of Energy
4021 National Parks Highway Carlsbad, New Mexico 1-800-336-WIPP Zugriff 16.08.09 Atommüllendlager der USA für den in militärischen Anlagen anfallenden hochradioaktiven Müll, als Pilot Plant deklariert.
24. http://www.lahague.areva-nc.com/areva-nc/liblocal/docs/download/Usine%20de%20la%20hague/LH-usine-la-hague-DT-6-en.pdf
25. Processing of Used Nuclear Fuel, WNA, oct 09, http://www.world-nuclear.org/info/inf69.html
26.   http://www.metal-pages.com/metalprices/neodymium/

Zugriff 22.10.2010
95$/Kg = 68 €/Kg
27.Silber .de http://www.silber.de/silberpreis.html

28. http://www.strom-magazin.de/strommarkt/endlager-papst-moegliches-absaufen-der-asse-schon-lange-bekannt_27208.html

06.11.2009, 14:21 Uhr

"Endlager-Papst": Mögliches Absaufen der Asse schon lange bekannt

29. http://www.ebullionguide.com/price-chart-ruthenium-last-6-months.aspx Zugriff 26.03.2010  190$/oz entspricht  4540 /Kg

30. WNN News 24.03.2010 http://www.world-nuclear-news.org/ENF-Chinese_reactor_trials_Candu_fuel_reuse-2403101.html

Related Files




Welche Rolle spielen Treibhausgase ?- Teil 1

Seit gut 20 Jahren erzählen das IPCC und deren Anhänger, Treibhausgase (THG), die wir Menschen ausbringen, würden den Temperaturgang maßgeblich beeinflussen und damit das Klima auf der Erde steuern, weil Sonnenaktivität und Temperaturgang seit 30 Jahren auseinander laufen würden. Noch jüngst behauptete der Direktor des MPI-M, Prof. Marotzke: “Der größte Teil des beobachteten Anstiegs der mittleren globalen Temperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich (Wahrscheinlichkeit höher als 90%) durch den beobachteten Anstieg der anthropogenen Treibhausgaskonzentrationen verursacht.“ Die Sonne kommt als Verursacher der Erwärmung nicht mehr vor und findet keine Erwähnung. Vielleicht sollte Herrn Prof. Marotzke eine Studienreise in die Sahara und zum Nordpol spendiert werden, um zu erfahren, welche Kraft in der Sonne steckt und welche Erwärmung von ihr ausgeht. Der folgende Artikel, der auch als Lernbeitrag in Meteorologie für Herrn Prof. Marotzke dient, wird zeigen, dass zur Erklärung des Temperaturgangs, sowohl der leichten Erwärmung bis zum Ende des 20. Jahrhunderts, als auch die seit 10 Jahren zu verzeichnete Abkühlung, keine THG notwendig sind, sondern die Sonne über die Hadley-Zellen und von dort über die globalen Windsysteme das Wetter und die Temperaturen bis in die Gegenwart allein steuert.

Teil 1: Manipulationen zur Aufrechterhaltung der behaupteten Rolle der THG und  deren Aufdeckung – globaler Temperaturgang

In seinem EIKE-Beitrag "La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld" vom  24.01.2011 (http://www.eike-klima-energie.eu/climategate-anzeige/la-nina-und-el-nino-was-sich-dahinter-verbirgt-und-was-sie-wann-ausloest-die-sonne-ist-an-allem-schuld/) hatte der Autor folgende Abbildung gezeigt und textlich wie folgt hinterlegt.

 

Abbildung 1 “zeigt die sich ändernde Strahlungsabgabe (Variabilität, TOP = Top Of Atmosphäre) der Erde im Zeitraum 1984 – 2005 aus Satellitensicht. Der Hub zwischen Min. – Max. beträgt 7 W/m2. Die Abbildung ist übrigens ein eindeutiger Beweis, dass die globalen Temperaturreihen, wie sie jüngst wieder medienwirksam veröffentlicht wurden und das Jahr 2010 als wärmstes ausweisen wollen, gefälscht sind, weil die Temperaturreihen nicht zur langwelligen Abstrahlung (Wärmeabstrahlung) der Erde, die sich aus ihrer Temperatur ergeben, passen.  Siehe hierzu (http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1).“ Anmerkung: Dieser Beitrag zeigte, dass die Temperaturreihen 2010 der WMO auf Manipulationen beruhen.

Da Abbildung 1 die sich ändernde Wärmeabstrahlung der Erde zeigt und nach Planck und Newton die Wärmeabstrahlung im direkten Zusammenhang zur Temperatur des abstrahlenden/abgebenden Körpers steht, zeigt die Abbildung, dass sie weder zum globalen Temperaturgang, noch zum globalen atmosphärischen CO2-Pegel passt (Abbildung 2).

 

Während sich die Abstrahlung der Erde und damit ihr Temperaturniveau von 1984 – 1997 in der Tendenz nicht ändern und erst ab 1997 – 2005 ansteigen, zeigt die Zeitreihe der globalen ermittelten (berechneten) Temperaturzeitreihe nach Jones, die als Grundlage der IPCC-Betrachtungen gilt, ab 1960 steil nach oben (Pfeil). THG als Erklärung scheiden von vorneherein aus, da diese nicht das volatile Verhalten, sprich die Schwankungen in der Abstrahlung erklären können. Dass es sich bei der Zeitreihe nach Jones um keine wahrheitsgemäße Wiedergabe des globalen Temperaturgangs handelt, dazu gleich mehr.

Anmerkung:

Ungeachtet der Trendverläufe muss erwähnt werden, dass globale Temperaturen generell nicht real sind – die Sahara-Temperaturen sind bekanntlich anders als die unsrigen – sondern statistisch berechnet werden, wozu komplexe Algorithmen (Formeln) verwendet werden. Wenn in diesem Artikel von Globaltemperaturen die Rede ist, so handelt es sich stets, wie auch beim IPCC, um statistisch ermittelte Werte.

Wenn die Abstrahlung der Erde als Maß ihrer Erwärmung, bzw. Abkühlung nicht dem vom IPCC ausgewiesenen globalem Temperaturgang folgt, durch was wird sie bestimmt? Die Antwort gibt Abbildung 3.

Abbildung 3 links zeigt die Häufigkeit der solaren Neutronenströme pro Jahr als Maß solarer Aktivität, Quelle: Dr. Borchert (Uni Mainz), “Klima, Sonnenflecken und kosmische Strahlung“. Deutlich ist das gleiche Muster (Fingerabdruck, grüne Kreise) zu erkennen. Weiter ist sehr transparent zu sehen, wie der Ausbruch des Pinatubo in 1991 (blauer Balken), der die Erdtemperaturen für ca. 2 Jahre um bis zu 0,8°C senkte, die langwellige Erdabstrahlung (abhängig von der Temperatur) ebenfalls ins "Minus" lenkt, obwohl die Neutronenströme und damit die solare Aktivität hoch ist. Bereits Abbildung 3 gibt die entscheidenden Hinweise, was die Wärmeabstrahlung der Erde und damit ihr Temperaturniveau steuert.

Fälschungen der Temperaturreihen haben eine lange Tradition.

Schon mehrfach wurde bekannt, dass weltweite Zuträger des IPCC die Temperaturganglinien passend machten. Die bekanntesten Beispiele sind der sog. Hockey-Stick von Prof. Mann und die “Tricks“ die angewendet wurden, das heutige Temperaturniveau als besonders hoch ausfallen zu lassen (Climategate – EIKE berichtete ausführlich darüber). Ein Beispiel zur Erinnerung. Die Daten aus Baumringen, die bis weit ins 20. Jahrhundert keine Erwärmung auswiesen, wurden einfach ab Anfang des 20. Jahrhunderts abgeschnitten und durch gemessene Werte ersetzt. Was auf den ersten Blick manchem vielleicht harmlos erscheinen mag oder gar korrekt, ist jedoch dreiste Fälschung, da aus einer Methodik zum ermitteln des Temperaturganges (Baumringe) nur die Werte genommen wurden, die zum gewünschten Ergebnis passen (niedrige vorindustrielle Werte) und die Werte, die nicht passten (niedrige industrielle Werte), durch passende Werte ersetzt wurden. Die Messreihe aus Baumringen, ging bis ca. 1980 und nur die daraus ermittelten Werte sind auch miteinander vergleichbar (!) und zeigten, wie gesagt, keine Erwärmung. Die ab 1900 angesetzten, gemessenen Werte sind nicht (!!) mit den Werten aus den Baumringen vergleichbar, da sie vollkommen anders ermittelt werden. So etwas wird Manipulation genannt. Prof. Mann ging noch dreister vor, indem er zum einen Datenauswahl und statistische „Tricks“ vornahm und zum anderen, Bäume (Proxys) auswählte, die nur eine Wachstumsperiode von 6-8 Wochen im Jahr haben und daher auch nur 6-8 Wochen von 52 Wochen die Temperatur „sehen“. An mindestens 44 Wochen im Jahr daher für eine Temperaturaussage „blind“ sind. Der Autor mag sich jetzt ein Wortspiel zum IPCC und deren Mitläufern verkneifen.

Dank Herrn Prof. Ewert wurde weiter bekannt, dass das GISS (Goddard Institute for Space Science) in Abwandlung, sich weiter dieser Fälschungsmethodik verschreibt: Die Werte, die für das gewünschte Ergebnis brauchbar sind, werden belassen und die, die unbrauchbar sind, entfernt. Prof. Ewert fasste dies in seiner Untersuchung, GISS „korrigiert“ seine Temperaturdaten, zusammen. Die Manipulation wurde vom GISS in 2011, also knapp zwei Jahre nach Climategate vorgenommen. Nun verwundert es nicht mehr, dass ich zu dem angeblich so warmen Jahr 2010 auf EIKE schrieb, dass die Aussage der WMO zur andauernden Erwärmung, nicht der Realität entspricht. Herr Prof. Ewert konnte anhand der Überprüfung von über 800 Messstationen, massive Fälschungen beim GISS nachweisen. Hier zwei Beispiele:

 

Abbildung 4, Quelle: Prof. Ewert. Nur zwei Beispiele, wie durch Datenmanipulation das GISS eine künstliche Erwärmung zaubert. Links die Werte, die noch 2010 ausgewiesen wurden, rechts der neu designte Temperaturgang der „Künstler“ der Global-Warming-Fraktion. Diese Erwärmung ist in der Tat menschen-gemacht! 2011, knapp zwei Jahre nach Climatgate: “Ist der Ruf erst ruiniert, regiert sich´s völlig ungeniert.“ Ein wohl jedem geläufiges Sprichwort.

Wir Naturforscher unter den Klimaforschern oder besser gesagt, unter den Klimatricksern, brauchen weder THG, Tricks, Manipulationen oder gar Fälschungen,  noch Wahrscheinlichkeiten, um den Temperaturgang zu erklären. Hierzu reichen allein Naturbeobachtungen. Im Besonderen, die der Sonne und der globalen Wettersysteme.

Abbildung 5 zeigt die gemittelte, globale Temperaturentwicklung im Zeitraum von 1979 – Januar 2012. Der geglättete Kurvenverlauf zeigt eine Wellenform mit einer Periode von im Mittel 7,5 Jahren (http://www.climate4you.com/GlobalTemperatures.htm). Dies spricht für einen natürlichen Einfluss. Um es vorweg zu nehmen, es ist der "Kleine-Landscheidt-Zyklus" der Sonne. Der Autor berichtete in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ (Teil 3, Abbildung 43) darüber.

Weiter zeigte ich bereits am 24.01.2011 (http://www.eike-klima-energie.eu/climategate-anzeige/la-nina-und-el-nino-was-sich-dahinter-verbirgt-und-was-sie-wann-ausloest-die-sonne-ist-an-allem-schuld/), dass der globale Temperaturgang El Niño-Ereignissen unmittelbar folgt und welche solaren Ereignisse diese, wann auslösen. Dazu habe ich den Zeitraum betrachtet, der angeblich von der Sonnenaktivität abgekoppelt sein soll.

Abbildung 6 zeigt nach Solanki et al., dass anhand des TSI (Total Solar Irradiance) ab ca. 1980 Sonnenaktivität und globaler Temperaturgang (rot) auseinanderlaufen würden.

Nun ist der TSI grundsätzlich ungeeignet, eine Aussage über die solare Aktivität anzugeben. Dies mag auf den ersten Blick verwundern, da der TSI doch auch von Satelliten gemessen wird. Die Lösung ist jedoch denkbar einfach. Die Satelliten können nur das aufnehmen, wofür das Messgerät ausgelegt ist und die Messgeräte der Satelliten nehmen nur den Wellenlängenbereich zwischen 200 nm und 2.000 nm auf. Also nur einen kleinen Energiespektralbereich der Sonne. Dies ist der Teil, der auf die Erdoberfläche gelangt. Will man heutige, gemessene Werte des TSI mit rekonstruierten vergleichen, so bietet sich diese Vorgehensweise an, da der Proxy, der sich logischerweise auf der Erde befindet, natürlich auch nur den Teil der Sonnenaktivität sieht, der auf die Erdoberfläche gelangt. Nun ist das Wetter bekanntlich der Teil aus dem sich das Klima zusammen setzt und das Wetter wird nun einmal nicht auf der Erdoberfläche „gemacht“, sondern in der Tropo- und Stratosphäre und dorthin gelangt ein größeres Energiespektrum der Sonne. Von den indirekten Einsflüssen der Sonne auf die Erde (Wolkenbedeckung = Svensmark-Effekt) ganz zu schweigen. Der TSI blendet darüber hinaus gerade die Energiespektren aus der Sonne aus, die besonders variabel sind. So ändert sich der TSI über den Sonnenzyklus (Schwabe-Zyklus) kaum – nur 0,1 bis 0,2%. Beim UV-Anteil ist dies bereits gänzlich anders. Er ändert sich um bis zu 35% und beim Röntgenanteil, aus dem auf die indirekten Einflüsse der Sonne auf die Wolkenbedeckung geschlossen werden kann, um das 100-fache! Abbildung 7 zeigt das Sonnenspektrum und seine Reichweite in die Erdatmosphäre.

Abbildung 7 links zeigt das Sonnenspektrum nach Daten des High Altitude Observatory am NCAR (National Center for Atmospheric Research) und rechts, neben den Temperatur- und Dichtegradienten der Erdatmosphäre, die wirksamen Wellenlängenbereiche der Sonnenstrahlung und deren Eindringtiefe in die Atmosphäre, Quelle: (http://www.physorg.com/news198429352.html).

Von „Total“ kann also beim TSI keine Rede sein. Sein Wording ist demnach eine bewusste Mogelpackung. Soll die ganze Sonnenaktivität betrachtet werden, müssen andere Parameter ausgewertet werden. Einer davon ist die Korona, also die Sonnenatmosphäre. Diese zeigt im Aktivitätszyklus der Sonne interessante Eigenschaften. So springt sie plötzlich auf ihren nahezu doppelten Temperaturwert (Abbildung 9). Da die Korona der Teil der Sonne ist, der über den Sonnenwind direkt mit der Erde verbunden ist, liegt es nahe, sie mit dem Wettergeschehen der Erde in Relation zu setzen.

Abbildung 8 links (Quelle: http://www.ngdc.noaa.gov/stp/SOLAR/solarda3.html) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg auf der Erde, die Strahlungsleistung der Korona stark (ca. 25%) ansteigt. Der TSI-Wellenlängenbereich bildet die Koronatemperatur und damit ihr Energiespektrum gar nicht ab. Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die fragwürdige globale Temperaturentwicklung nach Jones. In der Satelliten-gestützen Zeitreihe aus Abbildung 5 ist der Anstieg in der Temperatur im Betrachtungszeitraum von 1979 – 1995 ebenfalls vorhanden, jedoch moderater.

Abbildung 9 unten zeigt die sich ändernde Koronatemperatur der Sonne. Deutlich zu sehen, dass nach dem Einschalten der Koronazusatzheizung (wenn die Koronatemperatur auf nahezu ihren doppelten Wert „springt“) ein El Niño ausgelöst wird und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Das blaue Rechteck gibt den Zeitpunkt an, ab wann nach einem Sonnenminimum im Schwabe-Zyklus, die Koronatemperatur auf nahezu ihren doppelten Wert (ca. 2 Millionen Kelvin springt). Da die Koronatemperatur nur aus dem Weltraum aufnehmbar ist und kontinuierliche Daten deshalb erst seit gut 20 Jahren vorliegen, wurden ihre „Schaltpunkte“ rekonstruiert. Dabei wurden die Zeitabstände (blaue und grüne Rechtecke) exakt beibehalten und betrachtet, ob diese mit weiteren El Nino-Ereignissen zusammen fallen. Dies ist eindeutig der Fall und zwar nach exakten Zeiten (!) 11 Monate, nachdem sich die Temperatur der Korona verdoppelte, erreicht ein starker El Niño sein Maximum.

Jedoch zeigt die El Niño 3.4-Reihe, dass im betrachteten Zeitraum, in dem laut IPCC-Anhängern, die Erdtemperaturen von der solaren Aktivität abgekoppelt sein sollen, noch mehr El Niño-Ereignisse stattfanden. Demnach muss es noch eine weitere solare Aktivität geben, die auf der Erde einen El Niño auslöst. Die Antwort, um welche solare Aktivität es sich handelt, gibt die Abbildung 10. Es ist die unmittelbare magnetische Aktivität der Sonne. Ihr solares magnetische Maximum.

 

Abbildung 10 zeigt nochmals die Abbildung 9. Darüber hinaus die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Bleibt noch die Frage zu beantworten, was die grün und rot umrundeten schwächeren El-Niño-Ereignisse auslöst. Die Antwort für das rot-umrundete in 2005 lässt der Autor die NASA und zwar deren Sonnenforscher David Hathaway vom September 2005 geben: “http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm)

Die Antwort für die grün umrundeten gibt bereits die Datenreihe von der Max Planck Gesellschaft und zwar die grüne Datenreihe, die das magnetische Polarfeld der Sonne zeigt. Der Autor möchte Ihnen dieses anhand der Sonnenwindaktivität weiter belegen (Abbildung 11).

 

Abbildung 11 (Quelle: http://www.leif.org/research/files.htm) zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s von 1880 – 2009, nach Leif Svalgaard. Blau, aus dem IHV (Inter-Hour Variability-Index) und IDV (Inter Diurnal Variability) rekonstruiert, rot sind direkt gemessene Werte. Nun muss man wissen, dass der schnelle Sonnenwind entweder aus dem Nonaxisymmetric Open Flux, dort von starker solarer magnetischer Aktivität (z.B. ño-Datenreihe verglichen, so ist Übereinstimmung festzustellen.

Das Max Planck-Institut für Sonnensystemforschung (MPS) nennt die Polfeldaktivität Coronal Hole associated storms (“Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“), Abbildung 12.

 

Abbildung 12 zeigt die solare magnetische Aktivität im Zeitraum von 1930 – 2000 (Quelle: MPS).

Abschließend ist festzuhalten, dass El Niño-Ereignisse durch drei solare Ereignisse unmittelbar ausgelöst werden:

1) Dem Einschalten der Koronaturboheizung, wenn deren Temperatur verdoppelt wird

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Dem Polarfeld der Sonne (schwache El-Niño)

Was hat nun ein im Pazifik stattfindendes El Niño-Ereignis mit den globalen Temperaturen zu tun? Wie Abbildung 13 zeigt, sehr viel, um nicht zu sagen, so gut wie alles. Warum dies so ist, gleich mehr.

Abbildung 13 zeigt nochmals den in Abbildung 5 gezeigten gemittelten, globalen Temperaturgang und dazu den El Niño 3.4, wie er von der NOAA (amerikanische Wetterbehörde) für La Niña/El Niño-Ereignisse verwendet wird. Deutlich ist zu sehen, dass jedes El Niño-Ereignis exakt mit den positiven Ausschlägen (Erwärmungsphasen) in der globalen Temperatur übereinstimmt. Das Gleiche gilt im umgekehrten Fall für seine Schwester La Niña.

Im Teil 2 erfahren Sie, dass El Niño-Ereignisse auf der ganzen Erde Auswirkungen haben und warum dies so ist und, wie die solaren Aktivitätsschwankungen die Hadley-Zellen moderieren und wie dies Auswirkungen auf der ganzen Erde hat. Weiter werden dazu die Erklärungen gegeben, warum dies ist und aus physikalischen Grundgesetzen gar nicht anders sein kann. THG werden zur Erklärung einer Erwärmungs- oder Abkühlungsphase nicht benötigt, da sie erkennbar keine Rolle spielen. In der Naturbeobachtung treten sie nicht in Erscheinung, einzig in Computerspielen des PIK oder sonstiger, am Fördertropf hängender Institute.

Raimund Leistenschneider – EIKE

Zum Abschluss mochte ich unseren Lesern noch ein anschauliches Beispiel zukommen lassen, welches von einem Vorkämpfer der wissenschaftlichen Aufklärung in Sachen THE und THG stammt und den Autor erreichte. Das Beispiel zeigt anschaulich, dass es in der Physik und damit Realität keinen THE gibt, da der Boden die Atmosphäre erwärmt und nicht die Atmosphäre – die dortigen sog. THG – den Boden:
"Sehr geehrter Herr Leistenschneider,
besten Dank für Ihre Überlegungen. Darf ich als kleiner Wetterfrosch eine Anmerkung machen, denn als Frosch kann man nur überleben, wenn man die Natur genauestens beobachtet und daraus Schlüsse zieht.
Heute am 27. März hatten wir in Oppenheim (128 m über NN) folgende Temperaturwerte:
07 Uhr: 200 cm 8,4 °C, 20 cm 7,7°C und -5 cm (Bodentemperatur) 9,4°C
10 Uhr: 200 cm 10,6°C, 20 cm 11,6°C und -5 cm 9,9°C
12 Uhr. 200 cm 14,1°C, 20 cm 16,2°C und -5 cm 12,6°C
Um 7 Uhr betrug die Globalstrahlung 9,0, um 10 Uhr 386,0 und um 12 Uhr 1352,0 Wh/m2. Diese Werte nach klarer Nacht lassen nur einen Schluss zu: Einen Treibhauseffekt gibt es nicht!
Die Bodenoberfläche ist nachts die Kühlfläche und am Tage die Heizfläche für die aufliegende Luft. Die Energiequelle ist die Sonne. Sie strahlt aber nur am Tage, während die Erde rund um die Uhr strahlt!
Und nun noch der Nachmittag. Während die 200 cm Temp. Von 19,3°C um 16 Uhr noch auf 19,7°C um 17 Uhr stieg, sank die 20 cm Temp. von 20,7°C auf 20,6°C. Kurz vor 17 Uhr wurde die Ausstrahlung größer als die Einstrahlung, die Bildung einer Bodeninversion hatte begonnen.
Dies noch zur Abrundung! Jedenfalls für eine Gegenstrahlung kein Hinweis, geschweige denn ein Beweis!
Mit freundlichen Grüßen
Wolfgang Thüne
Teil 2 finden Sie hier
Der vollständige Beitrag ist im Anhang als pdf herunter ladbar

Related Files




Wird Strom zum Luxus? Eine Analyse der HR TV-Talkshowsendung vom 28.3.2012

Eine erste Irritation erzeugte beim aufmerksamen Zuschauer die Einleitung Tichys, die die steigenden Preise für Erdöl und Gas ansprach, um die sich dann die erste Diskussion entspann (entsprach dies dem Titel der Sendung?). Frau Kemfert fing den von Tichy in die falsche Richtung geworfenen Ball geschickt auf und verband die geopolitischen Risiken des Erdöls mit der Notwendigkeit, Ökoenergie (= Ökostrom) voranzutreiben. Erdöl trägt indessen zur deutschen Stromerzeugung praktisch nichts bei, so dass die Einleitung Tichys in einem schulischen Deutschaufsatz wohl mit der Anmerkung „Thema verfehlt“ versehen worden wäre. Hierzulande wird die elektrische Energie vorwiegend aus Stein-, Braunkohle von zusammen grob 43% und (früher) aus Kernkraft etwa 22% erzeugt.

Die nächste Frage Tichys zu steigenden Energiepreisen richtete sich an Frau Scheel. Ihre Antworten erschienen dem Autor, er bittet die Dame um Verzeihung, ein wenig chaotisch und ohne Informationswert. Der Autor hat Verständnis für ihre Verwirrung, denn die schwierige Aufgabe, dem Verbraucher höhere Strompreise bei zunehmend unsicherer Versorgung mit Elektrizität schmackhaft zu machen, hat es in sich und wäre bei der wesentlich geschmeidiger argumentierenden Frau Kemfert besser aufgehoben gewesen. Man spürte, wie Frau Scheel zunehmend unsicherer wurde und konnte unschwer erraten, welche Frage ihr im Kopf umherschwirrten: „War es richtig, Preissteigerungen zuzugeben und  den Staat als großen Preistreiber zu brandmarken“?

Videoausschnitt aus  HR Meinungsmacher mit Fritz Vahrenholt: Teure Energiewende – Wird Strom zum Luxus? Sendung vom 28.03.12

Glücklicherweise stimmte Vahrenholt Frau Scheel in ihrer Brandmarkung des Staates als Preistreiber zu. Ihr wird vermutlich ein Stein vom Herzen gefallen sein, war sie mit ihrer problematischen Aussage nun nicht mehr allein. Tichy entfernte sich weiter vom Thema der Strompreise hin zu steigenden Benzinpreisen vor Ostern. Man war versucht, ihm „bitte endlich zum Thema Strompreise kommen!“ zuzurufen! Nur Frau Kemfert bewegte sich bei diesem Diskussionsgewirr wie ein Fisch im Wasser und verband die steigenden Benzinpreise mit einem Appell an die Autofahrer, mehr Biosprit zu tanken. Ihr sind natürlich die berechtigten Vorbehalte der Autofahrer zu diesem Treibstoff bestens bekannt, ebenfalls die durch Biosprit erzeugten Umweltschäden. Sie ist daher eine knallharte Ökoaktivistin, die ungerührt und mit hervorragenden propagandistischen Fähigkeiten ihre Sache verkauft – Respekt! So kann man gutgläubige Seelen fangen. Mit größter Ruhe stellte sie nebenbei auch noch die Behauptung auf, bei der Gewinnung von Erdöl aus Ölschiefer würde mehr Energie verbraucht als mit dem Verbrennen des Erdöls gewonnen wird. Ob sie dies wirklich ernst gemeint hat? Nebenbei: was die inakzeptablen Umweltschäden bei der kanadischen Ölschieferbearbeitung betrifft, stimmt ihr der Autor uneingeschränkt zu. Er ist ebenfalls ein Gegner dieses Erdöls, jedenfalls solange, wie diese Umweltschädigung nicht beendet wird. 

Der nächste Themenpunkt Tichys kam dann endlich zum Thema. Es ging um die  „Solarabzocker“. Hier waren sich alle einig, schließlich steht das Solardesaster inzwischen in den Tageszeitungen. „Überförderung“ war das einhellige Urteil.

Frau Scheel verstieg sich zu der Behauptung, dass allein die Transparenz der Investments in regenerative Energien (hat dieses Wortungetüm jeder Zuschauer verstanden?) die Einführung von regenerativen Energien rechtfertige. Dass derart Unsinniges im öffentlich rechtlichen Fernsehen zu hören ist, kennzeichnet seine Qualität. Immerhin gab es zu diesem Statement von Frau Scheel ein deutlichen Augenbrauenhochziehen und eine kurze kritische Anmerkung des Moderators Tichy.

Dann bezeichnete Frau Scheel die kommenden Preissteigerungen infolge weiterer Solaranlagen und Windtubinen als totalen Quatsch. Na, liebe Frau Scheel, warten wir diesen Quatsch doch einfach einmal ab! Immerhin sprach sie weiter davon, dass es sich bei Solar lediglich um eine Anschubfinanzierung handele, die irgendwann einmal ausläuft. Hier hätte man gerne von ihr noch ein paar detaillierte Worte zum „irgendwann“ und ihrer Einschätzung gehört, wie denn nun Solarstrom im freien Wettbewerb jemals marktfähig werden könne. Schließlich sind gem. des von ihr mitverantworteten EEG die Bezüge für jeden Betreiber auf 20 Jahre festgeschrieben worden. Da diese Förderung 2001 begann, werden die ersten (noch winzigen) Fördermittel ab 2021 auslaufen. Aber auch dann beginnt das "irgendwann" noch nicht, weil die Höhe der Fördergelder seitdem fast exponentiell angestiegen ist.

Endlich fiel jedem Zuschauer und auch den Teilnehmern der Diskussionsrunde (Tichy ausgenommen) auf, dass der einzige, sich später als kompetent erweisende Gast, Fritz Vahrenholt, kaum zu Wort kam. Wer sich die Mühe machen würde, die Gesamtredezeiten zu notieren, käme bei Scheel und Kemfert zusammen auf vielleicht 80% und bei Vahrenholt auf 20% – es war vielleicht eine Vorgabe der Sender-Redaktion, Vahrenholt nicht zu Wort kommen zu lassen, die Gründe wird man wohl nicht kennenlernen. Das Ungleichgewicht wurde inzwischen so peinlich, dass es sogar Frau Kemfert zu viel wurde, sie in ihrem kaum zu unterbrechenden Redefluss ausdrücklich auf Vahrenholt hinwies und ihm damit fairerweise den Ball zuspielte. Dieser ergriff schließlich unter Umgehung Tichys eigenmächtig das Wort zum laufenden Thema der Solarenergiekosten. Erst dadurch wurde jetzt die Sache turbulent, sachlich brauchbar und für den Zuschauer interessant. Als Scheel auf die in der Solarbranche entstandenen Arbeitsplätze hinwies, warf Vahrenholt kühl ein, es seien chinesische und stach damit in ein Wespennest.

Und dann, aus heiterem Himmel, der der bisherigen Diskussion gegenüber, um es vorsichtig auszudrücken, etwas hilflose Tichy lief völlig unerwartet zu großer Form auf und brachte ein knallhartes, anschauliches Beispiel einer sehr großen Solaranlage, bei der alles, von der Hardware bis hin zu den Arbeitern, ausländisch war bzw. im Ausland gefertigt wurde – Entsetzen bei den beiden Ökodamen.

Was auf diese Provokation Tichys von Frau Scheel entgegnet wurde, übergeht der Autor mit Stillschweigen. Er ist kein Sadist, wand sich daher im Fernsehsessel ihrer Antworten wegen und bekam schließlich Mitleid.  Frau Scheel wurde von der  Breitseite Tichys anscheinend völlig unvorbereitet überrascht. Ihre Verwirrung und ihr Ungeschick, mit nachvollziehbaren sachlichen Argumenten Tichy zu entgegnen (das war auch schwer, denn die gibt es schließlich nicht) war schrecklich mitanzusehen und mitanzuhören.

Und dann noch eine weitere Breitseite von Tichy, der in leisem, ein wenig unheimlichen und ungemein freundlichen Ton weitere „Unverschämtheiten“ gegen Öko vorbrachte. Er verkündete die politisch inkorrekte Wahrheit, dass praktisch alle Solarunternehmen Deutschlands pleite sind. Allmählich wurde Tichy dem Autor und vermutlich auch allen, an objektiver Information interessierten Zuschauern sympathisch, weil er nun endlich der Aufgabe eines guten Moderators, der auf den Punkt kommen und harte Fragen stellen muss, nachkam und seine ungenügende Moderation im ersten Drittel der Sendung allmählich vergessen ließ. War seine Eingangsstrategie des Themenumwegs vielleicht sogar gewollt? Schwer zu sagen.

Frau Kemfert antwortete, wie immer, aalglatt. Die Überförderung wurde von ihr eingeräumt und an die Innovationsfähigkeit der Unternehmen appelliert. Innovation? Wo ist in den Techniken „Solar“ und dem mittelaterlichen Verfahren der Windmühle noch echter Innovationsspielraum, von technischen Details abgesehen? Der Wirkungsgrad von Solarzellen ist kaum noch zu steigern, der von Windmühlen naturgesetzlich sowieso nicht. Letztere kann man nur immer größer machen und stößt hier aktuell an die technisch-wirtschaftlichen Grenzen. Leider kam Vahrenholt hier nicht zum Eingreifen, es wäre vermutlich hörenswert gewesen. Dann wieder Scheel, die von „Wirkungsgradverdoppelung“ sprach. O heilige, höhere Mächte – wo und welcher Wirkungsgrad?? Weiß Frau Scheel überhaupt, worum es sich bei dem Begriff "Wirkungsgrad" handelt? Vahrenholt redete schließlich Tacheles, als er auf die Intensität der Sonneneinstrahlung in Deutschland hinwies, die etwa der von Alaska entspricht. Ausgerechnet hierzulande sind aber 50% aller Solaranlagen weltweit installiert, die besser in die Sonnengürtel der Erde (Sahara etc.) gehören – so Vahrenholt.

Dann ging es endlich zum wichtigsten Ökopfeiler, der Windenergie. Tichy moderierte jetzt recht gut, und auch Vahrenholt kam vermehrt zu Wort. Vahrenholts sachliche, vergleichende Beschreibung der Windenergiekosten war einwandfrei, dieser Bestandsaufnahme war kaum etwas hinzuzufügen. Sein Hinweis auf die ungeheure Schädigung von Wald und Natur mit den neuen, größeren Windrädern war ein Schlag ins Gesicht der Grünen, die doch angeblich Naturschützer sind und hier vor aller Öffentlichkeit bloßgestellt wurden – und dies auch noch von einem Umweltschützer der ersten Stunde! Die Entgegnungen von Frau Scheel waren leider wieder von einer Peinlichkeit, der sich weder Zuschauer noch Teilnehmer der Runde entziehen konnten. Ein chaotisches, nicht nachvollziehbares Durcheinander über Arbeitsplätze, angebliche CO2-Einsparungen durch Windräder und weiteres mehr war zu vernehmen. Frau Scheel spürte ersichtlich selber, wie sie sich bei fehlenden Sachargumenten immer mehr verhedderte. Fast in Panik flüchtete sie sich schließlich in das Thema des Spitzenlastausgleichs von Windrädern und kam damit erst recht unter die Räder.

Welch einen kapitalen Fehler in ihrer Diskussionsstrategie hat Frau Scheel mit diesem Hinweis begangen! Mit dem Euphemismus „Spitzenlastausgleich“ ist in Wirklichkeit das Knock-Out-Kriterium von Wind und Sonne, d.h. die Unstetigkeit ihrer Energielieferung angesprochen. Wie soll beispielsweise eine dreiwöchige Windflaute in ganz Deutschland überbrückt werden (solch eine Flaute hatten wir schon), wenn fast aller Strom gemäß den Vorstellungen von grünen Traumtänzern einmal aus dem Wind kommen soll. Frau Scheel hat unbeabsichtigt mit ihrem Hinweis die Büchse der Pandora für ihre Sache geöffnet, jetzt kam es knüppeldick.

Aber auch Frau Kemfert wurde durch den Lapsus von Frau Scheel zunehmend hilfloser und machte mit ihrer Antwort zum Volatilitätsproblem des Windes alle Punkte, die sie zuvor bei sachunkundigen Zuschauern vielleicht noch einsammeln konnte, wieder zunichte. Ihr logische Argumentation hierzu „wir brauchen Ökoenergie, weil wir uns das vorgenommen haben“ ist nicht mehr kommentierbar. Die folgenden Ausführungen entsprachen ebenfalls dem Niveau von Frau Scheel. Zum Spitzenlastausgleich sagte sie kühn „er ist technisch machbar“ und Frau Scheel warf noch kühner ein „100 prozentig machbar“. Tatsächlich machbar? Vahrenholt schüttete schließlich die notwendigen Eimer Wasser in diesen vernebelnden und unheilbare Kopfschmerzen bereitenden Wein der beiden Damen.

Er wurde zum endgültigen Spielverderber der Ökoparty im HR Fernsehen, als er auf den Aufwand (und damit die Unmöglichkeit!) hinwies, auch nur 8 Tage bundesweiter Windflaute auszugleichen. Vahrenholt verwendete hierzu das hübsch anschauliche und zutreffende Beispiel, alles Wasser des Bodensees auf Zugspitzhöhe transportieren zu müssen (wenn der Wind bläst) und bei Flaute durch Turbinen zur Stromerzeugung wieder zurückfließen zu lassen. Er schilderte die brutale Schädigung des Waldes, also die riesigen Schneisen der Zufahrt und die zusätzlichen etwa 2 Hektar abzuholzenden Waldes für Kräne etc., damit jedesmal eines der neuen, inzwischen wesentlich größer gewordenen Winradungetüme in den Wäldern Süddeutschlands errichtet werden kann. Er sprach von der Vernichtung der Fledermäuse durch diese Windradungetüme – etwa 200.000 Vögel werden jährlich geschreddert, darf man hinzufügen. Wie sich der Autor erinnert, wurde der Baufortschritt von Stuttgart 21 durch eine angenommene Bedrohung des Juchtenkäfers gestoppt. Es fragt sich, was dieser schützenswerte Käfer den armen Vögeln und Fledermäusen voraus hat, die durch Windräder zerschreddert werden (den Fledermäusen platzen die Lungen). Deutschland hat sich ersichtlich vom Artenschutz verabschiedet und dies auf Veranlassung der Grünen und in gehorsamer Befolgung dieser Agenda von allen deutschen Parteien (die indiskutable NPD ausgenommen).

Gerichte haben den Baufortschritt in Stuttgart des Juchtenkäfers wegen gestoppt. Tierschutz ist nach Kenntnis des Autors im Grundgesetz verankert. Warum macht kein Gericht dem Tiermorden durch Windräder ein Ende? Vielleicht gibt es Juristen, die diesen Beitrag lesen und es dem Autor erklären können, der es nicht so recht nachvollziehen kann.

Die Antwort der beiden Damen auf die längste Sprechzeit Vahrenholts war lautes und nicht mehr von Tichy zu stoppendes Niederreden, wobei zwischendurch sogar der Glaube an die deutsche Ingenieurskunst bemüht wurde, die das Speicherproblem schon richten würde. Dem Autor ist indessen keine auch nur andeutungsweise denkbare Lösung bekannt, die technisch-wirtschaftlichen Sinn ergibt. Es ist ein Faktum, dass elektrische Energie in großem Maßstab in einem Land ohne hohe Berge und tiefe Täler (Stauseen) eben nicht speicherbar ist – Punktum. Keine noch so tollen Ingenieure – die es in Deutschland sicher noch gibt- können die Naturgesetze umgehen. Mit dem Irrsinn von weiteren zehntausenden Windmühlen wird eine völlige Umgestaltung unserer elektrischen Stromversorgung nicht nur geplant, sondern ist bereits auf den Weg gebracht, die Landschaften entstellt, Natur und Volkswirtschaft massivst schädigt, keine Berücksichtigung der unabdingbaren technischen und naturwissenschaftlichen Grundvoraussetzungen beinhaltet und zu Strom-Black-Outs führen muss, wenn die europäischen Nachbarn nicht mehr einspringen.

Das Erschreckende bei Frau Scheel, Frau Kemfert und leider auch Herrn Tichy war die völlige Abwesenheit einer Argumentation, die unabdingbare technische Grundgegebenheiten mit einbezieht. Es macht wenig Sinn, über die Kosten irgend eines neuen Verfahrens zu diskutieren, wenn dieses Verfahren technisch undurchführbar ist. Verfügen wir nicht über unzählige Energiefachleute an unseren technischen Hochschulen, von denen man wenigstens ab und an einmal einen objektiven, nicht von Aufträgen der Windindustrie profitierenden Vertreter in Talkshows einladen könnte?

Vahrenholt wurde durch den nicht mehr zu unterbrechenden Redefluss der beiden Ökodamen überschrieen und kam infolgedessen nicht mehr zu Wort. Tichy musste die Sendung schließlich aus Zeitgründen abbrechen. Hätte er nicht wertvolle Sendezeit zu Beginn vertan, wäre es noch einmal richtig interessant geworden.

Résumée der Sendung und Beurteilung der Teilnehmerbeiträge durch den Autor:

Tichy: zu Beginn sehr schwach, ab Mitte der Sendung gut. Gab den beiden Damen in unausgeglichener Weise zu viel Redezeit bzw. griff hier nicht entschiedener ein. Ist Wirtschaftsexperte, aber versteht ersichtlich zu wenig von den technischen Grundlagen. Dem Dreigespann der Runde hätte ein Experte für elektrische Stromerzeugung zugesellt werden müssen. (das wünschen die in aller Regel links-grünen Redaktionen vermutlich nicht und wissen es zu vermeiden).

Frau Scheel: undiskutabel. Selbst unter den Grünen müsste es doch Vertreter geben, die ihre Agenda besser verkaufen. Sie war weder ein ernst zu nehmender Gegner von Vahrenholt, noch eine Hilfe für Frau Kemfert, hat aber immerhin jedem Zuschauer, der einen letzten Rest von kritischem Denken bewahrt hat, die Augen geöffnet, mit welchen Leuten wir es hierzulande bei der Umgestaltung unserer elektrischen Energiewirtschaft und unserer Umwelt zu tun haben.

Frau Kempfert: eine glatte und geschickt argumentierende Ökoaktivistin, die sich aber in der Sendung nicht scheute, gelegentlich und ohne Wimpernzucken auch blanken Unsinn zu verkaufen ("wir brauchen die Energiewende, weil wir sie wollen"). Auf die harten Fragen hatte sie keine Antworten – wie denn, es gibt keine. Immer noch gut bekannt ist Ihr Credo" "NACHHALTIGKEIT SOLLTE DEN KAPITALISMUS ALS GESELLSCHAFTSMODELL ABLÖSEN"*! Damit sollte jetzt jeder Bescheid wissen, worum es geht.

Vahrenholt: sehr gut. Technisch und zugleich wirtschaftlich bestens kundig und argumentativ tadellos. Er vertrat die Rationalität, die hierzulande zur Zeit keine Chance hat. Ob er weiter zu Talkshows eingeladen wird? Man darf es bezweifeln, denn er ist für den Ökofeldzug zu gefährlich geworden.

Anregung und Fragestellungen für künftige Talk-Shows

Die folgenden Anregungen kommen in unserem Staat, der keine objektiv-freie Berichterstattung über Klima und Energie mehr kennt, wohl nicht in Frage und werden zuverlässig von Aktivisten in den Redaktionen verhindert  (vermutlich ist es hellsichtigen Bürgern schon aufgefallen, dass Ökoideologen als Gesellschaftsveränderer dabei sind, generalstabsmäßig und erfolgreich alle maßgebenden deutschen Institutionen, angefangen von den Medien, über die Kindergärten, Schulen, Hochschulen, bis hin zu allen politisch wichtigen Behörden, zu unterwandern, zu besetzen und sich die entscheidenden Posten zuzuschieben):

  1. – Einladung von Fachexperten, nicht von ideologischen Glaubenkämpfern.
  2. – Wozu brauchen wir überhaupt eine Energiewende?
  3. – Welche Folgen für Umwelt und Volkswirtschaft sind mit der Energiewende in   Deutschland verbunden?
  4. – Warum ist Deutschland mit einer solchen Wende allein auf der Welt?
  5. – Ist die Abkehr von der Kernenergie in einem Lande sinnvoll, das von unmittelbaren Nachbarn umgeben ist, die diese Technik weiter nutzen und fortentwicklen?
  6. – Welche vernünftigen Alternativen gibt es, um den Verlust an Strom aus Kernkraft auszugleichen?
  7. – Sachgerechte Diskussion der Vor- und Nachteile von Alternativen zur Energiewende.

Zum Schluss die unmaßgebliche Meinung des Autors

Deutschland muss (es wird zwangsweise so kommen) wieder zu Kohle und Gas zurück und mehrere Jahrzehnte zuwarten, bis inhärent sichere Kernkraftwerke auf dem Markt sind, deren Abfall durch Transmutation zu unwesentlichen Mengen reduziert wird (hier) und die zudem wirtschaftlich mit Kohle und Gas konkurrieren können. Alles andere ist mit schweren Schädigungen von Natur, Volkswirtschaft und der Geldbörse des Verbrauchers verbunden.

Wieviele Jahrzehnte Kohle und Gas noch andauern müssen, kann nicht vorhergesagt werden, aber auch diese Energieträger werden sehr langfristig angesichts einer wachsenden Erdbevölkerung einmal an Kostengrenzen stoßen. Bei Kernbrennstoff ist dies nicht der Fall, allein das im Meerwasser enthaltene Uran (dessen Gewinnung heute noch zu unwirtschaftlich ist) ermöglicht eine Energieversorgung aus Kernkraft auf viele zehntausende Jahre. Vielleicht wird auch die Kernfusion einmal technisch-wirtschaftlich interessant, der Autor hat hier aber seine Zweifel, denn die technischen Herausforderungen erscheinen ihm fast unüberwindbar. Und auch bei Überwindung ist die Kostenfrage noch nicht gelöst. Versuchen wird und muss man die Fusion aber, die entsprechenden Forschungsgelder sind hier gut angelegt

Kurzfristig sind Kohle und Gas die angemessenen Energieträger, weil die in der Energiewende propagierten Verfahren (aus Wind und Sonne, also Energieträgern mit viel zu geringer Leistungsdichte, Strom zu erzeugen) unsere ohnehin schon eingeengte Naturumgebung schwer schädigen und volkswirtschaftlich fatal sind. Dies würde sofort offenkundig, wenn man Windrad und Photovoltaikstrom dem freien Markt überließe. Dann wäre der Ökospuk in kürzester Zeit vorbei. Der deutsche Sonderweg ist weltweit einzig und erzeugt überall auf der Welt Kopfschütteln. Er ist – s. oben zu Kemfert – nur verständlich, weil er als Vehikel zur Umgestaltung unserer Gesellschaft missbraucht wird.

Deutschland muss weg vom Wunschdenken grün-ideologischer Traumtänzer und wieder zurück zur Rationalität, um nicht die Zukunft unserer Nachkommen zu verspielen. Die Energiewende führt Deutschland  ins Abseits und wird bei der bekannten deutschen Gründlichkeit ihrer Durchführung für uns alle verhängnisvolle Folgen haben und auch unsere europäischen Nachbarn beeinträchtigen.

Der Autor gibt seine Meinung hier nicht kund, um ein Umdenken zu bewirken, denn dies ist im heutigen Deutschland unmöglich. Zu viele wirtschaftliche Interessen, zuviel Ökoglauben von Gutmütigen und zuviel Ideologen an wichtigen Positionen (Medien) stützen den Energiewende-Wahnsinn. Er schreibt es, damit später einmal seine Enkel sagen können „es gab auch Leute, die sich nicht gescheut haben, vor dieser fatalen Entwicklung deutlich zu warnen“. Dies ist ihm Trost angesichts einer neuen deutschen Irrationalität, von der er irrtümlich einmal annahm, dass sie sich nach den katastrophalen Erfahrungen mit deutschen Irr- und Sonderwegen des 20. Jahrhunderts niemals wiederholen könnte.

Prof. Dr. Horst-Joachim Lüdecke

EIKE Pressesprecher

 * Quelle: http://www.taz.de/index.php?id=archivseite&dig=2006/10/09/a0112

 Ein Überblick über die mit Riesensubventionen gepäppelte Pleitebranche Solar finden Sie hier

weiterführende links zum Thema Blackout hier:

* Stromversorgung – plötzlich Alarmstufe Gelb
http://www.welt.de/wirtschaft/energie/article106143921/Stromnetz-geht-ploetzlich-auf-Alarmstufe-gelb.html

* Kritische Lage im Stromnetz. Auch nach Ende des Winters ist die Versorgung alles andere als sicher
http://www.welt.de/print/die_welt/wirtschaft/article106144617/Kritische-Lage-im-Stromnetz.html