EPA – zum Zweiten: Trump könnte auch jemand total unerwarteten vorschlagen

Update der Redaktion von heute:

Der zukünftige Präsident ist bekanntlich ein Mann schneller Entschlüsse. Soeben kommt die Nachricht in der FAZ:

Scott Pruitt

Trump macht Klimaschutz-Gegner zum Chef der Umweltbehörde

Obamas Plan für saubere Kraftwerke hat er als „Krieg gegen Kohle bezeichnet.“ Nun soll Oklahomas Chefankläger eine Behörde übernehmen, die Trump ein Dorn im Auge ist.

Wir begrüßen diese Entscheidung und erhoffen uns Auswirkungen auch auf die Politik hierzulande. Der gehen die Verbündeten von der Fahne!

Artikel

Van der Vaart ist ein PhD Chemieingenieur, zurzeit Leiter des North Carolina Department of Environmental Quality. Falls er vom Kongress ernannt und zugelassen wird, wäre Van der Vaart der erste PhD-Wissenschaftler, der die EPA leitet. Auch hat er Jura studiert.

Vita Van der Vaart:

Dr. der Chemie, University of Cambridge (England),

Abschluß in Rechtswissenschaft, North Carolina Central University,

Master’s degree in Chemical Engineering from N.C. State University,

Bachelor’s degree in Chemie, University of North Carolina at Chapel Hill.

Zugelassener Professional Engineer und Anwalt in North Carolina.

Er publizierte mehrere technische und rechtliche Ausarbeitungen und hält zwei Patente.

Quelle: https://deq.nc.gov/about/leadership/secretary

Nach gut unterrichteten Quellen in der Nähe von Trumps-Übergangsteam sagte van der Vaart: „Er würde den über das Ziel hinausschießenden Vorschriften ein Ende machen und auch der sogenannten „Geheimwissenschaft„, auf die sich EPA stützt um immer strengere Regeln gegen Unternehmen durchzudrücken.

„Er kann diese Dinge selbst beurteilen“, so der Informant des Daily Caller und van der Vaart wäre kritisch gegenüber jeder wertlosen Wissenschaft, die aus der Umweltbehörde kommt.

Van der Vaart war ein deutlich zu vernehmender Kritiker der EPA als Top-Regulierer der Umweltbehörde von North Carolina, vor allem in Bezug auf den Clean Power Plan (CPP) und die „Gewässer der Vereinigten Staaten“ -Regulierung. Die Aufhebung dieser beiden Regulierungen ist für Trump oberste Priorität.

„Er versteht, dass der Zeitverbrauch und die Mühe von Papierkram, um Vorschriften zu entsprechen, die nichts erreichen, um unsere Umwelt zu verbessern, Ökonomiekiller sind“, erklärte Chris Millis, ein Anhänger van der Vaarts, gegenüber The DC.

Van der Vaart schloss sich einer Koalition von Staaten an, die gegen den CPP verstoßen, der gegen das Bundesgesetz verstößt und war Unterzeichner neben anderen auf einem Brief, der den designierten Präsidenten Trumpf bat, das EPA zu zügeln und Aktivisten davon abzuhalten, die Agenda der EPA durchzusetzen.

„Unser Land braucht eine Umweltbehörde, aber nicht die der letzten Jahre“, heißt es im Brief von fünf obersten Umwelt-Aufsichtsbehörden. „Wir brauchen Forschung, die auf unsere spezifischen, klaren ökologischen Herausforderungen ausgerichtet ist. Dies kann am besten durch Koordinierung von Initiativen auf Branchenebene erfolgen, die über Ländergrenzen hinweggehen, die durch messbaren Erfolg definiert werden können. Wir müssen der Idee ein Ende setzen, dass immer mehr Regulierung immer gut ist und stattdessen staatlichen und lokalen Experten erlauben, die Umwelt zu verbessern.“

Van der Vaart schickte auch einen Brief an die derzeitige EPA – Leiterin, Gina McCarthy, indem er sie darum bat, aufzuhören, „Mitternachts“ -Verordnungen rauszugeben, die am Ende Milliarden von Dollar kosten und von Trump gekippt werden könnten.

„Ich bin sicher, dass, wenn er als Chef der EPA gewählt werden würde, er ein starker Befürworter der Politik von Präsident Trump wäre, um amerikanische Unternehmen verantwortungsvoll zu entflechten und in der Lage wäre, Anreize für Wachstum zu schaffen“, sagte Millis.

Die Top-zwei Kandidaten, die [zum Zeitpunkt der Recherchen des Daily Caller] für den Chefposten der EPA geprüft werden, sind die ehemaligen Texas Regulierer Kathleen Hartnett White und Oklahoma Attorney General Scott Pruitt, basierend auf Medienberichten, die Trump interviewt hatten.

Es ist schwer zu sagen, ob van der Vaart zu Trumps engerer Kandidatenliste gehört, aber einige in seinem Team handeln immer noch seinen Namen. Unterrichtete Quellen sagten der The Hill Newspaper „Trump und sein Team neigen nicht zu ihm.“

Van der Vaart ist jedoch der Meinung, er wäre eine gute Wahl, um die EPA zu führen.

„Ich würde mich geehrt fühlen, in der Trump-Administration zu dienen“, sagte van der Vaart dem Daily Caller. „Ich glaube, dass meine wissenschaftliche und juristische Expertise, zusammen mit mehr als 20 Jahren Erfahrung in Umwelt und staatlichen regulatorischen Arbeit, mich einzigartig qualifiziert für die Position des Leiters der Umweltbehörde.“

Trump wird voraussichtlich in der kommenden Woche seine Entscheidung darüber bekannt geben, wer die EPA führen wird.

Gefunden auf The Daily Caller vom 04.12.2016

http://dailycaller.com/2016/12/04/trump-could-appoint-someone-totally-unexpected-to-head-epa/

*************

The Hill Newspaper nennt insgesamt nun fünf Kandidaten für den wichtigen Posten des Umweltministers:

Bericht Timothy Cama vom 04.12.2016

Kathleen Hartnett White

Sie ist gegenwärtig Direktorin des Zentrums für Energie und Umwelt in Texas und eine ehemalige Vorsitzende der Kommission für Umweltqualität in Texas von 2001 bis 2007.

White schrieb, dass Kohlendioxid das am meisten emittierte Treibhausgase ist, „das Gas, das das Leben auf der Erde und das Pflanzenwachstum möglich macht“ und egal „ob aus der menschlichen Nutzung fossiler Brennstoffe oder als natürliches (und notwendiges) Gas in die Atmosphäre rund um die Erde abgegeben wird, Kohlendioxid hat keine Attribute eines Schadstoffes.“

Quelle Texas Public Policy Foundation

Bilduntertext: Kathleen Hartnett White, eine Klima-Wandel-Leugnerin, ist im Gespräch für den Posten der Leitung der Umweltbehörde EPA. [Aha, daher weht der Wind, der Übersetzer]

Scott Pruitt

Pruitt, der republikanische Generalstaatsanwalt von Oklahoma, gilt als weiterer Spitzenkandidat. Er ist ehemaliger Staatssenator und seit 2011 Oklahomas Top-Anwalt.

„Dies ist ein Bestreben, das ich für außergewöhnlich in den Kosten halte, außergewöhnlich im Geltungsbereich, und ich denke es ist außerordentlich, wie es sich in die Souveränität der Bundesstaaten drängt“, sagte Pruitt vor kurzem zum Clean Power Plan.

Quelle https://www.ok.gov/oag/

Stimmen gegen White und Pruitt

Scientific  American, Klima vom 30.11.2016

Können die Demokraten Trumps Nominee für die EPA verhindern?
Ein Kandidat, der nicht an Wissenschaft glaubt, wäre „eine sehr gefährliche Person“

„Ich denke, dass dies eine monumentale globale Krise ist, die wir mit der kommenden Trump-Administration haben, die offensichtlich den Klimawandel als Schwindel bezeichnet und sich mit Leuten umgibt, die den größeren Konsens über den Klimawandel verraten“, sagte Senator Cory Booker (Demokrats, New Jersey). „Ich denke, wir haben eine wirkliche Krise.“

Vorschläge der Demokraten, dass sie den Bestätigungsprozess nutzen könnten, um eine öffentliche Verhandlung über die künftige Führung der EPA zu erreichen, kamen einen Tag später, nachdem Trump mit Scott Pruitt (R) und Kathleen Hartnett White gesprochen hatte.

https://www.scientificamerican.com/article/can-democrats-block-trump-rsquo-s-epa-nominee/

Jeff Holmstead

Holmstead leitete die Abteilung Luftverschmutzung der EPA unter Präsident George W. Bush.

Bis vor kurzem arbeitet er bei der Rechts- und Lobbyfirma Bracewell, bei der er für zahlreiche Energieunternehmen Lobbyarbeit geleistet hat. Er teilte dem Kongress kürzlich mit, dass er diese Unternehmen nicht mehr vertritt.

Holmstead wäre die Wahl eines Insiders, jemand mit umfangreicher Erfahrung bei der EPA, ein Kontrast zu der Außenseiter-Mentalität, die Trump projiziert hat.

Quelle Bridget Mulcahy auf politico.com; Bild Jeff-Holmstead

Medienstimme Politico.com : In Kampf gegen Obamas Klima Plan

Darren Samuelsohn am 07.07.2015

Interviewer Darren Samuelsohn: Ist dies die größte Regulierung, die EPA jemals erlassen hat?

Jeff Holmstead: Es kommt darauf an, wie Sie es sehen. Es wird nicht die teuerste sein. Ich meine, im Vergleich zur Regulierung des Ozons. Es kann nicht so teuer sein wie die MATS [Quecksilber- und Lufttoxik] -Regulierung. Aber in Bezug auf den Ehrgeiz der Behörde, die Art und Weise wie Strom produziert und verwendet wird in den Vereinigten Staaten, ist es wirklich sehr außergewöhnlich.

http://www.politico.com/agenda/story/2015/07/inside-the-fight-against-obamas-climate-plan-000134

Donald Van der Vaart

Van der Vaart wurde gelegentlich als potentialler Chef der EPA genannt, Quellen sagen jedoch, dass Trump und sein Team nicht zu ihm neigen.

Bericht siehe oben, The Daily Caller

Myron Ebell

Ebell ist einer der angesagtesten Klimawandel-Skeptiker im Beltway und leitet Trumps Übergangsteam für die EPA. Das hat für viele dazu geführt, ihn als Hauptkandidat für die Umweltbehörde zu sehen.

Eike berichtete bereits hier

Zusammengestellt und übersetzt von Andreas Demmig




Politisierung der Klimawissenschaft ist kein neues Phänomen

Im Jahre 1988 riefen die Vereinten Nationen, eine politische Institution, die globale Erwärmungsberichte schreibende Unternehmung Intergovernmental Panel on Climate Change (IPCC) ins Leben. Das IPCC wurde gegründet mit der Aufgabe, politische Agenden zu stützen. Und im Jahre 1995 korrumpierte die Politik die Klimawissenschaft, als Politiker die Sprache des Zweiten IPCC-Zustandsberichtes änderten dergestalt, dass sie die von den Wissenschaftlern beschriebenen Unsicherheiten herausgestrichen haben. Bis auf den heutigen Tag kann die klimawissenschaftliche Gemeinschaft nicht wirklich unterscheiden zwischen der natürlichen und der anthropogenen globalen Erwärmung. Warum? Die in herangezogenen Studien verwendeten Klimamodelle können immer noch nicht Zustände der natürlichen Variabilität simulieren, die im multidekadischen Zeitmaßstab globale Erwärmung verursachen können.

Einführung

Der Skeptizismus von Donald Trump hinsichtlich einer vom Menschen verursachten globalen Erwärmung/Klimawandels war ein Konzentrationspunkt der Mainstream-Medien während der Wahlen in den USA. Das ist er immer noch in den Köpfen vieler Umweltaktivisten und ihren Verbündeten in den Medien. Eine Unmenge von Artikeln und Diskussionen wurde geschrieben bzw. gesendet, was die politische Natur der Klimawissenschaft für jedermann erneut sichtbar werden ließ.

Aber vor wie langer Zeit wurde die Klimawissenschaft politisiert?

Ich wurde an die Antwort auf diese Frage erinnert bei der Lektüre des jüngsten Blogbeitrags von Dr. Roy Spencer Global Warming: Policy Hoax versus Dodgy Science. Er beginnt diesen Beitrag so:

Anfang der neunziger Jahre besuchte ich den Wissenschaftsberater des Weißen Hauses Sir Prof. Dr. Robert Watson, der sich hochtrabend beweihräucherte, wie man doch erfolgreich den Gebrauch von Freon reguliert habe, um das Problem des Ozon-Abbaus zu lösen. Jetzt sei es das nächste Ziel, auch Kohlendioxid zu regulieren, von dem man zu jener Zeit glaubte, dass es die einzige Ursache für globale Erwärmung sei.

Ich war ein wenig begeistert ob dieses Verfahrens, den Karren vor das Pferd zu spannen. Es kam mir wirklich so vor, dass das politische Ziel in Stein gemeißelt werden sollte, und dass das neu gegründete IPCC jetzt die ziemlich dubiose Aufgabe hatte, die Wissenschaft zur Unterstützung dieser Politik zu erzeugen.

Die dubiose Aufgabe, die Wissenschaft zur Unterstützung von Politik zu erzeugen

Um Dr. Spencers Statement bzgl. des Karrens vor dem Pferd zu bekräftigen, werde ich einen Auszug aus der Einführung zu meinem über 700 Seiten starken Nachschlagewerk (ein Gratis-E-Buch) mit dem Titel On Global Warming and the Illusion of Control – Part 1 wiederholen. Dieser Auszug enthält Zitate der UN und des IPCC zusammen mit den Links zu den zitierten Websites. Unter der Überschrift [übersetzt] „Es ist ein Irrtum zu glauben, dass das IPCC eine wissenschaftliche Institution ist“ schrieb ich:

Das IPCC ist eine politische Einrichtung und nicht eine wissenschaftliche. Das IPCC leitet seine Eingangs-Paragraphen seiner History-Website mit den Worten ein (Hervorhebung von mir [Tisdale]):

Das IPCC wurde im Jahre 1988 ins Leben gerufen. Es wurde gebildet durch die Weltwetterorganisation WMO und durch das United Nations Environment Program (UNEP) aufgebaut, um auf der Grundlage aller verfügbaren wissenschaftlichen Informationen Zustandsberichte über alle Aspekte des Klimawandels und deren Auswirkungen zu erstellen mit Blick auf zu entwickelnde realistische Strategien, dem zu begegnen. Die ursprüngliche Aufgabe des IPCC, wie sie in der Resolution 43/53 des UN-Generalsekretariats vom 6. Dezember 1988 umrissen worden ist, war die Vorbereitung einer umfassenden Übersicht und Empfehlungen zu geben hinsichtlich des Status‘ des Wissens um die Wissenschaft vom Klimawandel; die sozialen und wirtschaftlichen Auswirkungen des Klimawandels sowie mögliche Strategien, dem zu begegnen, und Konzepte für die Inklusion in mögliche zukünftige internationale Konventionen bzgl. Klima.

Folglich ist das IPCC gegründet worden, damit es Berichte schreibt. Zugegeben, es sind sehr detaillierte Berichte; so sehr, dass kaum jemand diese Berichte zur Gänze liest. Von den wenigen Menschen, die das doch tun, lesen die meisten nur die ,Summary for Policymakers‘. Aber ist man sich der Tatsache bewusst, dass Politiker in wochenlangen Diskussionen jedem einzelnen Wort in dieser Summary zustimmen müssen? Die Wissenschaftler schreiben eine Vorlage für die Politiker, aber die Politiker debattieren über die Formulierung jedes einzelnen Satzes und ob dieser überhaupt in der Summary auftauchen sollte. Und jene wochenlangen politischen Debatten über die Summary for Policymakers finden unter Ausschluss der Öffentlichkeit statt.

Ebenso geht aus obigem Zitat hervor, dass der Inhalt der IPCC-Berichte dazu gedacht war, ein internationales Klimawandel-Abkommen zu unterstützen. Jener Vertrag aus dem Jahr 1992 ist bekannt unter der Bezeichnung United Nations Framework Convention on Climate Change (UNFCCC). Eine Ausgabe des UNFCCC gibt es hier. Unter der Überschrift von Artikel 2 – Objective – definiert das UNFCCC sein Ziel als die Begrenzung der Emission von Treibhausgasen (Hervorhebung von mir):

Die ultimative Objektive dieser Convention und jedweder damit in Beziehung stehender rechtlicher Instrumente, die zu übernehmen der Conference of Parties empfohlen wird, ist es, in Übereinstimmung mit den relevanten Vorschriften der Convention die Stabilisierung von Treibhausgas-Konzentrationen in der Atmosphäre zu erreichen auf einem Niveau, welches eine gefährliche anthropogene Interferenz mit dem Klimasystem verhindern soll.

Weil es die Objektive des UNFCCC-Vertrages ist, die Emissionen anthropogener Treibhausgase zu limitieren, und weil es das Ziel des IPCC ist, Berichte zu erstellen, die den Vertrag stützen, kann man mit einiger Sicherheit sagen, dass es die einzige Rolle des IPCC ist, wissenschaftliche Berichte zu erstellen, die die vermeintliche Notwendigkeit zur Begrenzung von Treibhausgas-Emissionen stützen. Hmmm. Könnte diese Vorgabe wissenschaftliche Untersuchungen und das Verständnis begrenzen?

Weiter unten im Einführungsabschnitt der History-Website des IPCC heißt es (Hervorhebungen von mir):

Heute ist es die Aufgabe des IPCC, definiert in den Principles Governing IPCC Work „… auf einer umfassenden, objektiven, offenen und transparenten Grundlage die wissenschaftlichen, technischen und sozio-ökonomischen Informationen abzuschätzen, die relevant sind hinsichtlich des Verständnisses der wissenschaftlichen Grundlage des Risikos eines VOM MENSCHEN INDUZIERTEN Klimawandels, dessen potentielle Auswirkungen und Optionen zur Anpassung und Abschwächung.

Die Tatsache, dass das IPCC all seinen Bemühungen auf das „Verständnis der wissenschaftlichen Basis der Risiken des vom Menschen verursachten Klimawandels“ konzentriert hat, ist sehr bedeutsam. Das IPCC hat niemals ernsthaft versucht zu bestimmen, ob nicht natürliche Faktoren für den größten Teil der Erwärmung verantwortlich sind, zu der es auf der Erde im vorigen Jahrhundert gekommen war. Jahrzehnte lang hat man dort Scheuklappen aufgesetzt, welche ihre Übersicht zu allem und jedem blockiert haben – außer zu den hypothetischen Auswirkungen von Kohlendioxid. Die Rolle des IPCC war es immer gewesen, Berichte zu erstellen, die die Reduktion von Treibhausgasen stützen, die bei der Verbrennung fossiler Treibstoffe entstehen. Die Folge hiervon ist, dass alle Forschungsgelder ausschließlich in diesen Bereich fließen. Die Entscheidung, nur die vom Menschen verursachte globale Erwärmung zu untersuchen, ist eine politische Entscheidung, keine wissenschaftliche Entscheidung. Und es ist eine furchtbare Entscheidung.

Als Folge dieser politischen Entscheidung gibt es kaum wissenschaftliche Forschungen, die versuchen, realistisch zu ermitteln, wie viel der Erwärmung natürlichen Faktoren zugeordnet werden kann. Wir wissen, dass diese Tatsache besteht, weil die jetzige Generation von Klimamodellen – bisher die komplexesten jemals – immer noch nicht natürlich auftretende Ozean-Atmosphäre-Prozesse simulieren können, die eine Erwärmung der Erdoberfläche (und der Tiefen der Ozeane) über multidekadische Zeiträume bzw. deren Beendigung mit sich bringen können. Skeptiker haben dieses wiederholte Scheitern oftmals in Blogbeiträgen beschrieben, und ich selbst habe sogar ein Buch über dieses Scheitern geschrieben mit dem passenden Titel Climate Models Fail.

(Ende Auszug)

Sogar noch dubioser: Verbiegen der Wissenschaft zur Unterstützung der Politik

Weiß man eigentlich, dass Politiker den Text des 2. IPCC-Zustandsberichtes überarbeitet haben, wobei sie den Entwurf der Wissenschaftler drastisch veränderten? Hier folgt noch einmal ein Auszug aus meinem frei verfügbaren E-Book On Global Warming and the Illusion of Control – Part 1. Der Auszug steht im Kapitel mit der Überschrift [übersetzt] Die Evolution der Bewegung der katastrophalen anthropogenen globalen Erwärmung:

Während es frühe wissenschaftliche Studien gab, die auf einen möglichen Temperaturanstieg in Verbindung mit den Emissionen von anthropogenen Treibhausgasen hinwiesen, wollen wir diese Diskussion beginnen mit der Bildung des Berichte schreibenden Flügels der UN mit der Bezeichnung Intergovernmental Panel on Climate Change (IPCC). Wie oben erwähnt war es die primäre Aufgabe des IPCC, Berichte zu erzeugen, die die Agenden der Politiker stützen. Die Begrenzung der globalen Erwärmung war wahrscheinlich einer dieser Schwerpunkte, aber höchstwahrscheinlich gab es auch noch viele andere.

Die Politiker fanden Wissenschaftler, die jene Berichte schrieben – und damit begann die gegenseitige sehr vorteilhafte Beziehung zwischen Klimawissenschaftlern und Politikern. Die Politiker wollten für ihre Agenden wissenschaftliche Stützung, und die Wissenschaftler waren nur zu gerne dazu bereit, weil den Politiker die Verteilung Gelder für Klimaforschung oblag.

Der erste IPCC-Bericht 1991 war wenig aufschlussreich dahingehend, dass die Wissenschaftler nicht zwischen anthropogener und natürlicher Erwärmung unterscheiden konnten…

Anmerkung für diesen Beitrag: Die Summary for Policymakers im 1. IPCC-Zustandsbericht steht hier. Dort heißt es:

Die Größenordnung dieser Erwärmung ist im Großen und Ganzen konsistent mit den Prophezeiungen der Klimamodelle, aber sie weist auch die gleiche Größenordnung auf wie die natürliche Klimavariabilität. Folglich kann die beobachtete Erwärmung großenteils dieser natürlichen Variabilität geschuldet sein. Alternativ kann es aber auch sein, dass diese Variabilität und andere menschliche Faktoren eine noch größere, anthropogen induzierte Treibhaus-Erwärmung ausgelöst haben. Die eindeutige Bestimmung des verstärkten Treibhauseffektes aus Beobachtungen ist noch mindestens ein Jahrzehnt lang unwahrscheinlich.

Im Jahre 1991 sah sich die wissenschaftliche Gemeinschaft also noch bis mindestens zum Jahr 2001 außerstande, zwischen natürlicher und anthropogener globaler Erwärmung zu unterscheiden.

(Ende Auszug)

Und doch haben Politiker trotz dieses unbestimmten Ergebnisses nur ein Jahr später (1992) einen Vertrag erarbeitet mit der Bezeichnung United Nations Framework Convention on Climate Change mit der Absicht, den Anstieg der globalen Temperaturen auf 2°C über den vorindustriellen Werten zu begrenzen – ein Limit, das zuerst Mitte der siebziger Jahre von einem Ökonom ins Spiel gebracht worden war, nicht von einem Klimawissenschaftler.

In dem Artikel Two degrees: The history of climate change’s ‘speed limit’ bei TheCarbonBrief schreiben die Autoren Mat Hope & Rosamund Pearce:

Für Manchen vielleicht überraschend kam die Idee, dass die Temperatur dazu herangezogen werden könnte, die Reaktion der Gesellschaft auf den Klimawandel zu dirigieren, von einem Ökonom.

In den siebziger Jahren sprach der Yale-Professor William Nordhaus erstmals die Gefahr an, die sich aus dem Überschreiten einer Grenze von zwei Grad ergeben, und zwar in einem Paar von inzwischen berühmten Studien, in denen gezeigt wurde, dass eine Erwärmung um über 2 Grad das Klima über einen Punkt hinaus bringen würden, mit dem die Menschen noch fertig werden konnten:

Den meisten Quellen zufolge liegt die Bandbreite der Variation zwischen unterschiedlichen Klimaregimes in der Größenordnung von ±5°C, und zum gegenwärtigen Zeitpunkt befindet sich das globale Klima am oberen Ende dieser Bandbreite. Falls die globalen Temperaturen um mehr als 2 bis 3 Grad Celsius über der jetzigen mittleren Temperatur liegen, würde dies ein Klima schaffen, das außerhalb der Bandbreite von Beobachtungen liegt, die während der letzten vielen tausend Jahre gemacht worden sind“.

Anfang der neunziger Jahre fuhren die Politiker fort, mit Geld an Wissenschaftlern um sich zu werfen in der Hoffnung, dass der nächste Bericht mehr Unterstützung für ihre Agenden liefern würde. Sehr zur Überraschung der Politiker gab es jedoch auch im Original-Entwurf der Wissenschaftler aus dem Jahr 1995 der Summary zum 2. Zustandsbericht keinen Aufschluss.

Man stelle sich das mal vor. Im Jahre 1992 haben die UN viele Länder auf der ganzen Welt davon überzeugt, in einen Vertrag zur Begrenzung der Emissionen von Treibhausgasen einzutreten, obwohl das IPCC ein Jahr zuvor nicht den Fingerabdruck der Menschheit in der globalen Erwärmung auffinden konnte. Dann hat die wissenschaftliche Berichte schreibende Einrichtung der Politiker, das IPCC, im Jahre 1995 immer noch nicht unterscheiden können zwischen anthropogener und natürlicher Erwärmung – und genau diese Tatsache haben die Klimawissenschaftler im Entwurf ihres 2. IPCC-Berichtes geschrieben. Die Politiker saßen zwischen Pest und Cholera. Sie hatten seit drei Jahren einen Vertrag in der Hinterhand, aber ihre Berichte schreibenden Wissenschaftler konnten keine Beweise zu dessen Stützung finden.

Nachdem dann die meisten Wissenschaftler das Treffen verlassen hatten, änderten die Politiker und ein einzelner Wissenschaftler die Sprache des 2. Zustandsberichtes auf eine sehr subtile, aber bedeutende Art und Weise. Voila! Die Politiker und der eine Wissenschaftler initiierten das, was heute Konsens genannt wird. (Eine sehr detaillierte Analyse dazu von Bernie Lewin über die IPCC-Konferenz 1995 in Madrid steht hier).

(Ende Auszug)

Die Analyse von Bernie Lewin gliedert sich in drei Teile, jeweils mit sehr passenden Überschriften:

Madrid 1995: Was this the Tipping Point in the Corruption of Climate Science? (archived here.)

Madrid 1995 and The Quest for the Mirror in the Sky (archived here.)

Madrid 1995: The Last Day of Climate Science (archived here.)

In Teil 1 seiner Reihe schreibt Lewin über den Entwurf des 2. Zustandsberichtes (Hervorhebung von mir):

Oh weh, im Frühherbst des Jahres 1995 standen die Zeichen auf schlecht. Obwohl in einem durchgesickerten Entwurf im September zu lesen war, dass es unwahrscheinlich sei, dass die Erwärmung ausschließlich natürlichen Gründen geschuldet ist, wurde dies kaum bestritten, und es war nicht eigentlich die Verkündigung einer unmittelbar bevorstehenden Katastrophe. Außerdem verblieben immer noch außerordentlich große Schwächen, besonders in Kapitel 8, für jede positive Schlussfolgerung. Der Entwurf wurde allen Teilnehmern der Madrid-Konferenz zugeleitet und war auch der einzige Verfügbare, der schließlich auf dem Treffen ,akzeptiert‘ worden war. In der Introduction wurde auch festgestellt, dass die gegenwärtigen Studien auf einen menschlichen Einfluss hindeuten. Dies war bis dahin die stärkste Aussage, aber die Hauptfassung des Dokuments und die Zusammenfassung mit den Schlussfolgerungen war da nicht so vertrauensselig. Einige der verwegensten Rückzieher waren Folgende:

Aus Studien von Änderungen der globalen mittleren Variablen (8.4.1): Während keine dieser Studien das Thema Zuordnung speziell in Betracht gezogen hatte, ziehen sie oft einige Schlussfolgerungen bzgl. Zuordnung, für die es kaum eine Rechtfertigung gibt.

Aus dem Treibhaus-Signal in Studien der modellierten und beobachteten räumlichen und zeitlichen Verteilung von Änderungen (8.4.2.1): Keine der oben zitierten Studien hat klare Beweise dafür gezeigt, dass wir die beobachteten Änderungen der spezifischen Ursache Zunahme der Treibhausgase zuordnen können.

Aus Studien zum ,Fingerabdruck‘ der globalen Erwärmung: Während einige dieser Studien die Erkennung eines signifikanten Klimawandels behaupteten, hat keine davon die gesamte (oder Teile des beobachteten Klimawandels) anthropogenen Gründen zugeordnet. Auch hat keine einzige Studie die Größenordnung eines Treibhausgas- oder Aerosol-Effektes in den gemessenen Daten quantifiziert – ein Umstand, der für Politiker von primärer Relevanz ist.

Aus dem Gesamtniveau der Unsicherheiten: jedwede Behauptungen über positive Erkennung und Zuordnung eines signifikanten Klimawandels wird wahrscheinlich kontrovers bleiben, solange die Unsicherheiten bei der totalen natürlichen Variabilität im Klimasystem nicht reduziert werden.

Zur Frage: Wann wird der anthropogene Effekt auf das Klima identifiziert? (8.6): Es ist keine Überraschung, dass die beste Antwort auf diese Frage lautet ,wir wissen es nicht‘.

Die Politiker mochten die Aussagen über die Unsicherheiten nicht, die in jenen Statements zum Ausdruck kamen, folglich haben sie diese gelöscht. Wussten Sie, dass die Politik der Klimawissenschaft diktiert, welche Ergebnisse sie zu erbringen habe?

Wichtige Anmerkung: Man vergesse nicht, dass der Pinatubo im Jahre 1991 ausgebrochen war, wodurch die Temperaturen global vorübergehend gesunken sind. Während die Temperatur bis 1995 wieder auf ein Niveau etwas über dem von 1991 gestiegen war, erzeugten die in die Stratosphäre geschleuderten Aerosole des Pinatubo einen merklichen Rückgang der Erwärmungsrate seit dem Beginn der Erwärmung Mitte der siebziger Jahre. Siehe Abbildung 1. Das heißt, die globale Erwärmungsrate von 195 bis 1995 ist merklich geringer als die von 1975 bis 1991, wie man auch erwarten würde.

Abbildung 1

Nun könnte man glauben, dass mit der massiven Auswirkung des Pinatubo auf die globalen Temperaturen die fortgesetzte Unsicherheit unter den Klimawissenschaftlern auch 1995 noch garantiert war.

Die Klimawissenschaft unter Führerschaft des IPCC kann immer noch nicht realistisch differenzieren zwischen natürlicher und anthropogen induzierter globaler Erwärmung!

Noch einmal möchte ich auf mein E-Book zurückgreifen On Global Warming and the Illusion of Control – Part 1. Das Kapitel 1.12 trägt den Titel [übersetzt] „Wie Wissenschaftler den größten Teil der globalen Erwärmung seit Mitte der siebziger Jahre anthropogenen Ursachen zuordneten“:

Eine der Objektiven der klimawissenschaftlichen Gemeinschaft unter Führung des IPCC war es, den größten Anteil der globalen Erwärmung seit Mitte der siebziger Jahre anthropogenen Gründen zuzuordnen. Mit anderen Worten, falls Mutter Natur für die Erwärmung verantwortlich war, würde das politische Ziel, die Verbrennung fossiler Treibstoffe zu begrenzen, keinerlei Grundlage haben, und weil es die Absicht des IPCC ist, politische Agenden zu stützen, hatte die klimawissenschaftliche Gemeinschaft in der Lage zu sein, auf die Menschheit als den Schuldigen zu zeigen. Die Klimamodellierer erreichten dieses Ziel mittels ein paar sehr einfacher Tricks.

Das erste, was die Klimamodellierer gemacht haben war, die natürlichen Ozean-Atmosphäre-Prozesse vollständig zu ignorieren, die eine globale Erwärmung verstärken oder unterdrücken. Die vom IPCC verwendeten Klimamodelle können bis auf den heutigen Tag immer noch nicht diese Prozesse angemessen simulieren, und diese Tatsache wird später in diesem Buch noch detailliert demonstriert. Die Beiträge von Mutter Natur zu ignorieren war der einfachste und bequemste Weg, um zu zeigen, dass die Menschen für die Erwärmung verantwortlich waren. Die Modellierer haben sich auch entschieden, diese Tatsache der Öffentlichkeit vorzuenthalten, als sie ihre modellbasierten Zuordnungs-Studien unter Verwendung der nächsten Taktik präsentierten.

Diese Taktik ist ein sehr einfacher und leicht zu verstehender Weg, das Meiste der Erwärmung fälschlich der Menschheit in die Schuhe zu schieben. Die Modellierer hatten ihre Klimamodell-Läufe, die einen virtuellen globalen Temperaturanstieg zeigten als Reaktion auf alle Klimaantriebe, die als Input für die Modelle dienten. Dann führten sie zusätzliche Modellierungs-Experimente durch. Anstatt alle Klimaantriebe heranzuziehen, die sie normalerweise für die Simulation des Klimas der Vergangenheit eingehen lassen, verwendeten sie in den zusätzlichen Klimamodell-Läufen ausschließlich die Antriebe durch Solarstrahlung und vulkanische Aerosole. Die betrügerische Logik dahinter: Falls die nur mit den natürlichen Antrieben Solarstrahlung und vulkanischen Aerosolen die Erwärmung, zu der es zum Ende des 20. Jahrhunderts gekommen war, nicht simulieren können, dann muss die Erwärmung seit den siebziger Jahren auf anthropogene Treibhausgase zurückgehen.

Als Beispiel ist Abbildung 1.12-1 eine Zeitreihe von 1880 bis 2010. Die durchgezogene braune Linie zeigt den Gesamt- Strahlungsantrieb von allen Antrieben, die in die Klimamodelle eingingen und die vom GISS aufbereitet worden waren. Sie stammen von der Forcings in GISS Climate Model-Website, vor allem aus der Tabelle hier. Ebenfalls in Abbildung 1.12-1 eingezeichnet ist der Antrieb allein durch Solarstrahlung und stratosphärische Aerosole (welche das Sonnenlicht blockieren), gezeigt als gestrichelte dunkelgrüne Kurve. Diese werden als natürlich auftretende Antriebe betrachtet. Wie man sieht, zeigt die Gruppe mit allen Antrieben eine langzeitliche Zunahme, die bei den kombinierten Antrieben durch Sonne und Aerosole nicht erkennbar ist.

# # #

Dann ließen die Klimawissenschaftler die zusätzlichen Modellsimulationen nur mit den natürlichen Antrieben laufen. Danach verglichen sie die Modellsimulationen mittels natürlicher und anthropogener Antriebe mit denen mittels natürlicher Antriebe allein. Als Beispiel eines dieser Vergleiche dient Abbildung 1.12-2. Die Modelle mit allen Antrieben zeigen deutliche Erwärmung zum Ende des 20. Jahrhunderts, die Modelle mit den natürlichen Antrieben allein zeigen dies nicht.

Ähnliche Graphiken wie die in Abbildung 1.12-2 gezeigte finden sich in den IPCC-Zustandsberichten Nr. 4 und 5. Ein Beispiel ist FAQ 10.1, Abbildung 1 im Kapitel Chapter 10, Detection and Attribution of Climate Change: from Global to Regional des IPCC’s 5th Assessment Report (AR5). Siehe meine Abbildung 1.12-3. Man beachte, dass die Überschrift ihres FAQ 10.1 lautet [übersetzt] „Das Klima ändert sich immer. Wie können wir die Gründe der beobachteten Änderungen bestimmen?“

(Ende des Auszugs)

Über ihr FAQ 10.1, Abbildung 1, schreibt das IPCC:

FAQ 10.1, Abbildung 1 illustriert einen Teil der Abschätzung eines Fingerabdrucks auf die Änderung der globalen Temperatur während der zweiten Hälfte des 20. Jahrhunderts. Die beobachtete Änderung während dieser Zeit, dargestellt durch die schwarze Zeitreihe in den linken Graphiken, ist größer als erwartet, wenn man nur die interne Variabilität betrachtet. Simulationen mit nur natürlichen Antrieben (gelbe und blaue Linien in der oberen linken Graphik) reproduzieren die Erwärmung zum Ende des 20. Jahrhunderts nicht, wobei die räumliche Verteilung der Änderung (oben rechts) vollkommen unterschiedlich ist von der beobachteten Verteilung der Änderung (Mitte rechts). Simulationen mit sowohl natürlichen als auch anthropogenen Antrieben zeigen eine viel bessere Repräsentation der zeitlichen Änderungsrate (links unten) und der räumlichen Verteilung (rechts unten) der beobachteten Temperaturänderung.

Beide Graphiken links zeigen, dass Computermodelle die natürlich getriebene Abkühlung ein oder zwei Jahre nach großen Vulkanausbrüchen reproduzieren, wie es 1982 und 1991 der Fall war. Simulationen mit natürlichen Antrieben allein zeigen die kurzfristigen Temperaturänderungen nach Eruptionen auch, aber nur die natürlichen + anthropogenen Antriebe simulierten den längerzeitlichen Erwärmungstrend.

Die Bildinschrift ihrer FAQ 10.1-Abbildung liest sich so:

(Links) Zeitreihe der globalen und jährlich gemittelten Temperaturänderung von 1860 bis 2010. Die Graphik oben links zeigt Ergebnisse aus zwei (sic) Ensembles von Klimamodellen mit nur natürlichen Antrieben, gezeigt als dünne blaue und gelbe Linien; Ensemble-Änderungen der Mitteltemperatur sind dick blau und rot. Drei verschiedene beobachtete Schätzungen sind als schwarze Linien dargestellt. Die Graphik links unten zeigt Simulationen der gleichen Modelle, aber diesmal mit sowohl natürlichen als auch anthropogenen Antrieben durch Treibhausgase und Aerosole. (Rechts) Räumliche Verteilung lokaler Temperaturtrends von 1951 bis 2010. Die obere Graphik zeigt die Verteilung von Trends mittels eines großen Ensembles von Coupled Model Intercomparison Project Phase 5 (CMIP5)-Simulationen mit nur natürlichen Antrieben. Die untere Graphik zeigt Trends eines korrespondierenden Ensembles mit natürlichen + menschlichen Antrieben. Die mittlere Graphik zeigt die Verteilung beobachteter Trends von HadCRUT4 während dieses Zeitraumes. [HadCRUT4 = Hadley Centre/Climatic Research Unit gridded surface temperature data set 4]

Für ein weiteres Beispiel dieser fehlgeleiteten, kindischen Logik schaue man auf Figure 9.5 im 4. Zustandsbericht. Die Bildunterschrift zu dieser Illustration im AR4 Chapter 9 lautet (Hervorhebungen von mir):

9.4.1.2Simulationen des 20.Jahrhunderts

Inzwischen gibt es eine größere Zahl von Klimasimulationen von AOGCMs (Atmosphere-Ocean General Circulation Models) für den Zeitraum der globalen instrumentellen Aufzeichnungen, als sie für den 3. Zustandsbericht zur Verfügung standen, einschließlich einer größeren Vielfalt von Antrieben in einer größeren Vielfalt von Kombinationen. Diese Simulationen stammen von Modellen mit unterschiedlichen Klimasensitivitäten, Raten der Wärmeaufnahme durch Ozeane sowie Größenordnung und Art der Antriebe. Abbildung 9.5 zeigt, dass Simulationen einschließlich anthropogener Antriebe, darunter zunehmende Treibhausgas-Konzentrationen und die Auswirkungen von Aerosolen, die außerdem natürliche externe Antriebe berücksichtigen, eine konsistente Erklärung bieten der gemessenen Temperaturaufzeichnung. Simulationen mit nur natürlichen Antrieben simulieren die während der letzten drei Jahrzehnte beobachtete Erwärmung nicht.

Wie zuvor schon erwähnt, ist die Logik hinter dieser Art von Zuordnung sehr einfach, kindisch einfach. Falls Modelle mit anthropogenen und natürlichen Antrieben die Erwärmung simulieren können und die Modelle mit natürlichen Antrieben allein nicht, dann müssen die anthropogenen Antriebe für die globale Erwärmung verantwortlich sein.

Aber diese Logik ist falsch – entsetzlich falsch. Es gibt natürlich auftretende Ozean-Atmosphäre-Prozesse, die die globalen Temperaturen steigen oder sinken lassen können, ohne durch menschliche Treibhausgase getrieben zu werden. Die Klimamodelle simulieren diese Prozesse nicht, das heißt sie werden in Zuordnungs-Studien wie dieser nicht berücksichtigt.

Man kann das noch auf andere Weise betrachten. Eines der größten Mängel der Klimamodelle ist deren Unfähigkeit, natürlich auftretende Ozean-Atmosphäre-Prozesse zu simulieren … wie jene in Verbindung mit El Nino und La Nina-Ereignissen, wie jene in Verbindung mit der Atlantic Multidecadal Oscillation. Wie jedermann, der ein falsches Produkt vermarkten will, stellte das listige IPCC diese Mängel als Vorteile dar, indem sie in den Zuordnungs-Studien ignoriert werden.

Jawoll, das ist eine ziemlich erbärmliche Art und Weise, die jüngste Runde der globalen Erwärmung anthropogenen Treibhausgasen zuzuordnen.

Schlussbemerkungen

Hat also der gewählte Präsident Donald Trump recht, skeptisch zu sein hinsichtlich der politisierten Wissenschaft hinter der hypothetischen, anthropogen induzierten globalen Erwärmung/Klimawandel? Natürlich hat er recht!

Die Klimawissenschaft ist im Jahre 1988 politisiert worden, als die UN-Politiker das IPCC ins Leben riefen und ihm die Richtung vorgaben. Die Klimawissenschaft wurde von der Politik im Jahre 1995 korrumpiert, also vor über 2 Jahrzehnten, als die Politiker den Wortlaut des 2. IPCC-Zustandsberichtes änderten. Und natürlich können Klimawissenschaftler bis auf den heutigen Tag immer noch nicht anthropogene Gründe realistisch der globalen Erwärmung zuordnen, wie sie seit den siebziger Jahren beobachtet wird, weil die Klimamodelle nicht sich aus natürlichen Antrieben speisende gekoppelte Ozean-Atmosphäre-Prozesse simulieren können, die im multidekadischen Zeitmaßstab Erwärmung verursachen können. Die Tatsache, dass die Modelle keinerlei Erwärmung simulieren können, es sei denn sie werden durch numerische Repräsentationen anthropogener Treibhausgase dazu gezwungen, ist ein Mangel des Modells und kein Mittel, die globale Erwärmung glaubwürdig den Emissionen von Kohlendioxid zuzuordnen. Mit dieser Klimawissenschaft befindet sich der Karren immer noch vor dem Pferd.

Link: https://wattsupwiththat.com/2016/11/29/the-politicization-of-climate-science-is-not-a-recent-phenomenon/

Übersetzt von Chris Frey EIKE




Am Nordpol ist es 20 Grad Wärmer als sonst

Bild 1 rechts: „Hitzewelle“ am Nordpol. Quelle:[1]

WELT N24, 20.11.2016: [1] Eismassen verschwunden Am Nordpol ist es 20 Grad wärmer als sonst
Dramatische Wärme am Nordpol: Die Temperaturen liegen mehr als 20 Grad höher als üblich. Auch in anderen Regionen der Nordhalbkugel herrschen rekordverdächtige Extreme. Konsequenzen? Kaum absehbar.
… Auch wenn manche Politiker wie Donald Trump unbeirrt den Klimawandel anzweifeln: Die Zahlen der meteorologischen Messstationen sprechen eine deutliche Sprache. Die jüngsten Messdaten vom Nordpol belegen, dass es derzeit dramatische 20 Grad Celsius wärmer in der Arktis ist, als es der langjährige Durchschnittswert erwarten ließe.

Ein Student darf dazu auch sein geballtes Wissen in die Waagschale werfen:
[1] „Das ist nicht normal“: So dramatisch beschreibt ein Student von der Universität Berkeley in Kalifornien die Entwicklung in der Arktis. Zack Labe studiert Klimawissenschaften …

Am Ende dann doch noch zumindest eine Erwähnung, dass es sich um eine Wetterverschiebung handelt, somit im „Mittel“ eigentlich alles beim Alten geblieben ist (der eine „verkocht“, der andere „erfriert“, im statistischen Mittel geht es beiden super gut – um den Nordpol herum allerdings eben „natürliches Wetterverhalten“):
[1] … Einen weiteren extremen Temperatureffekt haben die aktuellen Verhältnisse tief im Osten Russlands: In Sibirien ist es gerade außergewöhnlich kalt. Auch diese Wetteranomalie versuchen die Meteorologen mit dem unüblichen Verhalten des Jetstream zu erklären
„Vergessen“ wurde jedoch, darauf hinzuweisen, dass diese Extreme – vor allem in den „Jetstream“-Luftschichten der Nordpolarregion „üblich“ sind, nur in der Vergangenheit wenig beachtet (und publiziert) wurden, da die Stationsverteilungen damals zu dünn waren und diese Analysen deshalb erst seit den Satellitenmessungen und vor allem auch seit dem Aussetzen von Messbojen im Nordmeer in den Beobachtungsfocus traten. Aber „unüblich“ ist eben alles, was man bisher nicht beachtet hat.

Klar, dass wenn so eine Feststellung über den Teich zu uns kommt, sich auch hier zustimmende Klimapropheten finden:
wetter.info, 25.11.2016: [1] Klimawandel wird spürbar Hitzewelle am Nordpol Der Klimawandel ist auf der norwegischen Inselgruppe Spitzbergen immer deutlicher zu spüren. "2016 wird dort das wärmste Jahr seit Beginn der Messungen 1889", sagte Klimaforscher Ketil Isaksen vom norwegischen Meteorologischen Institut am Freitag.

Es lohnt sich deshalb, nachzusehen, wie die Verläufe der September- und Novemberwerte auf Spitzbergen – einer Insel nahe am Pol, am Rande der aktuellen „Hitzeblase“ und auch mit der besonders großen, eigenen-Erwärmung – aussehen. Dazu anbei die Daten einer Messstation, welche den Zeitraum des „schlimmen“ Klimawandels abdeckt:
Stations-Nr.: 5140 ,NY-ALESUND, Spitzbergen, NORWAY. Datensatz von: ECA&D project http://eca.knmi.nl)

Hinweis: die Temperatur in °C ergibt sich mit der ersten Ziffer

Bild 2 Station 5140, NY-ALESUND, Spitzbergen. Verlauf der September- und Novemberwerte (Sept bis 2016, November bis 2015). Datenquelle: ECA&D project http://eca.knmi.nl)

Daraus lässt sich nur ableiten, dass solche „Hitzewellen“ anscheinend keine Spuren hinterlassen, oder besonders klimazerstörend „haften“ blieben.

Satellitendaten

Satelliten decken die Gebiete besser ab, als Bodenstationen. Deshalb ist ein Vergleich damit eine gute Hilfestellung, auch wenn sie nicht direkt vergleichbar die „Normtemperatur“ in 2 m Bodenhöhe messen. Dafür messen sie den wirklichen Bereich der „Wetterküche“, aus dem der gesamte Klimaschaden ja entstehen soll (RSS TLT) und sie kennen keinen Wärmeinseleffekt.
Bild 3, Werte Nordpolar: In der Nord-Polarregion wurde es bekanntermaßen (seit mit Satelliten gemessen wird) über die Zeit etwas wärmer,
Bild 4, Werte Südpolar: Um den Südpol mit seiner wesentlich größeren Eismasse sieht man keine Erwämung,
Bild 5, Werte mittlere, nördliche Breiten: Das Ergebnis ist eigentlich eine Zumutung an den AGW-Glauben, aktuell der Stand vom Februar 1979. Und spätestens seit 1990 kein Erwärmungstrend.

Bild 3 RSS TLT Satellitendaten untere Troposphäre, Werte Nordpolar 1979 – Nov. 2016

Bild 4 RSS TLT Satellitendaten untere Troposphäre, Werte Südpolar 1979 – Nov. 2016


Bild 5 RSS TLT Satellitendaten untere Troposphäre, Werte Mittelteil der Nordhemnisphäre 1979 – Nov. 2016

Inzwischen liegt die umfassendste Analyse historischer Temperaturverläufe vor:
EIKE: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Die Rekonstruktionsverläufe der Arktis sehen darin wie folgt aus:

Bild 6 Projekt Pages 2k, Proxiverläufe Arctic. Quelle: Pages 2k Viewer

Wer anhand solcher Datenspaghettis ableiten kann, ob und welche Konsequenzen diese „Hitzewelle für die Region und das Weltklima haben wird“ ist zu beglückwünschen. Aber ganz bestimmt können es die Computer mit diesen historischen Daten sehr genau in die Zukunft simulieren.

Früher hat es das sicher nie gegeben?

Irgendwie kommen einem solche Meldungen allerdings auch bekannt vor. Ein Glück, dass es frühe Polarforscher gab, sonst hätte es die Welt nie erfahren:
Quelle: Alles Schall und Rauch, Bericht einer Polarexpedition aus Spitzbergen: … Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemessen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“
Verfasst wurde diese Meldung allerdings im Jahr 1922.

Jahrhundertchronik 1900-1999: 1973 Diskussion bei Wissenschaftlern und in der Presse über Klimaabkühlung, „Klima wird kälter, Vorspiel für neue Weiszeit?“ „in den letzten 10 Jahren mehr Eisberge im Nordmeer seit je, Spitzbergen Mitteltemperatur um 2,5° gesunken, Murmansk kältestes Jahrzehnt seit B.d.A.“

Die Antwort zur Darstellung der Klimaexperten: „Welche Konsequenzen diese „Hitzewelle“ für die Region und das Weltklima haben wird, ist kaum absehbar“, muss sich nun jeder Leser selbst geben.

Quellen

[1] WELT N24, 20.11.2016: Eismassen verschwunden Am Nordpol ist es 20 Grad wärmer als sonst

[2] wetter.info, 25.11.2016: Klimawandel wird spürbar Hitzewelle am Nordpol




Gorleben III – Endlagerwende 2016 Stefan Wenzel, Umweltminister – Mastermind der Wende Teil III von III

von Dr. Helmut Fuchs, Geologe

Letzter Abschnitt des Teil II:

Die politische Einschätzung des Umweltministers Wenzel zu Gorleben, die er Kraft seines Amtes öffentlichen verbreitet hat: „Die Landesregierung bleibt bei der Auffassung, dass der Standort Gorleben geologisch ungeeignet und politisch verbrannt ist“ entspringt fast ausschließlich den Vorstellungen seiner Parteigenossen bzw. den bis Brüssel bestens vernetzten Anti-Nuk Lobbyisten. Mit der Realität hat diese Einschätzung jedoch wenig zu tun. Somit ist die Aussage von ihm „geologisch ungeeignet und politisch verbrannt“ weniger den qualitativ hochwertigen Arbeitsergebnissen geschuldet, die für das Endlager = Untertage-Deponie Gorleben geleistet wurden, sondern den Brandstiftern seiner grünen Bewegung.

Teil III Analyse

Hier der volle Beitrag als pdf

Gorleben – Endlagerwende 2016 , Stefan Wenzel Umweltminister – Mastermind der Wende 1

Die meisten Ausführungen des Umweltministers Stefan Wenzel oder die seiner Berater scheinen nicht den wissenschaftlich technischen Stand der Erkundungsergebnisse zum Zeitpunkt direkt vor dem politisch verordneten Moratorium von 2001 bekannt zu sein. Die geäußerten Zweifel seiner Parteigenossen, die sich hauptsächlich auf die 20 Aussagen der im Anhang seiner Antwort  beziehen, wurden nicht nur von der BGR meist als wenig stichhaltig zurückgewiesen. Auch die Bewertung der dokumentierten Ergebnisse bis zum Moratorium in 2001durch die neutrale, fachlich hochrangig besetzte „International Peer Review Group (IEG)“ konnten die Zweifel nicht bestätigen. Insbesondere die sehr umfassenden Ergebnisse und die davon abgeleiteten Schlussfolgerungen der „Vorläufigen Sicherheitsanalyse Gorleben (GRS)“ von 2012 enthalten keine Hinweise, die gegen eine „Eignungshöffigkeit“ von Gorleben sprechen. Dies ist auch ein Hinweis auf die praktizierte selektive Auftragsvergabe der zahlreichen in der Antwort des Ministers genannten Berichte an seine Öko-Lobbyisten, die wahrlich nicht neutral genannt werden können. Denn bei seiner öffentlich gemachten Einschätzung der Qualität von Gorleben nennt er keinen einzigen der zahlreichen Ergebnisberichte des BfS, auch nicht die von offiziellen Behörden wie der BGR sowie der DBE und Sonstigen, die für das Milliarden – Projekt Gorleben verantwortlich waren. Sie fallen geschickter weise in die Kategorie ’nicht abschließende Liste‘, einen neuen, ideologisch geprägten Begriff für Desinformation: Man benutzt ihn, wenn man nicht die ganze Wahrheit nennen will. In diesem Fall dürfte das Verhältnis zwischen objektiver Wahrheit zur subjektiven (Un-)wahrheit in der Größenordnung von 99 Prozent der nicht genannten zu 1 Prozent der genannten Berichte liegen.

Hinter dieser seit dem Jahr 2000 zunehmend gezielten Politik der Desinformation – heute auch ‚Fake News‘ genannt -, durch die Verantwortlichen für die Endlagerung = Untertage Deponierung hochradioaktiver „Abfälle“, also insbesondere durch das BMU sowie das BfS, ihre politischen Mitstreiter und die zahlreichen NGOs steckt eine langjährig angelegte Strategie, obwohl sie fleißig in der Öffentlichkeit den Eindruck erwecken, die Transparenz und Einbindung der Öffentlichkeit sei ein hohes Gut. Schon in dem 2002 erschienen ‚AkEnd-Bericht des Arbeitskreis Auswahlverfahren für Endlagerstandorte‘, wird im Kapitel 3 „Öffentlichkeitsbeteiligung“ gefordert: „Der Arbeitskreis hält eine aktive Beteiligung der Öffentlichkeit in jeder Phase und in jedem Verfahrensschritt für unerlässlich“. Möglicherweise hat das BfS diese Aufforderung so verstanden, dass dies nicht für den Zeitraum des Moratoriums und auch so lange nicht gilt, so lange Gorleben nicht von der Landkarte verschwunden ist. In der Antwort auf die parlamentarische Anfrage kann man, ohne allzu sehr spekulieren zu müssen, einerseits davon ausgehen, dass sich der Präsident des BfS mit grünem Parteibuch Wolfram König aus formalen Gründen bei politischen Aussagen zurückhalten musste, andererseits als Kenner der Materie im Sinne seiner Parteilinie schweigen konnte. An diesem Beispiel lässt sich aber auch erkennen, wie viel die Aussage zur zukünftigen Einbindung der Öffentlichkeit wert ist – je größer diese ist, desto besser lässt sich diese mit gezielten Desinformationen erreichen – wie sie im § 5 des Standortauswahlgesetzes von 2013 sehr langatmig beschrieben wird. Da die früheren politischen Protagonisten bis zur Endlagerwende auch die Verantwortlichen für den Neustart der Endlagerung sein werden, dürfte sich an der Taktik des Versprechens einer noch viel weitergehenden Transparentoffensive wenig ändern. Denn die Endlagerung in Deutschland darf auch nach der Wende weiterhin, wie das Beispiel Asse zeigt, als politisch nutzbares ANGST-ASS der grünen Bewegung nicht sterben. 

Vorneweg: Für einen Naturwissenschaftler sind die Fakten, die jeder nachprüfen kann, streng zu trennen von deren Interpretation, die bei jedem subjektiv unterschiedlich ausfallen kann. In den Teilen I und II des Gesamtberichtes sind die Fakten genannt, in dem Teil III sind meine persönlichen über Jahrzehnte erlebten Erfahrungen eingeflossen. 

Wie konnte es zu einer derartigen Vernichtung von Volksvermögen in Deutschland kommen? Dafür gibt es sicher eine Anzahl von Gründen. Als subjektiver Beobachter dieser nur in Deutschland einzigartigen Entwicklung ist in den vergangenen fünfunddreißig Jahren, neben anderen Einflüssen, vor allem das Entstehen eines ursprünglich politisch sehr dünnen roten Fadens zu erkennen, der stetig immer grüner und kräftiger wurde. Er reicht bis zu den heute meist vergessenen Geschehnissen des Endes des 2. Weltkrieges zurück: Klaus Emil Julius Fuchs, bekannt geworden als ‚Atom-Spion Fuchs‘, der ein begabter Wissenschaftler war aber auch einer der bekanntesten Wissenschaftsspione. Gegen Ende des Krieges und danach war er an der Entwicklung des Baus von Nuklearwaffen in den USA und in Großbritannien beteiligt. Während dieser Zeit hatte er aber auch wichtige Nukleargeheimnisse an die Sowjetunion geheimdienstlich weiter gegeben. Nach dem Bekanntwerden seiner geheimdienstlichen Tätigkeit, wurde er in Großbritannien zu 14 Jahren Haft verurteilt. Nach seiner vorzeitigen Freilassung 1959 verschwand er in die DDR. Dort begann er am Zentralinstitut für Kernforschung in Rossendorf bei Dresden bis 1974 zu arbeiten, zuletzt als stellvertretender Direktor. Seit 1967 war er Mitglied des ZK der SED. Seine Erfahrung in Los Alamos in den USA, die er  dort bei der Entwicklung von Techniken der Uran-Isotopentrennung gesammelt hatte, führten bei den Verantwortlichen im ZK zu dem Bedrohungsgefühl, dass ab 1968 in der Bundesrepublik im Atomforschung-Zentrum Karlsruhe und in Jülich Grundlagen für den Bau einer Gaszentrifuge (Isotopentrennanlage) erarbeitet werden könnten. Da diese für die Nutzung der Kernenergie notwendigen Forschungseinrichtungen nicht nur in der Lage sein würden, die technischen Voraussetzungen für eine Isotopentrennung für die zukünftige Nutzung der Kernkraft sein könnten, sondern auch Grundlagen für die Produktion von Plutonium für Atombomben, die nur militärischen Absichten dienen könnten. Nicht zu vergessen: Damals herrscht noch der „Kalte Krieg“. 

Werner Stiller (Doppelagent), Oberleutnant der HVA, gab bei seinen Verhören preis, als er 1979 mit 20 000 Dokumenten in den Westen übergelaufen war, wie damals von der DDR die Stimmung gegen diese Anlagen bzw. alles was mit Kernkraftanlagen in Beziehung stand, mit Hilfe von Aktivisten zu stören bzw. zu verhindern. „ … Das Ostberliner Ministerium für Staatssicherheit (MfS) begnügt sich nicht damit, von den Agenten der Hauptversammlung Aufklärung aus der Bundesrepublik heranschaffen zu lassen, was von Interesse sein könnte. Im Zusammenhang mit der Entwicklung einer westdeutschen Anti-Kernkraft-Bewegung“, so berichtete Stiller, „wird auch die Intervention mit „aktiven Maßnahmen“ erwogen …..“ („ DIE WELT, Nr. 246, 22.10.86) 

Das ehemalige KBW-Mitglied (1973-1975) Winfried Kretschmann, der 1979 Gründungsmitglied der baden württembergischen Grünen war und heute dem Bündnis 90/Die Grünen angehört, wurde im Mai 2011 zum ersten grünen Ministerpräsidenten von Baden-Württemberg gewählt. Er ist damit zugleich der erste ex-maoistische Ministerpräsidenten in der Geschichte der Bundesrepublik Deutschland. Die spätere Bundesgesundheitsministerin Ulla Schmidt kandidierte auf der Landesliste NRW des KBW auf Platz 2 bei der Bundestagswahl 1976 und als Direktkandidat in Aachen Stadt. Neben Ulla Schmidt waren folgende ehemalige KBW-Genossen Mitglieder des Deutschen Bundestags der 17. Wahlperiode: Ursula Lötzer (Die Linke), Krista Sager (Bündnis 90/Die Grünen), und einigen mehr…“ (Wikipedia: KBW). Wobei noch der Parteigenosse Reinhard Bütikofer zu nennen ist, der in den 1970er Jahren, also vor der politischen Öffnung Chinas, in der ‚Gesellschaft für Deutsch-Chinesische Freundschaft (GDCF) aktiv gewesen war, sowie führendes

Mitglied der Grünen und zeitweise Mitglied der Fraktion ‚Die Grünen/EFA ‚ im EU Parlament, Studienabbrecher und einer der politisch herausragenden und aktivsten Anti-Nuc Kämpfer. Innerhalb seiner Partei war er maßgeblich an dem Zustandekommen des 30-jährigen ‚Kompromiss-Konzepts‘ zur Atomkraft beteiligt.

„… Der Hauptgegner des KBW (Kommunistischer Bund Westdeutschland) war aber der ‚bürgerliche Staat‘. In der internationalen Politik verfolgte der KBW eine Position des Antihegemonismus und der  Blockfreiheit, was in u.a. in der Parole ‚Nieder mit NATO und Warschauer Pakt‘ zur Zeit der Zuspitzung des kalten Krieges in Europa Ausdruck fand … ,

„ … Im Unterschied zu anderen Gruppierungen, die aus der 60er-Bewegung hervorgegangen sind, war der KBW eine Kaderorganisation. Mitglieder führten mindestens 10 % ihres Bruttoeinkommens an den KBW ab, darüber hinaus wurden Beiträge (z.B. Spenden von Erbschaften) erwartet. Dank dessen verfügte der KBW neben einer Reihe hauptberuflicher Funktionäre auch über eine außergewöhnlich gut ausgebaute technische Infrastruktur … Ideologisch stand der KBW dem Maoismus nahe und sympathisierte mit Regimen wie der Volksrepublik China, Albanien oder Kambotscha unter Pol Pot … 

„… Durch einen Kronzeugen, den der Verfassungsschutz Schleswig-Holstein Ende 1978 präsentierte, erfuhr die Öffentlichkeit, dass der KBW von seinen Mitgliedern nicht nur hohen finanziellen, sondern auch großen zeitlichen Einsatz erwarte und auch vor „psychischem Terror“ nicht zurückschrecke.  Dabei wurde auch erwähnt, dass der KBW von seiner Mitgliederstruktur her nicht die „proletarische“ Organisation war, die er gerne sein wollte. In seinen Reihen waren auffallend viele Ärzte, Lehrer, ca. 70 Rechtsanwälte , Professoren (und bis zu ihrem Austritt ca. 1974–1975 auch etwa fünf evangelische Pfarrer). Die Pastoren wurden vor die Alternative des Austritts aus der Kaderorganisation gestellt ….,

„… Der KBW beruhte programmatisch auf einer Organisationsform, die als ‚Demokratischer Zentralismus‘ bezeichnet wurde, ähnlich der Organisationsform unter Lenin oder Mao….“

„… 1985 löste sich der KBW offiziell auf, nachdem er sein Vermögen in einen Verein mit dem Namen ‚Assoziation‘ eingebracht hatte, der die ‚grün-alternative Bewegung‘ unterstützen sollte. Das (ursprünglich für etwa 3 Millionen DM erworbene) Gebäude seines Frankfurter Hauptquartiers ging einige Jahre später gegen ein für angeblich ca. 30 Mio. DM neu errichtetes „Öko-Haus“ im Tausch an die Commerzbank. Zahlreiche ehemalige Mitglieder (z.B. Joscha Schmierer oder Ralf Fücks und Willfried Maier) fanden später ihre politische Heimat im Realo-Flügel der Grünen, wie auch ihre ehemaligen Sponti-Widersacher Joschka Fischer und Daniel Cohn-Bendit. Andere kehrten ins bürgerliche Berufsleben zurück und machten trotz ihrer revolutionären Vergangenheit in Industriefirmen und Verbänden Karriere. …“. Georg Duffner, ehemaliger Geschäftsführer der Röchlin-Gruppe, war ein aktives Mitglied im maoistischen KBW der für die kommunistische Weltrevolution kämpfte. Er kandidierte für den KBW bei den Bundestagswahlen 1976. Von ihm stammt die Aussage: „Die Gelder des ‚Vereins  Assoziation‘ gingen an die Grünen. Ohne die Gelder des KBW wären die Grünen nicht möglich gewesen. Darum auch die Herrschaft des KBW innerhalb der Grünen. 40 Prozent der Entscheidungsträger innerhalb der Grünen haben eine KBW-Vergangenheit.“ Der ursprünglich rot-grüne Faden wurde nun zur grünen Schnur und entwickelte sich bis heute zu dem grünen Seil, aus dem das Netz der Desinformation erfolgreich geknüpft worden ist. Eine der vielen politischen Erfolge der grüne Bewegung ist: das Bundesumweltministerium wurde 1986 als Reaktion auf die Katastrophe von Tschernobyl eingerichtet. Heute im Jahr 2016, nach 30 Jaren, hat jedes Land ein Umweltministerium, mit dem Bund sind es 17. In 10 Ländern haben das Bündnis90/Die Grünen einen Umweltminister, in 4 Ländern die SPD und in 2 Ländern je einen von der CDU und einen von der CSU. Inzwischen monopolisiert im Bundesrat die grüne Bewegung den ideologistischen Geist des ’sogenannten deutschen‘ Umweltschutzes. Welch ein Erfolg mit dem grünen Ball der Angst gespielt zu haben und auch weiterhin zum Machterhalt damit spielen zu dürfen. Die Fast-Nennung eines ehemaligen KBW-Mitgliedes zum zukünfigen Bundespräsidenten Deutschlands zeigen die tiefen Wurzeln der grünen Bewegung in der heutigen Gesellschaft.

Welche Schlüsse kann man daraus ziehen, wenn ein großer Teil der vergangenen und heutigen Politiker-Elite, die politisch für die Kernenergie verantwortlich ist, aus einem maoistisch-ökologistisch geprägten Umfeld stammt? Abgesehen von einigen, die vom ‚Saulus‘ zum ‚Paulus‘ mutierten oder von einigen, die sich nicht nachweisbar als Maulwürfe im Hintergrund versteckt halten, kämpft ein größerer Teil von ihnen weiterhin mit Erfolg, ihre ideologisch geprägten Vorstellung in Deutschland durchzusetzen. Die spezielle deutsche Anti-Nuc Bewegung hat ihren Ursprung in der Zeit des ‚Kalten Krieges‘, unterstützt von einer subversive Beeinflussung der DDR. Nachdem diese linke Bewegung selbst erkannt hatte, dass die BRD keine Plutonium-Bomben herzustellen plant, sie mit ihren bisherigen agitatorischen Erfahrungen und Aktionen aber Erfolg hatte und ihren ideologisch geprägten Zielen näher kam, begann sie systematisch die Bundesrepublik nach ihren Vorstellungen weiter zu entwickeln. Das heißt, mit dem Schüren von Ängsten bei den Bürgern den Bau von Kernkraftwerken wie z. B. Wyhl zu verhindern, Castor-Transporte publikumswirksam zu behindern und das Verschließen der Asse möglichst lange aufzuschieben. Denn sie hat die Wirkung erkannt, wie man es schon früher in unserer Geschichte hautnah erlebt hat, mit dem Kultivieren von Ängsten, politisch erfolgreich zu werden. Angst breitet sich aus, wo Wissen, Vernunft und Sachlichkeit fehlen. Angst reduziert die kritische Urteilskraft, schafft Feindbilder und Schuldige, pauschaliert und macht schwach. In den vergangenen Jahren hat die Entwertung des Verstandes bei gleichzeitiger Aufwertung von Emotionen und Halbwissen zu einer weitgehenden Verunsicherung der Bürger geführt. Insbesondere die angeblich zunehmende Zerstörung der Umwelt durch die kapitalistische Industrie macht den Bürgern Angst – und diese Strategie bildet wie bisher auch weiterhin die Basis der grüner gewordenen Bewegung für ihr zukünftiges politisches Handeln. Nach den Vorstellungen von BundesumweltministerIn Hendriks steht jetzt neben anderen Themen ganz aktuelle die Minderung der Emissionen um 55 Prozent bis 2030 gegenüber dem Jahr 1990 und die Dekarbonisierung Deutschlands bis 2050 auf ihrer politischen Agenda. Motiviert durch basisdemokratische und ökologistische Vorstellungen wird von der Bewegung der Anspruch erhoben, bei jeder Fachdiskussion fachlich und insbesondere auch ökonomisch mitreden zu können.

Aufbauend auf den Begriffen Technologiefeindlichkeit und Umweltzerstörung wurde eine Strategie zur Destabilisierung der Bundesrepublik entwickelt. Denn wenn es gelingt, Feindbilder zu schaffen, sowie Technologiefeindlichkeit und Ängste bis zur Hysterie zu schüren, dann trifft man das Kapital. Wenn man berechtigte und unberechtigte Ängste der Wohlstandsgesellschaft verstärkt, werden technologische und industrielle Vorhaben der kapitalistischen Bundesrepublik erschwert, verzögert oder noch besser verhindert, und wenn sie schon existieren, so weit wie möglich geschädigt oder gar zerstört. Um dieses Ziel zu erreichen war es zum einen notwendig, im Sinne von Mao Tse-Tung, einem der Lehrmeister des maoistischen KBW, seinen Begriff  ‚XI NAO‚ (Xi entspricht waschen, Nao entspricht Gehirn) zu nutzen und schleichend mit den eigenen Kadern in der Politik, in der Presse, in den Medien, in den Kirchen und in den Schulen umzusetzen. Damit war der zukünftige Nährboden für die Öffentlichkeitsarbeit vorbereitet, den Ökologismus im gewünschten Sinne zu verbreiten, und zwar gezielt durch Verschweigen von Fakten, Verbreiten von Halbwahrheiten oder durch selektiv gefilterte Nachrichten mit dem Zusatz  ’nicht abschließenden Liste‘ wie im Teil I schon beispielhaft beschrieben. Eine weitere wichtige Lehre für die grüne Bewegung ist die gezielt eingesetzte Propaganda, deren erste Aufgabe es ist die Gewinnung von Menschen für die spätere Organisation. Die zweite Aufgabe der Bewegung ist die Gewinnung von Menschen zur Fortführung der Propaganda. Die dritte Aufgabe der Bewegung ist die Zersetzung des bestehenden Zustandes und die Durchsetzung dieses Zustandes mit der neuen Lehre, während die vierte Aufgabe der Bewegung der Kampf um die Macht sein muss, um durch sie den endgültigen Erfolg der öko-sozialistischen Bewegung zu erreichen. 

In Deutschland gibt es neben GREENPEACE, BUND, NABU, WWF mehr als 64 Umweltorganisationen und sog. ‚Soziale Medien‘, die systematisch die von ihnen geglaubten Gefahren der Endlagerung = Untertage-Deponierung von hoch radioaktiven Stoffen und der Kernenergie für sich nutzen. Das gleiche gilt auch durch das Verbreitung von Ängsten vor den Gefahren des Spurengases CO2, dessen Anteil in der Luft nur 0,004 Prozent beträgt und vor der angeblich damit zusammenhängenden Klimakatastrophe für ihre gewünschte Politik zu instrumentalisieren. Dieser zuletzt genannte ideologische Hintergrund stammt jedoch ursprünglich aus den USA, wird aber auch gerne in Deutschland zur Erweiterung ihrer Macht aber auch ihrer eigenen Pfründe und Spenden eingesetzt. In diesen politischen Organisationen und Stiftungen haben deren Akteure nur in den wenigsten Fällen eine naturwissenschaftliche, technische sowie ökonomische Ausbildung und auch die Wenigsten eine praktische Erfahrung in den von ihnen bekämpften Fachbereichen. Dagegen häufen sich dort Personen, nicht nur in den NGOs, sondern auch in leitenden öffentlichen Ämtern und Berufsgruppen, die für naturwissenschaftliche und industrielle Bereiche weder ausgebildet sind noch praktische Erfahrung haben: Beispielhaft seien hier nur genannt: Germanistik, Journalistik, Politische Wissenschaft, Literatur, Geschichte, Historiker, Philosophen, Maler, Aktionskünstler, Sozialwissenschaftler, Politologen, Volkswirtschaftler, Kommunikationswissenschaftler, Volkswirtschaftler, Rechtswissenschaftler, Studienabbrecher und eine beeindruckende Fortsetzung früherer fachfremden Mitglieder des maoistischen KBW: „… In seinen Reihen waren auffallend viele Ärzte, Lehrer, ca. 70 Rechtsanwälte, Professoren (und bis zu ihrem Austritt ca. 1974–1975 auch etwa fünf evangelische Pfarrer)“. Das ist ein weiterer Hinweis, wie effektiv sich diese Strategie einer langjährig subtil gesteuerten ‚XI NAO‘-Taktik und Propagandapolitik entfalten konnte. Für die landesweite Verbreitung ihrer Politik war zusätzlich die enorm wachsende Informationstechnologie, mit der die Mechanismen der digitalen Revolution perfekt geschaffen wurden und eine ideale Platform für eine möglichst engen Vernetzung der Aktivisten für die Verbreitung ihrer Ideologie bildet. Im Gegensatz dazu bestanden für die, die Verantwortung für die wissenschaftlich technische Durchführung des Endlagers = Untertage Deponie zu tragen hatten, kaum Möglichkeiten, die Öffentlichkeit weder über die erfolgreichen Fortschritte des Projektes zu informieren noch deutlich genug öffentlich die jahrelangen ideologisch geprägten Vorwürfe über die Gefahren, Fehler und Inkompetenz der Gegner zu widerlegen. Die Energiewirtschaft war nur für die Finanzierung verantwortlich, das BfS als untergeordnete Behörde des Bundesumweltministeriums, war nicht nur aus politischen Gründen, sondern auch formal nicht frei, den Gegnern zu widersprechen. Die beteiligten Behörden und Forschungseinrichtungen hatten abgesehen von rein fachlichen Berichten, dazu ebenfalls keine Befugnis. Auf dieser Basis war eine Vernetzung der Fachverantwortlichen und eine sachgerechte Information der Öffentlichkeit einschließlich der Medien unmöglich. Das bedeutet in diesem Fall, dass heute in Deutschland kein Gleichgewicht mehr zwischen gesinnungsethischem und verantwortungsethischem Handeln besteht. 

Ergebnis: Die Gegner, die Anti-Nucs und ihre ideologischen Glaubensbürger haben heute die absolute Informationshoheit über den wissenschaftlichen technischen Sachstand der Endlagerung erreicht. Noch deutlicher zeigt sich der Erfolg ihrer maoistischen ‚XI NAO‘ Taktik an der Einschätzung und Bewertung des Reaktorunfalls Fukushima Daiichi 2011 durch einen von der Regierung ernannten Ethikrat, der schlauerweise von der Regierung die politische Verantwortung für der Entscheidung über die künftige Energieversorgung Deutschlands übertragen bekommen hatte. Aus menschlicher Sicht war die Havarie eine Katastrophe, aus  technischer Sicht war die primäre Ursache der Havarie nicht eine Folge des Erdbebens der Stärke 9, sondern eine dadurch verursachte sehr hohe Tsunami-Welle. Für diesen Standort waren die Kernkraftwerke nicht technisch korrekt gegen die Kraft einer solchen Welle ausgelegt, obwohl bekannt ist, dass schon im Jahr 869 im gleichen Gebiet, eine Tsunami-Welle mit der gleichen Wucht die gleiche Zerstörung bewirkt hatte. Ohne abzuwarten, bis die Ursachen des Unglücks geklärt waren, brach insbesondere in Deutschland eine Hysterie aus, die dem Machtwillen der hungrigen Ökosozialisten in die Hände spielte. Anstatt wie andere Länder abzuwarten, bis die Ursachen der Havarie bekannt geworden sind, hatte die deutsche Regierung – weltweit einmalig – nur vier Tage nach der gewaltigen Naturkatastrophe, ein Moratorium zur Abschaltung der älteren Atomreaktoren in Deutschland verfügt. Anschließend innerhalb eines Monats, hatte sie ohne eine Analyse der gesellschaftlichen, technischen und ökonomischen Folgen dieser weitreiche nden Entscheidung auf die ‚kenntnislose‘

Empfehlung eines Ethikrates in gerade mal hundertzehn Tagen ein neues Gesetz fabriziert, in dem sie sich – wieder weltweit einmalig – von der Kernkraft endgültig verabschiedet hat: „… Die Kommission ist der festen Überzeugung, dass der Ausstieg aus der Nutzung der Kernenergienötig ist und es wird empfohlen, um Risiken, die, von der Kernkraft in Deutschland  ausgehen, in Zukunft auszuschließen …… es wird behauptet, der „schnellstmögliche Ausstieg aus der Kernenergie sei ethisch gut begründet …“ Diese Hast des Gesetzgebungsprozesses ist unvereinbar mit der Ausdauer, die für eine gewünschte Energiewende – aus welchen Gründen auch immer – notwendig ist, um die technische und wirtschaftliche Komplexität einer neuen Energiewirtschaft mit einer effizienten Brückentechnologie zu verstehen und später erfolgreich umzusetzen, wie das bei der Auswahl und Erkundung des Salzstock Gorleben bis 2001 beispielhaft der Fall war. Bei dem Panikablauf der Politik muss allerdings anerkannt werden, dass sich die 14 ehrenwerten Mitglieder der deutschen Gesellschaft kaum anders entscheiden konnten, da sie als Folge der Jahrzehnte langen politischen Indoktrination der grün-ökologistischen Bewegung mit den wirklichen technischen Fakten nicht vertraut sein konnten und somit unbewusst Opfer einer fragwürdigen Politik geworden sind. 

Im Ausland spricht man schon von der neudeutschen Ethik. Dies zu Recht. Denn diese Bewertung steht der klaren Botschaft der UNSCEAR und WHO gegenüber. Ihr Vergleich zeigt die Todesrate nach Energiequellen an und zwar bezogen auf je eine Billion erzeugter Kilowattstunden (kWh): die Kernkraft liegt, wie zu erwarten, am niedrigsten. In Deutschland hat diese langjährige  Indoktrination der Gesellschaft durch die grün-öklogistische Bewegung über die weltweit bekannten Fakten wieder einmal gewonnen und nicht nur für die dafür Verantwortlichen zu einem großen politischen Sieg geführt, sondern auch zu hohen Profiten bei den zahlreichen Subventionsgewinnlern.  Abgesehen von diesen hat der Rest der Bevölkerung noch bis in die nächste Generationen die wirtschaftlichen und ökologischen – nicht öklogistischen – negativen Folgen zu tragen. Dass beispielsweise in Deutschland in Krankenhäusern jährlich mehr als15.000 Patienten an Infektionen sterben müssen, obwohl die Kosten für zusätzlichen Hygienemaßnahmen überschaubar sind, bleib dies für einen grün-ökologistisch gesteuerte Politik Nebensache. Denn bei diesem Thema bleibt auch für den mündigen Bürger das politisch nutzbare Angstpotenzial viel zu gering und löst bei ihnen keine Hysterie aus. Festzustellen ist jedenfalls, dass es sich bei der Endlagerung = Untertage-Deponierung von hoch radioaktiven „Abfällen“ um einen Fall von Täuschung und Unaufrichtigkeit handelt, der in unserer Gesellschaft ungestraft hingenommen wird. Die Verlogenheit triumphiert ein weiteres Mal. 

Zurück zur Objektivität: Die ‚Kommission Lagerung hoch radioaktiver Abfallstoffe‘ besteht aus 2 Vorsitzenden, 8 Vertretern der Wissenschaft, 8 Vertretern gesellschaftlicher Gruppen, 8 Mitgliedern des Deutschen Bundestages und 8 Mitgliedern von Landesregierungen. Hinzu kommen jeweils 8 Vertreter der Politiker, also insgesamt 34 offizielle Mitglieder und 14 Vertreter der Politik. Wie vielen dieser ehrenwerten Mitglieder der deutschen Gesellschaft dürfte bei ihrer Entscheidung zur Endlagerwende bekannt gewesen sein:

1.     die positive Bewertung Gorlebens durch die „International Expert Group Gorleben (IEG)“ von 2001?  „… die hierbei gewonnenen Ergebnisse belegen nachvollziehbar, dass eine begründete Aussicht auf eine Eignung insbesondere für die Endlagerung hochradioaktiver, wärme entwickelnder Abfälle und abgebrannter Brennelemente besteht …“ ?(siehe Teil II)

2.     die negative Behauptung des Umweltministers Wenzel vom 12.09.2014, dass der Standort Gorleben geologisch ungeeignet und politisch verbrannt ist“? (Teil I)

3.     die positiven Ergebnisse der ‚Vorläufigen Sicherheitsanalyse Gorleben (VSG)‘ von 2012 einschließlich den Strukturplan der 9 Millionen teuren Analyse mit der eingeplanten wichtigen abschließenden Bewertung durch eine Internationale ‚Peer Review Gruppe? (siehe Teil II)

4.     der geschickte Trick der Anti-Nucs, dass dort das wichtigste Arbeitspaket ‚internationale Bewertung der Analyse‘ nicht nur nicht beauftragt worden ist, sondern auch noch mit dem Standortauswahlgesetz vom 2013 verboten worden ist? (siehe Teil II).

Grund  für dieses ungewöhnliche Verbot durch ein Gesetz  dürfte sein, später eine aus ökonomischen und ökologischen – nicht ökologistischen – Gründen abschließende Bewertung ohne Gesetzesänderung erheblich zu erschweren. Dem Leser sei hier überlassen, selbst zu beurteilen, ob den meisten Mitgliedern der Kommission, außer denen, die zum Kern der grünen Bewegung zählen, diese nachprüfbaren Fakten wirklich im Detail bekannt sein konnten –  und wenn diese Einschätzung stimmt, deren Beurteilung nicht auf einer sachlich nachprüfbaren Faktenlage zu Gorleben beruhen kann. Wieder ein sehr sehr teurer Sieg des deutschen Ökosozialismus!                                                                                                        

Lit.: Hintergrund Informationen zu dem Text sind bei Google im Internet zu finden unter ‚Helmut Fuchs Geologe‘. 

Volkswagen betrügt seit einigen Jahren ihre weltweiten Kunden mit gefälschten Abgaswerten. In den USA wurde von einer Umwelt-Behörde dieser Sachverhalt festgestellt. Als Folge wurde VW für diese angebliche Fälschung angeklagt und wird dafür mit der Zahlung eines hohen Gesamtbetrags (Gesamtbetrag noch unbekannt) bestraft werden. Die Verantwortlichen in Deutschland sind als Folge davon zurückgetreten und müssen möglicherweise mit Strafzahlungen rechnen. Hier gab es Ankläger!

Vorstandschef John Stumpf von der bedeutenden US-Bank Wells Fargo tritt nach der Veröffentlichung von skandalösen Geschäftspraktiken wie die Eröffnung von Scheinkunden durch die Bank mit sofortiger Wirkung zurück. Vom Direktorium wurde ihm ein Aktienbonus in Höhe von 41 Millionen Dollar gestrichen. Zusätzlich musste er sich einer Anhörung im US-Senat stellen. Hier gab es Ankläger.

Verteidigungsminister Karl-Theodor zu Guttenberg CDU ist wegen seiner Plagiatsaffäre zurückgetreten. Für den Staat sind für seine Verfehlungen kaum Kosten entstanden. Er sagte, „er ziehe Konsequenzen, die er auch von anderen verlangt habe“. Der bayrische Kultusminister Ludwig Spaenle sprach von einem Schritt, der Respekt verdiene und der Guttenbergs Persönlichkeit unterstreiche.

Bundesbildungsministerin Annette Schavan CDU ist wegen der Aberkennung ihres Doktortitels durch die Universität Düsseldorf zurückgetreten. Die Bundeskanzlerin sagte, sie habe den Rücktritt Schavans sehr schweren Herzens angenommen. Durch ihre Verfehlung ist dem Staat kaum ein  finanzieller Schaden entstanden.

Umweltminister Stephan Wenzel, Glied der grünen Bewegung und Mitglied der Endlagersuchkommission wird weiter behaupten dürfen: „Gorleben ist geologisch ungeeignet und politisch verbrannt“. Diese Aussage wird den Bundesbürger noch sehr viel Geld kosten! Hier kann der aufgeklärte Wähler Ankläger werden. Er müsste sich nur bald entscheiden.

                                                                                                                                                                                         Wilhelm Busch: Friedr. Bassermannsche Verlagsbuchhandlung, München, 1924

P.s.: Schweizer lehnen den schnellen Atomausstieg am 27. November 2016 ab!

Die hochgelobte, teure und umweltschädliche Energiewende und Endlagerwende zeigt wieder einmal deutlich das Alleinstellungsmerkmal der  ‚deutschen Wende‘. Wie in meiner Analyse aufgezeigt, ist dieser deutsche Alleingang die Folge einer langjährigen ökosozialistischen Gehirnwäsche der Bevölkerung durch die grüne Bewegung mit einer propagandistischen Desinformationspolitik – und erkauft mit einer monströsen Subventionspolitik. Kein Wunder, dass die Erklärung des deutschen Ethikrats lautet:  „… Die Kommission ist der festen Überzeugung, dass der Ausstieg aus der Nutzung der Kernenergie … nötig ist und es wird empfohlen, um Risiken, die von der Kernkraft in Deutschland  ausgehen, in Zukunft auszuschließen …… es wird behauptet, der „schnellstmögliche Ausstieg aus  der Kernenergie sei ethisch gut begründet …“




Gorleben II – Endlagerwende 2016 (Teil II von III) Stefan Wenzel Umweltminister – Mastermind der Wende

von Dr. Helmut Fuchs, Geologe

Letzter Abschnitt des Teil I:

Die vom niedersächsischen Umweltminister Stefan Wenzel sehr verkürzte Zusammenstellung (Teil I :Ideologie) der Ergebnisse von Gorleben zeigt im folgenden Teil II: Realität überdeutlich, wie die Gläubigen der grünen-ökologistischen Bewegung mit ihren grünen Hilfstruppen von NGOs in der politischen Diskussion zu Gorleben jahrelang eine massive, sehr selektive, ja destruktive Berichterstattung gegenüber der Bevölkerung, den Medien und der Presse praktiziert haben und noch praktizieren – und möglicherweise die Mitglieder der Endlagerkommission manipulativ, d.h. verdeckt aber gezielt bei ihren Entscheidungen zu Gorleben beeinflusst haben könnten. Den  Abgeordneten Dr. Gero Hocker sowie Dr. Stefan Birkner (FDP) sei deshalb hier großer Dank ausgesprochen. Mit ihrer Kleinen Anfrage an das niedersächsische Umweltministerium ‚Darf Gorleben vor ab ausgeschlossen werden?‘ war diese gezwungen, mit der Beantwortung der Frage ihre langjährige politische Strategie Preis zu geben, wie sie ihr Ziel erreichen konnte, Gorleben von der Landkarte zu streichen.

Teil II:  Realität

Im Jahr 1998 hat die neu gewählt rot-grüne Bundesregierung entschieden, wegen ihres Zweifels an einer sachgerechten Auswahl des Standortes Gorleben aber insbesondere auch wegen des Zweifels  an den bis dahin erarbeiteten fachlichen Ergebnissen der Untersuchungen des Standortes eine Unterbrechung aller weiteren fachlichen Untersuchungen zu verordnen. Begründung dafür war, die Bevölkerung vor möglichen zukünftig zu erwartenden Gefahren und insbesondere vor angeblichen langjährigen Schäden durch das Projekt zu verhindern. Im Jahr 2000 wurde deshalb ein Moratorium für die untertägige Erkundung des Salzstocks für einen Zeitraum von drei bis zehn Jahre beschlossen – das letztendlich 10 Jahre dauerte.

Da diese Zweifel nur von Vertretern der grünen Bewegung und ihren NGO-Hilfstruppen geäußert wurden, diese Meinung jedoch nicht von den meisten Fachleuten und Fachbehörden geteilt wurde und damals auch nicht von Mitgliedern anderer Parteien, entschlossen sich die für die Kosten der Entsorgung des „Atommülls“ verantwortlichen Stromversorgungsunternehmen zu hinterfragen, inwieweit diese Zweifel aus fachlicher Sicht gerechtfertigt sind. Als Folge wurde GNS mbH beauftragt, durch eine international besetzte Expertengruppe bewerten zu lassen, ob nach internationalen Standards ein derartiges Moratorium gerechtfertigt ist. Der in englisch geschriebene Ergebnisbericht – mit deutscher Einleitung und Zusammenfassung – wurde im Juli 2001 an das BfS sowie an die BGR übergeben, deren Mitarbeiter aus beiden Behörden die Gruppe fachlich ausführlich unterstützt haben. Gleichzeitig wurden die Ergebnisse des Berichts in Hannover der Presse vorgestellt.

Um die große Differenz der Bewertung der bisherigen Untersuchungsergebnisse zwischen der subjektiven Einschätzung deutscher Politiker und der objektiven Beurteilung durch deutsche und internationale Fachleute aufzuzeigen, werden zum Vergleich die Aussagen des Umweltministers von Niedersachsen mit den tatsächlichen Ergebnissen verglichen. Beispielhaft wird dies an den beiden folgenden öffentlich zugänglichen Berichten gezeigt: Bericht der ‚International Expert Group  Gorleben (IEG)‘ aus dem Jahr 2001und der ‚Vorläufige Sicherheitsanalyse Gorleben (VSG)‘ von 2013. 

Die International Expert Group Gorleben (IEG) wurde mit dem Ziel zusammen gestellt, für die  deutschen Stromversorgungsunternehmen eine objektive wissenschaftliche Beurteilung der Untersuchungen des Salzstocks als potentieller Endlagerstandort zu erstellen. Dabei sollte die IEG zusätzlich zu einer fachlichen Bewertung der methodischen, wissenschaftlichen und technischen Ergebnisse auch ihre Einschätzung zu den wesentlichen politischen Zweifeln der damaligen Regierung abgeben. Insbesondere deshalb, weil vor dem Regierungswechsel Ende 1998 das BfS und das BMU (BMU 1998) keine Zweifel hinsichtlich der Eignungshöffigkeit des Salzstocks als Endlager geäußert hat: „… die hierbei gewonnenen Ergebnisse belegen nachvollziehbar, dass eine begründete Aussicht auf eine Eignung insbesondere für die Endlagerung hochradioaktiver, wärmeentwickelnder Abfälle und abgebrannter Brennelemente besteht …“.

Der IEG gehörten diese Fachleute an:

Per-Eric Ahlström: Senior Consultant, Swedish Nuclear Fuel and Waste Management Co (SKB), graduated as MSc in Engineering Physics in 1956. From 1956-1984 Mr. Ahlström was with Vattenfall working in nuclear engineering, reactor physics, reactor safety, nuclear fuel management, nuclear waste management. From 1984 -1992 he was research director of SKB, and from 1993 until his retirement in 1997 Vice President of SKB. Under his leadership at SKB, the Swedish waste management programme ran international R&D programmes in underground laboratories, sited and constructed a centralized fuel storage facility and a final repository for reactor wastes, and maintained one of the world’s most advanced deep geological repository development programmes. 

D. C. Alexandre, chemist and geologist, entered the French CEA (Atomic Energy Commission) in 1961, when he was put incharge of studies on uranium ore treatment and uranium processing. ln 1983 he became head of the Cadarache Research Centre, department of R&D on radioactive waste (treatment, conditioning and characterizationfor the French territory). ln 1987 he became Deputy Director of ANDRA (French Agency for Radioactive Waste Management) where he remained until in 1990 he returned to CEA as Research Director for the programme on direct disposal. Dr. Alexandre was representatve of France at the EC for many years. He retired in October 1996 

Dr. Colin Heath is an Assistant General Manager for TRW Environmental Safety Systems, the contractor which has performed extensive studies at the Yucca Mountain site for the US Department of Energy (DOE) where he has worked since 1993. He received a PhD in nuclear engineering in 1964 after graduating with a BS in chemical engineering in 1960″. From 1977 to 1981 Dr. Heath was Director of the US DOE’s initial siting investigations for radioactive waste repositories; he has been closely involved with all aspects of the US spent fuel storage and disposal for 25 years. 

Professor Dr.-lng. Klaus Kühn, graduated as a mining engineer from the Bergakademie Clausthal (Clausthal School of Mines) and received his doctorate from the Technische Universität Clausthal. In 1965 he joint the national research centre GSF (then named Gesellschaft für Strahlenforschung, today GSF – Forschungszentrum für Umwelt und Gesundheit). After founding the GSF – Institut für Tieflagerung (Institute for Underground Disposal), he was its director from 1973 until1995. Since then, he works as scientific advisor for GSF and as Professor at the Technische Universität

Clausthal. He was and is a member of many national and international committees. e.g. the German Reaktor-Sicherheitskommission (RSK – Reactor-Safety Commission) from 1983 until 1998, as an expert in radioactive waste management.

Dr. Charles McCombie received a PhD Degree in Physics in 1971. From 1970-74, he worked at the United Kingdom Atomic Energy Authority, England and from 1974-79 at the Swiss Institute for Reactor Research, now the Paul Scherrer Institute. Dr. McCombie is an independent advisor in international nuclear waste management. His principal role at present is as Head of Science, Technology and Engineering for Pangea Resources Australia. Prior to this he was Director of Science & Technology at Nagra (National Co-operative for the Disposal of Radioactive Wastes) in Switzerland for almost 20 years. He is retained as Executive Advisor to Nagra, has directly advised waste management projects in various other countries (e.g. Japan, Canada. Germany) and for the OECD/INEA. He is currently Vice Chairman of the Board of RadioactiveWaste Management of the National Academies of the USA and a member of the Nuclear Research Advisory Committee of the National Paul Scherrer Research Institute.

Dr. Wendell D. Weart is a Senior Fellow at Sandia National Laboratories in Albuquerque, New Mexico. He possesses a Doctorate in geophysics with undergraduate degrees in geology and mathematics. He was the scientific programme manager for the Waste Isolation Pilot Plant (WIPP) from its inception in 1975 until 1995 when he became senior scientist and Labaratory Fellow advising on Nuclear Waste Management issues. WIPP, a custom built deep geological repository for long-lived transuranic wastes, is the first facility of this type to have successfully gone through a formal permitting procedure leading to active operation.

Zusammenfassendes Ergebnis der Studie: „Repository Projekt Gorleben – Evaluation of the Present Situation der IEG“, 2001. (Auszüge aus der Gesamtbewertung)

Das Untersuchungsprogramm, das bisher in Gorleben durchgefü hrt wurde, ist umfassender als bei irgendeiner anderen Erkundung eines potentiellen Endlagerstandortes weltweit, ausgenommen die beiden Projekte WIPP und Yucca Mountain in den USA. Eine umfangreiche Datenbasis für Gorleben wurde zusammengestellt. In ihrer Gesamtbeurteilung hat die IEG keine wissenschaftlichen oder technischen Argumente gefunden, die den Salzstock von Gorleben als potentiellen Standort für ein Endlager disqualifizieren. Das bedeutet nicht, dass alle für ein Genehmigungsverfahren erforderlichen Daten schon erarbeitet wurden. Weitere Untersuchungen sind notwendig, wie in dem Programm zur Charakterisierung des Standorts, das durch die Verhängung eines Moratoriums abgebrochen wurde, festgelegt. Die IEG ist der Ansicht, dass sich durch den Abschluss der ursprünglich geplanten Erkundungsarbeiten eine vollständige Grundlage für die Bewertung der Eignung von Gorleben als HAW Endlager ergeben würde….

… Die lEG stellt außerdem fest, dass eine Langzeitsicherheitsanalyse(TSPA) für das geplante Endlager in Gorleben bisher nicht systematisch und nach dem neusten Stand der Erkenntnisse erarbeitet worden ist. Die IEG erachtet es daher für außerordentlich wichtig, mit dieser Art von TSPA für Gorleben zu beginnen. Nach ihrer Fertigstellung muss eine Überprüfung in Form einer unabhängigen „Peer Review“ durchgeführt werden….

Schlussfolgerungen der IEG zu der derzeitigen deutschen Entsorgungsstrategie: Die neuen Grundsatzentscheidungen der Bundesregierung basieren nicht allein auf wissenschaftlichen und technischen Argumenten. Wie in allen Ländern müssen gesellschaftliche und politische Aspekte ebenfalls berücksichtigt werden. Dennoch ist es wichtig, so genau wie möglich zwischen den Gründen zu unterscheiden, an Hand derer Entscheidungen legitim getroffen werden können. Wissenschaftler, die sich mit der Endlagerung beschäftigen, so wie in anderen Bereichen mit weitreichenden Auswirkungen auf die Gesellschaft auch, haben eine Verantwortung, sich objektiven

Argumenten zu widersetzen, die in Entscheidungsprozessen zu früh mit politischen Gesichtspunkten vermischt werden…“.

Zum Schluss sei angemerkt, dass nach meinem Wissen der IEG Bericht von 2001 in keinem veröffentlichen Bericht des BMU, des BfS oder den bestens vernetzten NGOs erwähnt wird – außer in dem folgenden VSG-Bericht der GRS. In dem Projektstrukturplan ist aus gutem Grund, wie im IEG Bericht empfohlen, als letztes Arbeitspaket eine International Peer-Review-Bewertung zur Überprüfung der wissenschaftlichen Ergebnisse fest eingeplant.

Vorläufige Sicherheitsanalys Gorleben (VSG) erstellt von der GRS

In einer gemeinsamen Erklärung von Bundesminister Röttgen und dem Präsidenten des BfS König wurde im November 2010 die Erstellung einer vorläufigen Sicherheitsanalyse für den Standort Gorleben (VSG) angekündigt: „Das Moratorium würde zum 1. Oktober 2010 wieder aufgehoben. Mit der Wiederaufnahme der Erkundungsarbeiten solle endlich Klarheit geschaffen werden … eine ergebnisoffene Erkundung muss die Eignung oder Nichteignung des Salzstocks Gorleben umfassend begründen. Sollte sich der Salzstock als ungeeignet erweisen, müssen wir neue Wege finden …“ Bei der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) wurde deshalb diese vorläufige Sicherheitsanalyse für Gorleben (SVG) in Auftrag gegeben, die alle bisherigen Untersuchungsergebnisse analysieren und zusammenfassen soll. Der Ergebnisbericht der GRS liegt inzwischen vor (GRS-290; 2012). In meinen beiden Beiträgen („Gorleben und das Standortauswahlgesetz – Ad calendas graecas“ und „Gorleben – Vorläufige Sicherheitsanalyse Gorleben ist geeignet“) habe ich die technischen und politischen Hintergründe zur Entstehung der Studie genannt, die keine Erkenntnisse enthält, die gegen die Eignungshöffigkeit sprechen. Sie wurde von neutralen Wissenschaftlern auf der Basis umfassender Einzelberichte (25 von insgesamt 5628 Seiten) von folgenden Forschungseinrichtungen erstellt, hat 424 Seiten und kostete den Steuerzahler fast neun Millionen Euro. Damit jeder interessierte Leser diese objektive Aussage überprüfen kann, habe ich im Folgenden die jeweiligen Ergebnisse (Fazite) der einzelnen Kapitel der GRS-Studie transparent gemacht.

Beauftragte Organisationen:

– Bundesanstalt für Geowissenschaften und Rohstoffe (BGR), – DBE TECHNOLOGY GmbH, – das Institut für Aufbereitung, Deponietechnik und Geomechanik der TU Clausthal, – Institut für Gebirgsmechanik GmbH (IfG), – Institut für Sicherheitstechnologie (ISTec), – Karlsruher Institut für Technologie/Institut für Nukleare Entsorgung (KIT/INE), – international nuclear safety engineering GmbH (nse; Zusammenschluss mehrerer Institute der RWTH Aachen), – Institut für Atmosphäre und Umwelt (IAU) der Universität Frankfurt – T-Systems Solutions for Research GmbH.

Ergebnisse der Bewertung                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                         KAPITEL 5 Umsetzung des Sicherheits- und Nachweiskonzept im Vorhaben VSG S.77 bis S. 256

Fazit S.103, M:Zusammenfassend ist festzustellen, dass keine grundsätzlichen Zweifel an der technischen Umsetzbarkeit der im Vorhaben entwickelten Auffahrungs- und Einlagerungskonzepte bestehen …“

Fazit S.110, M1:… dass die Maßnahme M1 bei der Auslegung der Grubengebäude auf konzeptioneller Basis umgesetzt wurde. Die Anzahl, Längen und Querschnitte der Einlagerungsstrecken bzw. Einlagerungsbohrlöchern ergeben sich aus der Anzahl der und den Abmessungen der Behälter … In zukünftigen Optimierungen können sicherheitstechnische Zielsetzungen von Bedeutung sein …“

Fazit S.118, M10:… dass die geforderte Maßnahme M10 konzeptionell insgesamt umgesetzt und auch in der Realität betriebstechnisch mit heutiger Bergbautechnik umsetzbar ist .“

Fazit S.126 M12, M15:… dass die Forderung, die sich aus den Maßnahmen M12 und M15 ableiten, im Vorhaben VSG auf konzeptioneller Basis für den Fall der Strecken-und Bohrlochlagerung umgesetzt wurden …“

Fazit S.131  M13 M14: … dass das Hauptsalz im Kernbereich des Salzstocks und damit auch in der Umgebung des Einlagerungsbereiches auf Grund der geologischen Entwicklungsgeschichte durch eine halokinetisch bedingte intensive Deformation und daraus resultierende Homogenisierung gekennzeichnet ist. Gleichzeitig weist es einen hohen Rekristallisationsgrad und die Abwesenheit von hydraulischen Klüften, Störungen oder makroskopischen Lösungsvorkommen auf …

Die Erfüllung der mit der Maßnahme M2 verbundenen Anforderungen an die Eigenschaften der geologischen Barriere kann daher unter der grundlegenden Annahme im Vorhaben VSG, dass die im Erkundungsbereich 1 erzielten Erkundungsergebnisse auf nicht erkundete Hauptsalzpartien übertragen werden können, grundsätzlich als gegeben angesehen werden …“

Fazit S.137, M13, M14: Die im Vorhaben VSG durchgeführte Endlagerplanung sieht den Einlagerungsbereich der Streckenlagerung auf der 870-m-Sohle vor. Auch das Prinzip der Bohrlochlagerung (Variante C) sieht das Niveau der Überfahrungsstrecken, von denen aus die Bohrlöcher beladen werden, auf einer Teufe von 870m vor. Durch die Endlagerplanung ist gewährleistet, dass große Mächtigkeiten der Salzbarriere zu den Seiten sowie nach oben zum Salzspiegel vorhanden sind …“

Fazit S.138 M14:Für die nächste eine Million Jahre ist davon auszugehen, dass aufgrund der geringen verbliebenen Mengen mobilisierbaren Hauptsalzes im Bereich der Zechstein-Basis und unter dem Einfluss des rezenten Hauptspannungsfeldes keine erneute massive Salzeinwanderung in die Struktur mit entscheidenden Änderungen der geologischen Standortverhältnisse stattfinden …“

Fazit S.170, M6, M7, M8, M16: … dass die Maßnahme M7 zwar durch das im Vorhaben VSG entwickelten Verschlusskonzept auf konzeptioneller Basis formal umgesetzt wurde und erfolgversprechend erscheint. Trotz umfangreicher Untersuchungen in der Vergangenheit fehlt jedoch noch ein fundiertes Prozessverständnis bezüglich der erreichbaren Endporosität und zur Geschwindigkeit der Salzgruskompaktion bei geringer Feuchtigkeitszugabe unter realen Endlagerbedingungen. Es gelten diesbezüglich die gleichen Vorbehalte, die im Zusammenhang mit der Umsetzbarkeit der Maßnahmen M6, M8, und M16 dargestellt wurden …“

Fazit S. 229 Einschluss der Nuklide: Aufgrund der großräumigen Integrität der an das Endlagerbergwerk angrenzenden Bereiche der geologischen Barriere, der Integrität der Verschlussbauwerke über ihre Funktionsdauer sowie der Einschlusseigenschaften des kompaktierten Versatzes kann für den Standort ein einschlusswirksamer Gebirgsbereich in Lage und Grenze ausgewiesen werden ..

KAPITEL 6 Zusammenfassung der Ergebnisse S. 257 bis S.312                       Projektstrukturplan VSG 

Kapitel 6.1 Grundlegende Annahmen S. 257 „… Ein Großteil der im  Vorhaben VSG erzielten Ergebnisse und die nachfolgenden Ausführungen stehen unter dem Vorbehalt, dass die Ergebnisse zukünftiger Erkundungs- bzw. Forschungsarbeiten bestätigen, dass die nachfolgend aufgelisteten grundlegenden Annahmen zutreffen…“

Kapitel 6.2 Umsetzung der Sicherheitsanforderungen des BMU im Vorhaben VSG

Kapitel 6.2.1 Anforderungen an die Endlagerauslegung

Fazit S.267:… Zusammenfassend ist folgendes festzustellen: Die Sicherheitsanforderungen des BMU an die Endlagerauslegung können generell auf der für eine vorläufige Sicherheitsanalyse typischen konzeptuellen Ebene als erfüllt bzw. in Zukunft als erfüllbar angesehen werden. …“

Kapitel 6.2.2 Anforderungen an die Nachweisführung

Fazit: S.288:Aus den im vorangegangenen dargelegten Gründen wird davon ausgegangen, dass die Anforderungen an die langzeitsicherheitsgerichteten Nachweise, soweit diese den dauerhaften Einschluss der aus den Abfällen stammenden Radionuklide betreffen, auf konzeptioneller Basis umgesetzt wurden … Die zusammenfassenden Aussagen am Ende des Kapitels 6.2.1 zum FuE-Bedarf bei den im Vorhaben VSG projektierten Verschlussprojekten und zum langfristigen Kompaktionsverhalten von Salzgrusversatz gelten hier gleichermaßen, ebenso wie die Einschränkungen zur Durchführung von Optimierungsmaßnahmen im Vorhaben VSG …“

Kapitel 6.2.3 Anforderungen an Qualität, Dauerhaftigkeit und Robustheit des Einschlussvermögens des einschlusswirksamen Gebirgsbereiches

Fazit: S. 301: Zusammenfassend wird festgestellt, dass einer zukünftigen potenziellen Beeinträchtigung des Einschlussvermögens des einschlusswirksamen Gebirgsbereichs durch natürliche Ereignisse und Prozesse planerisch Rechnung getragen wird. Gegen kurzfristige Ereignisse wie Erdbeben … wurden die Verschlussbauwerke ausgelegt. Den Auswirkungen durch Subrosion, Erosion, Diapirismus sowie Klimaveränderungen wurde durch … eine ausreichende Teufenlage der Einlagerungsbereiche begegnet …“

Fazit: S. 312: … Bezogen auf die Endlagerung von wärmenentwickelnden radioaktiven Abfälle können unter den in Kapitel 6.1 angeführten Vorbehalte sowohl die projektierten Endlagersystemen als auch die hiermit verbundenen Sicherheitsaussagen als robust angesehen werden. Für das Freisetzungsverhalten gasförmiger Radionuklide gilt dies vorbehaltlich der Modell- Prozess- und Datenungewissheiten nur, wenn Behälter unterstellt werden, die über etwa 500 Jahre gasdicht sind. … Die im Vorhaben VSG entwickelten Endlagerkonzepte werden einschließlich der Rückholungskonzepte als realisierbar angesehen…“

Zusammenfassung der im Anhang der Synthese genannten geowissenschaftlichen Standortbeschreibungen. Bericht zum Arbeitspakete 13 (S. 379 – 424).

In diesen Anhang wird die Geologie im Zusammenhang mit der zukünftigen geologischen Entwicklungsgeschichte des Endlagers genau beschrieben. Ein Inhaltsverzeichnis zu diesem Anhang ist allerdings nicht zu finden. Deshalb ist für den interessierten Leser diese Themengliederung angeführt:

A.1: Schichtenfolge und Lagerungsverhältnisse im Deck- und Nebengebirge: A1.1: Prä-salinarer Untergrund; A1.2: Zechstein; A1.3: Trias bis Oberkreide; A1.4: Tertiär A1.5: Quartär;

A.2: Hydrogeologie: A2.1 Hydrologischer Bau des Deckgebirges; A2.2: Das Süß-/ Salzwassersystem; A2.3: Grundwasserbewegung im Süßwasserkörper; A2.4: Grundwasserbewegung im Salzwasserkörper:

 A.3: Geologie des Salzstocks Gorleben: A3.1: Entwicklungsgeschichte der Salzstruktur Gorleben-Rambo; A3.2: Hutgestein des Salzstocks Gorleben; A3.3: Salzspiegel; A3.4: Subrosion; A3.5: Stratigraphie und Lithologie; A3.6: Klüfte und Störungen im Salinargestein; A3.7: Lösungsvorkommen im Salinargestein; A3.8: Kohlenwasserstoff- und Gasvorkommen im Salinargestein; A3.9:

 A.4: Geologische Langzeitprognose: 4.1: Ableitung der zukünftigen Rahmenentwicklung; 4.2: Wahrscheinliche zukünftige geologische Entwicklung am Standort Gorleben; 4.3: Überregionale Entwicklungen; 4.4 Kaltzeitliche Entwicklungen;

4.5: Wenig wahrscheinliche oder auszuschließende Entwicklungen des geologischen Systems am Standort Gorleben. Literaturverzeichnis.

In diesem Zusammenhang muss nochmals deutlich darauf hingewiesen werden, dass zum einen die im Projektstrukturplan als Abschluss der Analyse festgelegte Bewertung der Ergebnisse, wie von der IEG 2001 empfohlen, auch hier durch ein fest eingeplantes Internationale Peer Review Verfahren abzuschließen ist. Am 23. Juli 2013 wurde jedoch das ‚Stand AG‘ vom Bundestag verabschiedet, in dem es nach § 29 (3) heißt, dass „… spätestens mit Inkrafttreten dieses Gesetzes ohne eine Eignungsprognose für den Standort Gorleben eingestellt wird …“ In einem am 27. Juli 2013 parteiübergreifenden Konsens-Gespräch wurde nur vier Tage später die Vergabe dann auch verboten. Denn eine Vergabe dieser neutralen Analyse jetzt oder auch später, beispielsweise nach einem Regierungswechsel, würde der Öffentlichkeit deutlich zeigen, dass es bei der Entscheidung gegen Gorleben um ein rein ideologisch geprägtes Machtspiel der grünen Bewegung handelt. Und zweitens ist in Kapitel 5, Schlussvorschriften festgeschrieben, dass auch die Ergebnisse der bisherigen Standuntersuchung von Gorleben bei der nach der Endlagerwende erneut beginnenden Suche nach neuen Standorten Gorleben später nur ganz begrenzt bei einem Standortvergleich berücksichtigt werden dürfen. Diese gesetzmäßigen Verbote sind ein klarer Hinweis für die Furcht der grüne Bewegung vor der Wahrheit. Denn über die Qualität und Aussagen einer solchen Bewertung darf heute und möglichst lange nichts ans Licht der Öffentlichkeit kommen. Ist das der Grund für das Fehlen der Nennung der ‚VSG Studie‘ in ANLAGE 2 der Antwort des Umweltministers? In einer Demokratie hat der Bürger ein Recht darauf, die Ergebnisse einer wesentlichen Studie bei einem derart wichtigen Thema zu erfahren, für die er teuer bezahlt hat.

Die bisherigen direkten und indirekten Kosten für Gorleben dürften in der Größenordnung von 2,5 Milliarden Euro liegen. Sie wurden von den Stromkunden und den übrigen Steuerzahlern bezahlt. Sie sind zum großen Teil nach der jetzt im ‚politischen Konsens‘ stattgefundenen Endlagerwende verloren. Die mit dem neuen Standortauswahlgesetz beginnende neue Suche bis zur Genehmigung eines möglichst sicheren Endlagers dürfte Jahrzehnte dauern und Kosten von mehr als 25 Milliarden EURO verursachen. Sie müssen ab jetzt zum großen Teil von den Steuerzahlern der nächsten Generationen nochmals aufgebracht werden, mit dem großen Risiko, dass in Folge der rasant wachsenden Technologien in Zukunft – „Atommüll“ wird zum Energierohstoff – ein Endlager in tiefen geologischen Formationen möglicherweise nicht mehr gebraucht wird. Siehe meinen Bericht: „Substanzlose Endlagersuche“.

Der Neuanfang nach der Endlagerwende 


Wilhelm Hauffs Märchen, K Thiedemanns Verlag, Stuttgart 1945

Die politische Einschätzung des Umweltministers Wenzel zu Gorleben, die er Kraft seines Amtes öffentlichen verbreitet hat: „Die Landesregierung bleibt bei der Auffassung, dass der Standort Gorleben geologisch ungeeignet und politisch verbrannt ist“ entspricht fast ausschließlich den Vorstellungen seiner Parteigenossen bzw. den bis Brüssel bestens vernetzten Anti-Nuk Lobbyisten. Mit der Realität hat diese Einschätzung jedoch wenig zu tun. Somit ist die Aussage von ihm weniger den qualitativ hochwertigen Arbeiten in Gorleben geschuldet, sondern eher den Brandstiftern der grünen Bewegung.                                                  

                                

 

Lit.: – Zusammenfassung: ‚International Expert Group  Gorleben (IEG) Novo Argumente“

– Gesamtbericht: ‚International Expert Group  Gorleben (IEG)‘

– Zusätzliche Hintergrundinformationen sind bei Google im Internet zu finden unter ‚Helmut Fuchs, Geologe‘

Teil III:  Analyse

…Hinter dieser seit dem Jahr 2000 zunehmend gezielten Politik der Desinformation durch die Verantwortlichen für die Endlagerung = Untertage Deponierung hochradioaktiver „Abfälle“, also insbesondere durch die Parteien, das BMU sowie das BfS, ihre politischen Mitstreiter und die zahlreichen NGOs steckt eine langjährig angelegte Strategie, obwohl sie fleißig in der Öffentlichkeit den Eindruck erwecken, die Transparenz und Einbindung der Öffentlichkeit sei ein hohes Gut….