Das Gegenteil von gut ist gut gemeint

Am 19.01.2018 erschien der Artikel „Vom Klimaschutz zur Klimasteuerung“ auf Novo Argumente. Dieser Artikel greift zunächst – sehr sachlich – alarmistische Konstrukte des anthropogenen Klimawandels auf, stellt dann ganz entspannt deren vorgeblich katastrophale Auswirkungen und Ziele in Frage, um daraus schließlich Argumente für ein globales Geoengineering zur Klimasteuerung abzuleiten. Nachfolgend sollen zunächst einige der klimaalarmistischen Darstellungen aus diesem Artikel näher beleuchtet werden:

Von den vergangenen 500 Millionen Jahre Erdgeschichte hat man zwar ziemlich klare Vorstellungen, aber keine eindeutigen und lückenlos nachgewiesenen Erkenntnisse, Zitat aus dem Novo-Artikel mit Hervorhebungen:

Tatsächlich ist das Klima der Erde höchst variabel. Es gab Eiszeiten und Wärmeperioden, in denen Palmen an den Polarkreisen wuchsen, möglicherweise auch „Schneeball Erde“ genannte Phasen, in denen nahezu die gesamte Erdoberfläche mit Gletschern bedeckt war. Am besten untersucht sind die letzten 500 Millionen Jahre. Für diesen Zeitraum, der ungefähr dem Phanerozoikum entspricht (also dem erdgeschichtlichen Zeitalter, in dem komplexe Lebensformen entstanden sind), können Wissenschaftler recht genaue Rekonstruktionen des Klimas erstellen. Sie nutzen dazu sogenannte „Proxys“ wie Baumringe, Ozeansedimente oder Eisbohrkerne…“

Zunächst einmal wird dem Leser die Klimaentwicklung der vergangenen 500 Millionen Jahre Erdgeschichte als recht genau bekannt vermittelt. Aber bereits Klimarekonstruktionen von weniger als 1 Million Jahren sind in der Realität nicht unproblematisch, auch wenn dafür tatsächlich Temperaturproxys in Form von Baumringen, Ozeansedimenten oder Eisbohrkernen vorliegen. Die Bedeutung von „recht genau“ wird nämlich immer unschärfer, je weiter wir uns in den geologischen Zeitaltern zurückbewegen. Und am Ende müssen Aussagen zum Klima auch noch zwischen echten Klimaveränderungen und geographischen Lageänderungen der betreffenden Kontinente aufgrund der Plattentektonik unterscheiden.

Ein Artikel aus National Geographic über eine Reduzierung des vorgeblichen CO2-Klimaantriebs wird dann als „gängige Theorie“ für die Entstehung der Eiszeiten benannt, Zitat aus dem Novo-Artikel:

Der Abwärtstrend, der in das aktuelle Eiszeitalter führte, begann vor circa 50 Millionen Jahren. Die Gründe dafür sind umstritten, eine gängige Theorie geht davon aus, dass die Ausbreitung und spätere Sedimentierung des Süßwasserfarns Azolla der Atmosphäre beträchtliche Mengen des Treibhausgases CO2 entzog. In den letzten zwölf Millionen Jahren ist der Temperaturabfall stärker geworden, gipfelnd in einer schnellen Folge immer intensiverer Glaziale, die die letzten drei Millionen Jahre prägten…“

Genau diese Theorie ist nicht „gängig“, sondern voll alarmistisch. Die eigentlich gängige Theorie erklärt über die genau gleiche Argumentation nämlich die Sauerstoffgenese auf unserer Erde, und zwar mit der Entstehung der globalen Vorkommen an Kohle, Erdöl und Gas aus unterschiedlichen organischen Bestandteilen. Und diese Entwicklung begann bereits mit dem Karbon, also vor etwa 350 Millionen Jahren.

Eine einzelne alarmistische Veröffentlichung über die Abschwächung eines vorgeblichen CO2-Klimaantriebs durch die Auswirkungen der Plattentektonik und wird dann als „aktueller Forschungsstand“ bezeichnet, Zitat aus dem Novo-Artikel:

Dass das Klima so kalt und volatil geworden ist, liegt laut aktuellem Forschungsstand an der Plattentektonik. Vor etwa 40 bis 50 Millionen Jahren rammte die indische Platte in die eurasische Platte. Es entstanden das Hochland von Tibet und die Gebirge Himalaja, Pamir und Karakorum, zusammen auch „Dach der Welt“ oder „dritter Pol“ genannt. Erdgeschichtlich betrachtet sind Berge, die bis an den Rand der Stratosphäre reichen, eine Anomalie. Die Auffaltung der Felsmassen hat eine außergewöhnliche klimatische Epoche eingeleitet, denn sie hat die Verwitterung silikatreicher Gesteine wie Granit erheblich verstärkt. Bei diesem Prozess wird Calcium freigesetzt. Das Calcium reagiert zu Calciumcarbonat (dem Hauptbestandteil von Kalkstein) und entzieht dabei der Atmosphäre CO2…“

Die Verknüpfung plattentektonischer Ereignisse mit einem vermeintlichen CO2-Klimaantrieb stellt einen konstruierten Mechanismus dar und ist ein Ausdruck des herrschenden Zeitgeistes. Die wissenschaftlich nachgewiesene konventionelle Position von Köppen und Wegener, dem „Vater“ der modernen Plattentektonik, für den natürlichen Paläo-Klimaantrieb durch die Schwankungen der Erdbahn um die Sonne blieb dagegen unerwähnt. In dem bahnbrechenden Werk von Wladimir Köppen und Alfred Wegener, „Die Klimate der geologischen Vorzeit“ (1924) mit den Berechnungen von Milutin Milanković, wird die sommerliche Sonneneinstrahlung in mittleren und höheren Breiten als der natürliche Paläo-Klimamotor unserer Erde identifiziert. Erst im Jahre 1976, also ein halbes Jahrhundert später, konnte dieser Zusammenhang schließlich von Hays, Imbrie und Shackleton nachgewiesen werden. Diese gesicherte geowissenschaftliche Erkenntnis findet allerdings keinen Eingang in den besagten Novo-Artikel, der sich argumentativ an klimaalarmistischen Einzelveröffentlichungen entlanghangelt.

Die Milanković-Zyklen der Erdumlaufbahn werden schließlich argumentativ bemüht, um den Beginn eines menschengemachten CO2-Klimawandels noch weiter bis zum Ende der letzten Eiszeit zurückzudatieren, Zitat aus dem Novo-Artikel mit Hervorhebungen:

Unser Wissen über die Milanković-Zyklen ermöglicht uns, Vorhersagen über die zukünftige Entwicklung des Klimas zu treffen. Nach dem aktuellen Zyklus hätte vor etwa 5000 Jahren das nächste Glazial beginnen müssen. Dass das nicht eingetreten ist, liegt an dem anderen Faktor, der neben der auftreffenden Sonnenenergie unser Klima maßgeblich beeinflusst: den Treibhausgasen. Genauer: am menschlichen Treibhausgasausstoß. Vor etwa 12.000 Jahren, im Neolithikum, begann ein globaler Übergang von Jäger- und Sammlerkulturen zu sesshaften Bauern. Um Flächen für die Landwirtschaft zu gewinnen, wurden im großen Stil Brandrodungen durchgeführt, was erhebliche Mengen an CO2 freisetzte. Hinzu kam Methan durch Viehhaltung und Reisanbau (Reisfelder sind im Wesentlichen künstliche Sümpfe). Mit der Industrialisierung im 19. Jahrhundert nahm die CO2-Konzentration durch die Verbrennung von Kohle und später Erdöl und Erdgas weiter zu

Korrekt dauert eine Zwischeneiszeit aber etwa 10.000-15.000 Jahre, sodass unsere gegenwärtige Warmzeit mit bisher etwa 12.000 Jahren Dauer noch voll im Zeitrahmen ihrer Vorgänger liegt. Selbst das IPCC geht übrigens davon aus, dass erst seit den 1950-er Jahren eine Klimawirksamkeit von anthropogen erzeugtem CO2 nachweisbar sei. Die Rückdatierung des menschlichen Einflusses auf das Ende der letzten Eiszeit ist also ein völlig unwissenschaftlicher Akt.

Dem Novo-Autor gebührt jedenfalls ein Lob für seine sachliche Auseinandersetzung mit den vorgeblichen Klimawandelfolgen. Man kann daher sicherlich davon ausgehen, dass er sich intensiv über die wissenschaftlichen Grundlagen seines Beitrags informiert hatte. Im Umkehrschluss muss man dann anhand der oben aufgezeigten Mängel den Schluss ziehen, dass die hier genannten geowissenschaftlichen Grundlagen der natürlichen Paläo-Klimagenese durch den fortwährenden CO2-Klimaalarmismus inzwischen völlig aus der aktuellen gesamtwissenschaftlichen Darstellung verdrängt worden sind.

Die gesamte klimawissenschaftliche Argumentation dieses Artikels baut also einseitig auf einem alarmistischen und grob überzeichneten CO2-Antrieb für die Genese unseres Paläoklimas auf, der so niemals existiert hat. Es ist offenbar dem klimawissenschaftlichen Zeitgeist geschuldet, alle bekannten geologischen und paläoklimatischen Mechanismen mit einem vermeintlichen CO2-Klimaantrieb zu verknüpfen. Das Aktualitätsprinzip der Geologie verlangt aber, dass sich alle vom Menschen postulierten Effekte über die gesamte Erdgeschichte hinweg nachweisen lassen, um als gültig anerkannt zu werden.
Und genau das ist beim vorgeblichen CO2-Klimaantrieb eben nicht der Fall.

Aber gerade wegen der hier aufgezeigten Mängel ist die Analyse des Novo-Autors herausragend, Zitat: „Es drängt sich die Frage auf, ob es bei dem ganzen Klimaschutz-Hype wirklich um Klimaschutz geht.“

Es wurde hier also völlig richtig erkannt, dass unterschiedlichste säkulare Zielsetzungen diverser gesellschaftlicher Gruppierungen in einem gemeinsamen vorgeschobenen Klimaschutz kumulieren. Es ist daher sehr schade, dass sich dieser sachliche und unaufgeregte Artikel dem Teufelskreis menschlicher Überheblichkeit am Ende doch nicht verschließen kann, sondern einem Geoengineering zur aktiven Klimagestaltung durch den Menschen das Wort redet. Denn beides, die Angst von einer menschengemachten Klimakatastrophe, wie auch menschliches Geoengineering zur Steuerung des Klimas, überhöhen den Einfluss des Menschen auf die Stufe der herrschenden Naturgewalten.

Und so werden gerade in der abschließenden Argumentation zum Geoengineering neue Widersprüche aufgerissen, Zitat aus dem Artikel: „…Durch Geoengineering können wir uns von den massiven Vergletscherungen und Schwankungen des Meeresspiegels befreien, die unseren Planeten seit jeher heimsuchen…“
Entscheidungsvorschläge, die allein auf zeitgeistbeeinflusstem Wissen aufgebaut sind, können nicht nur, sondern sie müssen am Ende sogar zwingend katastrophale Folgen haben. Vergletscherung und Meeresspiegel auf unserer Erde hängen nämlich ursächlich miteinander zusammen. Eine durch Geoengineering von ihrer gesamten Vergletscherung befreite Erde würde am Ende einen um etwa 66 Meter höheren Meeresspiegel aufweisen. Damit wäre dann zwar tatsächlich das Problem der langsam steigenden Küstenpegel gelöst, aber nach einer solchen „Rettungsaktion“ gäbe es dann diejenigen Küsten und Inseln gar nicht mehr, die wir damit ursprünglich einmal bewahren wollten.

Anmerkung: Ingenieurwissenschaftliche Eingriffe in komplexe Systeme sind generell nicht ganz unproblematisch, insbesondere dann nicht, wenn man ein solches System genau verstanden zu haben glaubt und dieser Glaube sich dann in der Realität nicht durchsetzen lässt:

Zitat aus Wikipedia mit Hervorhebungen und Ergänzungen: „Die Kritiker (einer Einführung der Aga-Kröte nach Australien) beruhigte der für die Einführung (der Aga-Kröte) verantwortliche Reginald Mungomery 1936, indem er darauf verwies: Die Ansiedlung in Queensland erfolgte nach einer sorgfältigen Abwägung der Pros und Contras und nachdem das Verhalten der Kröte bis heute keinen Anlass für die Befürchtung gibt, dass wir uns in unserem Urteil über sie getäuscht haben‘.“

Unsere Erde hat in ihrer geologischen Vergangenheit schon mehrfach Eiszeitalter durchlaufen. Über die Ursache für diese Eiszeiten gibt es bisher nur qualitative wissenschaftliche Aussagen. Das Geoengineering stellt uns jetzt aber Mechanismen zur Verfügung, mit denen wir möglicherweise am Klimathermostaten unserer Erde herumspielen können. Aber während man die Sonneneinstrahlung rechnerisch in Raum und Zeit genau quantifizieren kann, entzieht sich der vorgeblich „natürliche“ atmosphärische Treibhauseffekt jeder genauen räumlichen und zeitlichen Definition. Und selbst die hemisphärische Herleitung der globalen Temperaturgenese ohne diesen Treibhauseffekt kann keine quantifizierbare Formel liefern. Damit ist die natürliche Temperaturgenese auf unserer Erde also völlig ungeklärt und wir wissen nicht, wie die solare Heizung unserer Erde tatsächlich funktioniert. Vor diesem Hintergrund wird jedes globale Geoengineering zu einem verantwortungslosen Vabanque-Spiel…

Wesentliche geowissenschaftliche Zusammenhänge unseres Paläoklimas sind hier zusammengefasst.




Günter Ederer: Fakten statt Propaganda – zur Machtfrage durch Klimapropaganda (11.IKEK)

G. Ederer beschreibt seine Erfahrungen bezüglich des Umgangs von Politik und Medien mit kritischen Stimmen, welche gegen die Weltuntergangspropaganda vom gefährlichen menschengemachten Klimawandel vorgehen. Das Motiv für dieses stringente Ausgrenzen kritischer Stimmen ist – wie Ederer darlegt- das Ausüben von Macht. Und das weltweit!

Video des Vortrags von Günter Ederer, gehalten anlässlich der 11. IKEK in Düsseldorf am 10.11.17 im Nikko-Hotel

Macht die überdies überall und damit grenzenlos ist. An vielen Beispielen, wie dem FAZ Journalisten Müller-Jung, macht er diese Beobachtung fest. Ebenso legt er an div. Beispielen dar, welche Sogwirkung der versprochene Milliardensegen auf die Zustimmung der so Beschenkten hat. Wie auch schon zuvor von M. Limburg gezeigt, wird dieses Geld ausnahmslos an korrupte oder hoch korrupte Länder bzw. deren Regierungen verteilt.




Das Klimaziel 2020 musste aufgegeben werden!

Nun also ist die Stunde der Wahrheit gekommen, und man muss erklären, endlich, das Klimaziel 2020 muss aufgegeben werden. Na, das wird 2028, wenn 2030 vor der Tür steht, auch nicht anders sein.

Schon die Definition von „Zielen“ ist ein übler Spuk, eigentlich brauchen wir nicht Ziele, sondern Konzepte, die klar durchgerechnet und von Jahr zu Jahr kontrolliert werden können, aber dazu kann sich das politische System nicht durchringen, das wäre ja auch zu ehrlich. Von einer Regierung, die Verantwortung wirklich ernst nimmt, muss man verlangen, dass klar definiert wird, was will man erreichen, wie kommt man dahin, und was kostet das. Für das einfache Volk jedoch müssen nebulöse Wunschvorstellungen reichen, so eine Art moderner Fatah morgana. Und, brauchen wir überhaupt ein Klimaziel ? Dazu gibt es ganz aktuell auch eine Veröffentlichung (hier):.

Wo wir heute wirklich stehen, zeigt die nachfolgende Grafik:

 

Dieses Diagramm stammt aus dem „Masterplan Weserbergland“, ist also eine offizielle Statistik, und ich habe in dieses Diagramm nun die (jährlichen) Aufwendungen für die „Erneuerbaren“ eingetragen, es sind erhebliche Beträge mit zur Zeit ca. 28 Milliarden Euro pro Jahr.

Man vergleicht mit 1990, und damit lügt man sich schon mal ordentlich in die Tasche, hier hat der CO2-Ausstoß zwar tatsächlich abgenommen, aber das hat mit Klimaschutz nichts zu tun (ist kein Erfolg irgendeiner Energiepolitik), sondern es ist die Folge der Wiedervereinigung, verbunden mit der Abwicklung der total veralteten sozialistischen Wirtschaft in der DDR und den angrenzenden Ostblockländern (weiter östlich, in Russland, findet eine Modernisierung der Technik auch heute nahezu nicht statt). Dass man veraltete Technik durch modernere ersetzt ist vernünftig, das hätte man auch ohne einen Hinweis auf Klimaschutz gemacht, und ist im Westen schon in den 50-er Jahren geschehen.

Die Investition in die Erneuerbaren (über das EEG) beginnt in 2000. Einen kurzen Rückgang der CO2-Emissionen hat es zuletzt noch in 2009 gegeben, das war eine Folge der Finanzkrise, seitdem haben wir Jahr für Jahr weiter steigende Subventionen für die Erneuerbaren aufbringen müssen, jedoch ist noch nicht mal eine Tendenz erkennbar, dass sich das in Reduzierung von CO2 auswirkt oder jemals auswirken wird. Die Gründe dafür sind gut bekannt, denn da die Speichermedien fehlen, braucht jede EE-Einheit ein Backup-Kraftwerk gleicher Größe, um das Netz stabil aufrechtzuerhalten, und man gewinnt nichts. Im Netz muss der tatsächliche Bedarf an elektrischer Energie sekundengenau ausgeglichen werden, sonst gerät man in die Gefahr eines „Blackouts“, also eines Zusammenbruchs der Energieversorgung für Stunden oder Tage. Das heute über die technische Entwicklung von über 100 Jahren entstandene Netz ist sogar noch anspruchsvoller, auch die Frequenz hat nur eine zulässige Toleranz von ca. 0,1 Hz, für die Versorgung einer solchen Technik ist die durch Wind und Wetter stark schwankende Leistung der Erneuerbaren natürlich nicht geeignet. Man kann die Charakteristik der Erneuerbaren in einem einfachen Dreisatz darstellen:

1.) Nachts ist es dunkel. Das kann man politisch nicht ändern.

2.) Der Wind weht, wenn er will, und nicht, wenn er soll.

3.) Die Speicher fehlen, sie sind technisch und ökonomisch nicht darstellbar.

Das sagt eigentlich alles, man kann die Erneuerbaren einpacken. Das geschieht übrigens auch, klamm-heimlich natürlich, denn niemand möchte eingestehen, dass man in gigantischer Weise Fehler gemacht hat, Beispiele dazu später.

Aus dem oben dargestellten Diagramm ist ersichtlich, dass mit den Erneuerbaren für den Klimaschutz eigentlich nichts erreicht werden kann. Dazu muss man dann drei Forderungen aufstellen:

1.) Wir müssen den Bürgern die Wahrheit sagen. Die Erneuerbaren, so, wie wir sie heute haben, sind für den Klimaschutz nutzlos.

2.) Ein weiter so darf es nicht geben. Zumindest muss die Subventionierung dieser offensichtlich nutzlosen Technik beendet werden.

3.) Die Politiker, die diesen Schaden zu verantworten haben (es ist ein Schaden in finanzieller Hinsicht, in Umweltzerstörung und Ressourcenverschwendung) müssen zur Verantwortung gezogen werden.

Die naturwissenschaftlichen und technologischen Gegebenheiten sind so, dass zu erkennen ist, dass sich an dieser Situation in absehbarer Zeit nichts ändert. Wenn wir also für den Klimaschutz nichts erreichen, stellt sich doch die Frage, kann man die Erneuerbaren denn wenigstens auch sonst noch irgendwie brauchbar einsetzen.

Abgesehen von der Volatilität, die nicht beherrschbar ist, kommt ein weiterer Nachteil hinzu, die erneuerbare Energie kommt zunächst kostenlos auf uns zu (der Wind weht und die Sonne scheint, ohne dass wir dafür etwas bezahlen müssen), aber diese Energie ist „dünn“, das heißt, sie ist über eine große Fläche verteilt, der Flächenbedarf ist riesig, und wenn man diese „dünne“ Energie einsammeln will, muss man große Flächen mit Technik zubauen, man muss diese Flächen der Natur entziehen und in eine Industrielandschaft verwandeln, das ist vom Umweltschutz her gesehen natürlich extrem nachteilig.

Ein einfaches Nachrechnen mit dem Taschenrechner zeigt, dass der gesamte Bedarf an Primärenergie (der Bedarf ist rund fünf mal so groß wie der elektrische allein) für Deutschland, selbst wenn man alle Wälder, Natur- und Landschaftsschutzgebiete auch noch einsetzt, nicht gedeckt werden kann, es bleibt eine erhebliche Lücke. Die Ideologen, die die Propaganda der Energiewende betreiben, haben dazu noch andere Vorstellungen entwickelt, man müsste den Energiebedarf eben deutlich reduzieren, durch Steigerung von Effizienz und Suffizienz. Die Steigerung der Effizienz, also das Bemühen mit weniger Energie-Aufwand dasselbe Ziel zu erreichen, ist praktisch zum Stillstand gekommen, die Potentiale sind hier längst ausgeschöpft, da sind nur noch Reste von wenigen Prozent erreichbar. Der oben erwähnte „Masterplan Weserbergland“ fordert eine Reduzierung des Verbrauchs um 50 Prozent (sonst kann man die Welt nicht retten).

Dann bleibt Suffizienz, was wird hinter diesem Fremdwort versteckt ? Nun, es ist die Vorstellung, unser Lebenswandel ist sündig, wir verbrauchen eigentlich mehr als uns zusteht, es wird also eine beträchtliche Einschränkung an Verbrauch und damit auch eine Minderung des Lebensstandards gefordert. Wir führen also die Technik des Mittelalters ein (also die Windmühlen), und dazu passend reduzieren wir auch den Lebensstandard auf die Zeit vor Erfindung der Dampfmaschine Diese Vorstellungen gibt es tatsächlich (z.B. „klimaneutrales Berlin“.), in der praktischen Konsequenz das durchzusetzen, das laut zu sagen wagt dann doch niemand.

Wenn also klar ist, dass die „Energiewende“, also der Ersatz des gesamten Energieverbrauchs durch Erneuerbare weit jenseits jeder Realität liegt, kann man nicht wenigstens Teile des Energieverbrauchs (oder wenigstens des elektrischen Verbrauchs) durch Erneuerbare gestalten ?

Voraussetzung für die praktische Verwendung der Erneuerbaren ist die Bereitstellung der Speichereinheiten, denn dann könnte man den volatilen Strom soweit glätten, dass er nach dem jeweiligen Bedarf in Netz eingespeist werden kann, und soweit das gelingt kann man dann auch die Bereitschaft (und den zugehörigen Leerbetrieb) der konventionellen Anlagen einschränken, und dann ergäbe sich zum ersten Mal tatsächlich so etwas wie Klimaschutz, also eine tatsächliche Reduzierung von CO2-Ausstoß.

 

Was brauchen wir denn nun tatsächlich ? Das hängt von der Energiequelle ab, wir gehen die Beispiele mal durch.

  1. A) Wasserkraft.

Hier brauchen wir kaum Speichereinheiten, der Speicher ist der Obersee mit seinem Energievorrat, der ist natürlich vorhanden, abgesehen in einem strengen Winter, wenn Vereisung den Betrieb beschränkt, was aber kaum vorkommt. Aber, Wasserkraft ist nicht weiter ausbaubar und hat nur einen sehr kleinen Anteil (ca. 1 Prozent) am Energieaufkommen.

  1. B) Erdwärme, Geothermie

In bescheidenem Maß für die Beheizung von Wohnraum einsetzbar, der Investitionsbedarf ist sehr hoch, in städtischen Bereichen ist das nicht realisierbar. Es gibt eine kleine Versuchsanlage in der Größenordnung von etwa 70 kW. Größere Versuche scheiterten, weil es dann zu seismischen Erscheinungen kam und die Sicherheit von Gebäuden gefährdet war. Für die elektrische Verwendung eigentlich unbrauchbar, da die Temperaturdifferenz sehr klein ist und der thermische Wirkungsgrad (Carnot) dann sehr bescheiden ist.

  1. C) Bio-Energie, Biogas usw.

Der Vorteil: Bio-Energie ist grundlastfähig, man braucht keine Speicher. Die Nachteile aber sind gewaltig. Am Anfang der Bio-Energie steht die Photo-Synthese, und die hat einen Wirkungsgrad von nur 0,7 Prozent, damit hat man wieder einen riesigen Flächenbedarf. Wie er hier wirklich aussieht, sagt die bekannte Leopoldina-Studie, ich zitiere wörtlich: „Der Input an fossiler Energie in Landwirtschaft und Verarbeitung von Biomasse zu Biobrennstoffen übersteigt häufig den Bioenergie-Output.“ Was „häufig“ an Zahlenwerten wirklich bedeutet, das herauszufinden ist mir bisher nicht gelungen, es gibt aber Studien, die zeigen, dass man für einen Liter Bio-Diesel gut 2 Liter fossilen Diesel braucht, also ein wirtschaftlich unsinniges Verfahren. Damit hängt es auch zusammen, dass Bio-Energie massiv subventioniert wird und sich nur so halten kann. Ein weiterer gravierender Gesichtspunkt ist auch, dass die Bio-Energie in direkter Konkurrenz zur Nahrungsmittelerzeugung steht, und da Deutschland ein Netto-Importeur an Nahrungsmitteln ist bedeutet jeder Quadratmeter Boden, der hoch-subventioniert für die Bio-Energie zur Verfügung gestellt wird, in Wahrheit Export von Hunger in die Welt.

In bescheidenen Grenzen kann man an die Verwertung von Abfällen denken, das geschieht auch (z.B. Müll-Verbrennung). Aber, in einer biologisch geführten Landwirtschaft gibt es gar keine Abfälle. Abfälle kann man aus der Massen-Tierhaltung verwenden, die aber natürlich auch unter ethischer Kritik steht, da allein für die Futterversorgung der Tiere Nahrungsmittel aus der dritten Welt importiert werden, die dort für die Versorgung von Menschen fehlen. Kleinere Mengen von biologischen Abfällen werden gesammelt und verwertet, in ländlichen Gegenden lohnt sich das aber auch nicht, die „Bio-Tonne“ gibt es dort nicht, weil allein das Einsammeln mehr Energie verbraucht als man am Ende gewinnt.

 

Fazit also: Bio-Energie ist also, abgesehen von geringen Beständen an Abfallverwertung, für die Energieversorgung insgesamt ungeeignet.

 

  1. D) Photovoltaik, PV

Die Sonne soll es bringen, das klingt doch so schön. Aber, wie oben schon erwähnt, nachts ist es dunkel. Also brauchen wir hier die Speicher, sonst geht gar nichts. Dass es nachts dunkel ist, ist noch das kleinere Problem, denn dann bräuchte man ja nur einen Speicher für einige Stunden. Von daher könnte PV eine gewisse Möglichkeit für Länder in der Nähe des Äquators sein. Für die europäischen Länder aber stellt sich die Problematik der Jahreszeiten, denn gerade in der Winterzeit, wenn der Energiebedarf im größten ist, liefert PV wenig oder fast nichts. Das bedeutet konkret, man braucht einen Speicher, der die im Sommer eingesammelte Energie aufnimmt und für den Winter bereit stellt. Das ist nicht zu realisieren, und damit ist die Photovoltaik für unsere Breitengrade für die Energieversorgung nicht geeignet.

 

Nun könnte man denken, es wäre doch immerhin noch nützlich, wenn man die Nachtstunden durch Speicher überwindet und dann wenigstens in den Sommermonaten eine brauchbare Energietechnik hat. Das ist aber zu kurz gedacht, denn die konventionellen Anlagen muss man wenigstens für die Winterzeit vorhalten, und was macht man dann im Sommer, dann stellt sich die soziale Frage, schickt man die Arbeiter nach Hause und bezahlt dann „Sonnengeld“? Das wäre volkswirtschaftlich unsinnig, und auch die kleine PV-Hausanlage müsste man stark besteuern, weil diese ja die übrige Versorgung in ungünstige Betriebsbereiche treibt (diese ist also in Wahrheit sozial-schädlich).

 

Fazit: die notwendigen Speichereinheiten sind nicht realisierbar. PV-Anlagen auf Feldern müssten abgebaut werden, und die Felder werden der Natur (und der Versorgung mit Nahrungsmitteln) wieder zurückgegeben. PV-Anlagen auf Dächern können bleiben, die stören ja zunächst einmal nicht (sieht ja auch ganz hübsch aus) , aber man muss doch kontrollieren, dass sozial-schädlicher Betrieb unterbleibt oder wenigstens durch Besteuerung ausgeglichen wird.

 

  1. E) Windenergie

Hier hat man nun gleich beide Probleme, der Flächenbedarf ist riesig, also man muss weite Flächen der Natur entnehmen und in Industrielandschaften umwandeln, und dann kommt die Volatilität hinzu, die Versorgung ist unzuverlässig und schwankt unplanbar zwischen Höchstwerten und Werten bei null. Letzteres ist der Grund, warum man diese Technik, die ja so preiswert ist, Wind kostet ja nichts, in der Vergangenheit aufgegeben hat. Unsere Windmühlen wurden etwa 1860 auf Dampf umgestellt, man bezahlt lieber Kohle und hat eine stete und planbare Versorgung. Die letzten Segelschiffe für den Frachtverkehr wurden um 1930 aufgegeben, auch da war dann das Faktum, der Wind ist zwar umsonst, aber so unzuverlässig, dass er mit den Dampfern nicht mithalten konnte. Wie heißt es im „Fliegenden Holländer“ so schön: „Wer auf den Wind baut, baut auf des Satans Erbarmen“. Das ist eine alte Menschheitserfahrung.

Energiewende (also nicht nur elektrischer Strom ) ist also schon vom Flächenbedarf her nicht zu realisieren. Frage also, geht es denn wenigstens mit der Stromwende, oder einen beträchtlichen Anteil davon ?

Für eine zuverlässige Versorgung stellt sich sofort die Frage der Speicherung. Alle Versuche dazu sind bisher krachend fehlgeschlagen (dazu weiter unten mehr), es gibt einfach kein tragfähiges und einigermaßen durchgerechnetes Konzept. Da man hier kein Konzept hat und sich das auch nicht eingestehen will, stürzt man sich in Aktionismus und plant und baut die Leitungssysteme, die man zwar auch braucht, die aber ohne Speicherung keinen Sinn machen, was nützt eine Leitung, durch die tagelang kein Strom fließt ?

Welche Speicher braucht man denn wirklich ? Ausführlich beschäftigt sich damit Prof. Sinn in seinen Vorträgen, jetzt ganz neu: (https://www.youtube.com/watch?v=xzXAZad3TcE) Allein um den jetzt schon vorhandenen Ausbau an Wind (und Sonne) mit Speichern zu versorgen kommt man nach seinen Berechnungen auf eine Anforderung von 3000 bis 6000 Pumpspeicherwerken, Deutschland hat 35 davon, dabei auch kleinere, die an diese Anforderungen nicht herankommen, das ist also vollkommen illusorisch.

Die andere Möglichkeit ist noch die Speicherung über chemische Energie, also Akkumulatoren. Da hat Enercon etwas vorgestellt, wörtlich: „Es ist der bislang größte Batteriespeicher in Deutschland“, das Pilotprojekt RRKW bei Feldheim (Windblatt 03-2015). Von der äußeren Größe wohl beeindruckend, etwa ein halbes Fußballfeld, und was es kostet, wird nicht verraten. Allerdings für die Stromwende bräuchte man dann 2 Millionen Stück davon, für die Energiewende dann doch 10 Millionen Stück, also für je 8 Bundesbürger eines, und die müssten das bezahlen, warten und in Betrieb halten. Da wird dann sofort klar, das ist weit jenseits jeder Realität.

Weitere Beispiele irrsinniger Ideen will ich hier ersparen.

 

Die gegenwärtige Realität.

Man hat wohl unter der Hand eingesehen, dass es praktische Möglichkeiten für eine Speicherung nicht gibt, jedenfalls wird dazu konkret nichts angefangen. Daher müssen nun die konventionellen Anlagen einspringen und die fehlenden Speicherungen ersetzen, und für eine solche Betriebsweise sind diese aber nicht konzipiert. Kohlekraftwerke und Kernkraftwerke laufen in der Grundlast, ein Kohlekraftwerk braucht zum Anheizen 8 Stunden oder mehr (Kernkraftwerke sind spürbar schneller, aber die will man ja vernichten), und es muss ständig in Betrieb gehalten werden, da es ja den Totalausfall der Erneuerbaren (die sog. „Dunkelflaute“) sofort ausgleichen können muss. Das Kohlekraftwerk ist so konzipiert, dass es rund um die Uhr im Dauerbetrieb läuft, nur dann hat es den besten Wirkungsgrad. Wenn man nun herunterregeln soll (weil gerade Wind kommt, der gesetzlich „Vorrangeinspeisung“ hat, ohne diesen Zwang würde das niemand abnehmen), dann gerät die Anlage in ungünstige Betriebszustände (und erhöhten Reparaturbedarf) und verbraucht ungünstig viel Kraftstoff. Wenn das schnell gehen soll, dann hilft man sich anders, man verschiebt die Phase (um 180 Grad) und packt die überschüssige Energie, die man anders nicht los wird, in die Überlandleitungen, die allerdings auch nur bis zu etwa 80 Grad Celsius aufgeheizt werden dürfen. Also, um die Erde zu kühlen heizen wir kräftig die Leitungen. Wenn das auch nicht reicht, dann geht das in den „Export“ (man nennt das „Export“), allerdings, der ist ziemlich teuer, für die Nachbarländer ist unser „grüner“ Strom eigentlich nur Sondermüll, der stört dort die Netze, und das lässt man sich bezahlen (sog. „negative Preise“), und auch das geht in die EEG-Umlage Auf einen Export-Überschuss, den man teuer bezahlen muss, sollte man eigentlich besser verzichten, aber die Volatilität der Erneuerbaren, die man sonst nicht beherrschen kann, erzwingt dies. Die Folgen dieser Konzeption haben wir oben im Diagramm gesehen, der CO2-Ausstoß geht nicht zurück, und es ist auch nicht erkennbar, wie das anders werden wird. Man bezahlt also zwei Systeme, die konventionellen Anlagen kommen sogar in ökonomische Schwierigkeiten, da sie bei halber Last oder weniger dann nicht mehr genug verdienen, um ihre Arbeiter zu bezahlen. Das einzige, was wirklich gut läuft, sind die Profite der Anlagenbetreiber, nur das allein ist dem System wichtig, eine extrem unsoziale Umverteilung von unten nach oben.

 

Wie geht es nun weiter ?

Man macht unverdrossen weiter, obwohl alle Voraussetzungen für eine solide Entwicklung fehlen, die Propaganda läuft und verkündet stolz neue Erfolgszahlen und gaukelt Klimaschutz vor, aber das sind Schein-Erfolge, eben nur Durchschnittswerte an elektrischer Leistung, die die Taschen der Anlagenbetreiber füllen. Zu einem brauchbaren System kommt man nicht, denn die Konventionellen müssen trotzdem in voller Kapazität in Bereitschaft gehalten werden, man kommt vermehrt in Phasen, in denen zu viel produziert wird (und zu anderen Zeiten nichts, nach wie vor), und das ist auch nur schädlich, da man den dann notwendigen Export zusätzlich bezahlen muss, oder, wenn das nicht geht, müssen erneuerbare Anlagen zurückgeregelt werden, aber dafür, dass sie weniger liefern, bekommen sie trotzdem noch den vollen Preis, und es wird nur zusätzlich teurer, und das alles ohne einen wirklichen Nutzen. Das ist die Situation, solange das EEG, wenn auch leicht „gedeckelt“ in Kraft bleibt, was am Ende eine rein politische Frage ist. In der Politik wird von einigen Seiten versprochen, dass „die Kohle“ nun zurückgefahren werden soll, selbst Ausstiegstermine werden phantasiert, aber wie das konkret gehen soll, das weiß kein Mensch. Wenn praktische Konzepte fehlen, dann müssen eben Sprüche reichen. Dann gibt es auch Vorgänge, dass man mit Gewalttätigkeiten gegen Anlagen des Bergbaus vorgeht, aber damit kann man natürlich nicht naturwissenschaftliche Gegebenheiten und technologische Zwänge aufheben, eine Mischung von Brutalisierung und Hilflosigkeit zugleich.

Für die ältesten Anlagen ist die Stunde der Wahrheit schon gekommen, Panorama 3 berichtete darüber in einer aktuellen Sendung

https://www.ndr.de/nachrichten/schleswig-holstein/Rueckbau-bei-Windraedern-oft-mangelhaft,windkraft920.html

Schon der Abbau der Fundamente bringt erhebliche Probleme, und man versucht, die gesetzlichen Vorschriften zu umgehen. Und warum wird denn da abgebaut ? Im Nebensatz kommt verschämt die Erläuterung, wörtlich: „sei es dass die Nutzungszeit der Anlagen abgelaufen ist und damit dann der Rückbau fällig wird“ . Mit „Nutzungszeit“ ist hier offensichtlich die Zeit der Subventionierung gemeint, und es wird deutlich, ohne Subventionierung geht bei den Erneuerbaren nichts. In einem Zeitraum von sage und schreibe 20 Jahren wurden in diese Anlagen erhebliche Mittel gesteckt, geliefert wurde ein weitgehend wertloses Produkt, eben „Flatterstrom“, den man im Netz eigentlich nicht gebrauchen kann, und in der Propaganda wurde uns immer erzählt, das sei ja eine „Anschubfinanzierung“, mit der die Marktreife erreicht werden soll. Diese Marktreife ist offensichtlich nicht erreicht worden, denn ohne „Vorrangeinspeisung“ ist niemand bereit, dieses Produkt abzunehmen, im Gegenteil, beim Abschub in das Ausland gibt es „negative Preise“, und damit kann man allein den Erhalt der Anlagen nicht bezahlen.

Aus alledem ist festzuhalten: die Anlagen an Erneuerbaren, die wir heute noch bauen, sind für den Klimaschutz nutzlos (da die Speichereinheiten fehlen und weiter fehlen werden), sie sollen für 20 Jahre erhebliche Subventionen erhalten, und nach dieser „Nutzungszeit“ müssen sie abgebaut werden, da die Marktreife nicht erreicht werden kann. Einzige Schlussfolgerung: dieser Irrsinn ist umgehend zu beenden (also EEG abschaffen), ohne Subventionierung wird niemand solche Anlagen bauen, das hat sich dann von allein erledigt, und Natur und Umwelt können aufatmen. Mit den dann eingesparten Beträgen, ca. 30 Milliarden pro Jahr, könnte man an die wirklich dringenden Aufgaben herangehen, also z.B. Sanierung der Schulgebäude oder der übrigen Infrastruktur.

Einen sehr lesenswerten Beitrag zu dieser Problematik gibt es auch hier:

https://docs.google.com/viewerng/viewer?url=http://www.vernunftkraft.de/de/wp-content/uploads/2017/12/171225-Kompendium.pdf&hl=de

 

Die Flops

Es ist immer dasselbe, von Zeit zu Zeit wird eine neue Sau durchs Dorf getrieben, also ein neues, vielversprechendes Projekt wird angekündigt. Da gibt es eine feierliche Eröffnung, mit Reden des Ministerpräsidenten, die schöne und heile Welt der erneuerbaren Energie wird verkündet. Bald danach stellt man fest, die Sache läuft total aus dem Ruder, zumindest finanziell, keiner möchte lange mehr zuzahlen für eine Sache, die doch nichts wird, also, es wird dann doch wieder alles abgebaut, das dann ohne feierliche Reden, klammheimlich eben. Und um das zu vertuschen erklärt man uns, man hätte ja ernsthaft so etwas wie Energiewende gar nicht vorgehabt, man hat nur soeben mal ein bisschen rumexperimentiert, ohne konkretes Ziel, das muss man sich schon mal ein paar Milliönchen kosten lassen.

Die Liste dieser Flops will ich in einem späteren Beitrag zusammenstellen.

 




Nach dem Diesel jetzt auch Benziner unter Beschuss

Die nächsten Fahrverbote drohen! Nicht mehr nur für den Diesel, jetzt sollen auch noch die Benziner dran glauben. Zwar nur solche mit sogenannter Direkteinspritzung, aber das haben mittlerweile fast alle Motoren. Die stoßen auch Abgase aus, die lebensgefährlich sein sollen. Deshalb: Stop! Fordert, na, wer schon? Am lautesten die Vertreter der Deutschen Umwelthilfe (DUH).

Die EU hat 2007 auch neue Abgasnormen für Benzinmotoren beschlossen. Sie tritt ab September dieses Jahres, 2018 in Kraft. Im Prinzip gelten dann für Diesel- und Benzinmotoren dieselben Werte für Partikel. Benzinmotoren durften noch das Zehnfache eines Dieselmotors aus dem Auspuff stoßen, jetzt nur noch 6 x 1011 Partikel pro Kilometer. Das sind sehr wenig Teilchen; so werden sowohl aus Diesel- als auch aus Benzinmotoren praktische keine Partikel mehr herauskommen. Solche Werte erreichen Benziner mit Direkteinspritzung in der Regel nicht.

Hintergrund: Auch in einem Benzinmotor findet eine Verbrennung statt. Auch dabei entstehen Abgase. Die Motorenbauer haben auch wie beim Diesel versucht, die Ausbeute zu erhöhen, also mehr Leistung aus dem Kraftstoff zu holen, um damit die Abgase zu reduzieren. Vorrangiges Ziel bei der Entwicklung von Motoren ist die Vermeidung von CO2, das in jenem menschengemachten Märchen von der menschengemachten Klimakatastrophe zum Schadstoff Nummer 1 erklärt wurde. Das hat zur Folge, dass andere Gefahrenstoffe erhöht werden.

Der Kraftstoff muss mit Luft in einem bestimmten Verhältnis vermischt werden. Nur dann zündet das Gemisch. Um noch sparsamer mit dem Kraftstoff umzugehen, also weniger CO2 auszustoßen, entwickelten die Konstrukteure eine Einspritzpumpe. Die bläst ein paar Tröpfchen Kraftstoff in den Brennraum; eine Zündkerze entzündet dann das Kraftstoff-Luft-Gemisch. Das funktioniert allerdings nur gut bei einem bestimmten Anteil von Kraftstoff und Luft. Zudem sitzt hinter dem Motor seit langem ein Katalysator, der die Abgase reinigt. Der aber arbeitet nur bei einem exakten Kraftstoff-Luft-Mischungsverhältnis (Lambda 1), sonst wird er zerstört.
Allerdings bleibt diesem Gemisch nicht immer genügend Zeit, damit alle Benzintröpfchen verbrennen. Die fliegen dann als Rußpartikel durch die Auspuffanlage ins Freie. Gerade bei höheren Drehzahlen werden auch mehr Rußpartikel ausgeblasen.Sie sollen sich in den Atemwegen festsetzen können. Eigene Untersuchungen, wie hoch die Belastung durch Partikel bei Benzinern in den Städten ist, gibt es bisher nicht oder sie sind nicht bekannt.

Diese winzigen Partikel kann man nur noch mit einem Partikelfilter auffangen, der ebenso wie der Katalysator im Abgasstrang sitzt. Anders als beim Dieselmotor gibt es hier nicht solch erhebliche Probleme, den Filter zu reinigen oder „regenerieren“.

Beim Dieselmotor wird in bestimmten Abständen die Temperatur im Partikelfilter erhöht, dabei verbrennen die eingesammelten Rußpartikel, der Filter wird wieder einigermaßen frei. Kurzstrecken sind allerdings Gift. Der Dieselfahrer muss also immer wieder auf die Autobahn, damit der Partikelfilter freigeblasen wird.

Solche Probleme hat der Partikelfilter für den Ottomotor nicht. Hier kommen die Abgase mit hohen Temperaturen aus dem Motor, der Filter soll sich selbst reinigen.

Bisher ist nur Mercedes auf die Bühne getreten und bietet seine S-Klasse serienmäßig mit Partikelfilter an. Hier spielen sowohl die Kosten als auch der Platz für den Einbau keine große Rolle. Erfahrungen bei anderen, vor allem kleineren Fahrzeugen liegen nicht vor. Zu erwarten ist aber, dass es auch wie beim Dieselmotor zu erheblichen technischen Problemen mit den entsprechenden Kosten führt.

Die Fahrzeughersteller rüsten ihre Fahrzeuge mit Partikelfiltern aus. Die Hersteller der Filter allerdings kommen mit ihrer Lieferung in der gewünschten Qualität nicht nach. BMW hat gerade die Auslieferung des M550i gestoppt, weil Motor und Filter zusammen nicht funktionieren. Doch erhebliche Zweifel tauchten schon in der heftigen Auseinandersetzung um die Dieselabgase auf, welchen Anteile sie am Feinstaub haben.

Nur ein geringer Teil der Feinstaubbelastung in den Städten stammt aus dem Verkehr, sagt jedenfalls das Umweltbundesamt in seinen Daten. In den Texterklärungen klingt das wesentlich dramatischer. Dieser sinkt ebenso wie die Stickoxide in den Städten erheblich, wie die Daten des Umweltbundesamtes zeigen. Sie belegen, dass der Verkehr nur zu einem geringen Teil am Feinstaubaufkommen beteiligt ist.

Prof. Matthias Klingner, Leiter des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme (IVI) in Dresden, hat erhebliche Zweifel, woher der Feinstaub tatsächlich kommt. Er hat in seinem Institut jahrelang große Datenmengen von Messungen ausgewertet und festgestellt, dass es viele andere Einflussfaktoren wie zum Beispiel die Wetterlage gibt.

So kosten Wertvernichtung der Autos und Fahrverbote nur viel Geld, ohne dass sie viel nutzen. Es muss also dringend über andere Grenzwerte diskutiert werden, fordert Klingner. Klar ist, je weniger Feinstaub, desto besser. Die Frage ist jedoch, in welchem Verhältnis stehen Aufwand und Ertrag. Ist jene gigantische Wertvernichtung angebracht, die gerade stattfindet? Autos werden wertlos, weil vor allem Grüne, die sich derzeit in vielen Rathäusern eingerichtet haben, Verbotszonen ausweisen. Für Anwohner und Lieferanten eine unverträgliche Situation wie zum Beispiel in Hannover.

Ganze Stadtbereiche zu sperren, ergäbe unschöne Bilder, daher wenden die Verwaltungen Salamitaktik an: einzelne Teilbereiche zu sperren. In Stuttgart versuchen die Stadtverwaltung beispielsweise, Halteverbotszonen rund um U-Bahnhaltestellen einzurichten, damit Autofahrer nicht mehr mit dem Auto zur U-Bahn fahren, und dann weiter mit ihr in die Innenstadt. Klar, dass dafür auch Personal abgestellt wird, das entsprechend zu kontrollieren.

Wir sehen: Das Geschäftsmodell „Ausplünderung“ ist ergiebig. Jener dubiose Abmahnverein „Deutsche Umwelthilfe“ wird jetzt auch noch ausgerechnet von jenem zweifelhaften Verein unterstützt, der es mit seinen Manipulationen vor ein paar Jahren so übertrieben hatte, dass dieser hinten runterfiel. Der ADAC hatte bei seiner Wahl zum Autopreis „Gelber Engel“ kurzerhand die Stimmzettel der Leser manipuliert. Das ging über viele Jahre hinweg. Der Verein, der sich noch immer nicht von seinen Betrügereien erholt hat, will jetzt auch ein Wörtchen in Sachen „Auto und Umwelt“ mitmischen; noch reinere als reine Autos fordern, sprich am Auto-Bashing-Hype mit zu verdienen.

Mitverdienen wollen übrigens auch jene beiden Staatskabarettisten, die in der ZDF Sendung „Neues aus der“Anstalt“ so scheinbar kritisch grüne Propaganda verbreiten. Die angeblich so kritischen Staatslacherzeuger beweihräuchern den Chef der Umwelthilfe mit Sprüchen wie „Leute, die mit Engagement und Herzblut zur Sache gehen“. Die Anstalts-Propagandisten rufen die Bürger direkt auf: „Mit ein paar Euro ist man dabei.“ Geld her für die Umwelthilfe – wir vertreten Ihre Interessen.

Ob die Millionen von Autofahrern, die gerade fassungslos eine ungeheure Wertvernichtung ihrer Autos erleben müssen, dies auch so sehen, dürfte ziemlich zweifelhaft sein.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Total verstrahlt: Die ARD und ihre Atom-Berichterstattung

Döschner ist ein Journalist jener Schule, die sich, frei nach Hanns-Joachim Friedrichs, mit jenen Sachen gemein macht, die sie für gut befunden hat. Er wurde sozialisiert in einer Zeit, als man zwischen Gut und Böse noch klar unterscheiden konnte.

Gut waren die kritischen und widerständigen Grünen, die aus Minderheitenpositionen und Graswurzelbewegungen heraus das Establishment der Kohl- und Flick-Ära herausforderten und der geistig-moralischen Wende die „Energiewende“ entgegensetzten – damals noch ein neues Wort. Gut war eine Berichterstattung, welche der Großindustrie investigativ zu Leibe rückte. Überflüssig zu sagen, was damals als schlecht galt: Waldsterben war schlecht. Bleibenzin war schlecht. Atomkraftwerke waren schlecht. Heute ist das Mainstream quer durch die Parteien. Das Benzin ist entbleit, der Wald gerettet und die Kernkraftwerke zur Strecke gebracht. Der deutsche Politiker von Grün bis CSU schaltet vor jede Aussage über die Kernenergie eine Verwerflichkeits-Präambel.

Doch die süße Zeit, als man noch ein einsamer Kämpfer für’s Gute war, gegen die Übermacht der Bösen mit den fetten Kassen, die hat den Herrn Döschner süchtig gemacht. Und daher hängt er an seiner Anti-Atom-Berichterstattung wie der Quartalssäufer am vierteljährlichen Alkohol-Exzess. Mangels deutscher Atomanlagen, die entweder abgeschaltet sind oder unspektakulär und störfallfrei ihren befristeten Dienst tun, hat sich Döschner eine neue Hassliebe gesucht, der er beständig hinterherstalkt: Die Kernenergie in Belgien. Er kann sich als Verdienst anrechnen, wesentlich zur behördlichen Anschaffung von Jodtabletten-Vorräten im Raum Aachen beigetragen zu haben. Denn in den Schlagzeilen des Herrn Döschner, die den öffentlichen Raum Nordrhein-Westfalens beschallen, muss das Wort „Super-GAU“ mindestens einmal vorkommen, und am liebsten fragt er gleich: „Wann knallt’s?“

Lange Zeit hatte Döschner es mit den „maroden“ Reaktordruckbehältern von Tihange-2  und Doel-3, die er zu „Bröckelreaktoren“ deklarierte. Bereits mit dieser Wortwahl signalisierte er, dass er von kerntechnischen oder materialwissenschaftlichen Zusammenhängen keine genaueren Vorstellungen hat. Wer wissen will, was es mit diesen Problemen rund um Wasserstoff-Flocken, Sprödbruch-Kennlinien und vorgeheiztes Notkühlwasser wirklich auf sich hat, kann sich hier informieren.

Hilfe, es ist stiller geworden um die Belgien-AKWs!

Nun ist es stiller geworden um Tihange-2 und Doel-3, denn die belgischen Behörden halten das Thema nach umfänglichen Prüfverfahren für umfänglich diskutiert, entschieden und abgeschlossen. Für den Quartalsbeitrag Jürgen Döschners zur deutschen Atom-Angstkultur taugen sie also derzeit nicht. Daher kam ein kürzliches Schreiben der belgischen Aufsichtsbehörde FANC wie gerufen, das dem WDR zugespielt wurde. In ihm geht es um die Anlage Tihange-1, wie ihre Nachbarblöcke ein Druckwasserreaktor französischen Typs. In dem Schreiben wurde dargelegt, dass es in dieser Anlage binnen zwei Jahren zu einer Häufung von sogenannten „precursor“-Ereignissen gekommen sei.

Precursor-Ereignisse (precursor events, precursor incidents) sind Störungen oder Störfälle in einem Kernkraftwerk, welche im Zusammenspiel mit etlichen anderen Folgeereignissen zu schweren Brennelementschäden führen könnten. Precursor-Analysen wiederum sind ein Spezialfall probabilistischer Sicherheitsanalysen, d.h. auf Wahrscheinlichkeitsberechnungen beruhender Einschätzungen, mit denen man Schwachstellen komplexer, eng gekoppelter technischer Systeme ausfindig machen kann. Wenn beispielsweise bei einer Wiederkehrenden Prüfung EINE KOMPONENTE EINES Sicherheitssystem, etwa eine Notkühlpumpe oder ein Druckspeicher, sich als nicht verfügbar erweist. sich als nicht verfügbar erweist, wird, ausgehend von diesem konkreten Ereignis, unter Einbeziehung möglichen Versagens anderer Systeme, die man für die Gewährleistung der Unterkritikalität des Reaktors und die sichere Nachzerfallswärme-Abfuhr benötigt, eine Wahrscheinlichkeit für eine Kerngefährdung errechnet. Nur wenn diese größer oder gleich 10 hoch -6 beträgt (d.h. die Wahrscheinlichkeit einer Kerngefährdung bei eins zu einer Million liegt), spricht man von einem precursor, einem Vorläufer-Ereignis.

Stellt man eine Langzeitanalyse an – beobachtet man also die Meldung von Vorläufer-Ereignissen über einen längeren Zeitraum hinweg –, dann können Häufungen von precursors in ein und derselben Anlage tatsächlich einen Hinweis auf ihr Sicherheitsniveau geben. Das ist gleichwohl noch keine Aussage über einen konkreten gegenwärtigen, gar gefährlichen Anlagenzustand. Um die genannte generalisierende Aussage zu machen, braucht man längere Zeitreihen und genauere Informationen darüber, welche Systeme betroffen waren, ob es Clusterungen gab, wie hoch die Schadenswahrscheinlichkeiten im einzelnen beziffert wurden.

Experten, die sich mit probabilistischer Sicherheitsanalytik beschäftigen, werden aufgrund des hohen Komplexitätsgrades ihres Geschäfts häufig missverstanden. So wurde ihnen in den 1970er Jahren, als diese Berechnungen dank immer besserer Rechnerleistungen aufkamen, angesichts der genannten Zahlenverhältnisse vorgeworfen, sie rechneten schwere Unfälle „klein“.

Störfall-Datenbanken und Weiterleitungs-Meldesystem

Dabei ist die Philosophie der PSA (Probability Safety Analysis) gerade anders – sie hält jeden Unfall prinzipiell für möglich und lediglich für eine Frage der Zeit. Wenn eine PSA zu dem Schluss kommt, ein bestimmter Unfall habe eine Wahrscheinlichkeit von eins zu einer Million, dann sagt sie damit keinesfalls aus, es käme erst in einer Million Reaktorbetriebsjahren zum Unfall, wie viele Atomkraftgegner unterstellten. Sie schließt nur nicht aus, dass es morgen, oder in viertausend, oder in einer Million Reaktorbetriebsjahren dazu kommen könnte. Aber sie schließt eindeutig aus, dass es dreimal oder zwanzigmal binnen einer Million Reaktorbetriebsjahren dazu kommen könnte.. Sie schließt nur nicht aus, dass es morgen, oder in viertausend, oder in einer Million Reaktorbetriebsjahrenahren dazu kommen könnte. Aber sie schließt eindeutig aus, dass es dreimal oder zwanzigmal binnen einer Million Reaktorbetriebsjahren dazu kommen könnte.

Im Falle der precursor incidents kommt hinzu, dass Unfälle in einer Anlage nicht notwendigerweise Vorläufer in derselben Anlage gehabt haben müssen – wohl aber in einer anderen Anlage, mitunter mit großem zeitlichen Abstand der Ereignisse. So gilt ein glimpflich abgelaufener Störfall im schweizerischen Beznau Anfang der 1970er Jahre als Vorläufer des Kernschmelz-Unfalls von Three-Mile Island-2 1979, und auch der Reaktivitäts-Unfall mit Leistungsexkursion in Tschernobyl-4 1986 hatte einen Vorläufer-Störfall, der elf Jahre vorher im KKW Leningrad-1 abgelaufen war.

Diese wichtige Information wurde aber im System der sowjetischen Kernenergiewirtschaft nicht analysiert und dann weitergegeben, sondern analysiert – und geheimgehalten. Auch die Anlagenfahrer von TMI-2 hatten 1979 keinerlei Kenntnis von dem Ereignis in Beznau. Aus diesem Grunde gibt es in der Kernenergiewirtschaft heute internationale Störfall-Datenbanken und Weiterleitungs-Meldesysteme: So können sicherheitstechnisch bedeutsame Ereignisse möglichst rasch auf ihre Relevanz für andere Anlagen überprüft werden.

Die Tagesschau und die üblichen Verdächtigen

Gleichwohl machte die ARD-Tagesschau aus dem vorliegenden Befund die Schlagzeile „Tihange-1 gefährlicher als bislang bekannt“, was unterstellt, es sei bereits vorher bekannt gewesen, dass die Anlage „gefährlich“ sei; nun sei sie eben „gefährlicher“. Das nicht für atomfreundliche Aussagen bekannte SPD-geführte Bundesumweltministerium beeilte sich daher klarzustellen, dass es sich hier um eine simplifizierende Fehlinterpretation handle. „In der aktuellen Berichterstattung entsteht der Eindruck, dass man auf Grundlage der Anzahl von sogenannten Precursor-Ereignissen auf die Sicherheit einer Anlage schließen könne. Das ist aber nicht der Fall. Sie sind vielmehr probabilistisch durchgerechnete Anlässe, die dabei helfen, sich ein bestimmtes Szenario genauer anzusehen. Diese sehr komplexen Precursor-Berechnungen sind ein Element einer umfassenden Sicherheitsarchitektur. Die Wahrscheinlichkeitsberechnungen können helfen, weitere Optimierungen an einem lernenden Sicherheitssystem dieser oder anderer Anlagen vorzunehmen.“

Der für den ARD-Beitrag verantwortliche Jürgen Döschner zitiert zwei Experten, die das ganz anders sehen: alte Bekannte, die in fast jedem Döschner-Beitrag auftreten, und die unschwer als in die Jahre gekommene Vertreter jener grünen Gegen-Expertise zu identifizieren sind, welche es erfolgreich von den Bauzaun-Protesten in die Ministerien und staatlichen Fachgremien schafften. Manfred Mertins ist ein ehemaliger Mitarbeiter der Gesellschaft für Reaktorsicherheit und tritt häufig als Gutachter für die Grünen und andere atomkritische Verbände auf. Der Ingenieur Dieter Majer war nach seinem erfolgreichen Marsch in die Institutionen Ministerialdirigent unter den Umweltministern Trittin (Grüne) und Gabriel (SPD) und wirkte dort als Leiter der Abteilung kerntechnische Sicherheit. Auch er machte nie einen Hehl aus seinen Überzeugungen.

Bei der Stillegung des KKW Krümmel nach einem Transformatorbrand im Sommer 2007 war Majer eine der treibenden Kräfte, welche wider besseres Wissen Zweifel und Angst über einen ernsthaften Störfall streuten – vermutlich sollte das der Profilierung des SPD-Umweltministers Gabriel in einer CDU-geführten Regierung dienen. Der SPIEGEL, der den Hintergrund dieser Geschichte recherchierte, konstatierte seinerzeit, dass alle Beteiligten von Anbeginn an wussten, dass der Brand auf die Sicherheit der Anlage keinerlei Auswirkungen gehabt und das Betriebspersonal richtig gehandelt und die Anlage sicher abgefahren hatte.

Wider besseres Wissen zum Kriminalfall aufgeblasen

Trotzdem wurde die Angelegenheit zum Kriminalfall und gefährlichen Nuklearstörfall aufgeblasen, was das Ende für Krümmel bedeutete. Nach Beendigung seiner Ministerialkarriere fungierte Dieter Majer, wie sein Experten-Kollege Mertins, als Berater atomkritischer Initiativen, etwa als „gemeinsamer Beobachter von Luxemburg, Rheinland-Pfalz und dem Saarland“, jener Länder und Bundesländer, die sich für die Stillegung des französischen KKW Cattenom stark machen.

Döschners Atomexperten liefern keine fachlichen Hintergründe zum besseren Verständnis und zur Einordnung des Schreibens, sondern die bestellte Panikorchester-Musik für einen Bericht, dessen Ergebnis vermutlich schon feststand, bevor sie überhaupt befragt wurden. Mertins lässt sich mit folgenden Worten zitieren: „Precursor kann man schon als einen Indikator für den Sicherheitszustand der Anlage einstufen“, und begibt sich mit dieser vereinfachenden Aussage in Widerspruch sowohl zu den Papieren seines Ex-Arbeitgebers GRS als auch zu den Aussagen des BMU. Dieter Majer, Gabriels Mann für’s nukleare Grobe unter Rot-Schwarz, tönt unisono. Er sieht in den Befunden ein Anzeichen, „dass die Anlage sicherheitstechnische Schwachstellen hat.“

Was bleibt zu sagen? Das Kernkraftwerk Tihange hat noch einen dritten Block, und wir erwarten, dass auch diese bislang noch nicht gewürdigte Anlage bald in den Fokus des Herrn Döschner gerät. Er muss nur noch einen Anlass finden – sagen wir, in einem Vierteljahr? Zweifelsfrei feststellbar ist jedoch, dass die ARD mit den Standards einer sachlichen und vorurteilsfreien öffentlich-rechtlichen Berichterstattung offensichtlich ein Problem hat, wenn sie Themen der Energieversorgung, insbesondere der Kernenergie, anspricht.

Würde der WDR dieselben Qualitätsmaßstäbe, die er bei seiner Atom-Berichterstattung setzt, bei der Diskussion über den Familiennachzug von Flüchtlingen anlegen, dann dürfte er ausschließlich Experten von Pegida, AfD und NPD zu Wort kommen lassen, und müsste mit Schlagzeilen von „Asylantenflut“ und „Volkstod“ den baldigen Super-GAU Deutschlands beschwören. Dieses Verständnis von Journalismus ist nur eines: gefährlicher als angenommen.

Dr. Anna Veronika Wendland ist Osteuropa-Historikerin am Herder-Institut für historische Ostmitteleuropaforschung in Marburg. Ihr Habilitationsprojekt „Atomgrad. Kerntechnische Moderne im östlichen Europa“ ist dem Sonderforschungsbereich SFB/TR 138 „Dynamiken der Sicherheit“ assoziiert. Sie lebt mit Mann und drei Söhnen in Leipzig. 

Übernommen von ACHGUT hier