Die Robustheit eines Stromnetzes

Präsident Trump hat versucht dem mit verschiedenen Erlassen entgegen zu wirken. Inzwischen gibt es in verschiedenen Bundesstaaten ebenfalls konkrete Maßnahmen, insbesondere um die Schließung von Kernkraftwerken zu verhindern. Es hat der bekannte planwirtschaftliche Teufelskreis eingesetzt: Die Verzerrung des Marktes durch Subventionen wird mit weiteren Subventionen an anderer Stelle bekämpft. Das Ergebnis sind allgemein steigende Kosten, die zu überhöhten Preisen und letztendlich zum Schaden der Gesellschaft wirken.

Das neue Modewort „Resilience

Der Begriff „Resilience“ kommt eigentlich aus den Gesellschaftswissenschaften. Man versteht darunter die Fähigkeit eines technischen Systems oder einer Gesellschaft Veränderungen oder zerstörerischen Ereignissen zu widerstehen, indem es die negativen Einflüsse dämpft (absorptive capability), sich selbst verändert und anpasst (adaptive capability) oder letztendlich durch eine Wiederherstellung (restorative capability). Es wird deshalb hier das Wort „Robustheit“ als Übertragung ins Deutsche verwendet.
Um dem ganzen einen wissenschaftlichen Anstrich zu verleihen, wird gern ein Bild gezeichnet, welches als „System Resilience Curve (SRC)“ bezeichnet wird. Darunter versteht man die bauchige Kurve der „Performance“ über der Zeit. Dem gewöhnlichen Ingenieur sei dringend empfohlen, sich mit diesem neuen Wieselwort vertraut zu machen, da es nur eine Frage der Zeit sein kann, bis es zum Standardrepertoire eines jeden Dampfplauderers gehört. Es werden üblicherweise vier Phasen definiert:

  1. Zum Zeitpunkt t1 tritt eine Störung auf. Bis zum Zeitpunkt t2 kämpft das System mit dieser Störung. Man bezeichnet diese Phase noch als Normalbetrieb, solange die Auswirkungen auf die „Performance“ noch im Rahmen der Toleranzen bleiben.
  2. Zum Zeitpunkt t2 beginnt der teilweise Zusammenbruch des Systems. Gegenmaßnahmen zur Stabilisierung werden ergriffen und die „Performance“ erreicht zum Zeitpunkt t3 ihren Tiefpunkt.
  3. Ab dem Zeitpunkt t4 beginnt die Wiederherstellung des Systems im Notbetrieb, die zum Zeitpunkt t5 abgeschlossen ist. Die „Performance“ erreicht aber nicht wieder den Wert im Normalbetrieb.
  4. Ab dem Zeitpunkt t4 beginnt die Reparaturphase bis zum Zeitpunkt t5 an dem ein neuer Normalbetrieb erreicht wird.

So theoretisch, so schön und gut. Nur, dem Techniker dürstet es immer nach konkreten Zahlenwerten und genauen Definitionen. Mit Geschwurbel kann man zwar in den Gesellschaftswissenschaften hervorragend Geld und Anerkennung verdienen, aber in der realen Welt bringt man damit keine Maschine zum Laufen — geschweige ein so komplexes System wie ein Stromnetz. Zumal Experimente nur sehr eingeschränkt möglich sind: Es wären Operationen am „offenen Herzen einer Gesellschaft“.

Was bitte, ist die .„Performance“ eines Stromnetzes?

In einer Marktwirtschaft sollte man immer zuerst nach den Anforderungen der Kunden fragen. Der Kunde — das sind wir alle selbst — will zu jedem Zeitpunkt, an jeder Steckdose, seine georderte Leistung haben. Er will selbst und frei entscheiden, wann er das Licht oder seinen Computer einschaltet oder was sonst er mit elektrischer Energie alles machen will. Für uns seit Jahrzehnten eine Selbstverständlichkeit. Vielleicht zu selbstverständlich, als das wir die heraufziehenden Gefahren „Der-schönen-neuen-Welt“ des Öko-Sozialismus noch wahrnehmen.
Wir sollen uns an einen Systemwechsel gewöhnen: Zukünftig geht es nicht mehr um die Interessen der Kunden, sondern ausschließlich um die Interessen der Lieferanten. Aus dem Kunden wird ein lästiger „Strom-Bittsteller“, dessen einzige Aufgabe noch darin besteht, mit seiner ständig steigenden Stromrechnung diejenigen zu mästen, die besonders gut und gerne von diesem Land leben — die Sonnen- und Windbarone.
In der guten alten Zeit, in der noch die Energieversorgung im Vordergrund stand, war die Aufgabenstellung einfach und klar definiert: Priorität hatte stets die Stabilität des Netzes. Auch die Verantwortung war über die Gebietsmonopole eindeutig geregelt. Jeder Versorger hatte von der Erzeugung (Kraftwerke) über den Transport (Netz) bis zur Abrechnung (Zähler usw.) alles bereitzustellen. Robustheit war so selbstverständlich, daß niemand darüber reden mußte. Die Bewertung der Performance war einfach: Wie oft und für wie lange ist die Stromversorgung in einem Gebiet ausgefallen?

Alles eine Frage der Verantwortlichkeit

Ein klassisches Energieversorgungs-Unternehmen mußte selbst entscheiden, in welchen Kraftwerkspark (Kohle-, Kernkraft-, Gaskraftwerke etc.) in welcher Zusammensetzung (Optimierung der Erzeugungskosten) es investierte. Welche Kraftwerke es in Betrieb hatte, welche in Reserve, wann Wartungsarbeiten, wann Modernisierungen etc. durchgeführt wurden. In der Praxis oft schwierig zu beantwortende Fragen, aber durch entsprechend große Stäbe an Ingenieuren handhabbar. Ein über alle Kulturkreise und sogar Gesellschaftssysteme erfolgreiches Modell.
Eine alte Volksweisheit besagt: Wenn es dem Esel zu wohl geht, geht er aufs Eis tanzen. Die „Große Transformation“ zurück ins Mittelalter ward erschaffen: Plötzlich wurde die Technik zwangsweise durch die vom Menschen nicht bestimmbare Kraft des Wetters ersetzt. Absurderweise auch noch mit der Begründung, genau diese Naturgewalt dadurch beeinflussen zu können und zu müssen („Klimakatastrophe“). Da kein Energieversorgungsunternehmen so blöd war, sich weiterhin für ein robustes Stromnetz verantwortlich machen zu lassen, aber die Stellhebel ausschließlich dem „Wettergott“ zu überlassen (100% Wind und Sonne), mußte die „Strommarktliberalisierung“ erschaffen werden. Eine herrliche Wortschöpfung um den verbrannten Begriff „Planwirtschaft“ zu vermeiden. Die Vorgehensweise ist und bleibt immer gleich: Zerschlage erstmal das funktionierende System und bilde möglichst viele Einheiten (Energieerzeugung, Netzgesellschaft etc.) mit möglichst gegensätzlichen und unterschiedlichen Interessen — auch als Teile und Herrsche bekannt. Damit die Sache beschleunigt wird, sorge für möglichst viele „Schlangenölverkäufer“ (EE-Gesetz) und Agitprop-Einheiten (Greenpeace, Klimainstitute usw.). [Einschub: Warum fällt mir an dieser Stelle bloß eine Paraderolle mit Mario Adorf ein: Ich sch… dich zu mit Geld.] In diesem Punkt unterscheidet sich der „Öko-Sozialismus“ von seinen eher armen Vorgängern. Man hat in diesem (noch) erfolgreichen System einfach mehr Geld anderer Leute — auch Steuern und Abgaben genannt — zur Verfügung.

Wofür dient die SRC wirklich?

Bisher hat man einfach den Bedarf gedeckt. Störungen für das Stromnetz haben sich aus technischen Fehlern (Kraftwerk, Trafo etc.), aus höherer Gewalt (Bagger) und zum geringeren Maße durch das Wetter (Sturm, Vereisung, Blitzschlag etc.) ergeben. Alles sehr gut beherrschbar, weil man stets selbst die Hoheit über die Produktion und Verteilung besessen hat. Man hat sich fast immer und ausschließlich in der ersten Phase des Normalbetriebes bewegt. Die Öffentlichkeit hat meist nichts von etwaigen Schwierigkeiten mitbekommen. Stromausfällen gab es — wenn überhaupt — nur lokal und kurzfristig.
Nun hat man — nicht aus Not, sondern nur aus ideologischen Gründen — die Erzeugung in die Hand des „Wettergottes“ übergeben. Dort geht aber die Bandbreite der Stromproduktion von nahezu Null (Dunkelflaute) bis zur maximalen installierten Leistung, die manchmal höher als der Gesamtbedarf sein kann. Mit zunehmendem Ausbau in Europa werden die notwendigen Abschaltungen immer weiter zunehmen. Wirtschaftlich eine sich selbst verstärkende Katastrophe. Mit jeder notwendigen Zwangsabschaltung wird die — ohnehin geringe — Arbeitsausnutzung (Strommenge, die die entsprechenden Anlagen pro Jahr produzieren) geringer und die Kosten der erzeugten Kilowattstunden steigen dadurch entsprechend an. Noch einmal in einem kurzen Merksatz zusammengefaßt: Je mehr Windmühlen und Sonnenkollektoren in Betrieb gehen, um so teurer werden die damit erzeugten Kilowattstunden! Ganz im Gegensatz zur geltenden Propaganda, die von immer weiter sinkenden Preisen faselt. Jeder Investor, der sich heute noch mit dem Gedanken trägt in Wind und Sonne zu gehen, sollte diesen Zusammenhang beherzigen. Ist der Redeschwall und die Zahlenakrobatik der Schlangenölverkäufer auch noch so verführerisch.
In diesem Zusammenhang ist die Einbeziehung des Wirtschaftsraumes Europa nicht zu vernachlässigen. Je weiter auch dort der Ausbau von „regenerativen Energien“ fortschreitet, um so mehr werden die Entsorgungsgebühren (negative Strompreise an den Börsen) ansteigen. Die von den Stromkunden in Deutschland bezahlten Entsorgungsgebühren machen die Preise für den Windstrom in unseren Nachbarländern immer weiter kaputt und erhöhen damit die dort fälligen Subventionen. Auch das, eine weitere Todesspirale für die „regenerativen Energien“. Die alte Propagandalüge „irgendwo-weht immer-der Wind“ ist längst als solche enttarnt. Was Meteorologen schon immer wußten, daß Großwetterlagen nicht an den nationalen Grenzen halt machen, ist heute bereits in den Übertragungsnetzen meßbar: Die Produktion von Windenergie in den zentraleuropäischen Staaten verläuft bemerkenswert synchron.
Wenn also der Wettergott die Produktion übernimmt, muß man von tagelangen und großräumigen Flauten ausgehen. Speicher in dieser Größe gibt es nicht. Wenn man zudem in der kurzen Zeit, in der der Wind genug weht und die Sonne scheint (Arbeitsausnutzung <15% in der Summe beider), nicht nur die aktuelle Nachfrage abdecken muß, sondern auch noch die zu speichernde Energie einschließlich der Verluste (mindestens 50%) produzieren muß, benötigt man gigantische installierte Leistungen. Dabei muß man auch noch beachten, daß die Vollbenutzungsstunden der Wandlungsanlagen (Batterien, Power to Gas oder was auch immer) und Übertragungsnetze ebenfalls sehr gering ausfallen müssen (Produktion minus Nachfrage), was bei den ohnehin sehr hohen Investitionskosten für Speicher- und Übertragungssysteme zu gigantischen spezifischen Kapitalkosten (€/kWh) führt.

Die Antwort liegt in Phase 2 der SRC

Jeder Fachmann weiß, daß bei immer weniger konventionellen Kraftwerken am Netz, zukünftig der Punkt 2 der SRC-Kurve immer häufiger zu dem Ergebnis führt, daß Störungen eben nicht mehr ausgeregelt werden können. Störungen sind zukünftig nicht mehr nur technische Fehler im System, sondern vielmehr auch noch die Launen des Wettergottes. Wenn erst einmal kein „Kohlestrom mehr die Netze verstopft“ und die Kernkraftwerke abgeschaltet sind, bleibt nur noch der Abwurf von Verbrauchern. Dieser muß in Sekundenschnelle erfolgen, sonst bricht — gemäß den Kirchhoffschen Regeln — das gesamte Netz großflächig (Europaweit?) zusammen.
Unsere Fachpersonen an den Schaltstellen der großen Transformation haben natürlich auch darauf eine Antwort: Man schwadroniert vom „Smart Grid“ und von „Smart Metering“. Dahinter verbirgt sich nichts anderes, als der elektronische Bezugsschein der Mangelwirtschaft. Auch die fanatischsten „Transformatoren“ sehen durchaus das Problem von großflächigen Stromabschaltungen. Deshalb wollen sie gemäß Dringlichkeit abstellen. Wer im Dunkeln sitzen muß, entscheidet wohl der örtliche Parteisekretär oder schlicht der Geldbeutel. Der dumme Michel wird schon zahlen, wenn er unbedingt die Sportschau sehen will oder sein Gefriergut retten muß. In Afrika überleben die Menschen schließlich auch irgendwie.
Wenn nun der Wind wieder richtig weht und der Tag nach einer langen Winternacht anbricht, kann man langsam in die Phase 3 übergehen. Es ist nämlich gar nicht so einfach ein Netz wieder zu stabilisieren. Man kann dann schrittweise die Notstromaggregate in den Krankenhäusern, Unternehmen usw. abstellen und die Verbraucher wieder aufs Netz schalten. Wie die „Performance“ aussieht, wird sich zeigen. Als letztes kommt dann mit Phase 4 die Beseitigung der entstandenen Schäden im Netz.

Ausblick

Der nächste Artikel wird sich mit den Konsequenzen für die Kernkraftwerke in dieser neuen Welt befassen. Mit Sicherheit wird es noch eine jahrelange Übergangszeit geben, bis man mit dem Spuk der „Regenerativen Energien“ wieder Schluß macht. Es gilt diese Zeit möglichst elegant aus zu sitzen.

Übernommen von NUKEKLAUS hier



Europa ohne Energie – Was zählt schon Versorgungssicherheit?

Viel von den kommenden Nöten erfährt man in einem äußerst informativen Interview, das der Chefredakteur der Neuen Zürcher Zeitung, Eric Gujer, und die Politikphilosophin Katja Gentinetta mit Suzanne Thoma mustergültig geführt haben.
Thoma ist studierte Chemieingenieurin, arbeitete lange bei dem Schweizer Chemiekonzern Ciba, und soll jetzt als CEO die Bernischen Kraftwerke BKW neu aufstellen. Dieser drittgrößte Stromkonzern der Schweiz ist heftig ins Schlingern geraten, seitdem auch die Schweizer in einer Volksabstimmung für so etwas Ähnliches wie eine Energiewende gestimmt haben.

Denn man glaubt es kaum: In der Schweiz sprudeln zwar schier unerschöpfliche Mengen an Wasser von den Bergen herunter und entzücken grüne Gemüter, weil es ja so schön umweltfreundlich ist und CO2-frei, aber mit dieser Wasserkrafterzeugung scheint es vorbei zu sein. Die Berge schicken scheinbar doch eine Rechnung, und die fällt sehr hoch aus. Zu hoch für die Energieversorger. Die beklagen sich über exorbitant erhöhte Steuern, mit der die Wasserkraft belegt wurde und die die Stromerzeugung aus Wasser unattraktiv macht.
Dazu kommen die stark gesunkenen Preise für Strom auf dem europäischen Markt. Strom ist so billig wie nie zuvor. Das führt dazu, dass ein Teil der schweizerischen Wasserkraftwerke ihre Kosten nicht mehr decken kann. »Die Wasserkraft wird im Augenblick etwas aus dem Paradies oder aus dem Wohlfühl-Bereich vertrieben«, formuliert Suzanne Thoma blumig knallharte betriebswirtschaftliche Realität. »Warum ist das so? Weil auch die Wasserkraft, die in der Schweiz ist, steht auch im internationalen europäischen Wettbewerb. Sie steht in Konkurrenz mit anderen Produktionstechnologien und mit anderen Ländern und muss sich bewähren.«»Das ist zwar eine Herausforderung, die nicht neu ist, der Strommarkt ist de facto schon länger liberalisiert. Aber was seit einigen Jahren passiert, ist, ist dass sich der Strompreis dramatisch reduziert hat, er hat sich halbiert. Und damit steht die Wasserkraft und auch die Stromkonzerne, auch die BKW, vor einer massiven Herausforderung. So musste sich auch unser Unternehmen vor ein paar Jahren neu erfinden, weil wir sonst so wie die Titanik Richtung Eisberg uns bewegt hätten.«
Die Moderatorin Katja Gentinetta fragt: »Wir können uns überhaupt nicht mehr darauf verlassen, dass es diese Seen gibt, das Wasser, und dass die Schweiz im nationalen Umfeld geschützt ist?«
Die Schweiz ist zwar mittlerweile zur Drehscheibe des europäischen Strommarktes geworden. Doch so Thoma: »Die Frage ist, wie viel Strom man noch in der Schweiz produzieren möchte?« Das läuft dann auf die simple Frage der Wettbewerbsfähigkeit hinaus. »Und da steht die Schweiz aus verschiedenen Gründen nicht so gut da. Einmal aus den Kostengründen, die Unkosten sind hoch. Es ist teuer, in der Schweiz zu produzieren, auch in der Wasserkraft, nicht nur in der Industrie. Gleichzeitig hat man das Währungsrisiko. Wir fakturieren letztendlich in Euro mit einem starken Schweizer Franken.«
Sie fragt für die Bernischen Kraftwerke BKW: »Wie geht man eigentlich um mit der Wasserkraft? Die wird hoch besteuert in der Schweiz und steht in Konkurrenz mit anderen Produktionstechnologien, die nicht besteuert werden.«
Bedroht von der deutschen Energiewende und der nachfolgenden Schweizer Wende. Chefredakteur Eric Gujer: »Die Schweiz hat nach Merkel auch so eine halbe Energiewende gemacht. Wie sinnvoll war diese ganze Übung?«
Suzanne Thoma: »Ich denke, es zeigt etwas über die Entwicklung der Energiewende global. Ursprünglich hat man damit angefangen, und weltweit ist es auch noch der Fokus, nämlich die Reduktion von CO2. Weltweit geht es bei der Energiewende in erster Linie um die Reduzierung von CO2. Ich nehme an, ich kann nicht direkt in den Kopf von Frau Merkel sehen, aber ich nehme an, das war ihre Hauptüberlegung damals. Dann kam Fukushima und die politische Einschätzung, dass die Kernkraft in der Bevölkerung nicht mehr genügend Unterstützung besitzt. Und dann ist man etwas weggegangen von der CO2 Problematik in der Schweiz und in Europa hin zur Energiewende. Das heißt in erster Linie: Ausstieg aus der Nuklearenergie.« »Und jetzt habe ich den Eindruck, korrigiert sich das schon wieder etwas, aber der Ausstieg ist natürlich beschlossene Sache.«Gujer hakt noch einmal nach: »Wie sinnvoll ist das Ganze? Wenn ich mir jetzt Deutschland anschaue, dann ist seit 2009 der CO2 Ausstoß faktisch konstant. Danach hat sich nicht mehr viel getan. Die meisten Reduktionen kamen mit der Abschaltung der Dreckschleudern in der ehemaligen DDR. Als das erledigt war, ging es dann nur noch marginal zurück. Also muss man sagen: Für den Klimaschutz hat die ganze Geschichte bis dato relativ wenig gebracht.«
Thoma pflichtet bei: »Wenn Sie die Schweiz und wenn Sie Deutschland anschauen – dann stimmt das. Wenn Sie eine globale Perspektive einnehmen, also zum Beispiel die Vereinigten Staaten – die haben große Fortschritte gemacht. Auch in China ist neben dem Aspekt der Umweltverschmutzung die CO2 Reduktion ein sehr wesentlicher Punkt.«
Sie verweist als Gegenteil auf das Beispiel Finnland. Dort geht nach langen Jahren und großen Schwierigkeiten ein großer Kernreaktor ans Netz. Thoma: »Das ist ein Ding! Das ist fünfmal Mühleberg. Da gibt es keine Opposition dagegen!« Mühlenberg ist ein mit 370 MW elektrischer Leistung ein eher kleines und älteres Kernkraftwerk in der Schweiz.
Gujer: »Die Schweiz hat nach einem Referendum die Energiestrategie 2050 beschlossen: Erneuerbare Energien, Energieeffizienz, weniger Energieverbrauch – es geht alles in diese Richtung – ist damit der Weg vorgegeben?«
Suzanne Thoma antwortet mit zur Schau gestelltem Optimismus, wie sich das Anteilseigner von einer Geschäftsführung erwarten: »Es ist für uns eine neue Rahmenbedingung, die uns in erster Linie auch neue Geschäftsmöglichkeiten gibt.«
Die BKW müsse sich gewissermaßen neu erfinden, weil sie mit dem bisherigen Geschäft der Energieproduktion nicht mehr gut leben könne. Sie versucht, die politisch korrekte neue Geschäftsmöglichkeit anzupreisen: »Es ist eine positive Rahmenbedingung, um den Leuten helfen zu können, Strom zu sparen.«
Doch ob der neue Geschäftszweig, anderen beim Strom zu helfen, so ertragreich wie das ehemalige Geschäft der Stromproduktion sein wird, bleibt offen. »Ansonsten«, da muss sie nachdenken, »ansonsten ist die Energiestrategie der Schweiz, wo wirklich, wirklich entschieden wird, was läuft, für uns als Investoren China.«
Gujer: »Wäre es nicht viel sinnvoller, wenn es ums globale Weltklima geht, wir konzentrierten uns auf die wirklichen großen Verbraucher und Produzenten von CO2, nämlich China, Indien, die für einen ganz großen Teil der Emissionen stehen, und sparen uns solche Mikroarbeiten, wie sie die Energiestrategie ( in der Schweiz) bedeutet.«
Thoma: »Sie stellen mir da vor allem eine politische Frage. Ich vertrete hier die BKW, die sich in diesem Umfeld positioniert, und aus der neuen Situation versucht, eine möglichst gute Lösung zu finden.«
Die eidgenössische Energiewirtschaft investiert eher in norddeutsche Windanlagen und nicht mehr in die Stromproduktion in der Schweiz. Ungelöst bleibt damit das absehbare Problem, dass im Sommer zu viel und im Winter zu wenig Strom produziert werde. Thoma daher: »Wir müssen uns ganz sicher sein, ob die Nachbarn dann immer auch exportieren können und wollen und zwar nicht im Durchschnitt über ein Jahr, sondern eben auch in Extremsituationen im Winter.«Doch damit steht nichts anderes als die Versorgungssicherheit auf dem Spiel. Sollten in anderen Ländern gerade auch Mangel an Strom herrschen, weil europaweite Flaute herrscht, dann gibt es keinen Strom mehr zu kaufen. Der liegt nicht wie Reis, Weizen oder Milch auf Vorrat in einem Lager und kann abgeholt werden. Es muss in genau dem Augenblick erzeugt werden, in dem er verbraucht wird. Europaweit.
Thoma bringt ins Spiel, was auch deutsche Stromproduzenten umtreibt: Sie müssen Kraftwerkskapazitäten vorhalten, die den Großteil des Jahres über nicht laufen und keinen Strom produzieren: »Da stellt sich dann die Frage, wenn man sagt, man möchte doch etwas Reserve haben, wie müssen denn die Rahmenbedingungen sein, dass eine Firma wie beispielsweise die BKW sagen würde: ja, wir bauen jetzt ein Kraftwerk, das 360 Tage im Jahr nicht läuft. Aber wir halten es als Versicherungsleistung zurück für die fünf Tage im Jahr, wo man es vielleicht dann braucht. Nur dann können Sie nicht nur die Kilowattstunde bezahlen, also nicht nur die Energiemenge, sondern Sie müssen die Dienstleistung bezahlen.«
Gujer entgegnet: »Sie rufen also schon nach einer neuen Subvention, damit Sie eine Leistung erbringen. Das ist mein Problem mit der ganzen Energiestrategie 2050. Es passiert ja nicht das, was Sie ja eigentlich fordern, nämlich dass der Markt ent-scheidet, wo man am vernünftigsten Energie spart und mit welchen Methoden man das macht, sondern es ist ein sehr dirigistischer Ansatz. Es wird wieder politisch festgelegt: Nicht der Markt entscheidet, sondern Bern und das Volk haben entschieden. Damit alle am Schluss ein bisschen zufrieden sind, gibt es für viele Gruppen auch noch Subventionen unter anderem auch für Sie die Marktabgabe. Es wird also auch noch ein relativ teurer Spaß. Das erscheint mir politisch vielleicht ein gangbarer Weg, aber wenn wir darüber reden, wie sinnvoll die ganze Übung ist, erschließt sich mir deren Sinn nicht wirklich.«
Thoma entgegnet: »Die Marktabgabe wollten wir eigentlich nicht. Das ist eine Versicherung und keine Subvention. Das ist eine Leistung, die man erbringen würde. Aber es ist – da haben Sie recht – ein politischer Entscheid.«
Die BKW richtet sich jetzt auf neue Rahmenbedingung aus. »Das führt schon dazu – und ich beklage mich nicht –, dass wir unser Energiegeschäft neu definieren. Wir reduzieren die Energie, die wir produzieren. Wir hören mit der Produktion Mühleberg auf. Wir haben gewisse Lieferverträge gekündigt. Wir sagen als BKW: Wir behalten zwar das Energiegeschäft, aber es soll im Gesamtportfolio, von dem, was wir machen, kleiner werden und eine kleinere Bedeutung haben, weil letztendlich der Investitionscase nicht gegeben ist.«
Dann spricht sie den entscheidenden Punkt an: »Vielleicht ist das ja für die Schweiz richtig. Es ist dann richtig, wenn man zum Schluss kommt, dass Importieren immer gegeben ist und dieses Risiko, dass ich vorher erwähnt habe, dass man einmal nicht importieren kann, dass das tragfähig ist.«
Thema: Versorgungssicherheit. Ein Land nimmt das Risiko auf sich, wenn kein Strom zur Verfügung am Markt verfügbar sein sollte, dann gibt es eben keinen.
Katja Gentinetta fragt folgerichtig: »Wer ist zuständig, wenn Sie sich zurückzuziehen?«
Es wird keinen verantwortlichen Stromproduzenten mehr geben. Suzanne Thoma verweist auf den Markt: »Zuständig wäre der Markt. Wenn der Preis steigt, wird mehr zugebaut. Und wenn der Preis sinkt, dann gibt es eine Korrektur. Das ist die Idee hinter dem Strommarkt.«
Nur werde der Markt auch aufgrund politischer Eingriffe verzerrt. In jedem Fall sind nicht, das sagt sie ganz klar, die Energiekonzerne zuständig. »Wir haben keinen Leistungsauftrag. Wir haben keine Pflicht, eine Stromproduktion zu haben. Da steht nirgend in einem Gesetz und auch nicht in unseren Statuten. Wir hatten sicher in der Vergangenheit das Selbstverständnis – das war unsere Raison d’etre – . Das ist jetzt der Umbau, den wir mit der BKW machen. Wir sagen: Diese Stromproduktion hat uns fast vor eine Wand gefahren. Und wir haben früh genug die Kurve genommen und eben nicht mehr investiert und andere Geschäftsfelder aufgebaut.«Einen Strommangel gebe es in Europa insgesamt nicht, stellt Gujer fest und verweist auf Deutschland: »Im letzten Jahr an 150 Tagen im Jahr mussten die Stromversorger sogar etwas zahlen, dass man ihnen den Strom abgenommen hat!«
»Wäre es da nicht konsequent zu sagen: Energiesicherheit heißt für uns in der Schweiz: Wir brauchen europaweit ein gutes Netz, ein stabiles Netz, und wir kaufen das, was wir in der Spitze vielleicht einmal benötigen, einfach ein und dann brauchen wir selber gar nicht so sehr schauen, was wir da an Versorgungssicherheit machen, denn der europäische Markt liefert es uns.«
Thoma in erfrischender Deutlichkeit, die man sich von deutschen Energiemanagern wünscht: »Wenn ich Ihnen so zuhöre, kommt mir das Bild vom Menschen, der mit dem Kopf im Backofen und den Füßen im Eiswasser ist. Also im Durchschnitt ist das ja gar keine so unangenehme Situation. Sie haben Recht: Es gibt zu viel Strom, darum ist der Preis ja auch so tief. Aber die Stromschwemme ist eben nicht gleichmäßig übers Jahr verteilt. Strom im Gegensatz zum Erdgas oder Erdgas oder Erdöl ist eben sehr schwierig zu speichern.«
Europa werde zu einer Art »Kupferplatte«. Es komme nicht mehr darauf an, wo der Strom produziert wird. Man könne ihn zum Beispiel von Spanien aus dem Süden nach Deutschland transportieren. »Aber bauen Sie mal diese großen Stromleitungen!«
Gujer verweist auf die erheblichen Marktverzerrungen: »Deutschland drückt mit sehr viel Geld – die Stromabgabe, die der Verbraucher zahlt, kostet 25 Milliarden € im Jahr -, seinen Strom in die europäischen Netze und verzerrt damit die Situation in den anderen Ländern. Ist das ein deutscher Stromimperialismus?«
Thoma: »Wir haben einen freien internationalen Markt. Da sehe ich nichts Imperiales dran. Ich sehe den Markt, allerdings einen verzerrter Markt. Sie haben einerseits die erneuerbaren, die nach wie vor subventioniert werden. Dann haben sie den politischen Entscheid auf europäischer Ebene, CO2 zu vermeiden.«
Katja Gentinetta: »Andere Länder können mit Wasserkraft günstiger produzieren. Die Schweiz hat sich dazu entschieden, das nicht zu fördern.«
Thoma: »Sie hat sich nicht nur entschieden, es nicht zu fördern, sie hat sich entschieden, es steuerlich relativ heftig zu belasten. Das ist schon ein mutiger Entscheid und für mich ein Beispiel, wo man einen Ast absägt, auf dem man sitzt.«
Die Energieversorger in der Schweiz erhalten von Seiten der Politik verschiedene Signale, einerseits will man gerne Wasserkraft nutzen und gleichzeitig will man es offenbar doch nicht wirklich. Für Thoma die einzige Folgerung aus betrieblicher Sicht: »Wir richten uns darauf ein, wir bauen die Firma deswegen um.«
Die Besteuerung der Wasserkraft in der Schweiz sei, stellt sie fest, extrem hoch geworden. »Sie ist der größte Kostenfaktor bei den Energieerzeugern, an dem sie auch nichts machen können.«
»Ich würde das Klima um die Energieproduktion in der Schweiz etwas freundlicher gestalten.« Drückt sie es vorsichtig aus.
Sie führt das Beispiel der Kernenergie an. Ende der fünfziger, Anfang der sechziger Jahre wollten alle, dass man in die Kernenergie investiert. Für die Strombranche wäre Kohlekraftwerke einfacher gewesen. »Jetzt am Ende der Laufzeit dieser Technologie sind die Stromkonzerne die, die auch infrage gestellt werden wegen den Entsorgungskosten. Und das ist eine ganz schreckliche Vision, dass die Gesellschaft auch ein paar Franken dran zahlen müsste. Wir wollten diese Kernkraft nicht. Wer sagt uns, dass es nicht ähnliche Gedanken zur Wasserkraft geben wird in 50 Jahren? Wie konntet ihr nur die Berge aushöhlen und das Wasser fassen?«»So gilt heute bei fast allen Energiekonzernen die Regel: Vorsicht bei Investitionen in die Energie Infrastruktur!«
Die BKW sieht sich nunmehr als Investor, der das Geld der Aktionäre dort investiert, wo das Verhältnis zwischen Ertrag und Risiko am besten ist. »Es ist tatsächlich so, dass in einem Windpark im Norden Deutschlands die Ertragswahrscheinlichkeit und die Risiken, denen wir uns aussetzen, deutlich kleiner sind, als wenn wir in der Schweiz ein Wasserkraftprojekt umsetzen würden.«
So bleibt letztlich die Frage von Eric Gujer unbeantwortet: »Wer sichert am Ende in Europa die Versorgungssicherheit?«
Und zwar dann, wenn aufgrund der Jahreszeiten zu wenig Strom produziert wird. Denn Strom ist nicht gleich Strom. In herbstlichen und winterlichen Hochdrucklagen herrscht meist viel Nebel und wenig Wind. Strom gibt es dann eher wenig, schon gleich gar nicht, sollten alle Kraftwerke abgeschaltet worden sein.
Was vom angeführten Rückgrat der europäischen Stromversorgung zu halten ist, zeigt sich derzeit ziemlich deutlich. Denn die Stauseen in den Schweizer Bergen sind derzeit gerade sehr leer. Der lange Winter sorgte einerseits für hohen Strombedarf auch in der Schweiz, andererseits dafür, dass aufgrund der langen Schneesaison kaum Wasser in die leeren Seen nachfließen konnte. Die Schweiz meldet derzeit Pegelstände in den Bergseen auf einem Rekordtief.
Mal eben von der Schweizer Swissgrid telefonisch eine Notreserve von 300 MW zu erbitten wie im Februar 2012, um einen Blackout in Bayern und Baden-Württemberg abzuwenden, ist dann nicht mehr möglich. Dann wird auch ein horrendes Angebot mit irrsinnig viel Geld nicht nutzen; damals wurden pro Megawattstunde 3.000 Euro bezahlt, 50 mal mehr als der Börsenpreis. Wenn kein Strom mehr da ist, dann kann er auch mit noch so viel Geld nicht beschafft werden.
Da bekommt die deutsche Vorstellung von den Bergseen in den Alpen als »Batterien Europas« für den Zeitpunkt, da alle Kern- und Kohlekraftwerke abeschaltet sein sollen, eine besonders irrlichternde Komponente.
Übernommen von Tichys Einblick hier




Die Widersprüchlichkeiten beim Strahlenschutz

Damals traten bei hohen sich wiederholenden Strahlendosen gesundheitliche Schäden auf. Im Jahre 1934 legte man den ersten Grenzwert für den Umgang mit Strahlung fest und man schuf Gesetze zum Schutz vor Strahlung. Bis zur heutigen Zeit wurden die Grenzwerte ständig verringert. Allerdings bezogen sich die Grenzwerte nur auf den Umgang mit Kernbrennstoffen, im Wesentlichen also auf den Umgang mit Uran. Aus dem Auftreten von gesundheitlichen der Schäden bei hohen Strahlendosen wurde geschlossen, daß auch kleinste Strahlendosen unabhängig von der Zeit des Einwirkens schädlich seien. All dieses ist heute in Gesetzesform gegossen und wegen der Existenz dieser Gesetze wird fest an die Gefahren jeglicher Strahlung geglaubt.
Es gibt heute viele Widersprüchlichkeiten in der Strahlenschutzgesetzgebung, denn nicht nur beim Umgang mit Kernbrennstoffen gibt es hohe Strahlendosen. Im Folgenden sollen einige der Widersprüche erläutert werden:

  1. Die Strahlenschutzverordnungwurde bei uns durch ein Strahlenschutzgesetzabgelöst und so verschärft. In diesem Strahlenschutzgesetz ist jetzt auch für das überall in der Luft vorhandene Edelgas Radon der Grenzwert von 300 Becquerel pro Kubikmeter Luft für Innenräume genannt, Radon wird so als „Gefahrstoff“ gebrandmarkt. Es wurden2000 hypothetischeTodesopfer pro Jahr durch Radon in Deutschland ausgerechnet. Dabei wird übersehen, daß in Radonheilbädern die 1000-fach höhere Konzentration des Radons in der Atemluft zur heilenden Wirkung für die Patienten führt. Es gibt in Deutschland 8 Radonheilbäder, und in der EU profitieren im Jahr 80 000 Patienten von der Heilwirkung des Radons.
    Einige 100 000 Becquerel Radon pro Kubikmeter Luft in Heilbädern bewirken Heilung für Patienten, warum sind dann 300 Becquerel Radon gefährlich???
  2. In der evakuierten Zone von Tschernobyl ist der Strahlenpegel erhöht, er liegt im Bereich 0,1 bis 0,2 Mikro-Sievert pro Stunde. In unmittelbarer Umgebung des Unfallreaktors werden an einzelnen Stellen 10 Mikro-Sievert pro Stunde erreicht. Die evakuierte Zone wird „Todeszone“ genannt. Im Flugzeug hat man in Reiseflughöhe auf unserer Breite ca. 6 Mikro-Sievert pro Stunde.
    Warum gibt es in der „Todeszone“ Betretungsverbot, während die vielfach höhere Strahlung im Flugzeug täglich für Millionen Menschen erlaubt ist???
  3. Bei einem Ganzkörper-CT erhält der Patient eine Strahlendosis von 10 bis 20 Milli-Sievert in wenigen Minuten. Bei Aufräumarbeiten in der Kerntechnik gilt eine Grenze von 10 Mikro-Sievert im Jahr.
    Warum werden zur Einhaltung der Grenze in der Kerntechnik riesige Geldbeträge ausgegeben, wenn doch die 1000-fach höhere Dosis bei einem CT sich in millionenfacher Anwendung als harmlos erwiesen hat???
  4. Durch den Unfall in Fukushima hat niemand einen Schaden durch Strahlung erlitten, und es ist auch in Zukunft nicht mit gesundheitlichen Schäden zu rechnen, so berichten die von der UNO beauftragten Fachleute (UNSCEAR). Es hat aber durch die Strahlenschutzmaßnahmen der Evakuierung Todesopfer gegeben, es werden 150 bis 600 Opfer genannt (DER SPIEGEL), anderen Quellen in Japan sprechen von 1600 Opfern durch die Schutzmaßnahmen.
    Warum wird vor Strahlung geschützt, nicht aber vor unsinnigen Strahlenschutzmaßnahmen???
  5. In Kernkraftwerken westlicher Technik ist durch Strahlung noch nie ein Mensch zu Schaden gekommen, dennoch sind Italien und Österreich ausgestiegen und Deutschland folgt dem Beispiel. Weltweit hat die friedliche Nutzung der Kerntechnik laut UNSCEAR von Beginn in 1945 bis 2007 insgesamt 147 Todesopfer bei Strahlenunfällen gefordert, da sind Tschernobyl und Unfälle in der Medizin mit eingeschlossen, ebenso auch Kritikalitätsunfälle in der Anfangszeit. Die IAEA gibt eine um etwa 20 höhere Zahl an. Durch Stürze von Treppen und Leitern sterben allein in Deutschland jedes Jahr etwa 5000 Menschen.
    Warum wird die Kerntechnik eine HOCH-Risiko-Technik genannt und verboten, Treppen und Leitern jedoch nicht???
  6. Im Jahre 2006 hat man sich auf einer Tagung der IAEA geeinigt, daß der Tschernobyl-Unfall insgesamt 4000 zusätzliche Krebstodesfälle zur Folge haben wird. Das sind virtuelle Todesopfer, die unter allen zukünftigen Krebsopfern nicht nachweisbar sind. Wenn man die hierbei benutzte Rechnung auf die Zusatzbestrahlung bei Flugreisen anwendet, kommt man auf jährlich 5000 virtuelle Krebsopfer weltweit durch das Fliegen, die ebenfalls nicht nachweisbar sind.
    Warum werden aus den einmaligen 4000 virtuellen Krebstodesfällen des Tschernobyl-Unfalls schwerwiegende Schlußfolgerungen gezogen, die sich jährlich wiederholenden ähnlich hohen virtuellen Opferzahlen des Flugverkehrs jedoch ignoriert???
  7. Fall A)Meine Frau ist mit ihren 52kg eine Strahlenquelle von 6000 Becquerel, mit diesen 6000 Bq bestrahlt sie sich selber und ihre Umgebung.
    Fall B)Wladimir Klitschko ist mit 110kg eine Strahlenquelle von 12 000 Bq, er bestrahlt sich selber und seine Umgebung mit doppelt so viel Radioaktivität wie Fall A.
    Fall C)Herr Minister Peter Altmaier ist mit seinen 140kg (?) eine Strahlenquelle von 15 000 Bq, er bestrahlt sich selber und seine Umgebung mit der 2 ½ – fachen Menge im Vergleich mit Fall A.
    Nun wäre es für Herrn Minister Altmaier durchaus nützlich, sich mit einigen 1000 Bq weniger zu bestrahlen, zu Erreichen durch kleineren Body-Maß-Index. Dann könnte er seine Dosis durch Eigenbestrahlung um 30 bis 50 Mikro-Sievert im Jahr verringern und würde nicht mehr den Grenzwert von 10 Mikro-Sievert im Jahr verletzten, wie er bei Freimessungen im Rückbau von Kernkraftwerken gilt.
    Warum gilt beim Strahlenschutz oft eine Grenze von 10 Mikro-Sievert im Jahr, nicht jedoch für die Eigenbestrahlung durch erhöhten Body-Maß-Index???
  8. Nach Fukushima wurden in Deutschland die erlaubten Grenzen für Kontamination mit Cäsium-137 in Nahrungsmitteln herab gesetzt, von 1000 Bq/kg auf 600 Bq/kg. Fleisch von Wildschweinen kann heute noch über der Grenze liegen. Wenn meine Frau nun einen Wildschweinbraten essen wollte mit >600 Bq/kg, dann wäre sie für einige Tage eine Strahlenquelle von etwa 6100 Bq, sie würde sich selber und alles in ihrer Umgebung mit zusätzlichen 100 Bq bestrahlen.
    Warum wird das nun als gefährlich hingestellt und verboten, wenn doch Peter Altmaier sich selber das ganze Jahr über mit 15 000 Bq bestrahlen darf???
  9. Zur ASSE:Der Bundestag hat ein Gesetz gemacht, das die Rückholung der Abfälle aus der Tiefe verlangt. Dort lagern schwach radioaktive Abfälle, so wie alles auf der Erde schwach aktiv ist. In der ASSE sind verteilt über 125 000 Fässer 250 Gramm Plutonium-241, was den Löwenanteil der Aktivität in der Tiefe ausmacht. Allerdings wird diese Aktivität wegen kurzer Halbwertszeit verschwunden sein, wenn die Abfälle eines Tages tatsächlich wieder an der Oberfläche sein werden. Dann werden die Abfälle nur noch eine Aktivität von ca. 2 mal 10 hoch 13 Bq haben. In dem Deckgebirge über der ASSE von rund einem halben Kubikkilometer Volumen befinden sich etwa 2 mal 10 hoch 15 Bq, also die 100-fache Menge an Radioaktivität.
    Warum wird die Radioaktivität in der Tiefe als Gefahr gesehen, die 100-fache Menge darüber im Deckgebirge jedoch nicht???
  10. Zur ASSE:Die Radioaktivität von ca. 2 mal 10 hoch 13 Bq ist die ganz normale Radioaktivität der Erdkruste von einem Volumen von einem Quadratkilometer Fläche und 10 Meter Tiefe. In diesem Volumen der Erdkruste wachsen unsere Lebensmittel und wird unser Trinkwasser gewonnen. Deutschland hat eine Fläche von 356 000km², also das besagte Volumen an der Oberfläche 356 000-fach.
    Wie kann es sein, daß die Radioaktivität in der Tiefe der ASSE eine Gefahr darstellt, die 356 000-fach vorhandene gleiche Menge an der Oberfläche jedoch nicht???
  11. Zur ASSE:In der Landwirtschaft in Deutschland werden durch Düngung mit Kali in 2 bis 3 Jahren eine Menge Radioaktivität von etwa 2 mal 10 hoch 13 Bq durch K-40 auf die Felder verteilt.
    Warum ist die Radioaktivität in der Tiefe der ASSE gefährlich, die auf den Äckern verteilte gleiche Menge jedoch nicht???
  12. Zur ASSE:In 2 bis 3 Jahren werden von den Menschen in Deutschland mit der Nahrung etwa 2 mal 10 hoch 13 Bq durch Kalium-40 und Kohlenstoff-14 verspeist ohne negative Folgen für deren Wohlergehen. Die eingeatmete Radioaktivität durch Radon und seine Zerfallsprodukte liegt um den Faktor 10 höher.
    Warum ist die Radioaktivität in 500 Meter Tiefe der ASSE gefährlich, die viel höhere von den Menschen verspeiste und eingeatmete Menge jedoch nicht???
  13. Bei Radioaktivität und vielen anderen umweltpolitischen Diskussionen wird mit nicht nachweisbaren virtuellen Todesopfern argumentiert, aktuell bei Feinstaub und Stickoxiden. Das Rechenverfahren wurde im Umgang mit Radioaktivität erfunden und führte zur Verdammung der Kerntechnik und oft auch zur Verweigerung nützlicher medizinischer Strahlenanwendungen. Würde man das Rechenverfahren auch in der Medizin bei Bestrahlung nach Krebs-OP anwenden, dann käme man auf viel mehr Todesfälle als es überhaupt gibt. Würde man dieses Rechenverfahren auch bei dem allseits beliebten „Gift“ und Kanzerogen Ethanol anwenden, so käme man allein in Deutschland auf eine Todesrate, die 3-fach über der tatsächlichen liegt. Warum ist die Politik als oberste Autorität der Demokratie nicht bereit, diese Unstimmigkeiten zu beseitigen???
  14. Die weltweit geltenden Strahlenschutzgesetze erlauben dem Bürger eine maximale zusätzliche Dosis von
    1 Milli-Sievert im Jahr. Diese Dosis ist gleichbedeutend mit einer Temperaturerhöhung des menschlichen Körpers von 0, 000 000 2°C. Zur Erhaltung des Lebens brauchen wir eine Temperatur von 36°C, also rund 20°C mehr als die Umgebung.
    Die Lebensvorgänge in unseren Zellen sorgen für 100-millionenfach höheren Energieumsatz als die erlaubte Strahlung von 1 Milli-Sievert im Jahr, daher ist diese neben den Lebensvorgängen bedeutungslos – wann wird das erkannt und in den Massenmedien gesagt???
  15. Strahlung von Radioaktivität ist nicht grundsätzlich schädlich, wie es der Menschheit seit 80 Jahren suggeriert wird. Zusätzliche Strahlung führt zu zusätzlichem Training des Abwehrsystems im Organismus von Lebewesen und zusätzlichen Fähigkeiten des Immunsystems zur Abwehr und Korrektur von Fehlern. Dieser Zusammenhang ist seit langen als Hormesis bekannt und verspricht gigantische gesundheitliche Vorteile. Daher wird das Minimierungsgebot im Strahlenschutz auch „der größte wissenschaftliche Irrtum“ der Menschheit genannt.
    Wann werden die Menschen bereit sein, diesen fatalen Irrtum zu korrigieren???

Die 15 Beispiele zeigen Fehler/Irrtümer in der Strahlenschutzgesetzgebung. Die Ursache dazu ist die falsche Lehrmeinung, nämlich die Annahme, daß jede noch so kleine Strahlendosis schädlich sei. Die Strahlengefahr ist keine reale Gefahr, sie ist eine virtuelle Gefahr. Und die damit berechneten Todesopfer sind nicht real, sondern virtuell, d.h. es gibt sie nicht. Einige Mitglieder der Internationalen Strahlenschutzkommission sprachen von einem Geisterbild, das sagt viel. Die Strahlenschutzgesetzgebung sollte auf den Stand der Wissenschaft gebracht werden, dazu sind die internationalen und nationalen Gremien gefordert: ICRP, UNSCEAR, IAEA, BfS, SSK;  mit Unterstützung der Massenmedien.  
 

 
 

 




Ein Leserbrief: NO2-Grenzwerte – ein Tollhaus

Jedermann kann sich bei Wikipedia über die Gesundheitsgefährdung durch Stickstoffdioxid (NO2) informieren. Gesichert sind Gesundheitsschädigungen ab einer Konzentration von 20.000 µg/m³ Luft. Höhere Werte können zu Lungenschädigungen mit Todesfolgen führen. Schädigungen durch geringere Konzentrationen werden  dagegen nur vermutet. Es ist offensichtlich nicht möglich, in diesem Bereich den Einfluss des NO2von überlagernden anderen Luftanteilen, wie Feinstaub und Spurengasen, die gleichfalls zu Schädigungen führen können, herauszufiltern.
Nach diesen Kenntnissen wurde für Stickstoffdioxid ein Arbeitsplatzgrenzwert von 950 µg/m3 in Deutschland festgelegt. Dieser Wert ist der sogenannte Schichtmittelwert und über einen Zeitraum von 8 Stunden einzuhalten. Er darf kurzzeitig und bis zu 4-mal pro Schicht um das Zweifache überschritten werden. Damit wird maximal ein Zehntel der Schädigungsgrenze erlaubt. Gesundheitliche Beeinträchtigungen von Gießern und Schweißern, die oft im Bereich der Grenzwerte arbeiten, sind nicht bekannt.
Eine Arbeitsgruppe des Bundesumweltamtes hat dagegen für Innenräume ohne industrielle Tätigkeiten einen Richtwert von 60 µg/m³ festgelegt. Für Außenluft wurde von der EU zunächst ein Grenzwert von 200 µg/m³ eingeführt, der später auf 40 µg/m³ (1 NO2–Molekül auf 50 Millionen Luftmoleküle) reduziert wurde, also auf 4 Prozent des Arbeitsplatzgrenzwertes. Die Werte liegen im Bereich der natürlichen NO2-Anteile in der Luft und nahe der Nachweisgrenze. Schon einige brennende Kerzen lassen die NO2–Konzentration im Raum auf mehrere 100 µg/m³ ansteigen. Gasherde, offene Kamine, Tabakrauch sind andere NO2-Quellen, durch die der EU-Grenzwert um ein Vielfaches ohne gesundheitliche Probleme überschritten wird.
Die Festsetzung der unsinnig niedrigen Grenzwerte für NO2durch übereifrige Umweltschützer führt nun zur Verteufelung des Dieselmotors und sogar zu Fahrverboten. Wir leben in einem Tollhaus. Kein Akteur hinterfragt, ob die von der EU Administration festgelegten Grenzwerte sinnvoll sind. Die Führungen der Automobilkonzerne haben sich nicht dagegen gewehrt, obwohl geringere Leistungen und höherer Treibstoffverbrauch die Folge sind. Politiker lassen den höheren Kraftstoffverbrauch und damit mehr CO2-Emissionen zu, die sie eigentlich reduzieren wollen. Selbst Bundesrichter und der Europäische Gerichtshof kritisieren die unsinnigen Grenzwerte nicht.
Statt dessen hat die Automobilindustrie die Motorensteuerung so gestaltet, dass bei Testläufen die Grenzwerte unterschritten werden, während im allgemeinen Fahrbetrieb zu höheren Leistungen und damit auch zu einem höheren NO2–Ausstoß geschaltet wird. Politiker haben die niedrigen Grenzwerte beschlossen. Anschließend beklagen sie, dass CO2-Reduktionen nicht erreicht werden. Richter plädieren für unsinnige Fahrverbote, die viele Millionen Dieselfahrzeuge unwirtschaftlich machen. Man folgt Argumenten des dubiosen Abmahnvereins Umwelthilfe, statt sich auf die realen physikalischen Grundlagen zu beziehen.
Wir leben in einem Tollhaus. Werden wir noch einmal zu den Realitäten zurückfinden?
Hans-Günter Appel
 
Prof. Dr.-Ing. Hans-Günter Appel
Auenweg 2
26419 Schortens
Tel.: 04423 7557
Pressesprecher
Stromverbraucherschutz NAEB e.V.
www.naeb.de
 
 




Wissenschaftler: 30 Jahre später, wie gut stehen Prognosen zur globalen Erwärmung?

von Dr. Pat Michaels und Dr. Ryan Maue
James E. Hansen wischte sich den Schweiß von der Stirn. Draußen gab es am 23. Juni 1988 eine Rekordtemperatur von 36,7 °C, als der NASA-Wissenschaftler vor dem Senatsausschuss für Energie und natürliche Ressourcen während einer längeren Hitzewelle aussagte, die er zu einem Klimaereignis von kosmischer Bedeutung erklärte. Er drückte gegenüber den Senatoren sein „hohes Maß an Vertrauen“ in eine „Ursache-Wirkungs-Beziehung zwischen dem Treibhauseffekt und der beobachteten Erwärmung“ aus.

Video von Tony Heller über die Prophezeiungen von James Hansen, während und vor und nach der Anhörung vor dem US-Senat am 23.6.1988, die samt und sonders nicht nur nicht eintrafen, sondern oft stattdessen das ganze Gegenteil.
Mit diesem Zeugnis und einer begleitenden Arbeit im Journal of Geophysical Research entzündete Mr. Hansen das Feuer der Gewächshäuser im Gewächshaus und entzündete damit eine weltweite Debatte über die Energiestruktur des gesamten Planeten. Präsident Obamas Umweltpolitik beruhte auf ähnlichen Modellen schneller, kostenintensiver Erwärmung. Aber der 30. Jahrestag der Vorhersagen von Herrn Hansen bietet die Gelegenheit, zu sehen, wie gut seine Prognosen waren – und die Umweltpolitik entsprechend zu überdenken.
In der Zeugenaussage von Herrn Hansen wurden drei mögliche Szenarien für die Zukunft der Kohlendioxidemissionen beschrieben. Er nannte Szenario A „business as usual“, da das für die 1970er und 80er Jahre typische beschleunigte Emissionsanstieg beibehalten wurde. Dieses Szenario prognostizierte, dass sich die Erde bis 2018 um 1 Grad Celsius erwärmen würde. Szenario B setzte die Emissionen niedriger ein und stieg heute mit der gleichen Rate wie 1988. Herr Hansen nannte dieses Ergebnis das „plausibelste“ und prognostizierte, dass es etwa 0,7 Grad betragen würde Erwärmung dieses Jahr. Er fügte eine finale Prognose, Szenario C, hinzu, die er als sehr unwahrscheinlich ansah: konstante Emissionen beginnend im Jahr 2000. In dieser Prognose würden die Temperaturen einige Zehntel Grad steigen, bevor sie nach 2000 flach werden würden.
Dreißig Jahre Daten wurden gesammelt, seit Herr Hansen seine Szenarien skizziert hat – genug, um zu bestimmen, welches der Realität am nächsten kam. Und der Gewinner ist das Szenario C. Die globale Oberflächentemperatur ist seit 2000 nicht signifikant angestiegen und hat den El Niño, der größer als üblich ist, von 2015-16 abgezinst. Nach dem Modell von Herrn Hansen verhalten sich die Oberflächentemperaturen so, als hätten wir vor 18 Jahren die Kohlendioxidemissionen begrenzt, die für den verstärkten Treibhauseffekt verantwortlich sind. Aber wir haben es nicht getan. Und es ist nicht nur Mr. Hansen, der es falsch verstanden hat. Die vom Zwischenstaatlichen Ausschuss der Vereinten Nationen für Klimaänderungen (IPCC) entwickelten Modelle haben im Durchschnitt etwa doppelt so viel Erwärmung vorhergesagt wie seit Beginn der weltweiten Überwachung der Satellitentemperatur vor 40 Jahren.
Hanses total falsche Vorhersage für den künftigen Temperaturverlauf. Rot aktueller Verlauf
Was ist mit Herrn Hansens anderen Behauptungen? Außerhalb der Erwärmungsmodelle war sein einziger ausdrücklicher Anspruch in der Aussage, dass die späten 80er und 90er Jahre eine „überdurchschnittliche Erwärmung im Südosten der USA und im Mittleren Westen“ erleben würden. In diesen Regionen wurde kein solcher Anstieg gemessen.
Als die beobachteten Temperaturen im Laufe der Jahre von seinen Vorhersagen abwichen, verdoppelte sich Herr Hansen. In einem Fall von 2007 über Autoemissionen erklärte er in seiner Ablagerung, dass das meiste von Grönlands Eis bald schmelzen würde und den Meeresspiegel im Laufe von 100 Jahren auf 23 Fuß anheben würde. Nachfolgende Forschungen, die in der Zeitschrift Nature über die Geschichte der grönländischen Eiskappe veröffentlicht wurden, haben gezeigt, dass dies unmöglich ist. Ein Großteil der Oberfläche Grönlands schmilzt jeden Sommer, was bedeutet, dass in einer sich dramatisch aufheizenden Welt mit einem raschen Schmelzen zu rechnen ist. Aber nicht in dem, in dem wir leben. Die Nature-Studie fand nur einen bescheidenen Eisverlust nach 6.000 Jahren viel wärmerer Temperaturen, als die menschliche Aktivität jemals ertragen konnte.
Einige weitere Vorhersagen von Herrn Hansen können nun anhand der Geschichte beurteilt werden. Sind Hurrikane stärker geworden, wie Mr. Hansen in einer Studie von 2016 vorhergesagt hat? Nein. Satellitendaten ab 1970 zeigen keine Hinweise auf die globale Oberflächentemperatur. Haben Stürme in den USA immer mehr Schaden angerichtet? Daten aus der National Oceanic and Atmospheric Administration zeigen keinen solchen Anstieg der Schäden, gemessen am Bruttoinlandsprodukt. Wie wäre es mit stärkeren Tornados? Das Gegenteil mag zutreffen, da NOAA-Daten Hinweise auf einen Rückgang liefern. Die Liste dessen, was nicht passiert ist, ist lang und langwierig.
Das Problem mit den Modellen von Herrn Hansen – und den U.N.’s – ist, dass sie keine präziseren Messungen darüber in Betracht ziehen, wie die Aerosolemissionen der Erwärmung von Treibhausgasen entgegenwirken. Mehrere neuere Klimamodelle tragen diesem Trend Rechnung und projizieren routinemäßig ungefähr die Hälfte der von den U.N.-Modellen vorhergesagten Erwärmung, wodurch ihre Zahlen den beobachteten Temperaturen viel näher kommen. Das jüngste von ihnen wurde im April von Nic Lewis und Judith Curry im Journal of Climate veröffentlicht, einer zuverlässig etablierten Zeitschrift.
Diese korrigierten Klimaprognosen werfen eine entscheidende Frage auf: Warum sollten Menschen weltweit drastische Kosten für die Reduzierung von Emissionen bezahlen, wenn die globale Temperatur so wirkt, als ob diese Kürzungen bereits vorgenommen worden wären?
Am 30. Jahrestag der Zeugenaussage von Herrn Hansen ist es an der Zeit anzuerkennen, dass die von ihm vorhergesagte schnelle Erwärmung nicht stattfindet. Klimaforscher und politische Entscheidungsträger sollten die bescheideneren Prognosen übernehmen, die mit den beobachteten Temperaturen übereinstimmen.
Das wäre eine lauwarme Politik, im Einklang mit einem lauwarmen Planeten.
Weiterführende links: