Schweiz, quo vadis?

Das Alpenland war einst stolz auf seine sichere Stromversorgung. Doch das ist Vergangenheit: Weil die Schweiz jahrzehntelang kaum mehr Kraftwerke baute, muss sie heute im Ausland um Strom betteln. Ob sie ihn bekommt, wird immer fraglicher.

Von Peter Panther

Vor einigen Tagen in Bern: Der Bundesrat, also die Schweizer Regierung, informierte die Bevölkerung über mögliche Versorgungsprobleme mit Gas und Strom schon im nächsten Winter. Manch einer rieb sich die Augen: Die reiche Schweiz war seit Menschengedenken ein Land, in dem das Gas zuverlässig floss und Stromunterbrüche so gut wie nie vorkamen. Wie konnte es so weit kommen, dass nun vor Engpässen gewarnt werden muss – wie in einer Bananenrepublik?

Natürlich spielt Russland in der gegenwärtigen Lage eine Rolle. Wenn Putin Europa den Gashahn endgültig zudreht, werden auch in der Schweiz viele Stuben kalt. Das Gasproblem konnte die Politik kaum vorhersehen. Anders ist es beim Strom: Der Ukraine-Konflikt mag zwar der unmittelbare Anlass für mögliche Blackouts sein. Doch die wahren Ursachen liegen tiefer.

Lange Zeit war die Schweiz ein Land, das stolz war auf seine sichere und unabhängige Stromversorgung. In der ersten Hälfte des 20. Jahrhunderts hatten kühne Konstrukteure in den Alpen eine Vielzahl von imposanten Staumauern errichtet. So versorgte man nicht nur die eigene Bevölkerung mit ausreichend Wasserstrom, sondern belieferte auch das Ausland und verdiente sich eine goldene Nase.

Militante Atomgegner gaben den Ton an

Als sich in den 1960er-Jahren abzeichnete, dass die Schweiz kaum noch weitere Täler fluten kann, setzte das Land auf die neu aufkommende Kernenergie: In rascher Folge stellte die Schweiz fünf Reaktoren auf, die mit ihrer Bandenergie die perfekte Ergänzung zu den flexibel einsetzbaren Wasserkraftwerken waren.

Das letzte Kernkraftwerk, das an Netz ging, war 1984 dasjenige in Leibstadt. Eigentlich war geplant gewesen, weitere Reaktoren zu bauen. Doch dazu kam es nicht mehr: Schon 1975 hatten militante Atomgegner das Gelände des vorgesehenen Kernkraftwerks Kaiseraugst bei Basel besetzt. Obwohl die Kernenergie in zahlreichen Volksabstimmungen immer wieder Zuspruch fand, sah sich die Politik wegen des Widerstands bald ausser Stande, weitere Kernanlagen zu errichten.

Doch der Stromverbrauch stieg weiter. Allerdings bekam das in der Schweiz kaum jemand mit. Denn die Stromwirtschaft hatte fixe Abnahmeverträge mit den französischen Kernkraftwerken Fessenheim, Bugey und Cattenom ausgehandelt. Ab den 1990er-Jahren floss darum während Jahrzehnten reichlich Atomstrom in die Schweiz. «Kaiseraugst» war quasi im Ausland gebaut worden.

Warnungen vor der Stromlücke

Immer stärker machte sich die Schweiz in der Folge abhängig von Stromimporten. Insbesondere im Winter floss auch viel Elektrizität aus deutschen Kohlekraftwerken. Es gab zwar immer wieder Warnungen vor einer baldigen Stromlücke. Doch diese wurden als Angstmacherei einer angeblich mächtigen «Atomlobby» abgetan.

Die Stromwirtschaft hatte immerhin noch das Ziel, die bestehenden Kernanlagen nach dem Ende der Lebenszeit zu ersetzen. Noch 2011 gab es konkrete Pläne für drei Neubauten. Doch dann kam das Kernkraft-Unglück von Fukushima. Der Bundesrat unter Führung der damaligen Energieministerin Doris Leuthard stoppte sofort die Gesuche für den Bau nuklearer Ersatzanlagen. Die alten Kernkraftwerke sollten zwar noch solange als möglich weiterlaufen. Doch neue Reaktoren wollte die Regierung nicht mehr.

2017 gab das Schweizer Volk in einer Abstimmung seinen Segen zum Neubauverbot. Ihm war versprochen worden, dass die Stromversorgung durch erneuerbare Energie gesichert werden könne – und notfalls mit Importen.

Warnung der Behörden an 30’000 Unternehmen

Der Schock kam dann letzten Herbst: Die Behörden verschickten an 30’000 Unternehmen eine Warnung, dass der Strom schon in wenigen Jahren ausgehen könnte, und mahnten die Firmenchefs an, Vorkehrungen für Ausfälle zu treffen. Denn es war klar geworden, dass die Schweiz ab 2025, wenn die EU-Staaten 70 Prozent ihrer grenzüberschreitenden Stromleitungen für den EU-internen Austausch reservieren müssen, punkto Stromlieferungen leer ausgehen könnte. Denn die Schweiz ist nicht Mitglied der Europäischen Union.

Seither herrscht Aufruhr im Land. Die meisten Politiker mahnen einen raschen Ausbau von Sonnen- und Windkraftwerken an. Die Kritiker der sogenannten «Energiestrategie 2050», namentlich die rechtsbürgerliche SVP, monieren dagegen, man müsse auf das Kernenergieverbot zurückkommen. Nur so lasse sich die endgültige Strommisere verhindern, wenn die bestehenden Anlagen dereinst stillgelegt werden. Derweil fürchtet die Industrie, bald im Dunkeln zu stehen.

Gaskraftwerke für den Notfall

Der Bundesrat ist nun hektisch daran, den Stromblackout abzuwenden. Dank vereinfachter Verfahren will er den Bau von Windrädern und neuen Wasserkraftwerken beschleunigen. Die Betreiber bestehender Speicherseen sollen verpflichtet werden, einen Teil des Wassers für Notsituationen zurückzuhalten. Zudem sollen in aller Eile zwei bis drei Gaskraftwerke aufgestellt werden, die dann einspringen, wenn im Winter weder Deutschland noch Frankreich aushelfen können.

Das waren zumindest die Pläne im letzten Februar. Doch einige Tage nach der Ankündigung von Gaskraftwerken ging der Krieg in der Ukraine los. Wegen Putins Boykottdrohungen erscheint es nun als schlechte Option, auf die Stromerzeugung mittels Gas zu setzen. Also braucht man Notfallanlagen, die man auch mit Heizöl betreiben kann. Dass damit die Klimaziele der Schweiz definitiv zu Makulatur werden, nimmt man mit einem Achselzucken hin.

Jahrzehntelange Versäumnisse

Für die drohende Stromknappheit im nächsten Winter kommen solche Notfallkraftwerke aber zu spät. Es kursieren darum bereits Pläne, nach welchen Grundsätzen die Elektrizität rationiert werden soll. Die Politik und die Behörden geben dabei ein hilfloses Bild ab. Aber die jahrzehntelangen Versäumnisse in der Stromwirtschaft lassen sich nicht so schnell ungeschehen machen.

So ist die Schweiz heute am Gängelband des Auslands und muss hoffen, dass Deutschland, Frankreich oder andere Länder selbst dann noch Strom liefern, wenn Putin die Gaslieferungen eingestellt hat. Die Versorgung mit Elektrizität ist unsicher und unschweizerisch geworden. Die Schuld dafür trägt das Land ganz allein.

 




Sicherheitszonen um Kernkraftwerke – Was soll das?

von Dr. Lutz Niemann

Die Kernenergie wird als sehr gefährliche Technik dargestellt, daher steigt Deutschland jetzt aus dieser Technik aus. Und Deutschland will die Kernenergie durch Stromversorgung durch Sonne und Wind ersetzen. Niemand scheint in den letzten über 20 Jahren bemerkt zu haben, daß dieses Unterfangen wegen der Dunkelflaute nicht geht. Aber was wiegt so schwer, daß Deutschland dennoch aus der KE aussteigt?

Das hat andere Gründe, das ist Folge der seit etwa 80 Jahren weltweit geschürten Angst vor der Strahlengefahr.

Es hieß in der Anfangszeit

Bei einem Unfall eines Kernkraftwerkes entweichen die enthaltenen radioaktiven Stoffe und machen die Umgebung für sehr lange Zeiten unbewohnbar.

Diese Warnung wurde insbesondere auch von Edward Teller verbreitet. Ed Teller war damals als einer der führenden Physiker bekannt und genoß Vertrauen, daher wurde ihm geglaubt. Über die Gefahren, die entweichende Radioaktivität beinhaltet, war zu jener Zeit kaum etwas bekannt. In der Anfangszeit wurde daher darauf geachtet, Kernkraftwerke in möglichst dünner besiedelten Gegenden zu bauen. So wurde die Angst vor Strahlung und Kernkraft gezüchtet.

Dazu ein Beispiel aus dem Jahre 1955

Es wurde gesagt: Bei einer radioaktiven Bodenkontamination von „2 mc/ft² – Land unusable for 2 years“ und „Dose rate falls to 300 mr/week in 2 years“ [1].

Was bedeutet das?

Nehmen wir an, daß die gesamte Aktivität aus gamma-Aktivität von Cs-137 besteht, dann errechnet sich daraus eine Ortsdosisleistung von 1 bis 2mSv/h, die in 2 Jahren auf 20µSv/h abfällt.

Welche Gefahr kann aus diesen Ortsdosisleistungen erwachsen?

Wenn sich eine Person die gesamten 8760 Stunden des Jahres an derartiger Stelle aufhält, dann ergibt sich eine kumulierte Ganzkörperdosis von 10 bis 20Sv, die in 2 Jahren auf 150mSv abfällt.

Was bedeuten 20Sv bei Gleichverteilung über ein Jahr?

20Sv sind weit mehr als der Grenzwert von damals und weit mehr als die letale Dosis von ca. 5Sv. Weil sich eine Person nicht 8760 Stunden auf gleicher Stelle einer kontaminierten Stelle im Freien aufhält, kann die kumulierte Dosis von 20Sv nie auftreten. — Dazu bietet sich der gern gebrauchte Vergleich mit dem Gift und Kanzerogen Ethanol an: Es werden in Deutschland im Mittel 10 Liter pro Person reinen Ethanols im Jahr konsumiert, das sind 20 bis 40 letale Dosen. Bei Gleichverteilung über das Jahr bringen die letalen Dosen eher Lebensfreude als Schaden.

Die Aussage „2 mc/ft² – Land unusable for 2 Years“ ist unhaltbar, denn es gibt keinen gesundheitlichen Schaden bei dieser Bodenkontamination. Folglich sind auch die darauf beruhenden gesetzlichen Bestimmungen zu Sicherheitszonen um Kernkraftwerke unhaltbar.

Nach der im Strahlenschutz weltweit etablierten Lehrmeinung aufgrund der LNT-Hypothese ist jede zusätzliche Strahlendosis verboten. Nach etablierter Rechenvorschrift wird aus einer Zusatzdosis ein zusätzliches tödliches Krebsrisiko berechnet, daß aber weder verifizierbar noch falsifizierbar ist. Ein nicht meßbares Risiko ist jedoch KEIN Risiko, daher wird in der Fachwelt seit langen gegen die LNT-Hypothese vorgegangen. Z. B. die Petition der Professoren Carol S. Marcus, Mark L. Miller und Mohan Doss an die Genehmigungsbehörde NRC der USA zur Korrektur der geltenden Gesetze aufgrund der LNT-Hypothese und deren Ersatz unter Beachtung der Strahlen-Hormesis [2].

Die nicht haltbare Lehrmeinung von der Unbewohnbarkeit weiter Landstriche im Falle des Entweichens von radioaktiven Nukliden bei Unfällen hatte fatale Folgen.

Was hat man 2011 beim Fukushima-Unfall falsch gemacht?

Es gab in drei Reaktoren eine Kernschmelze, und man musste Druck ablassen, um eine Zerstörung der Reaktordruckbehälter zu vermeiden. Es wurden radioaktive Spaltprodukte und Wasserstoff frei gesetzt. Der Wasserstoff kam zur Explosion und zerlegte Teile der Gebäude. Die in automatischen Meßstellen auf dem Kraftwerksgelände gemessenen Ortsdosisleistungen waren weltweit abrufbar. In Deutschland wurden diese von den Fachleuten der GRS aufbereitet und beschriftet, hier ein Beispiel:

Ortsdosisleistung von Meßstellen auf dem Kraftwerksgelände von Fukushima

Bei den Druckentlastungen ist Radioaktivität entwichen, das ist verboten. Die Dosisleistung erreichte mit 12 Sievert pro Stunde kurzzeitig extrem hohe Werte, jedoch wurde die Aktivität mit dem Wind verteilt, so daß keine gefährliche Dosis erreicht werden konnte. Die eingezeichnete Fläche bedeutet eine Dosis von 48 mSv, das ist ein 100-stel der letalen Dosis, bei der eine reale Gefährdung beginnt.

Es wurden über 100 000 Menschen aus der Umgebung evakuiert, weil es das Gesetz befahl. Die in der Umgebung gemessenen Ortsdosisleistungen erreichten maximal 150µSv/h [3]. Das erscheint dem fachkundigen Mitarbeiter in einem KKW hoch, ist jedoch harmlos für die Gesundheit der Menschen.

Durch die Evakuierungen kam es zu Todesfällen, es ist von über 1000 Opfern die Rede [4].

In Fukushima ist durch Negierung der Tsunamigefahr direkt an der Küste ein technisches Großgerät zerstört worden. Die frei gesetzte Radioaktivität hatte weder für die Kraftwerker noch für die Bewohner in der Umgebung gesundheitlichen Folgen. Durch gesetzlich vorgeschriebene, jedoch ansonsten nicht begründbare Evakuierungen der Menschen in der Umgebung kamen über 1000 Menschen zu Tode. Es wäre an der Zeit, unsinnige gesetzliche Bestimmungen zu überdenken, was weltweit von führenden Strahlenfachleuten seit langer Zeit vergeblich gefordert wurde – auch von deutschen Professoren.

Was ist zum Tschernobyl-Unfall von 1986 zu sagen?

Beim Tschernobyl-Unfall ist im Vergleich zu Fukushima etwa die 10-fache Menge an Radioaktivität ausgetreten, das war I-131 und Cs-137 und -134. Diese Freisetzung von Radioaktivität ist verboten. Infolge dieser Radioaktivität konnte maximal ein 10-tel der letalen Dosis erreicht werden, also wurden Menschen nicht wirklich gefährdet. In der 3km entfernten Ortschaft Pripyat gab es am 27.4.1986 Meßwerte der Ortsdosisleistung 1m über Grund bis zu 10mSv/h, die bis zum 6.5. 1986 auf 1 bis 3mSv/h sank [5]. Diese Messungen und der Vergleich mit den Daten von Fukushima zeigen, daß auch in Tschernobyl die letale Dosis nicht erreicht wurde.

Bei der Expertenkonferenz der IAEA in Wien im August 1986 [5] haben die russischen Experten berichtet, daß die Strahlenkrankheit unter den Helfern der ersten Stunde auftrat (geschätzte Dosis 2Sv bis 16Sv, erreicht durch Spaltprodukte und durch hoch aktivierte Trümmer von Strukturelementen). Es wurde offenbar nicht auf die Strahlengfährdung geachtet.

Es sind in Tschernobyl etwa doppelt so viele Menschen wie in Fukushima aus der Umgebung evakuiert worden. Es ist zu schließen, daß dadurch auch etwa doppelt so viele Evakuierte zu Tode kamen (Entwurzelung, soziale Isolation, Flucht in Alkohol). Darüber berichten Medien nicht.

Bei dem Versuch, der zum Tschernobyl-Unfall führte, wurde massiv gegen die Betriebsvorschriften verstoßen, in [5] heiß es 8 x „Verstoß gegen die Betriebsvorschriften“. Es schien dem Personal die beim Abfahren des Reaktors unterhalb von 50% Leistung auftretende Xenon-Vergiftung nicht bekannt zu sein. Das stützt die von Karl-Rudolf Schmidt berichtete Aussage, daß das Experiment damals von unwissenden Soldaten gefahren worden ist, weil sich das Betriebspersonal geweigert hatte [6].

Auch der Tschernobyl-Unfall war ein Beweis für die falsche Aussage „Land unusable for 2 Years“ aus der Frühzeit der 1950-er Jahre und den daraus abgeleiteten falschen Vorschriften zur Bevölkerungsevakuierung bei Freisetzung radioaktiver Stoffe. Die Einrichtung von Sicherheitszonen um Kernkraftwerke durch den Gesetzgeber schafft Verunsicherung und Angst in der unwissenden Bevölkerung, der Gesetzgeber sollte korrigieren.

Auch in Tschernobyl sind 1000 und mehr Menschen infolge der Evakuierungen ums Leben gekommen. Die Strahlenkrankheit an 134 Helfern der ersten Stunde und die 28 tödlich verlaufenden Fälle hätte man vermeiden können, wenn man diese Leute nicht in die stark strahlenden Bereiche geschickt hätte.

Es ist durchaus gerechtfertigt, die Worte von Herrn Karl-Rudolf Schmidt zu wiederholen, und beim Tschernobyl-Unfall von einem begangenen Verbrechen zu sprechen, da die Gefährlichkeit der RMBK-Reaktoren den Sowjets seit der Genfer Atomkonferenz in 1955 bekannt war [6]. Aus dem Tschernobyl-Unfall irgendwelche Schlußfolgerungen für unsere Druck- und Siedewasserreaktoren zu ziehen ist falsch und beweist Unkenntnis in der Materie.

Bemerkungen aus der Fachwelt

  • Die erwähnte LNT-Hypothese und in der Folge die ALARA-Bestimmungen sind ganz sicher der folgenreichste wissenschaftliche Irrtum der Menschheit (Prof. Walinder).
  • Die LNT-Hypothese und das ALARA-Prinzip sind kriminell (Prof. Jaworowski, man nannte ihn den Strahlen-Papst von Polen).
  • Die friedliche Nutzung der Kernenergie hat von den Anfangsjahren bis heute weltweit etwa 162 Todesopfer gefordert (UNSCEAR, IAEA). Da ist alles enthalten wie Tschernobyl, die Kritikalitätsunfälle in der Anfangszeit (in westlicher Welt 34 Unfälle mit 8 Todesopfern, in der östlichen Welt etwa doppelt so viele), Bestrahlungen in der Medizin mit fehlerhafter zu hoher Dosis, sonstige Schlampereien. Damit ist die Kerntechnik die sicherste Technik, die je von Menschen erfunden wurde. Es ist ein Beweis für den seit Anbeginn gepflegten verantwortungsvollen Umgang mit dieser Technik.
  • Die Strahlenschutzgrundsätze werden als „speculative, unproven, undetectable and ‚phantom‘“ beschrieben (ICRP). Ein Phantom ist ein Geisterbild oder Gespenst. ⇒ Aus Angst vor Gespenstern steigt Deutschland aus der Kernenergie aus.
  • Es gibt inzwischen mit KKW’s westlicher Bauart etwa 18 000 Reaktorbetriebsjahre – das ist 9-mal die Zeit von Christi Geburt bis heute – ohne das ein Mensch durch die besondere Gefahr der Radioaktivität zu Schaden gekommen wäre. Noch sicherer als NULL Schaden geht nicht.
  • „Kernkraft ist eine der großartigsten Erfindungen der Menschheit“ (Nuklearia). Das ignorieren die Deutschen mehrheitlich. Ein Ersatz der Kernenergie durch Sonne und Wind führt zurück ins Mittelalter.

[1] Paul Laufs, Reaktorsicherheit für Leistungskraftwerke, Seite 55

[2] http://www.regulations.gov, dort suchen nach Docket ID NRC-2015-0057

[3] Bericht der GRS: grs-s-56.pdf

[4] Themenheft der StrahlenschutzPRAXIS 1/2015 zum Fukushima-Unfall

[5] GRS-Bericht über die IAEA-Konferenz in Wien vom 25. – 29.8.1986, Stand Oktober 1986

[6] Karl-Rudolf Schmidt zu Tschernobyl, Bayernkurier vom 24.4.1999 und Kommentar vom 21.1.2000

 




Blackout – wenn es zum Äußersten kommt

Unzureichende staatliche Risikovorsorge

Meldungen und Ratgeber zu Stromausfall, Blackout und Überleben nehmen immer mehr Raum ein. Wie die Warnungen vor einer Lebenssituation, die wir alle nicht kennen: Überleben ohne Energie. Ein neues Buch analysiert die heutige Lage, die Ursachen und die Gefahren, die von Mangel, Brownouts und Blackouts ausgehen.

VON FRANK HENNIG

Unser Stromnetz, innerhalb des europäischen ENTSO-Verbundes mit fast allen europäischen Ländern verknüpft, ist das größte und komplexeste technische System, das Menschen erschufen. Eine riesige Maschine, aufgebaut in mehr als hundert Jahren Industriegeschichte. Bisher war es weltweit ein Muster an Zuverlässigkeit und es war Basis für eine starke wirtschaftliche Stellung Europas in der Welt.

Die Autoren beginnen mit Beschreibungen ausgewählter Störungen der jüngeren Vergangenheit, erklären Ursachen und Abläufe. Die Vielfalt der Ursachen, warum man plötzlich ohne Strom dastehen kann, macht nachdenklich. Die ganze Bandbreite der Risiken wird ausführlich dargestellt und es wird klar, dass es nicht den Grund für einen Blackout gibt, sondern viele verschiedene. Störungen und Ausfälle, die meist im Schnittpunkt mehrerer unglücklicher Zufälle entstehen, können schnell kaskadieren. Es wird ausführlich dargestellt, wie unsere Ausstiegs- und Abschaltpolitik die Resilienz des Systems schwächt.

Beleuchtet werden die Vorstellungen zur künftigen grünen Wasserstoffwelt und die Paradoxie weiterer Abschaltungen bei zunehmendem Stromverbrauch. Es ist eine umfassende Beschreibung der Schieflage unseres Energieversorgungssystems.

Inzwischen wird offen in Erwägung gezogen, ganzen Städten, Regionen und Unternehmen präventiv den Strom abzuschalten, wenn Windindustrieparks und Solaranlagen wenig Strom bereitstellen und konventionelle Kraftwerke nicht mehr verfügbar sind. Diese von den Grünen angekündigte „angebotsorientierte Versorgung“ wäre der Abschied Deutschlands als Industrieland mit einem hohen Grad an Arbeitsteilung aus dem Kreis der führenden Länder.

Durch Energiewende, Liberalisierung und Digitalisierung wird das Stromnetz labiler, auch Krieg und Cyberangriffe können einen Blackout herbeiführen. Zahlreiche Beinahe-Blackouts der vergangenen Jahre belegen das Risiko-Potenzial. Ein solcher Infrastrukturausfall hätte katastrophale Folgen für die Gesellschaft, Unternehmen und Haushalte. Die Autoren empfehlen eine Korrektur der Energiepolitik und raten Wirtschaft und Privatkunden zur Blackout-Vorsorge.

Ausführlich werden die Folgen stromloser Zeiten beschrieben, hier können die Leser weiterdenken und ihrer Phantasie freien Lauf lassen. Konkret vorhersagen lässt sich die dann folgende Eigendynamik nicht, auch zu Zeiten einer beginnenden Pandemie hatte niemand die herausragende Rolle des Toilettenpapiers vorhergesehen.

Das Buch ist wichtig, um den Aufbau und die Wirkungsweise des Stromversorgungssystems und die inhärenten Risiken zu verstehen. In der Bevölkerung dürfte das Wissen darüber eher schwach sein, naturwissenschaftlich-technische Bildung hat bei weitem nicht mehr den früheren Stellenwert. Dazu kommt, dass jeglicher Erfahrungshintergrund zu größeren Stromausfällen fehlt. Auch ist weitgehend unbekannt, in welchem Ausmaß Netzbetreiber permanent eingreifen müssen, um die Stabilität zu sichern. Gab es früher einen planmäßigen Netzbetrieb, ist es heute ein operativer mit entsprechend höheren Kosten.

Am Ende bleibt der ernüchternde Eindruck eines komplizierten, angreifbaren und zunehmend unsicheren Systems, das permanent geschwächt wird und dessen ständigen Funktionierens wir uns offenbar weit weniger als bisher sicher sein können.

Das Buch lädt ein, tiefer zu gehen. 17 Seiten Quellenangaben geben Hinweise, wo man noch fündig werden kann. Fazit: Ein erhellendes, ernüchterndes und wichtiges Buch.

Jungnischke / Paulitz, Strom-Abschaltungen und Blackout-Risiko. Warum Versorgungssicherheit und Risikovorsorge überlebenswichtig sind. Akademie Bergstrasse, 192 Seiten, 27 €.

Der Beitrag erschien zuerst bei TE hier

 




Uni Stuttgart: Ingenieure und Wissenschaftler ziehen Bilanz aus 20 Jahren Energiewende

Kritiker auf verlorenem Posten?

Edgar L. Gärtner

 

Ingenieure sieht man so gut wie nie in deutschen TV-Talk Shows. Dabei gibt es unter den führenden Köpfen ingenieurwissenschaftlicher Fachbereiche durchaus Leute (inzwischen oft im Rentenalter), die mit Witz und Verve vortragen können. Das zeigte sich am vergangenen Wochenende im Internationalen Begegnungszentrum IBZ des Campus Stuttgart-Vaihingen. Dort hatte Prof. Dr. André Thess, Inhaber des Lehrstuhls für Energiespeicherung am Institut für Gebäudeenergetik, Thermotechnik und Energiespeicherung (IGTE) für den 8. bis zum 10. Juli zu einer Fachtagung zum Thema „20 Jahre Energiewende“. Als Schirmherrn und Moderator der Veranstaltung gewann Prof. Thess (der in Dresden zu Hause ist) den bekannten Dresdner Politikwissenschaftler Prof. Dr. Werner J. Patzelt. So war gewährleistet, dass die Diskussionen nicht in Fachsimpelei versandeten.

Der Wissenschaftsphilosoph und Ethiker Prof. Dr. Carl Friedrich Gethmann (Siegen) eröffnete den Reigen der Fachvorträge. Der von Mathematik und Logik herkommende Philosoph ließ allerdings die religiöse Dimension der Energiewende-Politik m. E. unterbelichtet. Immerhin warnte er klar vor der Übergriffigkeit einer sich auf „die“ Wissenschaft berufenden Politikberatung. Der über Skype aus Kopenhagen zugeschaltete bekannte dänische Politologe Björn Lomborg wiederholte seinen beeindruckenden statistischen Nachweis der generellen Weltverbesserung seit der vorletzten Jahrhundertwende. So hat sich die von Waldbränden betroffene Fläche zwischen 1900 und 2000 um etwa ein Drittel vermindert. Im 21. Jahrhundert hat sich dieser Trend, wie präzise Satellitenaufnahmen zeigen, fortgesetzt. (Ich habe schon vor vier Jahren an dieser Stelle darauf hingewiesen.) Die Zahl der von Wetter- und Klimaextremen verursachten Todesopfer ist im gleichen Zeitraum auf ein Zehntel gesunken.

Das Kosten-Nutzen-Verhältnis der Klimapolitik ist negativ

Der allgemeine Trend der Weltverbesserung, davon ist Lomborg überzeugt, wird auf absehbare Zeit auch vom Klimawandel nicht durchkreuzt. Das Kosten-Nutzen-Verhältnis der Verfolgung des 1,5- oder 2-Grad-Ziels in der Klimapolitik sei deshalb negativ. Optimal sei eine globale Erwärmung um 3,75 Grad. Lomborg konnte von daher die Schätzung der Unternehmensberatung McKinsey, wonach für die Bekämpfung des Klimawandels 5,4 Prozent des BIP oder über ein Drittel der globalen Steuereinnahmen aufgebracht werden müssen, nur mit Kopfschütteln quittieren. Die beste Antwort auf den Klimawandel sei intelligente Anpassung. Dabei akzeptiert Lomborg leider unhinterfragt das politische Dogma eines linearen Zusammenhangs zwischen den menschlichen CO2-Emissonen und dem Anstieg der Erd-Temperatur. Aber er geht davon aus, dass nur technische Innovationen und nicht Verbote und Rationierung den CO2-Anstieg kosteneffektiv bremsen können. Als grün dürften dabei aber nicht nur Solar- und Windenergie anerkannt werden. Eine globale CO2-Steuer sei der beste Weg, um technologie-neutral Öko-Innovation zu fördern.

Prof. Dr. Michael Beckmann (Dresden) untersuchte, ob die angebotenen Technologien, um dem Ziel 100 Prozent Erneuerbare näher zu kommen, wirklich anwendungsreif sind. Er verwendete dabei die u.a. im Flugzeugbau bewährte 9-stufige Klassifikation des Technology Readiness Levels (TRL). Dabei kam er trotz optimistischer Annahmen zum Schluss, dass Industrieregionen allenfalls das Niveau 4 erreichen, also noch im Anfangsstadium der Technologieentwicklung stecken. Nur einige kleine Inseln ohne Großindustrie wie etwa die Kanaren-Insel El Hierro mit 11.000 Einwohnern erreichen das Niveau 7, wobei auch El Hierro auf den Einsatz von Diesel-Aggregaten nicht verzichten kann. Nicht nur Deutschland, sondern die ganze Welt ist noch weit vom TRL-Niveau 9 entfernt.

Prof. Dr. Harald Schwarz (Cottbus) beschäftigte sich mit den besonderen Problemen der Stromnetze. Die Elektrizität deckt zurzeit etwa 20 Prozent des deutschen Jahres-Energiebedarfs von 2.317 TWh ab. Dieser Anteil soll nach dem Willen der Grünen aber schon in naher Zukunft auf 75 Prozent ansteigen. Das ist utopisch. Allein um die für E-Autos notwendigen Ladestationen mit der nötigen Leistungsstärke zu versorgen, müssten die Niederspannungs-Netze auf über einer Million Kilometern verstärkt werden. Wer soll das bezahlen und wo findet man genügend qualifizierte Handwerker? Die gesicherte Leistung von Onshore-Windkraftanlagen liegt bei nur einem Prozent. Die in Deutschland vorhandenen Pumpspeicher reichen nur für 30 bis 60 Minuten. Wie will man da den für die Netzstabilität wichtigen Grenzwert von 49,8 Hertz einhalten? Wie will man ein von Erneuerbaren dominiertes Netz nach einem Blackout schwarz starten? Lauter ungelöste Fragen!

Sehr interessant war m.E. auch der Vortrag von Prof. Dr. Thomas Koch vom bundeseigenen Karlsruhe Institut für Technologie (KIT), das viel mit wissenschaftlicher Politikberatung beschäftigt ist. Koch wies darauf hin, dass alle von Kraftfahrzeugen hervorgerufenen Umweltprobleme wie NOx-, SO2 oder Kohlenwasserstoff- und Partikel-Emissionen längst befriedigend technisch gelöst sind. Bei den Bemühungen der Politik in Brüssel und Berlin, den CO2-Ausstoß von Kfz mit immer größerem technischen Aufwand weiter zu senken, gehe es nicht um die Schonung des der Menschheit vom Klimarat IPCC zugestandenen Rest-Budgets von 420 Gigatonnen CO2, sondern um die Abschaffung der Kfz mit Verbrennungsmotor. Bei der Verschiebung der Einführung der Euronorm 7 für Kfz-Abgase durch den Vizepräsidenten der EU-Kommission Frans Timmermans gehe es einzig darum, die Automobilindustrie von weiteren technischen Innovationen abzuhalten. Theoretisch könne man die Verbrenner mit dem Einsatz „klimaneutraler“ E-Fuels retten. Bei einem Strompreis von 1ct/KWh seien diese wettbewerbsfähig. In manchen Ländern sei ein solch günstiger Strompreis durchaus erreichbar.

Vorteile der Kernenergie

Prof. Dr. Horst Michael Prasser, früher am Helmholtz-Zentrum Dresden-Rossendorf und heute an der ETH Zürich forschend und lehrend, gab ein eindrucksvolles Plädoyer für die Kernenergie. Selbst beim EPR, dessen Baukosten wegen Fehlplanungen aus dem Ruder gelaufen sind, betragen diese mit 0,015 €/KWh weniger als die Hälfte der Baukosten von Photovoltaik-Anlagen. Ganz zu schweigen von den Betriebs- und Entsorgungskosten über den gesamten Lebenszyklus. Hier seien moderne Kernkraftwerke um den Faktor 1.000 und mehr besser als PV-Anlagen. Radioaktive Abfälle stellten wegen ihres geringen Volumens kein großes Problem dar. Deutschland könne sich übrigens mithilfe der Hinterlassenschaft der untergegangenen Wismut AG in Thüringen und Sachsen mit Uran selbst versorgen. Die Zukunft des Dual-Fuel-Reaktors, der auch aus radioaktiven Abfällen Energie gewinnen kann, hänge an der Entwicklung widerstandsfähiger Werkstoffe aus Silizium-Karbid-Keramik. Vielleicht kann die carbothermische Nitridierung silikatreicher Braunkohle, die ich vor einigen Jahren an dieser Stelle vorgestellt habe, dazu beitragen.

Immerhin schaffte es Prof. Thess in Gestalt von Anna-Veronika Wendland (Leipzig und Marburg) in der von Männern dominierten Technik-Welt auch eine Frau als Referentin aufzutreiben. Die auf Osteuropa spezialisierte Historikerin betreibt in der Nuklearwirtschaft Sicherheitsforschung besonderer Art, das heißt „Maschinen-Ethnologie“ oder „Industrial Anthropology“ im Sinne des bekannten französischen Öko-Theoretikers Bruno Latour. Sie geht der Frage nach, ob und inwieweit die Kernenergie etwas zur gesellschaftlichen Sicherheit beitragen kann. Damit hat sich die ehemalige Nuklear-Gegnerin viele Sympathien der politischen Linken, der sie sich noch immer zugehörig fühlt, verscherzt. Sie sieht ihre Aufgabe in der gesellschaftlichen „Konsens-Herstellung“. Deshalb müsse man Initiativen wie Fridays for Future (FfF) durchaus ernstnehmen, müsse aber deren Apokalyptik zurückweisen. Sie verweist auf den enormen Rohstoffbedarf der so genannten Erneuerbaren im Vergleich zur Kernkraft mit geringster Materialintensität. Diese werde von den Grünen aber gerade wegen ihrer Vorteile abgelehnt, weil das die Chancen der Erneuerbaren schmälert. Denuklearisierung sei der Grünen Bewegung also wichtiger als Dekarbonisierung. Die Laufzeitverlängerung bestehender Kernkraftwerke sei die günstigste Option der Klimapolitik zur Ansteuerung des Net-Zero-Ziels für 2050. Auch der Neubau von KKW werde sich lohnen. Daher sei es nur logisch, dass das Joint Research Institute (IRC) der EU die Kernenergie als nachhaltig eingestuft hat und die Mehrheit des EU-Parlaments dieser Einschätzung folgte.

Wie man sich denken kann, stieß der von Frau Wendland gewählte Begriff „Konsens-Herstellung“ bei den Diskutanten auf Widerspruch. Einvernehmen statt Konsens reiche völlig aus, betonte der Physiker Philip Lengsfeld. Die Mehrheit der Deutschen freunde sich angesichts des Gasmangels inzwischen ohnehin mit der Kernenergie-Nutzung an. Ohnehin müsse man die Kerntechnik als Low Risk Technologie betrachten, schloss Frau Wendland. Um hier Investitionen anzuziehen, müsse der Staat allerdings Planungssicherheit garantieren.

Die Linke hat total versagt

Beim abendlichen Kamingespräch fragte Prof. Patzelt als Moderator: „Muss unser Klima wirklich gerettet werden?“ Der Journalist Alexander Wendt (München) stellte die Gegenfrage: „Wann ist das Klima gerettet?“, um zu zeigen, dass die grüne Bewegung mit verschwommenen Zielvorstellungen operiert und dadurch eine Verengung des Diskurses erreicht. Der ehemalige RWE-Manager Fritz Vahrenholt (Hamburg) wies darauf hin, dass es nach der Verabschiedung des „Osterpakets“ der Berliner Ampel-Regierung kaum noch Klagemöglichkeiten gegen Windkraft-Projekte gibt. Die Fixierung auf die Abwendung einer angeblich drohenden Klimakatastrophe stelle eine Gefahr für die Demokratie dar. Schon jetzt gebe es Beispiele staatlicher Zuteilung von Ressourcen nach Gutsherrenart. So habe der konkursreife Windradbauer Enercon im Zuge der Corona-Hysterie 500 Millionen Euro erhalten. Wofür? Alexander Wendt verwies auf die Forderung des von der Regierung bestellten Sachverständigenrates für Umweltfragen, die Zuständigkeit der Parlamente durch einen nicht gewählten Zukunftsrat einzuschränken. FfF-Ikone Louisa Neubauer beruft sich darauf, wenn sie offen verfassungsfeindliche Forderungen stellt. Wendt wies auch darauf hin, dass die Energiewende schon allein deshalb scheitern muss, weil sie zu viele Ziele gleichzeitig verfolgt: Die Energieversorgung sollte gleichzeitig sauberer, billiger, dezentraler und weniger vom Ausland abhängig werden. In der Praxis wurde in allen Punkten das Gegenteil erreicht. Statt ihr Scheitern einzugestehen, verbarrikadierten sich die Befürworter der Energiewende in einer Wagenburg.

Die Ex-Grüne Antje Hermenau (Dresden) wies darauf hin, dass mittelständische Unternehmen wegen der unsicheren Materialversorgung infolge der Störung von Lieferketten untereinander schon Tauschhandel praktizieren. Statt vom Prinzip der Subsidiarität auszugehen, baue die EU aber an einer Arbeitsteilung nach dem Modell des untergegangenen sozialistischen RGW. Anna Veronika Wendland klagte, es gebe in Deutschland keinen oppositionellen Umweltverband mehr. Die Investoren in Wind- und Solarkraftwerke kontrollierten sich also selbst und sorgten für immer mehr Umverteilung von unten nach oben. Es gebe einen inhaltlichen Gleichklang zwischen den Transformations-Modellen der globalen WEF-Elite (Sozialismus der Milliardäre) und dem grün-linken Milieu. „Wer das kritisiert, wird als Verfassungsfeind abgestempelt. Die Linke hat total versagt“, stellte sie fest. Immerhin gebe es in Deutschland etwa 1.000 Bürgerinitiativen gegen Windkraft-Projekte, erinnerte Fritz Vahrenholt. Gebe es Anfang Januar 2023 kein Gas mehr, komme der große Aufstand. Das wage ich aufgrund der Kenntnis der Psyche meiner Landsleute zu bezweifeln.

Wenn die Kosten den Umsatz übersteigen…

Der bekannte Wirtschaftswissenschaftler Ulrich van Suntum (Münster) beschäftigte sich am folgenden Tag der Veranstaltung mit den Kosten der Energiewende. Das Münchner Ifo-Institut schätzt die Kosten der Vermeidung von einer Tonne CO2 auf 60 bis über 400 Euro. Die CO2-Zertifikate kosten in Deutschland zurzeit zwischen 80 und 85 €/t, sind in anderen Ländern aber für weniger als ein Zehntel dieses Preises zu haben. Das führe dazu, dass in Deutschland oft am falschen Ende gespart wird. Ohnehin liege Deutschlands Anteil am globalen CO2-Ausstoß inzwischen unter 2 Prozent. Selbst wenn es Deutschland gar nicht mehr gäbe, mache das also kaum einen Unterschied. Die CO2-Vermeidung komme mithilfe der Photovoltaik (415 €/t) am teuersten. Die in der deutschen Energiepolitik übliche kleinteilige Planwirtschaft diene nur der Profilierung von Berufspolitikern, die sich immer den wissenschaftlichen Rat suchen, der ihnen gerade in den Kram passt. „Was Deutschland macht, ist alles Tinnef“, schloss van Suntum sarkastisch und plädierte für einen internationalen Klima-Fonds, um die Klimapolitik den Machenschaften kurzsichtiger Politiker zu entziehen.

Ein Highlight der Veranstaltung war der Vortrag von Dr. Ing. Hans-Bernd Pillkahn (Werdohl). Pillkahn hat sein ganzes Berufsleben in der Metallindustrie zugebracht und kennt die geostrategische Situation Deutschlands aus eigener Erfahrung. Es sei wirtschaftlich unmöglich, die politische Vorgabe einer 36prozentigen Absenkung des deutschen CO2-Ausstoßes bis 2030 allein durch die Nutzung von Wind- und Solarenergie zu erreichen. Die Windleistung von einem Kilowatt kostet Investitionen von 1,5 Millionen Euro. Die im bereits erwähnten „Osterpaket“ als „Freiheits-Strom“ titulierte Solarenergie koste 1,4 Billionen Euro je Gigawatt Leistung. Dabei erreicht die Nutz-Zeit der Sonnenenergie in Deutschland nur 10,5 Prozent, die der Windkraftanlagen 20,9 Prozent. Da konnte Pillkahn genüsslich zitieren, was Wilhelm Busch im Jahre 1870 über die Nöte der Windmüller schrieb. Pillkahn beschäftigte sich dann mit dem Rohstoffbedarf der Erneuerbaren. Nach einer aktuellen Studie der belgischen Universität Leuwen wächst allein der Lithiumbedarf bei der Verfolgung der so genannten SDS-Strategie um über 1.000 Prozent!

Aber nicht nur bei Lithium, auch bei allen anderen Metallen ist die Abhängigkeit Deutschlands von Importen sehr groß. 67 Prozent aller Kapazitäten der Erz-Raffinierung befinden sich in Asien, nur 1,5 Prozent in Deutschland, 6,6 Prozent in der EU und 3,6 Prozent in den USA. Es gibt in Deutschland zum Beispiel nur eine einzige Zinkhütte. Nicht von ungefähr erreicht der in der Schweiz ansässige Rohstoff-Handelskonzern Glencore einen Jahresumsatz von 270 Milliarden Euro. Der Versuch der Umsetzung der politischen CO2-Vorgaben in der Metallindustrie kostet überall Millionen-, wenn nicht Milliardenbeträge. So wird der Ersatz der bislang bei der Herstellung von Gusseisen eingesetzten Kupolöfen, die mit Koks befeuert werden, durch elektrische Induktionsöfen schätzungsweise 45 Millionen Euro kosten. Unbezahlbar teuer würde die von der Politik gewünschte Herstellung von “grünem“ Stahl mithilfe von Wasserstoff (H2). Deren Strombedarf wird auf 110 TWh, die Leistung von drei großen Kernkraftwerken vom Typ Isar 2, geschätzt. Deren Ersatz durch Grünstrom würde mehr kosten als der gegenwärtige Umsatz der Stahlindustrie! Weltweit habe bislang noch niemand auch nur eine Tonne Stahl mithilfe von Wasserstoff hergestellt, betonte Pillkahn in der anschließenden Diskussion.

Das jähe Ende der „Gaswende“

Prof. Dr. Fritz Vahrenholt, jetzt Aufsichtsratsvorsitzender der Hamburger Aurubis AG, des größten deutschen Kupferherstellers, konnte da direkt anschließen. Was als umfassende Energiewende verkündet wurde, sei in Wirklichkeit nur eine Wende zum Erdgas gewesen. Die Pipeline Nord Stream 2, die die Russen im Verbund mit westeuropäischen Konzernen auf ausdrücklichen Wunsch Berlins gebaut haben, sollte ausschließlich dieser „Gaswende“ dienen. Es war bekannt, dass die geplanten Windräder wegen ihrer unsteten Leistung dringend eines Backup durch flexibel einsetzbare Gaskraftwerke bedurften. (Ich habe darauf schon im Jahre 2008 im „Wall Street Journal“ hingewiesen.) Die letzte Berliner Koalitionsvereinbarung sah den Bau von 30 bis 50 zusätzlichen Gaskraftwerken vor. 38 Prozent des von Deutschland importierten Erdgases werden von der Industrie benötigt. Drehte Präsident Putin im Zuge des zum totalen Krieg auswachsenden Konfliktes zwischen der NATO und Russland den Gashahn endgültig ab, seien in Deutschland 5,6 Millionen Arbeitsplätze in höchster Gefahr. Das russische Gas durch den Schiffstransport von Flüssiggas (LNG) zu ersetzen sei in absehbarer Zeit nicht möglich. Noch unrealistischer sei der Ersatz thermischer Kraftwerke durch die Produktion von „Freiheits-Strom“ aus Wind und Sonne. Deren Anteil an der Primärenergieerzeugung machte im vergangenen Jahr gerade einmal 5,1 Prozent aus. Kurz- und mittelfristig helfe nur die Zulassung der heimischen Erdgasförderung aus Schiefergestein durch Fracking aus der gefährlichen Gasknappheit. Deutschlands Schiefergasvorräte reichen immerhin für Jahrzehnte.

Prof. Vahrenholt erinnerte daran, dass der Gaspreis schon vor Beginn des Ukraine-Krieges am 24. Februar 2022 nach oben gesprungen ist. Das sei kein Wunder, weil alle westlichen Energiekonzerne, abgeschreckt von unsicheren politischen Rahmenbedingungen, die Exploration und Erschließung neuer Gas-Lagerstätten eingestellt haben. Im Prinzip investieren nur noch russische, chinesische und saudische Staatskonzerne in die Erschließung neuer Lagerstätten. Die Volksrepublik China gilt bekanntlich im Pariser Klimaschutz-Abkommen von 2015 noch immer als „Entwicklungsland“, das vorerst seinen CO2-Ausstoß nicht verringern muss. Dabei hat das Land mit einem Pro-Kopf-Ausstoß von 8,2 Tonnen CO2 gerade Deutschland überholt, das „nur“ 7,7 Tonnen je Einwohner freisetzt. Vahrenholt fügte allerdings hinzu, niemand wisse, in welchem Maße das CO2 die globale Durchschnittstemperatur beeinflusst. Der jüngste IPCC-Bericht helfe da leider nicht weiter, weil er methodisch hinter seine Vorgänger zurückfalle. So gehe der IPCC in seinem Szenario 8.5 von der Emission von 6.100 Gigatonnen CO2 bis zum Jahre 2100 aus. Dadurch werde es zu einem globalen Temperaturanstieg von bis 4°C kommen. Dabei haben die Modellierer übersehen, dass die Brennstoff-Vorräte der Erde gar nicht ausreichen, um so viel CO2 zu erzeugen. Vahrenholt vermutet, dass die in den letzten Jahrzehnten gemessene Erwärmung der Erdatmosphäre zu einem guten Teil auf die Verlängerung der Sonnenscheindauer und jährlich 250 Stunden zurückgeht.

Wer haftet für Klima- und Energie-Simulationen?

Die Klimapolitik und somit auch die Entscheidung für die Energiewende beruht fast ausschließlich auf Modell-Simulationen, deren Validierung kaum möglich ist. Wer haftet für solche Simulationen? Mit dieser Frage setzte sich der Gastgeber André Thess selbst auseinander. In den Ingenieurwissenschaften unterscheidet man drei Kategorien von Simulationen. Kategorie A bezieht sich auf den Bau von Verkehrsflugzeugen. Deren Bau wird mithilfe der Navier-Stokes-Gleichungen der Strömungsmechanik berechnet. Die Validierung der mathematischen Modelle erfolgt mit einer Fehlerquote von unter einem Prozent im Windkanal. Die Hersteller haften für ihre Produkte. Das gilt als Goldstandard für Simulationen in den Ingenieurwissenschaften. In die Kategorie B gehören Wetter- und Klimaprognosen mit einer Fehlerquote von über 5 Prozent. Dafür haftet niemand. Energieszenarien mit dem Ziel, den kostengünstigsten Investitionspfad herauszufinden, gehören in die Kategorie C. Hier gibt es weder Validierung noch Haftung. Simulationsversuche sind allenfalls auf kleinen Inseln wie Pellworm oder El Hierro möglich. In der Diskussion kam die Frage auf, ob man nicht auch die Klimasimulationen dieser Kategorie zurechnen müsse. Ohne ein ständiges Monitoring sei die Arbeit mit solchen Modellen jedenfalls sinnlos.

Wie kann sich dann das Bundesverfassungsgericht in seinem umstrittenen Urteil zum Klimaschutz vom 24. März 2021 auf den Artikel 20a des Grundgesetzes berufen, in dem von „Klima“ gar nicht die Rede ist? Prof. Patzelt sieht hier die Gefahr einer Vertiefung der ohnehin schon vorhandenen Spaltung der Gesellschaft in „Anywheres“ und „Somewheres“. Für die Grünen sei die Energiewende das Generationenprojekt, an dem sich ihre Identität festmacht. Mit ihrer Ablehnung der Kernenergie haben sie erst die Massenmedien und dann die parlamentarische Mehrheit erobert. Patzelt hat daran nichts auszusetzen. Er beklagt aber die Ausartung der Öko-Bewegung zu einem Glaubenskampf, zu einer Hexenjagd gegen „Klimaleugner“ und KKW-Befürworter, die eine faire Debatte nicht mehr zulassen.

Patzelt ging leider nicht der Frage nach, wie es zu der auch von ihm beklagten „Zerstörung der kulturellen Homogenität“ unseres Landes kommen konnte. Deshalb darüber hier meine ganz persönliche Hypothese: Die Grünen repräsentieren die erste nachchristliche bzw. neuheidnische Generation Westeuropas. Es geht dabei nicht so sehr um Frömmigkeit, sondern um die Ablösung einer im weitesten Sinne christlich geprägte Kultur durch Formen des Gnostizismus in Verbindung mit heidnischer Mythologie. Zur christlichen Kultur gehört die ethische Argumentations-Figur der Übelabwägung. Der Gnostizismus hingegen verabscheut Kosten-Nutzen-Vergleiche und verabsolutiert das (angeblich Gute) um beinahe jeden Preis. Im Mittelalter hat man diese suizidale Irrlehre (z.T. erfolgreich) durch Kreuzzüge zu bewältigen versucht. Heute käme es darauf an, Heute käme es darauf an, das Selbstmordprogramm der FfF-Aktivist*innen bzw. der „Letzten Generation“ erst einmal als solches zu charakterisieren, anstatt davor auf die Knie zu fallen.

 




10 Klimapunkte, die ins Klima-Elend führen!

 

von Bau- und Energiefachmann Paul Bossert

Architekt, Bauingenieur und Bauphysiker, Basel-Stadt,

Beim „Klimawandel“ wird die wissenschaftliche Terminologie nicht mehr beachtet!

 

  1. Umweltschutz, Landschaftsschutz, Heimatschutz, Gewässerschutz sind OK.

Klimaschutz geht nicht, denn das Klima ist nichts anderes als das statistische Mittel des Wetters der letzten drei Jahrzehnte an den unterschiedlichsten Orten auf dieser Erde. Das Wetter kann man nicht ändern und ein statistisches Mittel kann man auch nicht schützen.

 

2. Der Unterschied zwischen Korrelation und Kausalität ist zu beachten. Die Population der Störche korreliert oft mit der Geburtenrate der Bevölkerung, doch zwischen CO2 und der Erderwärmung gibt es keine Kausalität. Bei den aktuellen Studien fehlt das Experiment.

 

3. Beim Treibhauseffekt, wird behauptet, dass die IR-Rückstrahlung aus kalten Wolken und oberen Schichten (Atmosphärische Gegenstrahlung) die Erde zusätzlich erwärmt. Das widerspricht dem 2. Hauptsatz der Thermodynamik nach Clausius: Warm fliesst nach kalt – wie auch bei der Strahlung von kälteren Wolken zur wärmeren Erde.

 

4. Die CO2-Treibhaus-Theorie wurde im Jahr 2009 falsifiziert. CO2 kann die erdnahen Luftschichten niemals erwärmen. Darum ist eine Dekarbonisierung der Welt und das Streben nach einer «Klimaneutralität» mit 1,5- und 2,0-Grad-Zielen obsolet.

 

5. Seit über 100 Jahren liegt die globale Oberflächen Temperatur der Erde unter 15°C. Das postulierten John Tyndall anno 1872, Svante Arrhenius anno 1896, wie auch das WMO in Genf, das die Werte für jedes Jahr neu ermittelt. Eine Klimakrise existiert nicht, denn eine gefährliche Erderwärmung über 15°C hat bis heute nicht stattgefunden.

 

6. Mit Solarenergie kann man kein hochentwickeltes Land mit Strom versorgen, denn die Effizienz ist zu gering, die Anlagen sind spezifisch zu teuer, sie verlieren nach 15 bis 20 Jahren ihre Leistungsfähigkeit und sind dann zu ersetzen. Eine Subventionierung ist erforderlich!

 

7. Die Standorte für Windenergie sind in der Schweiz marginal und aus Gründen des Landschaftsschutzes unbeliebt. Die uralte Windmühlen-Technologie weist eine zu geringe Leistung auf und muss erst noch subventioniert werden. Offshore in der BRD ist OK.

 

8. Die Fernwärme ist nicht zukunftsfähig, auch nicht klimaneutral, sie verbraucht rund 50% Müll, 50% an Erdgas und Erdöl, sie ist unwirtschaftlich und der Wirkungsgrad beträgt rund 60%. Moderne Gas und Oel-Heizungen haben einen Wirkungsgrad von 92% bis 95%. Flächendeckende Fernwärme sollte in Städten vermieden werden.

 

9. Die „EXERGIE“ von 1 kWh Strom ist weit höher als diejenige von 1 kWh Erdgas oder Erdöl.

Deshalb soll man Gebäude nicht mit Wärmepumpen beheizen. Elektrische Wärmepumpen sollten aus „kriegswirtschaftlicher“ Sicht bewilligungspflichtig und elektrische Widerstandsheizungen verboten sein

 

10. Die Schweizerischen-Energie-Vorschriften wie auch die EnEV sind falsch, weil sie sich nur auf die Verminderung der Wärmeleitung (fälschlicherweise Isolierung genannt) nach der UWert-Theorie stützt. Die U-Wert-Theorie ist nicht validiert. Die Ertüchtigung des Gebäudeparks ist unmöglich, weil Taugliche Dämmstoffe am Markt nicht erhältlich sind. Die Thermodynamik wurde bewusst vergessen!

 

Paul Bossert, Dipl. Bauingenieur FH, Architekt, Bauphysiker, Energie- und Bauschadenexperte www.paul-bossert.ch – www.klimamanifest.ch