Kritische Bewertung des jüngsten Syntheseberichts des UN-Klimagremiums

Vom Irish Climate Science Forum (ICSF).

ICSF-Kritik des IPCC Sixth Assessment Synthesis Report , Executive Summary for Policymakers (AR6 SYR SPM), und des 2023 Climate Action Plan der irischen Regierung (CAP23)

1. Zusammenfassung der ICSF-Position

Das Irish Climate Science Forum (ICSF) ist der Ansicht, dass der kürzlich veröffentlichte AR6-Synthesebericht des IPCC, Zusammenfassung für politische Entscheidungsträger (SPM), schwerwiegende Mängel aufweist, da er die neuesten objektiven Klimawissenschaften und -beobachtungen ignoriert. Dieses neueste SPM ist eine Synthese aus mehreren früheren IPCC-Berichten, die die ICSF bereits als fehlerhaft kritisiert hatte. Es ist schwer vorstellbar, dass das IPCC nach sechs Bewertungsberichten über 35 Jahre immer noch nicht in der Lage ist, das zukünftige Klima mit Gewissheit vorherzusagen, wenn reale Beobachtungen nur auf eine bescheidene weitere Erwärmung von 1 °C bis 2100 hinweisen. Das ICSF schlägt daher vor, dies zu tun Abschaffung des IPCC jetzt.

Der ICSF lehnt daher diesen neuesten IPCC- Synthesebericht SPM als geeignete Grundlage für eine wirklich nachhaltige Politikgestaltung durch die irische Regierung ab und fordert eine grundlegende Überprüfung ihres Klimaschutzplans 2023 (CAP23) im Lichte objektiver Klimawissenschaft, der Erfordernisse von Energie und Ernährungssicherheit und wirtschaftliche Erschwinglichkeit.

Leider hat die fehlerhafte IPCC-Wissenschaft zu einer absurden, auf Minderung basierenden Politik geführt, die nur der Wirtschaft schadet und praktisch keine Auswirkungen auf das Klima hat. Eine gezielte Anpassung an eine moderate Erwärmung ist der Weg in die Zukunft in den kommenden Jahrzehnten.

Das ICSF geht weiter unten auf seine Position ein und verweist auf seine hochrelevanten Vorträge von renommierten Wissenschaftlern (basierend auf detaillierten Recherchen).

2. Der IPCC-Synthesebericht SPM weist schwerwiegende Mängel auf

Die ICSF stellt die folgenden schwerwiegenden Mängel im IPCC-Synthesebericht SPM fest:

o Der SPM präsentiert fünf sehr unterschiedliche Modelle für zukünftige Klimaszenarien, was darauf hinweist, dass das IPCC immer noch nicht in der Lage ist, den Klimawandel bis 2100 mit irgendeiner Sicherheit vorherzusagen, ein unglaubliches Scheitern nach sechs Bewertungsberichten über 35 Jahre. Laufende Temperaturbeobachtungen liefern sehr klare Beweise dafür, dass der Durchschnitt der IPCC-Modelle die Erwärmung deutlich übertreibt und insbesondere, dass die höchsten Szenarien (die Szenarien SSP3-7.0 und SSP5-8.5, wobei letzteres eine Erwärmung von fast 5°C bis 2100 zeigt) sehr unglaubwürdig sind .

o Die SPM impliziert eine sehr wahrscheinliche Gleichgewichtsklimasensitivität von 3 °C (ECS, definiert als globaler Temperaturanstieg aufgrund einer Verdopplung der CO2-Konzentration), trotz mehrerer unabhängiger ECS-Schätzungen von weniger als 1,5 °C.

Neueste wissenschaftliche Erkenntnisse weisen auf eine Klimasensitivität von nur 1°C hin. Das IPCC hat unerklärlicherweise Beweise für niedrige ECS ignoriert.

o In der Praxis stellt die aktuelle Erwärmung daher keine nennenswerte Bedrohung dar; Glücklicherweise erholen sich die globalen Temperaturen allmählich von denen der Kleinen Eiszeit (jetzt etwa 1,1 °C über dem Minimum von 1850), einer der kältesten Perioden der letzten 2.000 Jahre. Und der Planet hat von diesem Temperaturanstieg profitiert.

o Kontinuierliche Satellitentemperaturdaten, die umfassendsten und genauesten verfügbaren, bestätigen einen durchschnittlichen globalen Temperaturanstieg von etwa 0,13 °C pro Jahrzehnt in den letzten 40 Jahren.

Dies deutet auf einen weiteren Anstieg um etwa 1°C bis 2100 hin und erreicht eine ähnliche Temperatur wie in den minoischen, römischen und mittelalterlichen Erwärmungsperioden (die das IPCC mit seiner suggestiven „Hockeyschläger“-Grafik zu verschleiern versucht hat).

o Die SPM-Modelle berücksichtigen nicht den logarithmisch abnehmenden THG-Effekt (Treibhausgase) von CO2, wenn die atmosphärische Konzentration weiter zunimmt. Die ersten 100 ppm CO2 verursachen etwa 80 % des THG-Effekts (die Erde glücklich bewohnbar machen), jeder Schritt danach sukzessive weniger, und auf dem aktuellen Niveau von 410 ppm ist es bereits gesättigt. Das Hinzufügen von mehr anthropogenem CO2 wird also wirklich nur eine sehr bescheidene treibhausgasinduzierte weitere Erwärmung verursachen, an die sich die Welt allmählich anpassen kann.

o Unter Berücksichtigung der Tatsache, dass das globale CO2-Niveau von 410 ppm fast 50 % über dem vorindustriellen Niveau von 280 ppm liegt, wird die wahrscheinliche Verdopplung der Treibhausgasemissionen auf 560 ppm bis 2100 einen weiteren Anstieg von weniger als 0,5 °C implizieren Der anthropogene Einfluss. Beobachtungen aus der realen Welt widerlegen die IPCC-Modelle erneut kategorisch.

o Betrachtet man die umgekehrte Situation, so wird die Reduzierung zukünftiger Emissionen durch Minderung einen kaum wahrnehmbaren Einfluss auf das Klima haben. Sogar das IPCC selbst erkennt – wenn auch verschleiert – den minimalen Effekt der Minderung über Jahrzehnte an, da anthropogenes CO2 nur ein kleiner Teil des globalen jahrhundertelangen Kohlenstoffkreislaufs ist.

o Als Realitätsprüfung der mangelnden Wirksamkeit der Minderung kann auf die COVID-Pandemie verwiesen werden. Dies reduzierte die globalen Treibhausgasemissionen bis 2020 um etwa 6 % und hatte eine vernachlässigbare Auswirkung auf die globale CO2-Konzentration in der Atmosphäre und folglich auf eine vernachlässigbare Auswirkung auf das Klima.

o Die SPM behauptet fälschlicherweise, dass die Anstiegsrate der globalen Temperatur nach 1970 beispiellos sei, obwohl sie in den Jahren 1910-1945 gleich schnell war, wobei die globale Abkühlung zwischen 1945 und 1978 stattfand. Diese Abkühlung selbst steht in krassem Widerspruch zu der Behauptung des IPCC Die gesamte moderne Erwärmung hängt mit Treibhausgasen zusammen.

Ein Bild, das Diagramm enthält. Automatisch generierte Beschreibung

o Paläoklimaaufzeichnungen zeigen ähnliche Temperaturanstiegsraten in früheren Erwärmungsperioden. Diese früheren Erwärmungsperioden wurden offenbar nicht durch die damals vorherrschenden Treibhausgaskonzentrationen angetrieben. Das IPCC ignoriert diese Entkopplung zwischen weit voneinander abweichenden Treibhausgasen und planetaren Temperaturschwankungen über vergangene geologische Perioden. Im Allgemeinen entscheidet sich das IPCC dafür, Beweise für natürliche Klimavariabilität zu ignorieren – ein weiterer schwerwiegender Fehler.

o Insbesondere im Hinblick auf landwirtschaftliche Emissionen ignoriert der SPM die neuesten Forschungsergebnisse unabhängiger Wissenschaftler, insbesondere der Professoren William Happer und William van Wijngaarden, die bewiesen haben, dass die Erwärmung durch Lachgas und Methan unbedeutend sein wird (weniger als 0,1 °C/ Jahrhundert).

o Der SPM bezieht sich auf den angeblich katastrophalen globalen Anstieg des mittleren Meeresspiegels aufgrund des „Kirschenpflückens“. Einhundert Jahre Gezeitenmessungen weisen auf einen linearen Anstieg von nur 1-2 mm/Jahr hin, während etwa 30 Jahre Satellitenmessungen auf einen Anstieg von etwa 3 mm/Jahr hindeuten, und keiner der Datensätze weist Hinweise auf eine Beschleunigung auf.

Selbst wenn man die höhere Zahl annimmt, bedeutet dies nur einen weiteren Anstieg von 25 cm bis 2100. IPCC-Modelle von bis zu 90 cm Meeresspiegelanstieg bis 2100 sind stark übertrieben.

o Angebliche Trends bei sogenannten „extremen Wetterereignissen“ werden oft im SPM erwähnt, ebenso wie im SPM des Berichts der Arbeitsgruppe 1. Aber eine rigorose Datenanalyse in den detaillierten Kapiteln dieses Berichts der WG1 liefert keine Hinweise auf zunehmende Trends bei Überschwemmungen, Dürren (meteorologisch oder hydrologisch), Waldbränden, tropischen Wirbelstürmen, Winterstürmen, Gewittern, Tornados, Hagel, Blitzschlag oder extremen Winden, während es Hinweise auf zunehmende Hitzewellen, starke Niederschläge und Dürren (ökologisch und landwirtschaftlich) gibt
. Das ist angesichts einer leichten Erwärmung nicht verwunderlich. Diese Daten unterminieren auch die SPM-These, dass sich diese Ereignisse verschlimmern werden, wenn eine weitere Erwärmung eintritt. Die SPM des Syntheseberichts ist in beiden Punkten falsch.

o Als weitere verwandte Anmerkung wurde nun gezeigt, dass die „ Fingerabdruck-Zuordnungsstudien “ des IPCC von sogenannten Extremwetterereignissen aus statistischer Sicht systematisch fehlerhaft sind, ein Punkt, den das IPCC nie verstanden hat.

o Was SPM-Kommentare zur Kryosphäre anbelangt, bei denen es sich um Beobachtungen aus der realen Welt handelt, dient das Folgende. Das Eis in der Arktis ist seit 1979 zurückgegangen, aber in den letzten 15 Jahren im Durchschnitt stabil geblieben.

Der Zustand des grönländischen Eisschildes ähnelt dem von 1880. Sowohl die Arktis als auch Grönland waren in den letzten Jahrhunderten wärmer, haben sich aber erholt. Die Antarktis hat jetzt Rekordkalttemperaturen erlebt. Natürlich vorkommende Gletscher ziehen sich regelmäßig zurück und geben Vegetation und historische Artefakte aus vergangenen Wärmeperioden frei.

o Obwohl im SPM nicht ausdrücklich darauf eingegangen wird, verschwinden die kleinen Inseln im Pazifischen Ozean nicht. Es gibt keine nennenswerten Probleme mit Ozeanerwärmung oder Säuregehalt. Die Korallenriffe erholen sich und die Eisbären gedeihen prächtig. Dem SPM mangelt es an wissenschaftlichem Gleichgewicht.

o Schließlich versäumt es das IPCC zu erklären, dass die leicht erhöhten globalen CO2-Werte tatsächlich zu einer Verbesserung der Photosynthese und der globalen Ernteerträge geführt haben, was wiederum zur Bekämpfung der in Entwicklungsregionen leider immer noch weit verbreiteten Mangelernährung beiträgt.

Zusammenfassend lässt sich sagen, dass die vom SPM implizierte Botschaft, dass es eine „Klimakrise“ gibt, durch die vielen oben genannten Argumente überhaupt nicht gestützt wird. Vielmehr deuten Beobachtungen aus der realen Welt nur auf eine bescheidene weitere Erwärmung von etwa 1 °C bis 2100 hin. Das SPM-Mantra für „tiefe, schnelle und nachhaltige Emissionsreduzierung“ ist stark übertrieben. Anpassung ist der Weg nach vorn. Es scheint, dass die wissenschaftliche Objektivität des IPCC durch Gruppendenken und Geopolitik beeinträchtigt wird.

3. Auswirkungen auf Irlands Klimaschutzplan 2023 (CAP23)

Irlands CAP23 unterstützt die Ansicht, dass Minderung bis 2050 Net-Zero nicht irgendwie „den Planeten retten“ wird. Im Gegenteil, es wird das Klima nicht spürbar belasten.

Spezifisch:

o Der „ Carbon Budget and Technical Report “ des Irish Climate Change Advisory Councilmodellierte Irlands vorgeschlagene Treibhausgasminderungspfade bis 2050 und stellte fest, dass sie, wenn sie erreicht würden, die globalen Temperaturen um nur wenige Tausendstel Grad senken könnten .

o Die Kosten für Irlands illusorische Reduzierung der Treibhausgasemissionen um 51 % bis 2030 wurden vom IWF auf 200 Milliarden Euro bis 2030 geschätzt, was bis dahin etwa 100.000 Euro pro Haushalt entspricht.

Ein solches Vorgehen ist angesichts der explodierenden Staatsverschuldung und des Finanzierungsbedarfs für Wohnen, Gesundheit und andere soziale Belange kaum zu rechtfertigen.

o Das Ziel von 80 % erneuerbarer Energie ist illusorisch, ebenso wie groß angelegte Energiespeicheroptionen nicht vor 2030 realisierbar sein werden. Wind- und Solarenergie sind nicht nur intermittierend, stören die Netzstabilität, sondern sind auch ineffizient in der Nutzung von Energie, Raum und Materialien , insbesondere Edelmetalle. Es gibt wenig Verständnis für die großen Umstrukturierungen von Übertragungs- und Verteilungsnetzen, die erforderlich sind, um erneuerbare Energiequellen aufzunehmen und gleichzeitig die wahrscheinliche Verdoppelung der Netzlast zu bewältigen, die sich aus der angenommenen Elektrifizierung von Übertragung und Wärme ergibt.

o Es gibt eine alarmierende Erosion der nationalen Energiesicherheit im Zusammenhang mit dem Niedergang des Corrib-Gasfelds, Irlands einziger einheimischer Ressource. Es ist unfassbar naiv, den Bau eines LNG-Importterminals zu verschieben. Irlands übermäßige Abhängigkeit von britischen Gasverbindungsleitungen ist bereits problematisch und wird wahrscheinlich vor 2030 zu Stromengpässen und Stromausfällen führen . Irland benötigt wie alle Länder eine erschwingliche, zuverlässige und sichere Energieversorgung für eine nachhaltige Zukunft.

o Wie bereits erwähnt, verfügt das IPCC in Bezug auf landwirtschaftliche Emissionen über die neueste Klimawissenschaft zu Methan und Lachgas. Es gibt also absolut keine wissenschaftliche Grundlage für die Einschränkung der Landwirtschaft in Irland, insbesondere im Kontext des idealen gemäßigten landwirtschaftlichen Klimas in Irland und der wachsenden globalen Ernährungsunsicherheit.

o Schrittweise Anpassung an den bescheidenen Klimawandel der nächsten Jahrzehnte, was pragmatisch wirtschaftlich, technisch und gesellschaftlich sinnvoll wäre. Im irischen Kontext sollte dies am besten für ausgewählte Projekte geeignet sein, die möglicherweise für den Hochwasserschutz, die Küstenerosion, die Wasserversorgung und die Widerstandsfähigkeit der Infrastruktur erforderlich sind.

ICSF fordert die Regierung insbesondere dringend auf, den Bau eines LNG-Importterminals zu genehmigen, um die lebenswichtige und erschwingliche irische Energiesicherheit zu gewährleisten. Es fordert die Regierung außerdem dringend auf, den landwirtschaftlichen Sektor Irlands im Zusammenhang mit der globalen Ernährungssicherheit zu erweitern, anstatt ihn einzuschränken. Die ICSF wünscht Irland eine wirklich nachhaltige Zukunft.

4. Fazit

Zusammenfassend lehnt die ICSF diesen fehlerhaften IPCC-Synthesebericht als Grundlage für die öffentliche Ordnung ab und drängt auf eine dringende Überprüfung des Klimaschutzplans 2023. Die nationale Politik sollte auf objektiver Klimawissenschaft beruhen, mit hochselektiver Minderung, basierend auf einem soliden wirtschaftlichen, technologischen und sozialen Pragmatismus, ergänzt durch eine gezielte Anpassung an möglicherweise moderate Klimatrends in den kommenden Jahrzehnten.

***

Über die ICSF

Das 2016 gegründete Irish Climate Science Forum (www.ICSF.ie) fördert Realismus in der Klimawissenschaft und Vorsicht in der Klima-/Energiepolitik. Die ICSF sieht die Notwendigkeit von Klima-/Energieerziehung und Politikgestaltung im besten langfristigen nationalen Interesse, ohne jeglichen Einfluss von Interessengruppen. Um die Objektivität zu gewährleisten, ist das ICSF vollständig eigenfinanziert und erhält keine Mittel von bestimmten Unternehmen oder Sektoren. Die ICSF ist politisch neutral.

Das ICSF arbeitet mit weltweit führenden multidisziplinären Fachleuten in mehr als 30 Ländern über den in den Niederlanden ansässigen Think Tank CLINTEL (www.CLINTEL.org) zusammen und hat mit ihnen eine Vortragsreihe von führenden internationalen Wissenschaftlern organisiert, siehe https://www. icsf.ie/Vortragsreihe.

Kritische beoordeling van het recente syntheserapport van het VN-klimaatpanel

 




Robert Habeck und der gründeutsche Windwahn auf dem Gipfel

Was hat der „Fliegende Holländer“ mit der deutschen Energieversorgung zu tun? Beide liefern sich den Kräften der Natur aus. Robert Habeck veranstaltete seinen ersten „Windgipfel“, die Branche präsentierte ihren Forderungskatalog. 

Von Frank Hennig

Es gipfelte wieder in Berlin. Nach Migrations- Bildungs- und Solargipfel geht es jetzt um den Wind. Wieder waren die Erwartungen wohl höher als die Ergebnisse. Dennoch möchte man die Wünsche einer Branche erfüllen.

Der vorgesehene Ausbau der Windkraft in Deutschland nimmt wahnhafte Züge an. Die Abwägungen zum Menschen-, Natur- und Landschaftsschutz, zu Denkmalschutz und Systemverträglichkeit – gesellschaftlich wie elektrotechnisch – werden minimiert. Ziel ist der maximierte Ausbau. Häuptling Habeck setzt mit Hilfe seines Staatssekretärs Graichen im Klimaministerium das um, was dessen Herkunfts-Think-Tank Agora-Energiewende als so genannten Hauptsatz prägte: „Wind und Sonne haben Vorfahrt“. Das entspricht zwar nicht dem Energiewirtschaftsgesetz und dem energiewirtschaftlichen Zieldreieck aus Versorgungssicherheit, Kostenverträglichkeit und Umweltschutz, aber es erfüllt zielgenau die Forderungen der Ökoindustrie.

Der „Windgipfel“ bot der Branche das Podium, nicht nur das Klimaministerium kräftig unter Druck zu setzen. Bereits im Vorfeld hatte der Bundesverband Windenergie (BWE) einen hundertseitigen Forderungskatalog übergeben. Da sich nicht jede Forderung, offiziell als „Vorschlag“ bezeichnet, an jedes Ministerium richtet, wurden auf Ressorts zugeschnittene „Pakete“ versandt. Dass die Forderungen in den Ampelministerien auf wohlwollende Behandlung hoffen können, ist kein Geheimnis, so dass man auch von einer Beauftragung sprechen könnte.

Vieles soll sich zugunsten der Windbranche ändern, angefangen von der Flächenmobilisierung, der Nachrangigkeit des Denkmalschutzes und Einschränkungen für die Bundeswehr bis hin zu vereinfachten Schwerlasttransporten. Letztere würden bei einem angestrebten Zubau von 10 GW (Gigawatt) pro Jahr 30.000 Sondertransporte per Straße bedeuten. Die Regierung soll nun endlich den ungestörten Wildwuchs der Windkraft im Land möglich machen.
Nun sind 50 bis 60 Maßnahmen abgestimmt worden, so Erleichterungen beim Repowering, die den Anwohnern größere Anlagen bei gleichem Abstand bescheren dürften.

Bereits vor dem Gipfel waren mit der Änderung des Raumordnungsgesetzes in Verbindung mit der EU-Notfallverordnung wichtige Hürden aus dem Weg geräumt worden. Als wäre eine Meute losgelassen, zogen in den vergangenen Wochen viele Investoren ihre Vorhaben aus der Schublade und bewirkten Aufregung bis Panik unter der potenziell betroffenen Bevölkerung. Um dieser nicht zu nahe zu kommen, sollen die Projekte vor allem in Wäldern umgesetzt werden. So im Altdorfer Wald, dem mit 82 Quadratkilometern größten zusammenhängenden Waldgebiet Oberschwabens, weiterhin in Naturpark Arnsberger Wald bei Warstein und in der Niederlausitz südlich von Forst. Das sind nur Beispiele.

Diese krassen Eingriffe in Natur und Landschaft wären vielleicht noch hinzunehmen, wenn damit tatsächlich ein neues, umweltschonendes, sicheres, preiswertes und „klimafreundliches“ Energiesystem geschaffen werden könnte. Aber genau dies wird nicht gelingen.

Politisch wie medial werden stets zwei Fakes verbreitet, die eine Notwendigkeit dieses exzessiven Ausbaus begründen sollen:

1. Mit Windkraftanlagen (WKA) könne man Kohle- und Kernkraftwerke ersetzen und nur so die Energiewende schaffen.
Das ist nicht möglich, weil eine bedarfsgerechte Produktion und die Bereitstellung der Systemdienstleistungen (Spannungshaltung, Frequenzhaltung) nicht realisiert werden. Sie bewirken nur, dass anderer Strom zeitweise ersetzt wird, entfalten also nur substitutive Wirkung ohne die Aussicht, eine „Säule“ der Energieversorgung zu sein. Es ist immer ein Backup-System erforderlich, weshalb man nun – viel zu spät – über neue Gaskraftwerke nachdenkt. Ein Anachronismus nach dem Verlust unserer russischen Gasimporte. Ergänzend: Wir haben kaum Stromspeicher, weder „noch und nöcher“ noch in einem für die Windkraft-Schwankungen halbwegs nötigen Umfang.

2. WKA seien „gut fürs Klima“, weil sie CO2 vermeiden würden.
Dies gilt ohnehin nur für die reine Betriebsphase, nicht für die Materialschlacht bei Bau und Entsorgung. Vor allem aber arbeiten das deutsche Erneuerbare Energien Gesetz (EEG) und das europäische Emissionshandelssystem (ETS) gegenläufig. Während des Betriebes können die Anlagen Dank des Einspeisevorrangs emissionsreichen Kohle-, Öl- oder Gasstrom verdrängen. Sie verdrängen dadurch aber auch die nötigen Emissionszertifikate, die durch die Betreiber der konventionellen Anlagen eingesetzt werden müssen. Diese werden dann frei und sind international handelbar in allen Ländern, die dem ETS beigetreten sind. Da die Zertifikatspreise enorm gestiegen sind (derzeit liegen sie bei über 90 Euro pro Tonne) wirft niemand diese in den Papierkorb, sondern verkauft sie. Somit werden die Emissionen nur aus Deutschland ins Ausland verlagert und dort eingesetzt. Das hilft „dem Klima“ nicht.

Es entspricht aber vollends der deutschgrünen Sicht auf den eigenen Vorgarten. Dieser muss sauber sein. Deutsche Kohleförderung und -verstromung wird abgelehnt, Gasförderung durch Fracking ebenso wie die Nutzung der Kernkraft. Wenn dies alles zu schmutzig oder gefährlich wäre, sollten wir auch die Welt davor schützen und bewahren. Stattdessen importieren wir ausländischen Strom wie auch Gas aus ebendiesen Quellen. Und obendrein beschweren wir uns über die mangelhafte Verfügbarkeit französischer Kernkraftwerke.

Das ist scheinheilig bis zynisch, auch mit Blick auf den Pro-Kopf-CO2-Ausstoß in Frankreich, der in den letzten 30 Tagen nur ein Fünftel des deutschen betrug (93 gegenüber 525 Gramm pro Kilowattstunde).

Spätestens wenn man am (Wind-)Gipfel angekommen ist, kann es nur noch bergab gehen. Die nächsten Jahre werden der Windbranche, vor allem aber Rotgrün, alle Illusionen rauben. Die Illusionen von heute sind die Enttäuschungen von morgen, wonach wieder niemand die Verantwortung übernehmen wird, dafür aber alle die Schuld bei anderen suchen werden. Zunehmender Energiemangel, Inflation und knappe Rohstoffe werden der verwöhnten Branche die Lust verleiden. Schon heute denken die Klimaangst-Profiteure eher an große Fotovoltaik-Freiflächen als an flatternden, aufwendig erzeugten Windstrom.

„Wer baut auf Wind, baut auf Satans Erbarmen“, heißt es im ersten Akt des „Fliegenden Holländers“ von Richard Wagner. Ganz Deutschland droht zum Segelschiff zu werden, das abhängig von den Launen des Wetters nur eingeschränkt steuerbar übers Meer getrieben wird. Heizer und Maschinisten werden dann nicht mehr gebraucht, sondern Matrosen zum Segel setzen und reffen und Galeerensträflinge zum Rudern, wenn der Wind ausbleibt. Wer die Entwicklungen neuer Energietechnologien durch die Beschränkung auf Wind und Sonne für beendet erklärt, bewirkt Rückschritt und Abstieg. Von Gipfeln sowieso.

Der Beitrag erschien zuerst bei TE hier

 




Fakten zum Gesetzentwurf „Neustart der Digitalisierung der Energiewende“

von Prof. Dr. Alwin Burgholte

Was soll das Gesetz bewirken?

Zitat: Die Daten zu Erzeugung, Verbrauch und Netzzustand sollen besser als bisher Netzbetrieb, Netzplanung und Strombelieferung unterstützen, auch auf Basis von dynamischen Stromtarifen….

Die Netzbetreiber werden zugleich stärker an der Kostentragung beteiligt. Denn sie profitieren in besonderer Weise vom Rollout der intelligenten Messsysteme: Im künftigen Energiesystem hängt die Systemstabilität maßgeblich von einer flächendeckenden Beobachtbarkeit und Steuerbarkeit der fluktuierenden Erzeuger und Verbraucher in den Verteilernetzen ab.….

Dynamische Stromtarife ermöglichen es Letztverbrauchern, ihren Strombezug in kostengünstigere Zeiten mit hoher Erzeugung erneuerbarer Energien zu verlagern….

Technische Fakten werden ignoriert, erforderliche Konsequenzen werden nicht gezogen.

Wind- und Solaranlagen speisen wetterabhängig stark schwankende Leistung ins Netz. Die Voraussetzung dafür ist ein frequenzstabiles Netz und das die Leistung über die verfügbaren Leitungen auch abführen kann. Die Netzstabilität können nur die konventionellen Kraftwerke garantieren. Dafür müssen sie eine Mindestleistung von ca. 25% bis 35% der erforderlichen Verbraucherleistung einspeisen. Begründung: Die gespeicherte Energie in den rotierenden mechanischen Massen der Generatoren und Turbinen stützen das Netz und sind in der Lage, bei Netzkurzschlüssen die erforderlichen Kurzschlussströme zur Auslösung der Sicherheitselemente (Sicherungen und Leistungsschalter) zu liefern. Wind- und Solaranlagen sind dagegen stromgeregelt, auch bei Kurzschlüssen liefern sie nur den eingestellten Nennstrom.

Sogenannte Dunkelflauten treten dann auf, wenn zu wenig Wind und Sonne verfügbar sind. Die Bundesnetzagentur stuft die Leistungsverfügbarkeit aus Windanlagen mit 1% und aus Solaranlagen mit 0% ein. Dunkelflauten treten regelmäßig, auch großflächig in Deutschland und europaweit auf. Derzeit können in diesen Zeiten nur konventionelle Kraftwerke und Importe die Stromversorgung sichern. Die erforderlichen großen Speicher im Gigawattstundenbereich (GWh) für Wind- und Solarleistung sind nicht verfügbar und auch für die nächsten zehn Jahre nicht absehbar. Es müssten dafür Elektrolyseure im Gigawattbereich gebaut werden, um aus Ökostrom Wasserstoff zu produzieren. Um daraus elektrische Leistung zu erzeugen, müssten dann noch über 50 neue Gaskraftwerke á 800 MW gebaut werden.

Um eine Vorstellung von den Größenordnungen zu erhalten, einige Beispiele: Februar 2023: An 14 Tagen lag die Einspeiseleistung von Wind- und Solaranlagen bei etwa 10% der installierten Leistung von 133,6 GW. Der Leistungsbedarf schwankte zwischen 80 GW und 42 GW.

Die mögliche Einspeiseleistung von Windanlagen hängt von der dritten Potenz der Windgeschwindigkeit ab. Bei Windstärke 3, ca. (3,4 -5,4) m/s, laufen die Anlagen an. Dabei liegt die Einspeiseleistung bei ca. 10% der Nennleistung. Ab Windstärke 5, das sind. (8 -10,7) m/s, werden ca. 21,1% bis 30% erreicht. Die Nennleistung wird ab Windstärke 6 erreicht, s. Leistungskennlinie Windanlage ENERCON E 126, 7,58 MW.

 

 

https://www.enercon.de/de/produkte/ep-8/e-126/

Die Windgeschwindigkeiten sind in Mitteleuropa unterschiedlich verteilt, wie der Windatlas zeigt:

https://www.forwind.de/de/presse/news/20190702neuer-windatlas-fur-europa-fertiggestellt/

Danach ist die Forderung unsinnig, in Süddeutschland, bei unter 6 m/s durchschnittlicher Windgeschwindigkeit, mehr Anlagen aufzubauen.

Gesicherte Stromversorgung bedeutet, dass zu jeder Zeit die erforderliche Leistung in kW zur Verfügung steht. Die Energieangaben in Kilowattstunden (kWh) sagen darüber nichts aus. Die Angabe, „der Windpark würde xy Haushalte mit Strom versorgen“, ist technisch falsch; denn wenn kein Wind weht, wird auch kein Haushalt versorgt.

März 2022:

Einspeiseleistung von Wind- und Solaranlagen an 13 Tagen kleiner 10 GW bei 122 GW installierter Leistung:

Der massive Ausbau der Wind- und Solaranlagen ändert an dem Zustand der Unterdeckung kaum etwas. Wenn kein Wind weht, dann helfen auch mehr Windanlagen nicht. Eine Hochrechnung der installierten Wind- und Solarleistung auf die geplanten 400 GW bis 2030 zeigt, dass damit das Problem der Unterdeckung nicht gelöst werden kann.(Quelle: https://www.vernunftkraft-odenwald.de/grafiken-von-rolf-schuster-zur-energiewende/)

Quelle: https://www.agora-energiewende.de/service/agorameter/chart/power_generation/01.03.2022/31.03.2022/today/

Damit wird der Vorgabe des §1 ENWG Abs. 1) „Zweck des Gesetzes ist eine möglichst sichere, preisgünstige, verbraucherfreundliche, effiziente, umweltverträgliche und treibhausgasneutrale leitungsgebundene Versorgung der Allgemeinheit mit Elektrizität, Gas und Wasserstoff, die zunehmend auf erneuerbaren Energien beruht“ widersprochen; denn Wind und Solarleistung sind weder sicher noch preisgünstig.

Ohne verfügbare Großspeicher kann eine Digitalisierung auch nicht helfen. Die 31 Pumpspeicherwerke in Deutschland könnten täglich für 4 bis 8 Stunden etwa 6,7 GW liefern, vorausgesetzt, dass sie auch täglich wieder aufgefüllt werden. Die Gesamtspeicherkapazität beträgt 37,4 GWh. Täglich werden in Deutschland ca. 1300 GWh benötigt. Batteriespeicher sind aufgrund ihrer geringen Speicherkapazität nur zur Überbrückung von Stunden geeignet.

Das Gesetz will die Energiezuteilung verlagern. Das entspricht einem Einstieg in die Energie-Planwirtschaft. Darüber hinaus ist ein Eingriff in die Erzeuger- und Verbraucherstruktur mit den schon installierten Smart Metern derzeit nicht möglich. Die alten Smart Meter müssten gegen die neuen ausgetauscht werden. Das verursacht erhebliche Kosten.

Die gesetzliche Zielvorgabe „Beschleunigte Einführung dynamischer Stromtarife, verpflichtend ab 2025 für sämtliche Lieferanten und Letztverbraucher“ hat folgende Konsequenzen:

  1. Für Verbraucher, die auf eine gesicherte konstante Stromversorgung angewiesen sind, ist keine Planungssicherheit für die Produktionskosten mehr möglich. Eine vermehrte Nutzung der günstigeren Strompreise ist für einen konstanten Produktionsprozess auch nicht möglich.
  2. Die Mehrheit der Kleinverbraucher, Haushalte werden den Strom wie bisher nach konkreten Bedarf beziehen. Wie sollte eine Überwachung der Stromtarife von ihnen erfolgen? Und kann z. B. der Betrieb einer Wasch- oder Geschirrspülmaschine um Tage verschoben werden?

Die Aussage „Das Gesetz ist erforderlich, um die für die Energiewende notwendige Digitalisierung des Energiesystems zu beschleunigen, zu entbürokratisieren und die Rechtssicherheit beim Smart-Meter-Rollout zu stärken“ bedeutet ausschließlich die politischen Interessen zur Umsetzung der Energiewende zu befriedigen und dieses in einer nicht zu realisierenden kurzen Übergangsfrist. Technische Fakten und Marktbedingungen werden nicht berücksichtigt. Das ist auch der Grund, dass viele Betriebe nicht mehr in Deutschland investieren sondern ins Ausland abwandern. Es ist doch bemerkenswert, dass kein europäisches Land unserer Energiepolitik folgt.

Im Kapitel „Haushaltsausgaben ohne Erfüllungsaufwand“ wird der erforderliche jährliche Finanzbedarf von 3 454 671 € aufgeführt. Hinzu kommen noch die Mehrkosten für Installation und Betrieb der Smart Meter und weitere Kosten für Forschungsvorhaben, mit denen sich ja die außeruniversitären Institute gern finanzieren.

Weil der geplante massive Ausbau von Wind- und Solaranlagen weder das Problem der Unterdeckung löst, dafür aber neue Probleme mit der erzeugten Überschussleistung schafft, die z.T. verschenkt oder mit negativen Strompreisen entsorgt werden muss, ist die eingeplante Finanzierung nicht gerechtfertigt. Dringender müsste in den Aufbau von Elektrolyseuren und neuer Gaskraftwerke investiert werden. Auch wird Deutschland nicht auf den Einsatz der neuen Kernkraftwerke vierter Generation verzichten können. Diese Anlagen sind inhärent sicher und können die als Atommüll bezeichneten Reststoffe der Kernkraftwerke über hundert Jahre verbrennen. So investieren auch unsere europäischen Nachbarn.

Politische Verantwortung: Das Bundesministerium für Wirtschaft und Klima hat am Parlament vorbei direkte erhebliche Einflussmöglichkeiten auf die Bundesnetzagentur, Netzbetreiber und Verbraucher. Benutzt werden dafür planwirtschaftliche Methoden, die bisher in keiner Volkswirtschaft funktioniert haben.

Fazit:

Mit dem Gesetz soll das alte Schlagwort „Spitzenglättung“ umgesetzt werden. Der massive Ausbau der regenerativen Erzeuger wird ohne verfügbare Elektrolyseure im GW-Leistungsbereich und den Bau neuer Gaskraftwerke (über 50 Anlagen á 800 MW) keine Verbesserung erbringen. Mangels verfügbarer Leistungserzeuger kann die Digitalisierung der Netze keine Lösung bieten. Durch den Mehrbedarf für die EMobilität und den vermehrten Einsatz von Wärmepumpen wird eine gesicherte Stromversorgung mehr gefährdet. Auch ein gesteigertes Importieren elektrischer Leistung von unseren europäischen Nachbarn kann keine Abhilfe leisten. Die erforderlichen Übertragungsleitungen stehen nicht zur Verfügung. Es wird heute schon eine Versorgungslücke für das Jahr 2025 prognostiziert. Das vorzeitige Abschalten der Kohlekraftwerke bis 2030 wird mit Sicherheit nicht ausführbar sein, wenn nicht die gesamte Stromversorgung zusammenbrechen soll.

Die Verantwortung tragen Sie als Abgeordnete, die entsprechend ihres geleisteten Eids „zum Wohle des deutschen Volkes“ entscheiden müssen. Diese Verantwortung wird Ihnen keiner abnehmen können.

Prof. (i. R.) Alwin Burgholte, Wilhelmshaven, E.-Mail: aburgholte@gmail.com

Die Anhörung kann hier in der Mediathek des Deutschen Bundestages abgerufen werden.

 

 




„Austausch über die Kernreaktor-Unfälle in Tschernobyl und Fukushima sowie die aktuelle Situation in Saporischschja“

Zur öffentlichen Anhörung zur Reaktorsicherheit „Expertendiskussion über Folgen von Atomkatastrophen“ am 15.3.23 im Deutschen Bundestag

Stellungnahme von Dr. Lutz Niemann, vom Verein „Bürger für Technik“

 

Zu Fukushima

Das Kernkraftwerk hatte schwerwiegende Mängel, die dem Betreiber TEPCO und den Behörden bekannt waren

  • Mangelnder Schutz vor Flutwellen an stark gefährdeter Küste wegen
  • Fehlender gesicherter Notstromversorgung
  • Containment ohne Filterstrecken
  • Keine Druckentlastungsventilen (Wallmannventile)
  • Keine Wasserstoffrekombinatoren zur Druckminderung bzw. Explosionsschutz

Das führte zu dem bekannten Unglück mit Kernschmelzen in 3 Reaktoren. Durch Druckentlastung der Reaktoren ohne ein Filtersystem kam es zur Freisetzung von Spaltprodukten und Wasserstoff. Es folgten Wasserstoffexplosionen. Die freigesetzte Radioaktivität wurde von den automatischen Meßstellen auf dem Kraftwerksgelände gemessen, sie war weltweit abrufbar. In Deutschland wurden sie mit Beschriftungen von den Mitarbeitern der GRS verbreitet. Schon im März 2011 war ersichtlich, daß niemand durch die Radioaktivität zu gesundheitlichem Schaden kommen konnte, bestätigt durch die IAEA Ende Mai 2011. Die Menge der freigesetzten Radioaktivität hätte mindestens um den Faktor 100 höher sein müssen, um auf dem Kraftwerksgelände zu einer Gefahr für die Mitarbeiter zu kommen. All diese Mängel, die in Japan zu Kernschmelzen, der Zerstörung der Reaktorgebäude und zur Freisetzung von Radioaktivität geführt haben, gibt es bei uns in Deutschland nicht. Daher können die Ereignisse in Japan kein einsichtiger Grund sein für die Reaktion in Deutschland.

Dennoch wurden ca. 100 000 Menschen evakuiert, weil es Gesetze erfordern. Es wurden sogar die Intensivpatienten aus Krankenhäusern abtransportiert, ca. 50 Patienten starben wegen der Unterbrechung ihrer Versorgung. Jedermann weiß, daß man die Versorgung von Intensivpatienten nicht unterbrechen darf. Insgesamt kamen infolge der unsinnigen – aber wegen Gesetzen erforderlichen – Evakuierungen mehr als 1000 Personen ums Leben. Der Strahlenpegel in der Kraftwerksumgebung erreichte Werte, die beim gestatteten Flug Frankfurt – New York in Reiseflughöhe IMMER erreicht werden, die jedoch NICHT verboten sind.

Es wurde nach Schilddrüsenkrebs an 270 000 Kindern gesucht und es wurden 33 Krebsfälle gefunden. Diese sind nicht der Strahlung von J-131 zuzuschreiben (siehe SSP 1/2015).

In Deutschland wurden nicht nur 8 Kernkraftwerke abgeschaltet, sondern auch die Sicherheitszonen um die Kernkraftwerke erweitert. Der damalige Präsident der SSK, Herr Prof. Wolfgang-Ulrich Müller gestand in einem privaten Mail an mich, daß die SSK nicht aus fachlicher Einsicht gehandelt hätte, sondern auf Verlangen der Politik.

In Fukushima wurden infolge mangelnder Vorsorge technische Großgeräte zerstört. Durch die Strahlenschutzmaßnahmen kamen über 1000 Menschen zu Tode. Es ist dringend eine Revision des Strahlenschutzes erforderlich, denn die Strahlenschutzgesetze sind falsch. Von den deutschen Professoren Klaus Becker und Ludwig Feinendegen wurde das immer wieder gefordert und wissenschaftlich begründet, sie kamen aber nur in Fachtagungen und Fachzeitschriften zu Wort, nicht jedoch in den allgemein zugänglichen Medien.

Die in Deutschland von der Politik ergriffenen Maßnahmen waren geprägt von Panik, deutsche Strahlenschutz-Fachleute wurden dazu nicht gehört. Es gab zu den Ereignissen in Fukushima am 8./9. 3. 2012 in Mainz eine Tagung vom Fachverband Strahlenschutz Deutschland – Schweiz und es gab dazu ein Themenheft der StrahlenschutzPRAXIS. Und es gab für jedermann zugänglich die 100-Seiten-Berichte der GRS.

Die Strahlenschutzgesetze sind falsch, denn sie gelten nur in der Kerntechnik

  1. Der Grenzwert beim Umgang in der Kernenergietechnik für die Bevölkerung beträgt 1 mSv/a. Um diese Grenze einzuhalten werden gigantische Geldbeträge eingesetzt. Im Flugverkehr erhält das fliegende Personal, das im Verkehr über den Nordatlantik eingesetzt ist, mit 10 mSv/a rund das 10-fache. Der Mittelwert für das deutsche fliegende Personal liegt bei 2 mSv/a, also doppelt so hoch wie die Grenze in der Kerntechnik.
  2. In der Medizin wird zur Feststellung von Metastasen bei Krebspatienten Tc-99m verabreicht. Eine übliche Dosis von 650 MBq ergibt eine zusätzliche Dosis von 14 mSv, also wesentlich mehr als der oben genannte Grenzwert. Das geschieht zum Wohle der Patienten ohne irgendwelche negativen Folgen durch die Radioaktivität.
  3. Es gibt auf der Erde Gebiete mit Millionen Menschen, wo die jährliche Dosis um 10 mSv/a bis über 100 mSv/a höher ist als der allgemeine Durchschnitt. Zum Beispiel Ramsar im Iran durch Radium, und durch Thorium haltigen Monazit-Sand in Mombasa (Kenia), in Kerala (Indien), in Espirito Santo (Brasilien). Die Strahlenexposition aus Bodenstrahlung, Höhenstrahlung und der Medizin schwankt um sehr viel mehr als die Grenze von 1 mSv/a, daher ist diese Grenze unsinnig. Auf Fachtagungen wurde dieses schon oft diskutiert, ohne Folgen für die Gesetzgebung.

Zu Tschernobyl

Die Tschernobyl-Reaktoren wurden ursprünglich für die Gewinnung von Waffenplutonium gebaut und später umfunktioniert für die Stromerzeugung. Sie sind inhärent unsicher. In den USA gab es in der Anfangszeit ebensolche Anlagen, sie wurden wegen ihrer Gefährlichkeit bald stillgelegt. Der Reaktortyp wäre in Deutschland nie zulassungsfähig gewesen.

Die Gefahr zeigt sich an

  • Positiver Reaktivitätskoeffizient, daher Unsicherheit bei der Regelbarkeit
  • Kein Containment
  • Keine Notstromversorgung
  • Sozialistische Mangelwirtschaft

Die Sowjetunion hat über den Unfall in Wien bei der IAEA im August 1986 berichtet, auf diesen Bericht beziehe ich mich, weil dieser Bericht noch am wenigsten durch die Politik beeinflusst worden ist. Beim Abfahren des Reaktors sollte ein Versuch gefahren werden, der nicht in der vorgesehenen Weise gelang. Es wurde sieben Mal entgegen den Betriebsvorschriften gehandelt. Die Xenon-Vergiftung eines Reaktors bei kleiner Leistung schien dem handelnden Betriebspersonal nicht bekannt zu sein, das Personal war total unqualifiziert. Es kam zu einer Leistungsexkursion um das 100-fache. Dabei zerbarst der gesamte Reaktor und es brachen Brände aus.

Unter den Feuerwehrleuten der ersten Stunde erkrankten 134 Personen an der Strahlenkrankheit. Man hatte sie offenbar nicht mit Meßgeräten für Strahlung ausgestattet, so daß sie in Bereiche mit starker Strahlung kamen. 28 Helfer starben an der Strahlenkrankheit. Man hatte hier das bei allen Rettungseinsätzen geltende Prinzip „die Retter niemals in Gefahr bringen“ verletzt.

In Tschernobyl wurde in Vergleich mit Fukushima die 10-fache Menge an Radioaktivität freigesetzt. Das war wie in Fukushima hauptsächlich Jod und Cäsium, in geringem Maße auch Te, Ru, Sr, Ba, Mo, Zr, Ce Pu, Cm, Np. Die Strahlenkrankheit bei den Helfern der ersten Stunde wurde nicht durch die in die Luft frei gesetzte Radioaktivität von J und Cs verursacht, sondern durch hoch aktivierte Strukturteile des Reaktors.

Es gibt Untersuchungen zum Auftreten von Leukämien durch Susanne Becker in einer medizinischen Dissertation 2003. Dabei wurden keine Hinweise auf einen Anstieg der Leukämieraten in der Bevölkerung gefunden, auch nicht bei Kindern.

Als Folge des Unfalles wurden mehr als doppelt so viele Menschen evakuiert als in Japan. Es ist damit zu rechnen, daß auch doppelt so viele Menschen daran gestorben sind (Entwurzelung, Stress, Alkohol, Zigaretten, Suizide). Die Anzahl der aus Strahlenangst durchgeführten unnötigen Schwangerschaftsabbrüche beträgt viele zig-tausende.

In den durch den Unfall betroffenen Gebieten der Ukraine und Belarus zeigte sich in den Folgejahren bei Kindern und Jugendlichen ein Anstieg der Schilddrüsenkrebserkrankungen, der auf die Strahlenexposition zurückzuführen ist. Verantwortlich dafür ist vor allem die Aufnahme von Jod 131 über die Nahrung durch Kontamination der Milch, weil auch keine Gegenmaßnahmen ergriffen wurden. Bis 2005 waren davon 15 Personen gestorben.

Zu Saporischschja

In der Ukraine herrscht Krieg. Es wird geschossen, und wo geschossen wird, gibt es Todesopfer. Wenn das Kernkraftwerk beschossen wird, kann es daher Tote geben. Zu Todesopfern durch freigesetzte Radioaktivität infolge Beschuss kann es nicht kommen. Die dortigen 6 Kernreaktoren der Bauart WWER-1000 sind Reaktoren der 3-ten Generation mit

  • Containment
  • Gesicherter Notstromversorgung
  • Wasserstoffrekombinatoren
  • Wallmannventil mit Aktivkohlefilter

Treffer mit Kriegswaffen können keine sicherheitsrelevanten Schäden anrichten. Selbst bei einer Kernschmelzen könnte es nicht zu „Verstrahlungen“ kommen.
Ich empfehle dazu, sich Manfred Haferburg auf der „Achse des Guten“ anzuhören, ein exzellenter Fachmann.

Schlußfolgerungen

Die Kerntechnik ist keine Hochrisikotechnologie, sondern eine Hochsicherheitstechnologie. Es kann zwar, wie bei in allen Dingen im Leben zu Todesopfern führen, wenn Fehler gemacht werden. So war es in Fukushima und auch in Tschernobyl, allerdings nicht infolge der frei gesetzten Radioaktivität, sondern durch die ungerechtfertigten Evakuierungen und in Tschernobyl zusätzlich durch den schutzlosen Einsatz der Feuerwehrleute im Gefahrenbereich.
Es gibt inzwischen bei KKW’s westlicher Bauart über 18 000 Reaktorbetriebsjahre – das ist 9-mal die Zeit von Christi Geburt bis heute – ohne dass ein Mensch durch die besondere Gefahr der Radioaktivität zu Schaden gekommen wäre. Noch sicherer als NULL Schaden geht nicht.

Zum Vergleich: Andere Techniken bergen riesige Gefahren, das ist zu sehen

  • bei der Steinkohle, das Unglück von Luisenthal 1962 mit 299 toten Bergleuten
  • in Bhopal durch Methylisocyanat 1984, viele 1000-de Tote
  • Staudämme sind eine Riesengefahr, z.B. Vajont-Staumauer1956 in Italien 2000
  • Bei KKW’s ist die Gefahr hinter 5 Barrieren versteckt, wenn eine Person vom Windrad fällt, gibt es kein rettendes Netz

Es gibt damit keinen Grund, aus dieser Technik auszusteigen. Die gesamte Welt weiß das, seit rund 20 Jahren gibt es einen Anstieg bei den Neubauprojekten. Gerade ist in den VAE das 3-te KKW ans Netz gegangen, das 4-te ist in einem Jahr fertig.

Woher kommt die Strahlenangst?

Diese wird aus politischen Gründen absichtlich gezüchtet. Zu diesem Zweck werden nach einer Rechenvorschrift, der Linear-No-Threshold-Hypothese, hypothetische Todesopfer durch Strahlung berechnet. Diese Hypothese ist weltweit die Lehrmeinung, dennoch ist sie wissenschaftlich nicht haltbar. Wer in der Kerntechnik arbeiten will, muss diese Lehrmeinung vertreten, sonst besteht er keine Prüfung. Nach dieser Rechenvorschrift wurden auf der IAEA-Tagung 2006 in Wien 4000 zusätzliche Krebstote durch Tschernobyl berechnet, über viele Jahre verteilt und nicht nachweisbar. Man sollte auch für die Zusatzdosis infolge Flugverkehr die zusätzlichen Krebstoten nach dieser Rechenvorschrift angeben. Das Ergebnis wären 5000 bis 10 000 Zusatztote pro Jahr, natürlich nicht nachweisbar.
Prof. Walinder nennt daher die LNT-Hypothese und in der Folge die ALARA-Bestimmung zum Strahlenschutz den folgenreichste wissenschaftliche Irrtum der Menschheit.
Prof. Jaworowski – er war der Strahlen-Papst von Polen – nannte die LNT-Hypothese und das ALARA-Prinzip  kriminell.
In der Internationalen Strahlenschutzkommission ICRP gibt es Anzeichen von Einsicht in die Fehler der Strahlenschutzrichtlinien. Aus deren Kreis werden die Strahlengefahren als „speculative, unproven, undetectable and ‚phantom‘“ beschrieben. Ein Phantom ist ein Geisterbild oder Gespenst. Aus Angst vor Gespenstern steigt Deutschland aus seiner Stromversorgung aus.

Was bringt die Zukunft?

Deutschland nimmt seiner Jugend die Zukunft. Die Kernspaltungsenergie kann die Menschheit die nächsten Jahrtausende mit genug Strom versorgen, wenn man diese Technik benutzen will. Natürlich geht das nur, indem man Schnelle Reaktoren baut und nicht die abgebrannten Brennstäbe auf den Müll wirft. Nur noch Rußland hat den Natrium-Brüter in Betrieb, so wie er in Kalkar gebaut worden ist. China und Indien forschen an dieser Technik.

Ein anderes in Deutschland verschwiegenes Thema

Es sollte bei dieser Gelegenheit ein Thema angeschnitten werden, das sogar in der Fachwelt verdrängt wird. Strahlung von Radioaktivität ist in geringer Dosis und bei geringer Dosisleistung gut für die Gesundheit von Lebewesen, weil die Strahlung das Immunsystem anregt. Das äußert sich in Lebensdauerverlängerung, weniger Krebs, weniger genetische Defekte. Diese positive Wirkung von Strahlung ist sicher nachgewiesen und in der Fachwelt bekannt. Man nennt sie Hormesis, in der Medizin nennt man es adaptive Antwort. Es ist das Prinzip einer Schutzimpfung, indem durch eine kleine Dosis der lebende Körper einen Schutz aufbaut und so vor späterer Einwirkung einer größeren Dosis geschützt ist.

Ein Beispiel sind Radon-Heilbäder, dort wird die heilende Wirkung durch das radioaktive Edelgas Radon bewirkt. Solche Bäder gab es schon vor der Entdeckung der Radioaktivität.

Ein Beispiel: Die Wettinquelle im Heilbad Bad Brambach hat eine alpha-Aktivität von 25 000 Becquerel / kg. Für Lebensmittel wurde nach dem Fukushima-Unfall die Grenze von 1000 Bq / kg auf 600 Bq / kg herabgesetzt. Es werden also Lebensmittel weggeworfen, die viel weniger Aktivität enthalten als die Heilmittel in Bädern. Die Herabsetzung der Aktivität bei Lebensmitteln kann nicht wissenschaftlich begründet werden, es war eine politische Aktion.

Eine zusätzliche Strahlendosis bekommen Menschen bei einer Flugreise, in der Medizin, im Urlaub im Hochgebirge oder in Gegenden mit Urgestein wie zum Beispiel im Wallis. Das ist keine Strahlen“belastung“, sondern es ist meistens belanglos. In der Medizin ist es täglich millionenfach segensreich für die Patienten. In der evakuierten Umgebung von Tschernobyl hat sich die Natur zu einem Paradies für Pflanzen und Tiere entwickelt, weil Menschen dort nicht mehr eingreifen konnten. Es ist zu erwarten, daß auch die Menschen dort keinen Schaden sondern gesundheitliche Vorteile gehabt hätten, wenn man sie nicht abtransportiert hätte. Dazu gibt es Hinweise von Prof. Jaworowski.

Die Anwendung des Wissens um die biopositiven Effekte von Strahlung bei kleiner Dosis und kleiner Dosisleistung könnte den Menschen gigantische gesundheitliche Vorteile bringen. Luckey schrieb in den 1980-er Jahren: „Es wird allmählich Zeit, daß sich die für die Volksgesundheit verantwortlichen Stellen darüber Gedanken zu machen beginnen, wie sichergestellt werden kann, dass jeder die Dosis, die er zur Erhaltung seiner Vitalität und Gesundheit benötigt, auch immer erhält.“

Luckey bezog sich mit diesem Ausspruch auf 1260 Veröffentlichungen über die biopositive Wirkung von Strahlung. Heute ist die Anzahl der diesbezüglichen Veröffentlichungen auf mehr als 3000 gestiegen. Es gibt mit „dose-response“ eine Zeitschrift nur zu diesem Thema.

Heute sagt Luckey in Kenntnis des Co-60-Ereignisses von Taiwan: „Mehr als 500 000 Krebstote könnten jedes Jahr in den USA durch Exposition mit ionisierender Strahlung vermieden werden. Die Möglichkeit dazu wird allerdings durch gesetzliche Restriktionen verboten.“ Bezogen auf die Bevölkerung in Deutschland, könnte man bei uns von 200 000 Personen sprechen. Rechnet man diese Zahlen hoch auf alle westlichen Industriestaaten, kommt man mehrere Million Fälle pro Jahr.

Durch den unsinnigen Strahlen“schutz“ wird Deutschland vor einer billigen, sicheren, grundlastfähigen Stromversorgung „geschützt“ und die Menschen auf der ganzen Welt werden durch Verweigerung der Möglichkeiten der Hormesis vor einer möglichen besseren Gesundheit, längerem Leben, weniger Krankheit „geschützt“. Ich bin der Meinung, es lohnt sich für diese Dinge zu werben.

Die Sitzung kann hier in der Bundestag Mediathek abgerufen werden.




Das EU-Parlament will die Zwangssanierung für Millionen Wohnhäuser

Das Europäische Parlament will Hausbesitzer zu Sanierungen zwingen, um bis 2030 die Energieeffizienzklasse „E“ zu erreichen. Wenn die nationalen Regierungen mitmachen, kommen auf Millionen Immobilienbesitzer horrende Kosten zu. Für viele wäre es de facto eine Enteignung. Die KfW schätzt die Kosten auf 254 Milliarden €

Von Holger Douglas

Das EU-Parlament hat mit einer Mehrheit von 343 zu 216 Stimmen eine Zwangssanierung sämtlicher Häuser beschlossen. Danach sollen bis zum Jahre 2050 alle Gebäude klimaneutral sein – und zwar europaweit. Bereits ab 2028 sollen nur noch Gebäude gebaut werden dürfen, die als „emissionsfrei“ gelten. Vorhandene Gebäude müssen saniert werden, wenn sie als schlecht eingestuft werden.

Wohngebäude in Deutschland sollen bis 2030 mindestens eine Energieeffizienzklasse „E“ erreichen. Gebäude der schlechteren Klassen sollen saniert werden – zwangsweise. Zu diesem Zweck sollen für Wohngebäude europaweit harmonisierte Energieeffizienzklassen mit einer Skala von A bis G eingeführt werden, von der schlechtesten A zur besten G. Alle Neubauten sollen ab 2028 mit Solaranlagen ausgestattet sein, „sofern dies technisch möglich und wirtschaftlich vertretbar ist“ – wie es einschränkend heißt.

Über die Einzelheiten der Ausgestaltung will das EU-Parlament jetzt mit den Mitgliedstaaten verhandeln. Danach muss Deutschland die Richtlinie in deutsches Recht übertragen.

Verbessert werden müssen Dämmung oder Heizung, wenn Gebäude verkauft oder in größerem Maßstab renoviert werden oder wenn ein neuer Mietvertrag unterzeichnet wird. Wie genau diese Vorgaben in Deutschland umgesetzt werden sollen, muss dann in einem sogenannten nationalen Sanierungsplan festgelegt werden.

Der soll auch Förderprogramme enthalten, die Zuschüsse und Finanzierung möglich machen. Die EU will, so hieß es aus Straßburg, 150 Milliarden Euro zur Verfügung stellen. Davon profitieren dürften vor allem Gutachter, Klima-NGOs und die (meist chinesischen) Hersteller von Solarmodulen.

Das Ganze läuft weiter unter dem Paket des sogenannten Green Deal, den die derzeitige Kommissionspräsidentin Ursula von der Leyen vorangetrieben hat mit dem Ziel der „Klimaneutralität“ der Europäischen Union bis 2050.

Vertreter der Immobilienbranche weisen diese Vorhaben als absurde Vorschläge zurück und rechnen vor, dass sich allein in Deutschland die Ausgaben für Sanierungen von Millionen von Häusern auf 182 Milliarden Euro pro Jahr belaufen würden. Woher die Materialien und Handwerker kommen sollen, hat das EU-Parlament nicht beschließen können. Der Berichterstatter für diese Richtlinie, der irische Grünen-Abgeordnete Ciarán Cuffe, wird in der Pressemitteilung mit den fast zynisch scheinenden Worten zitiert: „Die Verbesserung der Leistung der Gebäude in Europa wird unsere Rechnungen und unsere Abhängigkeit von Energieimporten verringern. Wir wollen, dass die Richtlinie die Energiearmut verringert, die Emissionen senkt und ein besseres Innenraumklima für die Gesundheit der Menschen schafft. Dies ist eine Wachstumsstrategie für Europa, die Hunderttausende von hochwertigen, lokalen Arbeitsplätzen im Baugewerbe, in der Renovierungsbranche und im Bereich der erneuerbaren Energien schaffen und gleichzeitig das Wohlbefinden von Millionen von Menschen in Europa verbessern wird.“

Für viele Hausbesitzer bedeutet diese „Wachstumsstrategie“ allerdings möglicherweise eine Enteignung, wenn sie die zur Sanierung notwendigen Summen nicht mehr bezahlen können. In der Pressemitteilung des Europäischen Parlaments ist nur von „Förderprogrammen“ die Rede, die die nationalen Renovierungspläne enthalten sollen, und von kostenneutralen „Renovierungsprogrammen“. Das heißt, Immobilienbesitzer müssen auf staatliche Hilfen hoffen, um sich nicht finanziell zu ruinieren.

Fachleute schätzen, dass allein in Deutschland rund 6 Millionen Häuser neue Dächer und eine Dämmung mit brennbarem Schaumstoffen erhalten müssen. Der KfW zufolge könnten Summen bis zu 254 Milliarden Euro zusammenkommen.

Der Beitrag erschien zuerst bei TE hier