Die Hütchenspieler des Stromnetzes

Inmitten der größten Energiekrise wird im besten Deutschland aller Zeiten munter weiter eine alternativlose Energiewende ins Nichts betrieben, koste es, was es wolle.

von Manfred Haferburg

Schon die Wortfindungen zeigen die fachliche Unbedarftheit der grünen Wende-Protagonisten. Energiewende hin zur erneuerbaren Energie? Energie lässt sich weder wenden, noch erneuern. Energie lässt sich bestenfalls von einer Form in die andere umwandeln. Der erste Hauptsatz der Thermodynamik sagt, dass Energien ineinander umwandelbar sind, aber nicht gebildet, bzw. vernichtet – also auch nicht erneuert oder gewendet werden können.

Im Resultat dieses Unfugs hat Deutschland schon heute die höchsten Strompreise der Welt, und sie kennen nur eine Richtung: nach oben. Die Industrie verabschiedet sich nach und nach. Familien können die Energiekosten nicht mehr stemmen. Die Regierung macht mit einem „Wumms“ und einem „Doppelwumms“ neue Milliardenschulden und bezeichnet sie als „Sondervermögen“. Geht es noch irrer? Ja!

Entgegen aller Ratschläge und Warnungen von Fachleuten setzt die Politik unbeirrbar den Kurs der Kraftwerksverschrottung fort. Mietwissenschaftler liefern den Politikern die gern gehörten Begründungen für ihr Tun, und echte Experten werden entweder nicht gehört oder verunglimpft und mundtot gemacht. Ich weiß, wovon ich spreche.

Das Analogon zu „Die Rente ist sicher“

Die Hauptstrommedien berichten einhellig und im Einklang mit der Regierung, dass es auch künftig keine Probleme mit der Energiewende geben wird, so als gäbe es nicht schon heute genug Probleme damit. Ossis kennen das schon, in der DDR gab es auch keine Probleme beim Aufbau des Sozialismus, der 1989 endlich siegte.

Am Mittwoch verabschiedete das Bundeskabinett einen Bericht des Bundesministeriums für Wirtschaft und Klimaschutz:

Die Versorgung mit Strom ist mit den aktuellen Planungen der Bundesregierung auch im Zeitraum 2025 bis 2031 auf weiterhin hohem Niveau gewährleistet… Die Versorgung mit Strom ist dabei auch bei einem Kohleausstieg 2030 sicher.“

Bundeswirtschaftsminister Habeck wird wie folgt zitiert:

Es ist zentral, dass die Verbraucher und Verbraucherinnen jederzeit sicher mit Strom versorgt werden. Diese Stromversorgungssicherheit werden wir auch beim Umbau unseres Stromsystems auf 100 Prozent erneuerbaren Strom gewährleisten. Daher monitort die Bundesnetzagentur die einzelnen Schritte und Etappen sehr genau. Der heute im Kabinett verabschiedete Bericht der Bundesnetzagentur zeigt, dass die Stromnachfrage im Zeitraum von 2025 bis 2031 jederzeit sicher gedeckt werden kann. Dies gilt auch, wenn der Stromverbrauch durch neue Verbraucher wie Elektromobile und Wärmepumpen deutlich steigt und der Kohleausstieg bis 2030 erfolgt. Wir sehen: Wir sind auf dem richtigen Weg…“

Überzeugungstäter: „Unser Weg ist richtig“

Ich als Ossi habe da ein „deja vue“. Am 2.5.1969 prangte auf Seite 1 des „Neuen Deutschland“, dem Organ des Zentralkomitees der Sozialistischen Einheitspartei Deutschlands, eine ÜberschriftDie Erbauer des neuen Berlin: „Friede, Demokratie, Sozialismus – unser Weg ist richtig. Dieses Bewusstsein, dass wir auf dem richtigen Wege sind, ist ein gewaltiger Kraftquell – für neue große Leistungen bei der Gestaltung des entwickelten gesellschaftlichen Systems des Sozialismus und für die Entschlossenheit, das Errungene zu verteidigen…“ Die absolut realitätsresistenten DDR-Bonzen sahen sich 1969 genauso auf dem richtigen Weg wie der schon vor Jahren falsch abgebogene Wirtschaftsminister Robert Habeck und sein: „Wir sind auf dem richtigen Weg“.

Ich frage mich als Fachmann: „Wie wollen die das machen? Alle Kernkraftwerke und Kohlekraftwerke, die heute noch mehr als die Hälfte der Stromproduktion stemmen – oft auch mehr als zwei Drittel – verschrotten und trotzdem das Land jederzeit sicher mit 100 Prozent Strom versorgen? Wie soll das gehen, wenn sich der Bruttostromverbrauch laut Bericht auch noch von rund 565 TWh in 2021 auf 750 TWh erhöht? Wie soll das gehen, wenn es weder eine großtechnisch bezahlbare Speichertechnologie gibt, noch billigers Gas fûr nicht vorhandene Gaskraftwerke, noch konstanten Wind und Sonnenschein nachts?

Die Hütchenspieler von der Bundesnetzagentur

Wer sind diese Leute, die von Amts wegen Energie wenden und erneuern wollen und immer neue Durchhalteparolen raushauen? Es ist die Bundesnetzagentur. Sie hat den Bericht zum Monitoring der Versorgungssicherheit mit Strom vorgelegt, gemäß §§ 51 Abs. 3, 63 Abs. 2 Nr. 2 EnWG. Der Bericht untersucht die Versorgungssicherheit vorausschauend für den Mittelfristhorizont 2025 bis 2031.

Bundesnetzagentur (BNetzA) hört sich seriös an, wie eine Art Hüter der Stromnetze der Bundesrepublik Deutschland.

In Wirklichkeit ist die Bundesnetzagentur eine Behörde unter der Leitung des grünen Philosophen und Bundeswirtschaftsministers Habeck. Die Bundesnetzagentur hat ihren Sitz in Bonn und ist eine „obere deutsche Bundesbehörde im Geschäftsbereich des Bundeswirtschaftsministeriums“. Ihr Chef ist seit 1. März 2022 der Diplomvolkswirt Klaus Müller von den Grünen, er hat auch den Bericht unterzeichnet. Das ist der selbe Mann, der immer vor Stromengpässen durch E-Autos und Wärmepumpen warnte und noch größere Einsparungen von der Bevölkerung verlangte.

Der Bericht der Bundesnetzagentur zum Monitoring der Versorgungssicherheit Strom ist 111 Seiten lang. Die dazugehörigen Handlungsempfehlungen sind 27 Seiten lang, das dazugehörige Erläuterungspapier noch mal 5 Seiten. Ich frage mich schon, welches Kabinettsmitglied sich durch die 143 Seiten Fachchinesisch gekämpft hat? Verstanden hat den Text mit Sicherheit keines der Regierungsmitglieder.

Unter welchem Becherchen ist denn die Versorgungssicherheit?

Hütchenspieler verwirren ihre Opfer mit ständigem Verschieben der Becherchen, bis sie den Überblick verlieren. Der Hütchentrick der Netzagentur funktioniert ähnlich. Sie weisen nämlich jede Verantwortung für ihre unseriöse Aussage von der sicheren Versorgung mit Strom im Jahre 2030 von sich, indem sie festlegen, dass diese Aussage nur unter der Prämisse gilt, dass die Regierungsziele der Energiewende eingehalten werden.

Damit die sichere Versorgung mit Elektrizität gewährleistet ist, müssen eine Reihe von erzeugungs- und netzseitigen Entwicklungen realisiert und die entsprechenden Anstrengungen weitergeführt werden“.

Ein kurzer Blick auf diese Ziele zeigt, dass dies völlig unrealistisch ist. (Bei meinen Kommentierungen klammere ich das ganze grüne Wasserstoffmärchen aus, weil darauf im Bericht kaum eingegangen wird.) Ich zitiere einige Eckpunkte des Berichtes und füge kurze Kommentare hinzu:

  • „Als Ausgangspunkt hat die Bundesnetzagentur den deutlichen Ausbau der erneuerbaren Energien (Wind Onshore, Wind Offshore und Photovoltaik) in Deutschland von ca. 123 GW (2021) auf 360 GW (2030) bzw. 386 GW (2031) gemäß Osterpaket unterstellt. Die nötige Ausbaugeschwindigkeit ist damit mehr als dreimal so hoch wie in den Vorjahren.“ 

Dies würde bedeuten, dass ab sofort bis 2030 arbeitstäglich (!) fünf (!) neue Windräder der modernsten 5 MW-Klasse in Betrieb gehen. Dass ab sofort 1.200 Betonmischer täglich zu den Windrad-Fundamenten dieseln. Dass ab sofort 375 Sondertransporte mit den 80 Meter langen Windrad-Flügeln pro Monat über deutsche Straßen geleitet werden müssen. Das sind nur ein paar Beispiele, um die Unmöglichkeit der Lösung der Aufgabe zu illustrieren.

  • „Für steuerbare Kapazitäten zeigt dieser Bericht, dass bei Beibehaltung des heutigen Marktdesigns ein Zubau von Gaskraftwerken (H2-ready), … bis 2030 bzw. 2031 in Deutschland die Versorgungssicherheit zu den geringsten Kosten gewährleisten würde… (Investitionen in neue Gaskraftwerke werden in den Berechnungen in relevantem Umfang von 17-21 GW bis 2030/2031 erwartet) … Es ist darauf zu achten, dass die Anlagen rechtzeitig bis Ende des Jahrzehnts einsatzbereit sind, um einen Beitrag zur Versorgungssicherheit leisten zu können.“

Das würde bedeuten, dass bis 2030 etwa 50 neue Gaskraftwerke der 300-MW-Klasse gebaut werden müssen, die noch nicht einmal entwickelt wurden, da sie ja Wasserstoff-fertig sein sollen. Der Bau eines Gaskraftwerkes dauert mindestens fünf Jahre. Es müssten Investoren gefunden werden, die in Gaskraftwerke investieren, die mit dem teuersten fossilen Brennstoff auf dem Markt – dessen Vorhandensein zudem unsicher ist – weit unter ihrer Rentabilitätsgrenze betrieben werden müssen, da Wind- und Sonneneinspeisung immer Vorrang haben. Es müssen Standorte gefunden und erschlossen werden. Es müssen Lieferanten gefunden, Ausschreibungen getätigt und Lieferverträge abgeschlossen werden…

  • Um die Lastmanagementpotentiale zur Lastreduktion in Knappheitssituationen leichter zu erschließen, überarbeitet die Bundesnetzagentur zudem die Regelungen für die individuellen Netzentgelte. Die Entwicklung der im Stromsystem nutzbaren Flexibilität u. a. von Elektromobilität sowie Wärmepumpen im gewerblichen und privaten Bereich ist kontinuierlich zu monitoren und bei Bedarf hierzu bestehende Hemmnisse zu beseitigen.“

Die Abschaltung industrieller und privater Verbraucher ist das einzige Ziel, dessen Erreichung ich nicht in Zweifel ziehen möchte. Mit der Einschränkung, dass man auf die Digitalisierung der Steuerung der SmartMeter vielleicht noch ein Jahrzehnt warten muss und bis dahin die Abschaltung der E-Auto-Ladestationen und Wärmepumpen eher manuell erfolgen muss – also geregelt über den Preis, den die Nutzer dann zahlen müssen. „Regelungen für die individuellen Netzentgelte“ bedeutet, dass die E-Autobesitzer die Ladestation und die Wärmepumpenbesitzer ihre Heizung von ganz allein abschalten, da sie sonst für unbezahlbare Stromkosten aufkommen müssen.

  • „Der europäische Binnenmarkt eröffnet wichtige Ausgleichseffekte für das Stromsystem. Die beiden Analysen in diesem Bericht gehen von einem funktionierenden Elektrizitätsbinnenmarkt aus. Sie setzen „offene Grenzen“ beim grenzüberschreitenden Handel und Austausch mit Strom voraus… Die Berechnungen zeigen, dass Deutschland auch zu einem Stromnettoimporteur werden kann.“

Dies ist an grüner Heuchelei nicht zu übertreffen. Deutschland steigt aus eigener Kernenergie und Kohle aus, um dann zu fordern, dass polnischer Kohlestrom, französischer Atomstrom es richten sollen, wenn kein Wind weht und keine Sonne scheint. Und was, wenn die europäischen Nachbarn ihren Strom selber brauchen? Wird dann die Kavallerie geschickt, um offene Grenzen beim grenzüberschreitenden Handel und Austausch mit Strom zu sichern, oder reicht ein gezücktes Scheckbuch?

  • „Netzseitig ist es zudem notwendig, dass Netzoptimierung und Netzausbau entsprechend vorankommen, um die durch einen schnelleren Kohleausstieg und steigende Erneuerbare-Energien-Erzeugung größer werdenden Transportbedarfe zu ermöglichen.“

Beim Netzausbau helfen ein paar simple Zahlen dem Verständnis nach. Das klägliche Scheitern aller Zeitpläne für die berühmten Stromautobahnen spricht Bände. Von 7.700 Kilometern sind in fünf Jahren ganze 1.300 km gebaut, im letzten Jahr hat man ganze 200 km geschafft. Wenn es in dem Tempo weitergeht, dann sind die Stromtrassen in 30 Jahren fertig.

Wer soll das bezahlen?

Der Bericht der Bundesnetzagentur stammt aus dem tiefsten Bullerbü, wurde verfasst von den Gebrüdern Grimm der Energiewende und ist bestimmt für gläubige Philosophen, windige Anwälte und ein paar Ungelernte, die sowieso von Energie nur Bahnhof verstehen. Er vermittelt die Botschaft von vermeintlichen Fachleuten an diese unbedarften Entscheider: „Alles Paletti für die nächsten zwei Wahlperioden. Ihr könnt ruhig weiter gut funktionierende Kraftwerke verschrotten. Ihr könnt ruhig weiter das Geld der Leute zum Fenster rauswerfen. Der Strom kommt weiter aus der Steckdose.“ Was sie nicht herauslesen ist, aber doch drin steht: „Und wenn er nicht mehr aus der Steckdose kommt, dann ist es nicht unsere Schuld. Ihr habt eure eigenen Pläne nicht eingehalten. Jetzt guckt ihr dumm aus der Wäsche“.

Zahl der Redispatch Maßnahmen von 2016- 2022

Die utopischen Pläne der Regierung scheitern zwangsläufig schon allein an dem nicht in genügendem Umfang an Vorhandensein der benötigten Ressourcen. Und darüber hinaus: Hat die Bundesnetzagentur schon einmal etwas vom Fachkräftemangel gehört? Wenn solche Dokumente zur Grundlage von Regierungsentscheidungen werden, kann einem nur angst und bange werden. Wie Deutschland nach der Umsetzung der Pläne aussehen würde, mag man sich gar nicht vorstellen. Ein einst blühendes Land, umgewandelt in eine Industriebrache voller Propellerungeheuer und blauschimmernder Glaswüsten.

Eine Frage wird in dem Bericht mit gutem Grund nicht gestellt: „Wer soll das bezahlen?“ Weil es auch so klar ist, wer für die immensen Kosten aufkommen muss. Nur denjenigen, welche es bezahlen müssen, werden von den Hütchenspielern der Bundesnetzagentur und ihren angeschlossenen Medien durch 143 Seiten intensives Becherchen-Verschieben die Sinne vernebelt.

Es dauert viele Jahre, um ein Kraftwerk zu bauen, aber nur ein paar Stunden, um es zu verschrotten und zu sprengen. Abgewanderte Industrie kommt nicht freudestrahlend zurück, wenn der grüne Albtraum vorbei ist. Ausgewanderte Leistungsträger auch nicht. Das ist schade, denn die von den Hütchenspielern Geprellten werden erst in ihrem neuen europäischen Venezuela namens Deutschland erwachen, wenn  es zu spät ist. Das Tal der Tränen wird tief und lang sein.

versorgungssicherheitsbericht-strom Kopie

 

Manfred Haferburg ist Autor des autobiografischen Romans „Wohn-Haft“ (4,8 von 5 Sternen bei 221 Bewertungen), der heute einen erschreckenden gesellschaftlichen Wiedererkennungswert hat. Leser Sille scheibt in seiner Bewertung: „Das Buch ist – trotz aller grauenvollen, beängstigenden, bedrückenden und deprimierenden Details – sehr flüssig geschrieben und ich habe es quasi auf einen Zug durchgelesen. Es ist ein Stück DDR-Zeitgeschichte, und ich kann es jedem nur empfehlen, der meint, Sozialismus solle man nochmal probieren.“

Der Beitrag erschien zuerst bei ACHGUT hier

 




Dem Wald geht’s schlecht – nur anders

Von Günter Keil

„Dem deutschen Wald geht es schlecht. Sehr schlecht. Heute wissen wir, der Wald ist in Gefahr.“ Mit diesem Urteil begann ein langer Artikel in der FAZ vom 13.1.2023. Das Waldsterben ist also immer noch da. Es war in der Zeit zwischen 1990 und 2000 ein großes Thema- übrigens nur in diesem Lande – und die damit verbundene Prophezeiung eines Göttinger Professors. Er verkündete 1979 , dass die ersten Wälder schon in fünf Jahren sterben würden; sie seien nicht mehr zu retten. In Frankreich prägte man dafür die Worte „le angst“ und „le waldsterben“ als Schlüsselbegriffe für deutsche Befindlichkeiten.

Ein zentrales Argument war die Luftverunreinigung durch Industrieabgase – besonders Schwefeldioxid SO2 – das in der Tat Pflanzen schädigt. Allerdings ist dieses Thema in Westdeutschland bereits in der Regierungszeit von Ludwig Erhard mit der Technischen Anleitung zur Reinhaltung der Luft (TA Luft) im September 1964 und mit dem Bundesimmissionsschutz-Gesetz vom 22.3.1974 unter Willy Brandt angepackt worden. Seit 1974 sanken die Schwefeldioxid-Emissionen drastisch – also bereits fünf Jahre vor dem Beginn der damit begründeten Waldsterbepanik. Erst nach der Wiedervereinigung wurden auch in der Ex-DDR deren massive SO2- Emissionen beendet. Die Entschwefelung des Industriequalms war vorher für den wahren Sozialismus einfach zu teuer.

Diese stärkste Begründung für das behauptete Waldsterben, wie es inzwischen genannt wurde, war somit schon lange zuvor weggefallen. Andere Begründungen für das Waldsterben mussten her. Andere Wissenschaftler, die auch etwas zu Waldschäden beizutragen hatten, konzentrierten sich auf die Kronenverlichtungen, also Nadel- und Blattverluste im Herbst, was man auch deutlich sehen konnte, ohne ein Forstexperte zu sein. Allerdings füllten sich die Baumkronen in Frühjahr wieder mit frischem Grün.

Auch witterungsbedingte Trockenzeiten konnten den Wald nicht umbringen. Im Rahmen des Forschungsprogramms „Waldschäden“, das vom Bundesforschungsministeriums BMFT gestartet wurde, wurde diese Frage untersucht – mit Austrocknungsversuchen, wobei Versuchsbäume völlig vom Niederschlag abgeschirmt wurden. Aber sie gingen einfach nicht ein. Die gefundene Erklärung war die Existenz der Bodenpilze (die sog. Mykorrhiza), die in Symbiose mit den Bäumen Wasser aus größerer Tiefe an die Baumwurzeln leiteten. Das hatte die Natur schon vor unendlichen Zeiten mit ihrer Evolution so eingerichtet.

Die Waldsterbe-Argumente wurden eins nach dem anderen widerlegt. Die Panikdebatte wurde schließlich am 2.2.1993 von der hochrangig mit Professoren aller großen forstwissenschaftlichen Institute besetzten BMFT-Gutachtergruppe mit dem Urteil „dass ein Absterben ganzer Wälder in Zukunft nicht zu befürchten sei“, beendet. Das hätte eigentlich das Ende der Waldsterbepanik sein können. Aber das Waldsterben gab es unverändert in der Presse weiter – und erst recht bei den Umweltverbänden und natürlich auch in der Politik. Im Herbst 1996 kam der erwähnte Expertenkreis des Forschungsministeriums zu dem vernichtenden Ergebnis: Abschaffung des jährlichen Berichts „Waldzustandserfassung“ des zuständigen Bundeslandwirtschafts-Ministeriums BML wegen Unbrauchbarkeit. Es nützte nichts. Erst im Sommer 2003 erklärte die BML-Ministerin Renate Künast das Waldsterben für beendet. Aber es gibt bis heute genügend Artikelschreiber, die das Thema am Leben erhalten.

Dem Wald geht es aber dennoch heute wirklich schlecht.

Und zwar eindeutig vom Menschen verursacht. Leider ging der oben genannte Artikel nicht auf die reale, schwerwiegende und zunehmende Schädigung und Bedrohung sowohl des Waldes als auch seiner Tiere ein.

Es handelt sich um die immer brutaler werdende Errichtung riesiger Windkraftanlagen (WKA) in Wäldern. Die Regierung braucht dafür mehr Flächen, was z.B. von dem sonst geschätzten Politiker Boris Palmer mit seiner Befürchtung „Wollte man alle Landschafts- und Naturschutzgebiete, die Mittelgebirgszüge…..von Windrädern freihalten, dann wäre der Ausbau der Windkraft beendet“, verdeutlicht wurde.

Auch der Bundesverband Windenergie beklagte das bereits um 2015 sehr und erklärte „Die heutigen Erfordernisse der Energiestrategie sind mit Windenergie in der Offenlandschaft allein nicht zu erreichen“.

Die FAZ berichtete am 7.7.21, dass der Bundesverband der Energie- und Wasserwirtschaft BDEW „gemahnt“ hat, dass es 1500 neue Windräder pro Jahr braucht, und zwar bis 2030. „Wir brauchen jetzt den Turbo“ und „Die Bundesländer müssten ihre Spielräume ausschöpfen für mehr Fläche“, betonte die BDEW-Hauptgeschäftsführerin Kerstin Andreae. Weiter sagte sie: „Wenn wir die Energiewende nicht hinbekommen, werden die negativen Folgen wie Trockenheit der Wälder und andere Klimaveränderungen viele Arten gefährden.“ Dass ihr nur die Trockenheit der Wälder als Bedrohung einfiel, zeigt, dass fehlendes Wissen nicht für Schädigungstheorien eingesetzt werden sollte. Beste Grüße von den Mykorrhiza-Bodenpilzen – siehe die obige Beschreibung des zwar interessanten aber wirkungslosen Austrocknungsexperiments der Forstwissenschaftler. Und was die „anderen Klimaveränderungen“ betrifft, wäre interessant zu erfahren, welche das wohl sein sollten.

In der mittelalterlichen Warmzeit, in der es höhere Temperaturen gab als wie in der jetzigen Warmzeit, gab es kein Waldsterben, sondern eine beträchtliche Stärkung der Vegetation und damit auch der Ernten, was auch dazu führte, dass diese Periode eine Wohltat für die Lebensbedingungen der Menschen wurde.

Die Klagen der Windkraft-Lobbyisten sind verständlich, denn 2020 gab es nur 420 neue Windräder…

Die aktuellen Ankündigungen von Bundeswirtschaftsminister Habeck bezüglich eines enormen (in Deutschland heißt „enorm, riesig, extrem und größenwahnsinnig“ jetzt „ehrgeizig“) beabsichtigten weiteren Ausbaus der Windkraft, und das selbstverständlich nicht nur Offshore , bedeutet nichts anderes, als dass es in den „letzten Flächen“, den Wäldern, dann erst noch richtig losgehen wird. Denn die Offenlandschaft sei ja schon vollgebaut, wie die WKA-Lobby klagte.

Was die Benutzung des Waldes für den WKA-Bau bedeutet, kann man sehen: Es werden Schneisen als Zugangswege für große Transportfahrzeuge und riesige Schwerlastkräne zu den Baustellen geschlagen – mindestens 4 Meter breit. Die Kahlschlagsfläche Baustelle selbst hat die Größe eines Übungs-Fußballplatzes und in deren Zentrum wird ein geradezu ungeheuerlich großes Stahlbeton-Fundament errichtet. Dessen Maße und Gewichte sind bei den großen typischen sogenannten Schwachwind-WKA von z.B. 5,5 Megawatt Maximal-Leistung: Der Durchmesser desFundaments: 30 Meter, seine Tiefe 4 Meter, 1.400 Kubikmeter Beton, 120 Tonnen Stahl. Die Turmhöhe bis zur Nabe (Maschinenhaus) geht bis zu 166 Metern – entsprechend höher müssen die Kräne reichen, um die Rotorflügel, die bis zu 90 Meter lang sein können, zu montieren.

Und davon werden auch noch möglichst mehrere dieser Riesen-WKA als Windpark im Wald zusammengebracht. Das ist rentabler.

Die fest vorgeschriebene Verpflichtung des Betreibers, am Ende der WKA-Lebensdauer die Fundamente zu beseitigen, wird mit staatlicher Erlaubnis ausgehebelt, wenn stattdessen Geld gezahlt wird. Diese Betonmassen bleiben deshalb jetzt ewig im ruinierten Wald.

Diese Schäden sind aber noch lange nicht Alles: Es sind die Auswirkungen der laufenden Windkraft-Riesen auf die Tierwelt. Mehrere Naturschutzverbände (nicht aber der BUND) haben festgestellt, dass WKA Greifvögel, Fledermäuse und Insekten töten. Aus einer sogar vom Bundeswirtschaftsministerium BMWi in Auftrag gegebene Studie berichtete die SZ, dass sowohl der Rotmilan – eine geschützte Art – und der Mäusebussard in ihren Populationen bedroht sind.

Der Verhaltensforscher Oliver Krüger sagte 2016 „die Zahlen zeigten, dass schon der Jetzt-Zustand für den Rotmilan kritisch ist.“ Bereits 2012 verunglückten im Bundesland Brandenburg 3,1% der Rotmilane an den damals 3044 WKA tödlich. Fachleute schätzten damals, dass der Bestand theoretisch noch 4% Verluste verkraften könnte.

Neun Jahre später, also 2021, waren es lt. BDEW 7.864 Anlagen im Lande Brandenburg – also das 2,6-fache von 2015. Wenn heute auch nur noch ein einziges Brutpaar in diesem Bundesland übriggeblieben ist, wäre das wohl ein Wunder.
Zum Mäusebussard erklärte der Nabu-Ornithologe Lachmann in der o.e BMWi-Studie, dass man wenige Standorte finden wird, an denen kein Mäusebussard ist. Fotos von geschredderten Exemplaren gibt es jedenfalls etliche.

Fledermäusen werden durch die von den WKA-Flügeln erzeugten schlagartigen Druckänderungen die Lungen zerrissen. Ihr Inneres gleiche „blutigem Matsch“.

Eine Studie der Wildtierstiftung nannte vom Autor Klaus Richarz die Zahl von „jährlich 240.000 Fledermäusen, die den Rotoren zum Opfer fallen.

Bereits 2015 hatte diese Stiftung in eine Umfrage die Aussage „Im Zweifelsfall hat der Schutz von Vögeln oder anderen Tieren Vorrang vor dem Bau von Windkraftanlagen“ zur Abstimmung vorgelegt. 64 Prozent der Befragten stimmten dem zu. In einer weiteren von Emnid durchgeführten Umfrage – ebenfalls 2015 – stimmten 79 Prozent folgender Forderung zu: „Für den Ausbau der Windenergie sollten generell keine Waldgebiete verschwinden oder zerschnitten werden.“

Das erklärt die immer stärkeren Widerstände der Bewohner in besiedelten Regionen gegen die Errichtung von WKA.

Die Deutschen haben ja bekanntlich eine besonders liebevolle und romantische Beziehung zu ihren Wäldern. Die Absicht der Regierung, große Teile dieser Wälder in Industriewüsten zu verwandeln, könnte auch für sie selbst zu einer Katastrophe werden.

Es ist nicht nur der Wald bedroht, sondern das ganze Ökosystem Wald.

Zum Schluß ein Blick in das Baugesetzbuch – und dessen Bedeutung für die Errichtung von Windenergieanlagen

Es bietet eine Überraschung für logisch denkende Normalbürger, aber wohl kaum für Juristen.

Es geht um den §35 des Baugesetzbuchs “Bauen im Außenbereich“.

Dort steht unter (1): ..“dass ein Vorhaben nur zulässig ist, wenn öffentliche

Belange nicht entgegenstehen und wenn es

Zif.5: „der Erforschung, Entwicklung und Nutzung der Wind- oder
Wasserenergie dient.“

1. Anmerkung: Diese Bestimmung hat unter den Gegnern des WKA-Ausbaus großen Zorn hervorgerufen, weil damit dieser Ausbau staatlich durch Gesetz grundsätzlich „gesegnet“ wird.

Dieser Ärger ist verständlich, aber wenn man in diesem §35 weiter liest, gelangt man zu (3):

(3): „Eine Beeinträchtigung öffentlicher Belange liegt insbesondere vor, wenn
das Vorhaben

Ziff.3: „schädliche Umweltauswirkungen hervorrufen kann oder ihnen
ausgesetzt ist;
Ziff.5: „Belange des Naturschutzes und der Landschaftspflege … oder die
natürliche Eigenart der Landschaft beeinträchtigt oder das Orts-
und Landschaftsbild verunstaltet.

2. Anmerkung: Diese Nr. (3) ist ein Hammer ! Und gnadenlos deutlich.
Wenn man logisch an die Aussagen in Nr.(1), Ziff.5 einerseits
und dazu an die Aussagen in Nr.(3), Ziff. 3 und 5 herangeht,
bedeutet das doch ganz eindeutig:
o Die Nutzung der Windenergie ist zwar zulässig; das wird jedoch von den
Bestimmungen in Nr.(3) für eine Reihe von Standorten untersagt!
Es zählen: Naturschutz, Beeinträchtigung der natürlichen Eigenart der
Landschaft, Verunstaltung bzw. Verschandelung des Orts- und
Landschaftsbildes.

o Betrachten wir den Fall, dass einmal jemand unter Bezugnahme auf das
Baugesetzbuch die „Nutzung“ der Windenergie durch Vorhaben in Wäldern
(Naturschutz ), in der freien Landschaft (in natürlich erhaltenem Zustand,
in geschützten Landschaften, in Biosphärenreservaten ) und z.B. in
historischen und auch architektonisch bewundernswerten Städten
(Verschandelung) anklagt und die Anwendung dieses Gesetztes einfordert:
Dann könnte es doch eventuell geschehen, dass ein sehr großer Teil der
WKA-Neubauprojekte schlicht verboten wird. Der Nachweis ihrer schädlichen
Auswirkungen dürfte jedenfalls gelingen.
Zu den Ausnahmen würden Industriebrachen, Mülldeponien und ähnliche
Landschaftsteile gehören, die man selbst durch Windräder nicht mehr
verunstalten kann.

Was befürchtete Boris Palmer? „Wollte man alle Landschafts- und
Naturschutzgebiete, ….von Windrädern freihalten, dann wäre der Ausbau
der Windkraft beendet“. Möglicherweise kannte er von §35 des
Baugesetzbuchs die Nr. (3) nicht. Oder es war ihm egal.

o Ob es bereits sich darauf beziehende Klagen gegen einen Neubau von
Windkraftanlangen an Land – und insbesondere den von Windparks – gegeben
hat, und wie das ggf. ausgegangen ist, wäre interessant zu wissen.

Dr.-Ing. Günter Keil, Sankt Augustin

 

 




Der Traum vom grünen deutschen Wasserstoff

von Klaus Maier

Seit spätestens 2020 ist auf Bundes- und EU-Ebene klar, dass man die Wasserstoffwirtschaft, im Rahmen der Nationalen Wasserstoffstrategie, als zentrale Komponente der Energiewende mit allen administrativen und finanziellen Möglichkeiten vorantreiben wird. Es geht um den sogenannten grünen Wasserstoff, also den, der aus „Erneuerbaren Energien“ (EE) durch Elektrolyse herzustellen ist.

Dazu gibt es Zielsetzungen, etwa über die Errichtung von Elektrolysekapazitäten, zunächst bis 2030, aber auch darüber hinaus.

Wasserstoff hat als Energieträger, z.B. für die Anwendungen Wärme oder Mobilität unvermeidbar das Problem des sehr schlechten Gesamtwirkungsgrades über die gesamte Kette von der Stromerzeugung, über die Elektrolyse, über den Transport (mit Kompression oder Verflüssigung) bis zur Nutzenergie. Verglichen mit der direkten Nutzung der elektrischen Energie – sofern dies möglich ist – ist die Wasserstofflösung in der Energienutzung um Faktoren schlechter. Dies alles ist bekannt und wurde an vielen Stellen diskutiert (z.B. [2], [3]).

Das Schönrechnen

Um diesen Mangel der Wasserstoffwirtschaft zu kaschieren, wird meist nur qualitativ über das geredet was mit Wasserstoff alles prinzipiell möglich ist. Über die quantitativen Aspekte wird eher selten gesprochen. Ist es dennoch nötig, benennt man immer nur den Wirkungsgrad der reinen Elektrolyse unter optimalen Bedingungen (möglichst mit vermuteten Verbesserungen in der Zukunft) und ggf. noch den Wirkungsgrad der Brennstoffzelle für die Rückverstromung. Dabei werden die anderen Glieder der Verlustkette nicht erwähnt.

Auch wird gerne verschwiegen, dass diese Verluste durch Mehrerzeugung für den Elektrolysestrom auszugleichen sind. Da dieser Strom aber aus WEA (Wind) und PVA (Sonne), den volatilen Erneuerbaren Energien (VEE) kommt, bedeutet dies einen erhöhten, zusätzlichen Ausbau solcher Anlagen.

Bei der Wirtschaftlichkeit wird zudem gerne ein hoher Wert der Volllaststunden angenommen (z.B. 4000 h/a und mehr), was einen Nutzungsgrad der Elektrolyseure von um die 50% bedeutet. Dass der Wasserstoff als Energieträger von der Kostenseite den fossilen (Benzin, Diesel, Kerosin) nicht das „Wasser reichen“ kann, wurde z.B. in [2, S. 88 ff] vorgerechnet. Auch aktuell hat die Marktsituation für die Herstellung von grünem Wasserstoff ihre Tücken [4].

Um die publizierten Kosten für Wasserstoff im Rahmen zu halten, will die EU in ihren Ankündigungen die Elektrolyseure sogar mit kontinuierlichem Strom betreiben. Das wäre aber nur mit konventionellen oder Kernkraftwerken möglich. Prof. Sinn bewertet das richtig:

„Wenn nicht überschießende Spitzen verwendet werden, ist es aber stets ökologischer, den grünen Strom direkt für die Zurückdrängung fossiler Stromquellen zu verwenden als für die Produktion von Wasserstoff. Andernfalls würde der Wasserstoff ja faktisch aus fossiler Energie gewonnen.“ [7, ab 1h:22]

Für den Elektrolysestrom muss also der Strom aus Wind und Sonne verwendet werden, der nicht direkt ins Stromnetz eingespeist werden kann, weil dieses ansonsten überlastet wäre. Es ist die sogenannte Überschussenergie aus VEE (volatilen EE), die fälschlich oft als kostenlos dargestellt wird.

Die Volatilität führt aber zu besonderen Problemen, die nachfolgend erörtert und in [1] im Detail behandelt werden.

Eine weitere Beschönigung sind die offiziellen Angaben über den Wasserstoffbedarf für die Dekarbonisierung Deutschlands. Der Wissenschaftliche Dienst des Bundestags zeigt in seiner Stellungnahme [5, S. 5], dass in den Studien zum H2-Bedarf große Unterschiede in den Angaben bestehen. Durch zielgerichtete Annahmen und kreative Rechnungen kommt man zu politisch vorzeigbaren Werten. Daher hat der Autor in [1, Kap. 4.2] eine eigene, sorgfältige Zusammenstellung für die verschiedenen H2-Anwendungen vorgenommen. Mit rund 33 Mill. t H2 pro Jahr liegt dieser Bedarf erheblich über den kommunizierten Zielwerten.

Mittlerweile wird immer weniger von der Autarkie Deutschlands gesprochen, sondern die Notwendigkeit der Einfuhr von Wasserstoff wird anerkannt. Das wäre bei 33 Mill. t H2 pro Jahr auch gar nicht anders möglich.

Gesicherte Stromversorgung

Es ist unabdingbar, dass unser Stromversorgungssystem für ein Industrieland eine gesicherte Stromversorgung bieten muss, weil auch Wärmepumpen und E-Fahrzeuge nicht Tage oder Wochen warten können, bis die Dunkelflaute vorbei ist. Es braucht also einen Langzeitspeicher (LZS), der saisonalen Energieausgleich ermöglicht. Ein Langzeitspeicher mit der nötigen Kapazität ist aber nur über P2G2P (Power-to-Gas-to-Power) möglich. Es bedeutet, entweder Wasserstoff oder Methan als gasförmigen Energieträger zu verwenden, der in großen Mengen gespeichert werden kann. Wasserstoff ist die Wahl der politisch Verantwortlichen in der EU und blendet dessen Nachteile gegenüber Methan dabei aus.

Was also mindestens in Deutschland in diesem Zusammenhang nötig wäre, wäre einen solchen LZS mit H2 aus VEE-Überschussenergie zu realisieren.

Szenario: Wasserstoff für die gesicherte Stromversorgung

In [1, Kapitel 4.5] ist dieses Szenario modelliert worden. Dazu wurde angenommen, dass Deutschland (als Industrieland) 2050 mit Dekarbonisierung noch 1.000 TWh/a gesicherte Stromerzeugung, inkl. Wärmepumpen und E-Mobilität, benötigt (weitere Einzelheiten in [1]).

Um eine solche Stromversorgung technisch zu realisieren, muss die VEE auf über 1.000 GW (Onshore WEA: 446 GW, Offshore WEA: 89 GW, PV: 535 GW) ausgebaut werden – heute sind es in Summe etwa 130 GW. Die Elektrolyseleistung musste für dieses Szenario aus technischen und ökonomischen Gründen auf 300 GW angesetzt werden und die notwendige LZS-Kapazität dafür wurde mit 38 TWh ermittelt.

Diese Dimensionierung des Stromversorgungssystems erzeugt in einem durchschnittlichen VEE-Ertragsjahr keinen überschüssigen Wasserstoff. In einem Jahr mit 25% Mehrertrag werden 370 TWh Überschussstrom in H2 gewandelt (7,2 Mill. t H2) und in einem Jahr mit nur 75% VEE-Ertrag müssen für eine gesicherte Stromversorgung 96 TWh importiert werden.

Selbst eine Beschränkung der Wasserstofferzeugung auf den P2G2P-Speicher mit einer Dimensionierung der Stromversorgung auf ein durchschnittliches Ertragsjahr, führt in einem ertragsschwachen Jahr zu einem nötigen Stromimport, der mit Spitzenleistungen von über 100 GW nicht realisierbar ist. Das übersteigt die heutige Koppelkapazität (< 20 GW) zu den Nachbarländern um ein Vielfaches.

Diese Zahlen machen schon deutlich – und da wurde noch kein Wasserstoff für z.B. Industrie oder Mobilität kontinuierlich erzeugt –, dass eine solche Stromversorgung nicht verantwortbar und realpolitisch auch nicht durchsetzbar ist.

Szenario: Wasserstoff als Energieträger und zur stofflichen Nutzung

Mit der Annahme, dass ein Teil des nötigen Wasserstoffs für Industrie und Mobilität in Deutschland hergestellt werden soll, wird das vorgenannte Szenario nochmals gesteigert.

Geht man davon aus, dass von den 33 Mill. t/a z.B. ein Viertel im Land erzeugt und der Rest importiert wird, sind dafür ca. 650 TWh/a VEE-Überschussstrom nötig (wegen der Verluste der gesamten Wandlungskette). Wir befinden uns wieder im Jahre 2050 und sind dekarbonisiert. Auch in diesem Szenario benötigen wir die 1.000 TWh/a gesicherte Stromversorgung (P2G2P mit H2). Nun sollen aber durchschnittlich zusätzlich gut 8 Mill. t H2 in Deutschland pro Jahr erzeugt werden. Nach einer gewissen Optimierung sieht das Ergebnis wie folgt aus.

Dazu musste der Ausbau der VEE auf ca. 1.526 GW gesteigert werden (Onshore WEA: 636 GW, Offshore WEA: 127 GW, PV: 763 GW), das ist das 11,6-Fache von heute. Diese Modellrechnung weist zwar nur einen Verlust von 78 TWh an Überschussenergie in einem durchschnittlichen Ertragsjahr aus, aber ein Vielfaches, wenn überdurchschnittliche VEE-Erträge entstehen. Die Elektrolyseanlagen werden nur zu 24,7% genutzt. Dabei wird idealerweise schon unterstellt, dass die Elektrolyse mit gleichem Wirkungsgrad zwischen Null und Nennleistung arbeitet und durch den volatilen Betrieb keine Degradation und kein erhöhter Wartungsaufwand entsteht. Die für dieses Szenario angesetzten 300 GW Elektrolyseleistung stellen schon ein gewisses Optimum dar.

Die Unmöglichkeit, die volatile Überschussenergie mit Speichern zu glätten, um die Elektrolyseure mit (weitgehend) konstantem Strom zu versorgen, wurde schon in [6, S. 301 ff] untersucht. Der dafür nötige Speicherbedarf sprengt alle Vorstellungen und ist daher unbezahlbar.

Um die Dimension der Schönrechnungen und Fehlplanungen zu erfassen, muss man die 300 GW Elektrolyseleistung in Beziehung setzen, zu den Ankündigungen von 5 bzw. 10 GW der Bundesregierung und den geplanten Wasserstofferzeugungsprojekten, die bis 2025 1,5 GW und bis 2030 4 GW betragen [8, S. 8]. Auch die in [4] genannte „große“ Siemens-Anlage von 0,009 GW erscheint marginal dagegen – von dieser Sorte wären mindestens 33.000 Stück notwendig.

In [1] werden weitere Aspekte in diesem Zusammenhang behandelt und quantitativ gezeigt, dass eine Realisierung realpolitisch ausgeschlossen ist.

Technisch ist sehr viel möglich, was davon sinnvoll, politisch durchsetzbar und wirtschaftlich ist, bleibt die entscheidende Frage.

[1] Klaus Maier, Erzeugung von grünem Wasserstoff in Deutschland,
Download: https://magentacloud.de/s/bqp6MXE77tZ9kWT

[2] Klaus Maier, Gutachterliche Stellungnahme zum Hessischen Wasserstoffzukunftsgesetz – zur technischen und wirtschaftlichen Einschätzung des Gesetzesvorhabens,
Download: https://magentacloud.de/s/My7NsDopPr9X3ye

[3] Dr. Ulf Bossel, Wasserstoff löst keine Energieprobleme,
https://www.leibniz-institut.de/archiv/bossel_16_12_10.pdf

[4] Christoph Röder/BR24, Strompreisbremse: Bayerns größte Elektrolyseanlage vor dem Aus, https://www.br.de/nachrichten/bayern/gruener-wasserstoff-droht-bayerns-groesster-elektrolyseanlage-das-aus,TSeV2BF

[5] Wissenschaftliche Dienste, Wasserstoffbedarf,
https://www.bundestag.de/resource/blob/894040/0adb222a2cbc86a20d989627a15f4bd8/WD-5-024-22-pdf-data.pdf

[6] Klaus Maier, Die Abrechnung mit der Energiewende – Der Energiewende-Check,
ISBN 978-3-347-06789-9 oder ISBN 978-3-347-06790-5

[7] Prof. Hans Werner Sinn, Schwarze Schwäne – Krieg, Inflation und ein energiepolitischer Scherbenhaufen, https://www.youtube.com/watch?v=78ntekFBE4o

[8] acatech – Deutsche Akademie der Technikwissenschaften,
Elektrolyse in Deutschland – Leistungen, Zielsetzungen und Bedarfe bis 2030,
https://www.wasserstoff-kompass.de/fileadmin/user_upload/img/news-und-media/dokumente/Elektrolysekapazitaeten_.pdf

 




Wie kann ein „Umweltgift“ zugleich Lebenselixier sein?

von Dr. Wolfgang Thüne

Das Atmen ist so selbstverständlich, dass wir uns über die Frage des „Warum“ kaum Gedanken machen. Als Kinder haben wir häufig versucht, möglichst lange den Atem anzuhalten. Nach höchstens zwei Minuten gaben wir auf und mussten nach Luft schnappen.

Wer tauchen wollte, musste gezielt trainieren, um die Elastizität des Zwerchfells, des Brustkorbes, der Zwischenrippenmuskulatur deutlich zu verbessern. So gelang es dem Franzosen Jacques Mayol als erstem Menschen im Jahre 1976, ohne Atemgerät mehr als 100 Meter tief zu tauchen. Die Technik, den Atemreiz zu kontrollieren und möglichst lange zu unterdrücken, erlernt man bei der Pranayama Joga. „Prana“ heißt Energie, steht für den Sauerstoff im Atem und „Ayana“ heißt Kontrolle. Also nicht-Atmen-Müssen ist eine Technik, die man lernen muss.

Doch wodurch wird der Atemreflex ausgelöst? Durch mangelnden Sauerstoffgehalt oder den steigenden Kohlendioxidgehalt des Blutes? Spontan sagen wir, dass der mangelnde Sauerstoffgehalt den Reiz auslöst, doch das stimmt nicht. Das Kohlenstoff-Dioxid ist der auslösende Faktor. Wider gegen die gängige Meinung wird also der Atemreflex im Wesentlichen durch den steigenden Kohlendioxidgehalt und nicht den abnehmenden Sauerstoffgehalt des Blutes ausgelöst.

Dabei ist die Geschichte des Apnoetauchens so alt wie die Menschheit. Schon in der Steinzeit haben Menschen in Seen und Meeren nach Muscheln, Schwämmen oder Perlen getaucht. Auch die Unterwasserjagd mit Speeren oder Harpunen gibt es seit Jahrhunderten bei vielen Naturvölkern. Ein erwachsener Mensch macht etwa 20 000 Atemzüge pro Tag und mit jedem gelangt rund ein halber Liter frischer Luft in die Lungen. Das sind etwa 10 000 Liter Luft, die ein Mensch täglich ein- und ausatmet. Die Atmung findet in der Regel unbewusst, automatisch statt. Bei Neugeborenen ist die Atemfrequenz deutlich höher. Säuglinge haben eine Atemfrequenz von 30 bis 40 Atemzüge pro Minute.

Der Kohlenstoffdioxid-Partialdruck im Blut löst den Atemreflex aus. Die Luft ist ein Gasgemisch, das sich wie folgt zusammensetzt: 78 % Stickstoff, 21 % Sauerstoff, 1 % Argon und 0,04 % Kohlenstoffdioxid. Misst man den Sauerstoffgehalt der ausgeatmeten Luft, so liegt er 4 % drunter bei nur 17 %! Beim Kohlenstoffdioxidgehalt ist es umgekehrt er liegt statt bei 0,04 % nun bei 4 %! Der Mensch verbraucht 4 % des eingeatmeten Sauerstoffs und gibt 4 % an CO2 an die Luft!

Liegt hierin der Grund der Behauptung, der Mensch sei ein „Klimakiller“? Ist das die Meinung, die heutzutage von Politikern, Wissenschaftlern, Pädagogen und Bürgern öffentlich und vehement verbreitet wird? Als Anhänger der Aufklärung und Verehrer des Königsberger Philosophen Immanuel Kant appelliere ich mit dem Ausspruch „Sapere aude“! Kant: „Habe Mut, dich deines eigenen Verstandes zu bedienen!“ Das wird jeder beteuern und alles andere als unerhörte Anschuldigung von sich weisen.

Doch Kant sagte noch mehr und schrieb im Jahre 1784:

„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines eigenen Verstandes ohne Anleitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn Ursache derselben nicht an Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere Aude! Habe Mut, dich deines eigenen Verstandes zu bedienen, ist also der Wahlspruch der Aufklärung!“

Gerade in Zeiten grenzenloser Freiheiten und einer Zeit, in der sich jeder den Mantel des Liberalismus umhängt, sollte die Forderung Kants ein „kategorischer Imperativ“ sein. Doch Kant dachte weiter und schrieb: „Faulheit und Feigheit sind die Ursachen, warum ein so großer Teil der Menschen, nachdem sie der Natur längst von fremder Leitung freigesprochen, dennoch zeitlebens unmündig bleiben, und warum es anderen so leicht wird, sich zu deren Vormündern aufzuwerfen. Es ist so bequem, unmündig zu sein. Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt, der für mich die Diät beurteilt usw., so brauche ich mich ja nicht selbst zu bemühen. Ich habe nicht nötig zu denken, wenn ich nur bezahlen kann. Andere werden das verdrießliche Geschäft schon für mich übernehmen.“

Das sind hehre Gedanken und zum Nachdenken mahnende Worte aber sie fallen heute in Zeiten der Massendemokratie auf unfruchtbaren Boden. Längst denken wir schablonenhaft in Schlagzeilen, folgen wir blind Parolen und wohlmeinenden Floskeln und haben es schwer, uns aus der beinahe zur Natur gehörenden Unmündigkeit zu befreien.

Doch nun zurück zum Thema: Der Atem Reiz ist ein Reiz, der vom Gehirn ausgelöst wird und uns zum Atmen zwingt, wenn der CO2 – Gehalt im Blut eine gewisse Grenze übersteigt. Wenn wir die Luft anhalten, übersteigt der Partialdruck des CO2 eine Grenze und das Gehirn löst den Atemreflex aus. Das Atemzentrum gibt dem Zwerchfell auch dann Impulse, wenn wir die Luft anhalten. Muskeln zwischen Brust und Bauchhöhle spielen eine entscheidende Rolle in dem Steuerungsvorgang und können gezielt trainiert werden, durch Hyperventilation. Beim Ausatmen entspannt sich die Atemmuskulatur, das Volumen des Brustraumes verkleinert sich. Es entsteht ein Überdruck – die Luft strömt aus. Dieser Vorgang verläuft passiv, ohne dass eine Anstrengung nötig ist. Merke: Für die Steuerung der Atmung ist der CO2 – Gehalt am wichtigsten. Wenn zu viel CO2 im Blut ist, erhöht das Atemzentrum die Atemfrequenz und das überschüssige CO2 wird mit dem Atem ausgestoßen. Die Atmung ist eine sog. Grundfunktion des Körpers – wie zum Beispiel auch Herzschlag und Verdauung und kann kaum willentlich beeinflusst werden.

Die Atmung wird automatisch gesteuert, ist also eine autonome Grundfunktion des Körpers. Atmung braucht ein Säugling nicht zu lernen! Die Steuerung erfolgt im Hirnstamm. Hier sitzen verschiedene Rezeptoren, die vor allem den CO2 –Gehalt des Blutes, aber auch den pH-Wert und den O-Gehalt messen. Am wichtigsten von den dreien ist allerdings der CO2-Wert.

Machen wir nun einen Sprung in die Entstehungsgeschichte der Erde. Damit hat sich auch Immanuel Kant (1724-1804) befasst und im Jahr 1755 seine „Kosmogonie“ vorgelegt, wonach die Erde von der Sonne als glühende Gesteinsmasse abgespalten wurde und dann abkühlte. Im Jahre 1796 kam Pierre-Simon Laplace (1749-1827) mit seiner „Nebularhypothese“. Beide Hypothesen kombinierte Artur Schopenhauer (1788-1860) zur Kant-Laplace-Theorie. Danach hat die junge Erde ihre CO2 Konzentration aufgrund vulkanischer Aktivitäten. Die Ur-Atmosphäre bestand überwiegend aus Stickstoff, Kohlendioxid und Wasserdampf. Eine perfekte „Treibhausatmosphäre“, dennoch kühlte die Erde sich weiter ab. Als die 100-Grad-Celsius-Grenze kondensierte der in Unmengen vorhandene Wasserdampf zu „sintflutartigem“ Regen und überflutete die ganze Erde. Nach Hans-Joachim Schellnhuber, dem Gründer und langjährigem Direktor des Institut für Klimafolgenforschung in Potsdam (PIK), dauerte diese „Sintflut“ 40 000 Jahre und machte die Erde zu einem lebensfähigen Planeten.

In den Meeren und Ozeanen begannen vor etwa 3,5 Milliarden im Präkambrium Cyanobakterien einen chemischen Prozess, der den Namen „Photosynthese“ erhielt. Sie erzeugen aus Wasser und dem CO2 mit Hilfe des Sonnenlichts sowie dem grünen Farbstoff, dem Chlorophyll, Glucose und geben zudem Sauersoff ab. Damit schufen die grünen Pflanzen die Grundlage für alles tierische wie menschliche Leben. CO2 ist ein Lebenselixier par excellence! Ohne CO2 in der Luft keine Pflanzen, kein Sauerstoff, kein Leben, keine Menschen. Der Planet wäre „öd und leer“!

Wie es um unser Bildungssystem in Gänze bestellt ist, konnte man erfahren bei der Expo 2000 in Hannover, als bei einem „Nachhaltigkeitskongress“ der Ex-Präsident der Max-Planck-Gesellschaft, Professor Dr. Hubert Markl, öffentlich bekannte: „Lüge und Betrug sind integrale Bestandteile des Forschens!“ Kein Raunen, kein Widerspruch im Saal, nur betretenes Schweigen. Sind etwa staatlich geförderte Forschungsstätten immun gegen Kritik? Wo ist der Mutige, der seinen eigenen Verstand benutzt und laut Protest erhebt? Nur die Frankfurter Allgemeine Zeitung brachte eine Notiz, sonst Schweigen! Ist es das Ziel staatlicher Forschungsförderung, um sich ein Alibi zu verschaffen für eine total unsinnige „Klimaforschung“?

Niemand kann sich durch Luft-Anhalten selbst umbringen, so wie niemand den Staat hindern kann, die Naturgesetze zu verdrehen, wenn er die Mehrheiten entsprechend indoktriniert hat, „Lug und Trug“ zu tolerieren und zu belohnen! Kant würde sich schämen, wie sehr seine Aufforderung des „Sapere aude“ von „oben“ missachtet wird! Was ist das für ein „Staat“, sein Rechtssystem zu ignorieren und der „Macht der Stärkeren“ zu unterordnen? Aber etwas Gutes hat die Situation doch: Wo sonst könnten die vielen überflüssigen, selbsternannten Klimaexperten untergebracht werden?

Dabei werde ich es vorerst bewenden lassen. Doch eine letzte Frage: Wie kann ein Molekül, Kohlenstoffdioxid, das für alles Leben Nahrung erzeugt und dabei gleichzeitig Sauerstoff freisetzt, um die Sonnenenergie für das Leben nutzbar zu machen, also absolut unverzichtbar ist, gleichzeitig „Lebensspender“, ein „Umweltgift“ und „Klimakiller sein, das alles Leben wieder zu vernichten droht? Das wäre ein (r)evolutionäres Wunder!

Denkt doch einmal nach: Sapere aude! CO2 ist ein absolut unverzichtbares Lebenselixier, ein Gottesgeschenk der Natur.

 




Fact Checking: Es gibt keine theoriefreien Fakten

Edgar L. Gärtner

Das in den letzten Jahren in Mode gekommene Fact Checking hat mit Wissenschaft nichts zu tun. Denn spätestens seit Immanuel Kant (1724-1804) sollten wir wissen, dass isolierte Beobachtungsdaten nichts besagen. Aussagekraft bekommen sie erst als Bestandteil eines nachvollziehbaren Erklärungsversuchs. Durch Real- und Gedankenexperimente testen und vergleichen können wir nur unterschiedliche Hypothesen bzw. Modelle über reale Zusammenhänge. Wir haben, außer in der begnadeten Mystik, keinen direkten Zugang zur objektiven Realität.

In der nüchternen wissenschaftlichen Forschung arbeiten wir stattdessen mit mehr oder weniger übersichtlichen Modellen. Das können schlichte Gedanken-Konstrukte, aber auch mathematische Formeln, Versuchstiere oder Computersimulation sein, die mithilfe von Gedanken- und/oder physischen Experimenten überprüft werden können. Dabei geht es nicht primär um die naive Gegenüberstellung von Modell und Beobachtungsdaten, sondern um den Vergleich verschiedener Erklärungsversuche. Es kommen dann Kriterien wie Einfachheit, Eleganz, Kohärenz und Plausibilität ins Spiel. Man kann das schön illustrieren an Hand der historischen Kontroverse zwischen den Vertretern des ptolemäischen Sonnensystems mit der Erde im Mittelpunkt und den Vertretern des heliozentrischen Systems von Nikolaus Kopernikus (1473 – 1543). Das Modell des Claudius Ptolemäus aus Alexandrien (etwa 100 – 170 n.Chr.) entsprach mit seinen komplizierten Hyperzyklen den Beobachtungsdaten weit besser den Beobachtungsdaten als das Modell des Kopernikus, in dem die Erde mit den anderen Planeten um die Sonne kreist.

Allein mithilfe des „Fact Checking“ wäre es also nicht zur „kopernikanischen Wende“ gekommen. Denn beide Modelle erwiesen sich als falsch. Das kopernikanische Modell wurde aber letztendlich als weniger falsch eingeschätzt als das konkurrierende ptolemäische. Warum? Der als Ketzer verurteilte Franziskanermönch Wilhelm von Ockham (1287-1347) hatte gelehrt, dass bei strittigen Sachverhalten der einfachsten Erklärung den Vorzug zu geben sei. Nach diesem bis heute als „Ockhams Rasiermesser“ oder KISS-Prinzip („Keep it short and simple!“) bekannten Kriterium hatte das kopernikanische Modell größere Chancen, anerkannt zu werden. Dieses mit den Beobachtungen in Einklang zu bringen, gelang aber erst dem Astronomen Johannes Kepler (1571-1630), indem er nachwies, dass die Planeten die Sonne nicht auf kreisförmigen, sondern auf elliptischen Bahnen umrunden.

Damit ist schon angedeutet, dass es eine Standard-Methode, der Wahrheit auf die Spur zu kommen, nicht gibt. Die Arbeit ehrlicher Wissenschaftler ähnelt der von Detektiven, die flexibel zwischen verschiedenen Suchverfahren wechseln und neben formalisierbaren Etappen ihrer Recherche auch der unkontrollierbaren Intuition Platz einräumen sollten. Aus diesem Grund berufen sich nicht wenige Forscher, sofern sie überhaupt methodisch interessiert sind, auf die anarchistische Erkenntnistheorie des österreichischen Philosophen Paul Feyerabend (1924-1994). Ohnehin hatte auch schon der weniger umstrittene Sir Karl R. Popper ((1902-1994) hegeleitet, dass wissenschaftliche Forschung nur in der Lage ist, provisorische Teilwahrheiten aufzuspüren und in Form nachvollziehbarer Hypothesen der Kritik auszusetzen. Kritik daran kann auch nur in Form ebenfalls kritisierbarer Gegen-Hypothesen formuliert werden, denn es kann keinen neutralen Standpunkt mit einem privilegierten Zugang zur Wahrheit geben. Die oft aus obskuren Quellen finanzierten „Faktenchecker“ wähnen sich stattdessen gerade in dieser ebenso arroganten wie lächerlichen Position. Uns Menschen fehlt aber schlicht die übernatürliche Fähigkeit, die wissenschaftliche Seriosität einer Hypothese à priori einzuschätzen. Popper verlangt deshalb in aller Bescheidenheit nur, dass die Hypothesen so klar formuliert werden müssen, dass sie für Gegenargumente angreifbar werden. Die Faktenprüfer (soziologisch gesehen, oft verkrachte Existenzen) wähnen sich hingegen in einer privilegierten Position – konkret: in der Machtposition amtlicher Zensoren.

Aus dem hier Gesagten geht hervor, dass Wissenschaft (mit oder ohne Fact Checking) allein nicht in der Lage ist, irgendeine Politik (und schon gar nicht „Klimapolitik“) zu begründen. Es ist ohnehin schwierig, Poppers Falsifikationstheorie auf die wenig exakten Sozialwissenschaften und generell auf polykausale Zusammenhänge wie das Wettergeschehen, die Wirtschaftsentwicklung oder den Verlauf von Krankheiten anzuwenden und daraus Prognosen abzuleiten. Der österreichische Wirtschafts-Nobelpreisträger Friedrich A. von Hayek (1899-1992) setzte deshalb auf die menschliche Fähigkeit, Muster von historischen und biografischen Ereignissen zu erkennen und daraus Prognosen abzuleiten. Neben mehr oder weniger exakten Messverfahren kommt hier (wie in guter Medizin!) die Intuition ins Spiel. Kriterium für deren Aussagekraft ist dann die Isomorphie zwischen Mustern. (Ich habe darauf in meiner Besprechung des Buches „Kritizistische Wissenschaftstheorie“ des Trierer Philosophen Hardy Bouillon hier bei EIKE hingewiesen.) Ausgerechnet die menschliche Fähigkeit der Intuition soll aber nach den Vorstellungen des „Transhumanismus“ durch Künstliche Intelligenz (KI) ersetzt werden.

Im Grunde geht es bei der Erforschung komplexer Sachverhalte in Natur und Gesellschaft immer auch um religiöse Fragen. Dass die „Klima-Bewegung“ längst religiöse Züge angenommen hat, liegt ja auf der Hand. Die Verfechter einer „Klimapolitik“ geben das auch implizit zu, indem sie ein bestimmtes „Narrativ“ verteidigen. Darin erscheint die industrielle Revolution, der wir unseren materiellen Wohlstand verdanken, als grundlegender Sündenfall. Nur aus diesem Grund wurde Kohlenstoffdioxid vom Lebenselixier zum gefährlichen Schadstoff umdefiniert. Außer der Tatsache, dass der CO2-Gehalt der Luft steigt, gibt es dafür keine Anhaltspunkte. Man könnte daraus genauso gut eine optimistische Geschichte basteln, wenn man den CO2-Anstieg als Indikator der wirtschaftlichen Aktivität interpretiert. Dennoch hat sich das pessimistische Narrativ durchgesetzt. Das massive Trommelfeuer der Massemedien zur Verbreitung der Erzählung vom menschengemachten Klimawandel liefert keine hinreichende Erklärung dafür. Der Glaube, mithilfe der Wissenschaft die Zukunft vorhersagen zu können, muss schon vorher vorhanden gewesen sein. Er geht auf das mechanistische Weltbild der europäischen Aufklärung zurück. Dieses hat sich offenbar trotz der Aufwertung von Ungewissheit und Zufall durch die Quantenphysik in den Köpfen vieler Zeitgenossen gehalten. Aber das ist ein anderes Thema…