Zum Einfluss von tieffrequentem Infraschall und Vibration auf lebende Organismen

von Dr. med. Ursula Bellut-Staeck, freie Wissenschaftlerin, Wissenschaftsautorin, Fachärztin

Grundlagen zur Feindurchblutung 

Grundlage beider Publikationen (1) 2023 und (2) 2024 sind die in letzten Jahren in der wissenschaftlichen Forschung dazugewonnenen Erkenntnisse zur Steuerung lebenswichtiger Funktionen unseres feinen Kapillarnetzes- auch Mikrozirkulation– genannt. Lebenswichtige Steuerungsfunktionen gehen von Endothelzellen aus, die als Gefäßinnenwandzellen alle Gefäße umschließen. Sie sind im Wesentlichen eine Art Schaltstelle für den Austausch von Nährstoffen und Sauerstoff, Salzen und Flüssigkeiten sowie Rücknahme von Abfallproduktion.

Seit spätestens 2021 ist bekannt, dass bestimmte Rezeptoren (Sinneswahrnehmer) auf der Hautebene, aber auch speziell auf den Endothelzellen und damit in allen Organen und Geweben, existieren, die sowohl Schall als auch Vibration aufnehmen (Medizin-Nobelpreis für die Entschlüsselung der PIEZO-1 und -2- Kanäle 2021). Damit gelang der Nachweis, dass alle Organismen nicht nur mit den Ohren hören, sondern Kräfte und Schall mit dem gesamten Körper aufnehmen Diese Kanäle sind bei allen mehrzelligen Organismen vorhanden, also auch bei Krebstieren und Insekten, Amphibien, Reptilien, Fischen, Vögel und Walen, als auch allen anderen Säugetierarten.

Eine ganze Reihe lebenswichtiger Funktionen von Organismen wird nach heutigem wissenschaftlichem Stand durch die Übertragung von physikalischen Kräften auf die Gefäßwandzellen des Kapillarnetzes (Endothelzellen) und ihren Mechano-Sensoren (das sind Druck-Rezeptoren), gesteuert. Zu diesen Funktionen gehören als wichtigste die Stickstoffmonoxid-Ausschüttung, die Regulierung des Blutdrucks, die Gefäßneubildung, die Embryonalentwicklung, das Wachstum, die Regulierung von Entzündungen in Richtung Heilung (das Gegenteil ist chronische Entzündung und Krebs), Immunreaktionen und Gerinnung.

Jeder Organismus kann einerseits auf die feinen Kräfte in den Kapillaren und andererseits auf äußere Kräfte wie Schwerkraft, Druck und Schwellung in Sekundenbruchteilen reagieren, was eine überlebensnotwendige Fähigkeit aller Organismen darstellt (Beispiel Flug der Insekten, Tänze der Bienen, Orientierung im Raum).

 

Autoreguliert finden diese Aufgaben z.B. in den Kapillaren des Erwachsenen auf einer Fläche von 7000 m2 statt.

Die Voraussetzung für eine optimale Erfüllung dieser Aufgaben ist die Intaktheit des gesamten Organs Endothelium (Gesamtheit aller Endothelzellen). Der Blutstrom in den Kapillaren ist normalerweise gleichförmig und nicht turbulent, entsprechend der Kleinheit einer Kapillare.

Eine Übersicht über die aktuellen Erkenntnisse zu Mikrozirkulation und Endothelzellen: Link:

https://link.springer.com/book/10.1007/978-3-662-66516-9

Die Auseinandersetzung von Tieffrequenzen und Vibration technischer Anlagen mit Organismen

Aussagen mit hoher Evidenz

Kurzzeitige tieffrequente Ereignisse kommen auch im natürlichen Umfeld vor (z.B. Erdbeben). Die Mikrozirkulation hat eine unmittelbare Erholungsmöglichkeit.

Zunehmend tieferfrequente, impulsive Einwirkung auf lebende Organismen wie bei großen Windkraftanlagen, aber auch im verminderten Umfang bei Biogasanlagen, Blockheizkraftwerken und Wärmepumpen, führen zu erkennbaren Störungen der Feindurchblutung mit Energie- und Nahrungsdefizit. Die Reichweite von so gut wie nicht dämmbaren Tieffrequenzen ist sehr weit (z.B. eines heutigen Windparks mit 60 Anlagen bis etwa 100 Kilometer). Das viskoelastische Gewebe von Organismen eignet sich zur Weiterleitung der Schallwellen, auch auf das Kapillarsystem. Die Folgen sind nicht nur zunehmender mechanischer Stress in den Kapillaren, sondern auch zunehmender oxidativer Stress. Grund: Findet die NO- (Stickstoffmonoxid) Ausschüttung nicht bedarfsgerecht statt und wird durch Fehlinformationen überlagert, verliert NO seine antioxidativen Eigenschaften. Mechanischer Stress und oxidativer Stress sind die Voraussetzungen für ein „krankes“ Endothelium.

Das bedeutet eine zunehmende Gefährlichkeit der Emissionen mit sinkender Frequenz, da Endothelzellen nachgewiesenermaßen sehr tiefe Frequenzen bevorzugt passieren lassen. Der dabei vorhandene Schalldruck scheint eine untergeordnete Rolle zu spielen. Hier besteht eine offenbare Unverträglichkeit mit den Funktionen lebender Organismen.

Die erste Publikation hat die möglichen Folgen der Auseinandersetzung erstmals in (1) 6/23 dargestellt.

Die zweite Publikation (2) 06/24 zum Thema basiert im Wesentlichen auf der ersten (1) und erweitert gezielt wichtige Aspekte zum Thema, so z.B.:

  1. die möglichen Auswirkungen auf den N0-Stoffwechsel [19,20,22] mit starkem Anstieg von oxidativem und oszillatorischem Stress
  2. die Rolle des Organs Endothelium als zentrales Organ für die inflammatorische Entwicklung als

Grundlage z.B. einer Arteriosklerose [2,22] oder auch Blutdruckerkrankung

  1. die hervorragende Bedeutung von PIEZO-Kanälen [49] für zahlreiche Funktionen von Organsimen
  2. die damit verbundene Gefährdung aller lebenden Organismen im Sinne einer Bedrohung der Biodiversität zu Lande und im Wasser

Wie Sie dem entsprechenden Kapitel 5 aus dem Buch (2) entnehmen können, wurde eine open review Politik von mehreren öffentlich benannten hochrangigen Wissenschaftlern durchgeführt. In den nachzulesenden Reviews ist sowohl die Wissenschaftlichkeit, die umfassende Bedeutung für die wissenschaftliche Gemeinschaft und die Güte der verwandten Quellen, attestiert.

Auszug:

Peer-Review History:

This chapter was reviewed by following the Advanced Open Peer Review policy. This chapter was thoroughly checked to prevent plagiarism. As per editorial policy, a minimum of two peer-reviewers reviewed the manuscript. After review and revision of the manuscript, the Book Editor approved the manuscript for final publication. Peer review comments, comments of the editor(s), etc. are available here: https://peerreviewarchive.com/review-history/727

Damit liegt eine hohe Evidenz für das hohe Schädigungspotential von Tieffrequenzen mit einem hohen Beschleunigungsprofil bei chronischer Einwirkung vor. Eine Einordnung von Tieffrequenzen diesbezüglich fällt bisher vollständig, Innenraummessungen ebenso.

 

Die Einordnung der akustischen Hörschwelle als Wirkschwelle für Tieffrequenzen

Die Aufnahme von Schall und Vibration über verschiedene Mechano-sensoren, deren wichtigstes Mitglied die

PIEZO-Kanäle sind, ist allgemein anerkannter internationaler Wissenschaftsstand. Da der aktuelle Wissenschaftsstand zur endothelialen Kraft-Übertragung (Mechano-Transduktion) eine der wesentlichen Grundlagen der dargestellten Arbeiten (1) und (2) darstellt, finden sich hierzu valide wissenschaftliche Quellen.

In der Konsequenz ist ein weiteres Festhalten einer akustischen Wahrnehmungsschwelle rechtlich nicht mehr möglich und sollte unmittelbar Anlass zum Handeln sein.

Studienlage und Beobachtungen der jüngeren Zeit:

1.Die Studie (3) zeigt eine nicht erklärbare überdurchschnittliche Zunahme an kardiovaskulären Erkrankungen auf dem Land gegenüber den Städten.

2.In Papenteich, Niedersachsen, wird jetzt ein Anstieg an Leukämieerkrankungen zwischen 2016 und 2021 beobachtet, der aufgrund seiner statistischen Relevanz zu Untersuchungen durch das Landratsamt geführt hat. Nach den Folgerungen aus den peer- review Studien (1) und (2) sind erhöhte Inzidenzen von Krebserkrankungen über die Schädigung der Endothelfunktionen durch den Umweltfaktor tieffrequente chronisch impulsive Schallimmission in sich schlüssig, ebenso wie das erhöhte Auftreten von kardiovaskulären Erkrankungen. (Emissionen von als karzinogen einzustufendem Mikroplastikabbrieb von WKA könnten überadditiv wirken).

Link: https://www.focus.de/gesundheit/news/was-leukaemie-so-tueckisch-macht_id_260166181.html

3.Bericht vom 17.07.24 aus Schweden zu Fehlschlagen des Bruterfolges bei Hühnern nach Inbetriebnahme von mehreren WKA-Anlagen in etwa 1000 Meter Entfernung.

4. Sterben der Wale und Delfine im örtlichen und zeitlichen Zusammenhang mit offshore-Anlagen an der englischen Küste.

Link: https://stopthesethings-com.translate.goog/2024/07/30/britains-killing-fields-offshore-windindustry-wiping-out-whales-dolphins-more/?_x_tr_sl=en&_x_tr_tl=de&_x_tr_hl=de&_x_tr_pto=sc

Die unter 2. und 3. Und 4. genannten Berichte haben nicht den Rang einer geprüften Studienlage, es sind aber alarmierende Daten im Zusammenhang mit Windkraftanlagen und gestörten endothelialen Funktionen, die zur Einbeziehung der dortigen Behörden geführt haben.

Quellen:

  1. Bellut-Staeck UM. (2023) Impairment of the endothelium and disorder of microcirculation in humans and animals exposed to infrasound due to irregular mechano-transduction: Journal of Biosciences and Medicine. 2023; 11(6). DOI: 10.4236/jbm.2023.116003 Link: https://www.scirp.org/journal/paperinformation?paperid=125553
  2. Bellut-Staeck UM. (2024) Medical Research and Its Applications Vol. 8, Chap. 5. Chronic Infrasound Impact is Suspected of Causing Irregular Information via Endothelial Mechanotransduction and Far-reaching Disturbance of Vascular Regulation in All Organisms. FIRST EDITION 2024

ISBN 978-81-975566-2-3 (Print), ISBN 978-81-975566-5-4 (eBook) DOI: https://doi.org/10.9734/bpi/mria/v8

  1. Ebeling M, Mühlichen M. Talb”ack, Rau R, Goedel A, Klüsener S. (2024) Disease incidence and not case fatality drives the rural disadvantage in myocardial-infarction-related mortality in Germany. Preventive Medicine 179 (2024) 107833. 0091-7435/© 2024 The Authors. Published by Elsevier Inc.

https://doi.org/10.1016/j.ypmed.2023.107833

 

 




Glaubenskriege ums Klima

Anmerkung der Redaktion

Immer wieder schreiben uns Leser an und wollen, dass wir zu bestimmten Themen Ihre Gedanken dazu veröffentlichen. Oft ist auch etwas sehr interessantes, zum gewählten Thema passendes, dabei. Beim folgenden Artikel waren wir uns aber nicht so sicher und überlassen Ihnen, dem Leser, die letzte Entscheidung. Im Vorfeld hierzu entspann sich eine inhaltliche Diskussion die nach Meinung der Redaktion das folgende Ergebnis hatte.

  1. Der Autor versucht mittels Titel und anführender Ausführung dem „Treibhauseffekt“ zu belegen, obwohl schon der Begriff als solcher falsch ist. Herr Limburg hat dies u.a hier belegt. Wenn schon, dann müsste dieser Effekt bspw. Atmosphäreneffekt heißen, nach dem Vorschlag eines Lesers vor vielen Jahren.
  2. In seinem Aufsatz vermischt der Autor in unzulässiger Weise die Thermodynamik (2. Hauptsatz) mit Strahlungsphysik (Strahlung ist keine Wärme). Und auch in anderen Punkten, die hier nicht behandelt werden sollen, ist die Definition „unscharf“.
  3. Letztendlich versucht er, in einer Art Gottesbeweis nachzuweisen, dass der „Treibhauseffekt“ existiert, nur ist er zu gering, um bisher nachgewiesen zu werden.

Um allen Lesern, die auf die Versuche von Michael Schnell und Hermann Harde aber auch Martin Steiner verweisen, vorzubeugen, alle deren Beschreibung sind bekannt, akzeptiert und begründen trotzdem nicht den „Treibhauseffekt“, wie er bspw. in diesem Aufsatz – anders als in seiner hier genannten Definition (bspw. „konstant geheizt, etc.“ Wärme, die als Strahlung abgestrahlt, und im auf irgendeine Weise wieder – als Strahlung?- zugeführt wird) – beschrieben wird. U.a. wird hier auf das Buch von Michael Limburg verwiesen – Die Treibhaushypothese – alles Schall und Rauch

Last but not least. Kommentare sind erlaubt und erwünscht, Beleidigungen etc. werden komplett entfernt.

Von Dr. Eike Roth

Anlass für diese Wortmeldung sind zwei Beiträge eines „Quereinsteigers zur Klimaforschung“ am 26. und 27.07.2024 bei EIKE und die vielen Kommentare hierzu. Die Tendenz ist m. E. aber schon viel länger zu beobachten: Klimadiskussionen nehmen immer mehr die Form von Glaubenskriegen an. Aussagen über „unausweichliche katastrophale Folgen“, wenn wir so weitermachen wie bisher, werden immer weniger wissenschaftlich begründet, sondern einfach behauptet, geglaubt (zumindest tut man so) und völlig unbeirrt vehement verteidigt, ganz egal, wie logisch und überzeugend Gegenpositionen vorgetragen werden. Diese Gegenpositionen finden ganz einfach kein Gehör, sie lösen nicht einmal Nachdenken aus, sondern höchstens Angriffe gegen die vortragenden Personen. „Glaube“ darf nicht hinterfragt werden, er muss aber immer wieder repetiert werden, um aufrecht erhalten werden zu können. Das bestimmt den Diskussionsverlauf. Klimaangst ist zur Religion geworden, die Wiederholung an die Stelle von Begründung setzt. Wenn „Glaube“ vorherrscht, gibt es klarerweise auch keine diskursiven Fortschritte.

Das Problem gibt es, wie gesagt, schon seit längerem. Zusätzlich verstärkt wird es m. E. aber dadurch, dass es in der „Klimadiskussion“ neben dieser Religion noch weitere Religionen gibt. Beispiele für unerschütterlichen Glauben, der immer wieder repetiert wird:

  • Weil der Treibhauseffekt (THE) experimentell nicht bewiesen ist, gibt es ihn nicht.
  • Weil der THE dem 2. Hauptsatz der Thermodynamik widerspricht, kann es ihn nicht geben.
  • Weil der THE auf Temperaturmittelwerten beruht und diese physikalischer Unsinn sind, kann es ihn nicht geben.
  • Weil CO2 kühlt, kann es den THE nicht geben.

Das wird zwar oft leicht unterschiedlich formuliert, ist m. E. aber immer genau so gemeint. Entsprechende Aussagen zeigen jedenfalls in meinen Augen vielfach die gleichen Religionsmerkmale wie oben bei der Klimaangstmache. Diese Aussagen werden nicht vorgebracht, um überprüft zu werden, sondern weil sie per se als richtig betrachtet werden. Zu diskutieren sind nur die Folgen, nicht die Begründungen. Gegenargumente prallen genauso völlig wirkungslos ab wie oben, jedenfalls lösen sie keine sachlichen Diskussionen aus, sondern höchstens Beschimpfungen der Vortagenden. Mit diesem Aufeinandertreffen von gegengerichteten Glaubessätzen gibt es erst recht keine diskursiven Fortschritte.

Natürlich muss ich diese meine Beurteilung „Glaubenssätze“ noch näher begründen bzw. erläutern. Das kommt gleich, nur vorher noch ein paar Anmerkungen zur Definition des THE, weil eine diesbezügliche Klarstellung wohl Voraussetzung für eine erfolgreiche Diskussion ist.

Definition des THE

Definitionen gibt es viele. Aber auch da sind wir bereits mittendrin im nächsten Glaubenskrieg: Erstens, weil schon das Nebeneinander von Definitionen manchmal als Grund angeführt wird, warum Diskussionen zum THE nicht sinnvoll sein können. Das riecht sehr nach versteckter Gesprächsverweigerung, weil man ja nur präzisieren müsste, welche Definition man der weiteren Diskussion zugrunde legt.

Zweitens vor allem aber deswegen, weil die Definition oft ausdrücklich an Zahlenwerte geknüpft wird. Z. B. heißt es sinngemäß: „Der THE ist die Zunahme der Temperatur der Erdoberfläche durch die Anwesenheit von CO2 (und anderer Treibhausgase) in der Atmosphäre um 33 Grad gegenüber einem Zustand ohne Atmosphäre bzw. ohne diese Gase in ihr“. Das wird manchmal selbst gesagt, manchmal anderen in den Mund gelegt. Wohl gezielt, um dann auf diese „Definition“ etwa so reagieren zu können: „Diese 33 Grad sind kein in der Natur real vorhandener Wert, sondern nur ein mathematisch errechneter Wert auf der Basis unzulässiger Annahmen. Mit anderen Annahmen erhält man einen anderen Wert. Deswegen ist die gesamte Idee eines THE abwegig und zu verwerfen, der THE ist Unsinn“.

Die oben genannte Definition ist in meinen Augen prinzipiell unzulässig und die „Reaktion“ darauf ist es erst recht. Letzteres, weil aus einem eventuell falschen Zahlenwert nicht das Prinzip für ungültig erklärt werden darf. Wer das tut, statt zu versuchen, die richtige Höhe des Wertes klären, der will m. E. nur seine Meinung durch Wiederholung durchsetzen und ist an sachlichen Auseinandersetzungen nicht interessiert. Typisch für Glaubenskriege.

Damit zur Definition selbst: Ein bestimmter Zahlenwert, z. B. die genannten 33 Grad, kann vielleicht die Größe eines Effektes unter bestimmten Randbedingungen sein, als Definition muss der Effekt m. E. aber als solcher anhand seiner physikalischen Wirkungsweise beschrieben werden. Das könnte etwa so lauten:

Der „Treibhauseffekt“ ist die Erwärmung, die ein konstant beheizter Körper über seine Gleichgewichtstemperatur hinaus erfährt, wenn ihm ein Teil der von ihm zunächst abgestrahlten Wärme durch irgendeinen Effekt als „Gegenstrahlung“ wieder zugeführt wird.

Natürlich muss man dann noch genauer sagen, was man unter „Gegenstrahlung“ überhaupt versteht, dazu kommt weiter unten noch eine nähere Beschreibung. Hier sei nur kurz ausgesagt, dass damit jegliche Strahlung gemeint ist, die zum Körper hin erfolgt und in irgendeiner Form Folge der Abstrahlung des Körpers ist. Aber wie auch immer, die hier gemachte Definition ist als Hypothese formuliert und mit ihr ist der Effekt wenigsten vom Prinzip her falsifizierbar, also ist die Definition grundsätzlich zulässig. Sie gilt unabhängig davon, ob es den Effekt real gibt oder nicht. Für den Rest dieses Beitrages möge sie als Grundlage dienen.

Fehlender experimenteller Nachweis

Angebliche experimentelle Nachweise des THE gibt es viele. Die meisten sind wohl eindeutig falsch. Ob alle, kann m. E. offen bleiben. Das Entscheidende ist, dass es darauf nicht wirklich ankommt, weil ein postulierter Effekt prinzipiell nicht abgelehnt werden darf, nur weil er noch nicht experimentell bestätigt worden ist. Ein prominentes Beispiel für eine späte Bestätigung ist wohl Einsteins Postulat der Relativitätstheorie. Das wurde 1905 aufgestellt, und, wenn ich mich richtig erinnere, erst 1919 anhand einer Sonnenfinsternis experimentell bestätigt.

Ein fehlender experimenteller Nachweis kann zwar ein Warnzeichen sein, mehr daraus ableiten zu wollen, sollte aber immer mit Vorsicht betrachtet werden. Und wenn der Nachweis einmal erfolgt ist, dann kann das vom Prinzip her immer nur ein provisorischer Nachweis sein, der durch nachfolgende Erkenntnisse auch wieder umgestoßen werden kann (wofür wieder die Relativitätstheorie als Beispiel herangezogen werden kann, die manche „experimentell gesicherten“ Erkenntnisse umgestoßen hat, jedenfalls in speziellen Bereichen). Noch wichtiger ist m. E. jedoch die Umkehrung: Die Nicht-Existenz eines Effektes kann wohl nie experimentell nachgewiesen werden, weil man ja vielleicht nur noch nicht das richtige Experiment gemacht hat, oder nur mit unzureichender Empfindlichkeit. So ist es vielleicht auch beim THE.

Zusammenfassend: Ein fehlender experimenteller Nachweis kann vielleicht fallweise als Beweis für die Kleinheit eines bestimmten Effektes dienen, zwingend logisch aber kann er nie als Beweis für die Nicht-Existenz des Effektes herangezogen werden. Wer das trotzdem macht, argumentiert aus einem Glauben heraus und nicht wissenschaftlich.

Widerspruch zum 2. Hauptsatz

Das Thema ist m. E. längst abgedroschen: Der 2. HS sagt nur etwas über Netto-Energieströme aus, die können „von selbst“ immer nur von warm nach kalt gehen. Zumindest beim Strahlungsaustausch setzen diese Netto-Energieströme sich aber immer aus zwei gegenläufigen Energieströmen zusammen, es gibt daher immer auch einen Energiestrom von kalt nach warm, nur ist der eben immer kleiner als der entgegen gerichtete. Und beim THE fließt Wärme netto immer nur von warm nach kalt: Von der Sonne zur Erdoberfläche, von der in die Atmosphäre und aus der in den Weltraum. Mit dem 2. HS gegen den THE zu argumentieren, ist m. E. das Paradebeispiel für argumentieren aus dem Glauben heraus, unter Missachtung aller wissenschaftlichen Erkenntnisse. Man biegt sich den 2. HS so zurecht, wie man es haben will, und betont die Konsequenzen, ohne die Auslegung des 2. HS sachlich zu diskutieren.

Temperaturmittelwerte

Zunächst einmal ist eine Mittelwertbildung immer ein mathematischer Vorgang unter Befolgung einer mathematischen Vorschrift und als solcher immer zulässig. Diskutieren kann man m. E. immer nur über die Aussagekraft eines solchen Mittelwertes. Die kann groß, oder klein, und fallweise auch null sein, was z. B. bei logischen Fehlern in ihrer Ableitung sicher so ist. An der prinzipiellen Zulässigkeit der Mittelwertbildung ändert sich auch nichts, wenn es mehrere mathematische Vorschriften gibt, mit denen unterschiedliche Mittelwerte errechnet werden. Das wohl bekannteste Beispiel hierfür sind das geometrische und das arithmetische Mittel. Beide sind mathematisch völlig gleichberechtigt, und beide sind an sich richtig, nur der Verwendungszweck entscheidet, welches man nehmen soll.

Und auch scheinbar sinnlose Mittelwertbildungen können vielleicht doch ganz bestimmte Aussagen liefern. Als Paradebeispiel werden oft Telefonnummern herangezogen. Welchen Sinn soll schon ein Mittelwert von Telefonnummern machen? Aber immerhin kann man aus dem Mittelwert einer ausgewählten Menge von Telefonnummern vielleicht herausfinden, aus welchem Land diese Telefonnummern überwiegend stammen. Was einem das nützt, ist eine andere Frage, aber die Information könnte man jedenfalls prinzipiell erhalten.

Oder, was nutzt der Mittelwert von Hausnummern? Immerhin, wenn der Mittelwert für eine Straße z. B. über 100 liegt, dann kann man ziemlich sicher folgern, dass es sich um eine sehr lange Straße handelt. Es kommt eben immer darauf an, wofür man den Mittelwert braucht.

Häufig wird speziell zur Temperatur gesagt, weil diese eine intensive Größe ist (unabhängig von der betrachteten Stoffmenge, im Gegensatz zu beispielweise dem Gewicht, das mit der betrachteten Stoffmenge zunimmt und damit eine extensive Größe ist), dürfe man bei ihr keine Mittelwerte bilden. Und weil der THE aus Mittelwerten der Temperatur abgeleitet wird, wäre er prinzipiell ein Unsinn und jede Argumentation mit ihm entbehrte jeder Grundlage. Aber genau das ist Unsinn. Selbstverständlich darf man Temperatur-Mittelwerte bilden, man muss nur dazusagen, a) nach welcher mathematischen Vorschrift man mittelt, und b), bei jeder aus solch einem Mittelwert abgeleiteten Aussage muss darlegen, warum diese Aussage in konkreten Fall auch berechtigt ist. Aus beidem ergibt sich dann Sinn oder Unsinn der Mittelwert-Aussage.

Ein paar Beispiele: Natürlich ist es schwierig, für einen bestimmten Ort ein „richtiges“ Jahresmittel der Temperatur anzugeben. Wie mittelt man über welche Messungen? Und wenn man bei zwei Orten entscheiden will, welcher denn der wärmere ist, dann sind Jahresmittelwerte zwar immer noch viel aussagekräftiger als Einzelmesswerte, aber bei einem knappen Ergebnis kann dieses sehr unsicher sein. Wenn es sich jedoch um einen Ort am Äquator und einen am Polarkreis handelt und man nur klären will, welcher denn welcher ist, dann dürfte das über die Jahresmittelwerte der Temperatur immer ausreichend genau möglich sein. Entscheidend ist immer, was man untersuchen will. Und wenn man solche Jahresmittelwerte bei unveränderten Ermittlungsbedingungen über längere Zeit verfolgt, dann sollte man auch recht zuverlässig aussagen können, ob es an diesem Ort wärmer oder kälter wird. Wenn man das aber nicht für konkrete Orte, sondern für ganze Länder oder gar für die Erde als Ganzes machen will, wenn man also zusätzlich auch über ausgedehnte Flächen mittelt, dann werden die Ungenauigkeiten immer größer und die Anforderungen an die Begründung einer Aussage werden immer anspruchsvoller.

Aber anspruchsvoll ist keine Berechtigung für eine grundsätzliche Ablehnung. Wer trotzdem eine solche fordert, der argumentiert nicht, um die Sache zu klären, sondern um seine Ansicht wie die einer Obrigkeit durchzusetzen. Oder er urteilt aus seinem Glauben heraus, nicht auf wissenschaftlicher Basis. Wissenschaftlich darf man immer mitteln, bei allen Größen, nur muss das, was man daraus ableitet, wissenschaftlich begründet werden.

Kein THE, weil CO2 kühlt?

Wärmt CO2, oder kühlt es? Entscheidend zur Beantwortung dieser Frage ist die Eigenschaft von CO2, IR-Strahlung bestimmter Wellenlängen zu absorbieren. Denn ein Stoff, der absorbiert, der emittiert auch, unvermeidbar, das sagt die Physik. Im Gleichgewicht emittiert er gleich viel, wie er absorbiert. In der Atmosphäre absorbiert CO2 vor allem Strahlung, die von unten (aus Richtung der Erde) kommt (und die ohne CO2 ungehindert in den Weltraum entweichen würde). Die Emissionen des CO2 erfolgen dann aber ungerichtet, also je zur Hälfte zurück in Richtung Erde und nach außen, in Richtung Weltraum. Die in Richtung Erde gehende Strahlung heißt infolge ihrer Richtung „Gegenstrahlung“. Es gibt sie immer, wenn es CO2 in der Atmosphäre gibt. Soweit sie von der Erdoberfläche absorbiert wird (was wohl immer größtenteils der Fall ist), führt sie dieser Energie zu (Energieerhaltung nach dem 1. HS!). Sie erwärmt die Erdoberfläche also zusätzlich zur Sonneneinstrahlung, unvermeidbar! Diese Erwärmung heißt „Treibhauseffekt“ (siehe die Definition weiter oben). CO2 in der Atmosphäre erwärmt daher eindeutig die Erdoberfläche und kühlt sie nicht ab.

Aber das ist noch nicht das Ende. Denn dieses CO2 in der Atmosphäre sendet, wie gesagt, gleichzeitig auch Strahlung in den Weltraum aus. Das kühlt den Ort der Aussendung, also die obere Atmosphäre. Mit der Erwärmung der Erdoberfläche (dem THE) untrennbar verbunden ist daher eine Kühlung der oberen Atmosphäre. Anders ausgedrückt: Mit dem THE erwärmt CO2 die Erdoberfläche und kühlt gleichzeitig die obere Atmosphäre. Die beiden Effekte schließen sich nicht gegenseitig aus, im Gegenteil, es gibt sie nur gemeinsam. Und es gibt sie immer, wenn CO2 (oder andere Treibhausgase) in der Atmosphäre vorhanden ist.

CO2 bewirkt aber noch einen zweiten Effekt, neben dem THE: Wärme wird von der Erdoberfläche nicht nur abgestrahlt, sondern auch durch Leitung, Konvektion und vor allem durch Verdunstung (als „latente Wärme“) in die Atmosphäre eingetragen. Dadurch erwärmt sich die Atmosphäre. Ohne CO2 (und ohne andere Treibhausgase) kann diese Wärme nicht aus der Atmosphäre in den Weltraum abgegeben werden, auch nicht teilweise. Sie kann daher nur materiegebunden (z. B. durch Regen) wieder zurück zur Erdoberfläche geleitet werden. Dann kann wieder neue Wärme in die Atmosphäre eingebracht werden, die dann aber auch wieder vollständig zurück kommt. Ohne CO2 wird das Temperaturgleichgewicht der Erdoberfläche ausschließlich durch Strahlungsaustausch hergestellt.

Ist jedoch auch CO2 (und andere Treibhausgase) in der Atmosphäre vorhanden, dann nimmt dieses die Temperatur der umgebenden Atmosphäre an und aufgrund seiner Temperatur strahlt es dann, wie gesagt, in alle Richtungen gleich stark. Es strahlt also nicht nur, weil es IR-Strahlung von der Erdoberfläche absorbiert, sondern auch, weil es durch diese anderen Effekte Wärme von der Erdoberfläche erhält. Es bewirkt also, zusätzlich zum THE, dass ein Teil der durch Leitung, Konvektion und Verdunstung in die Atmosphäre eingebrachten Wärme von dort in den Weltraum abgegeben wird. Damit ist ein zweiter Wärmeabfuhrpfad von der Erdoberfläche in den Weltraum eröffnet: Neben über Strahlung geht das nun auch per Leitung, Konvektion und Verdunstung (bis in die obere Atmosphäre, von dort geht es natürlich auch nur per Strahlung weiter, aber diese gibt es eben nur durch das CO2). Das Temperaturgleichgewicht der Erdoberfläche wird durch beide Wärmeabfuhrpfade zusammen hergestellt.

Weil in diesem zweiten Pfad die latente Wärme mit Abstand den größten Beitrag liefert, habe ich in (Lit. 1) hierfür die Bezeichnung „Latentwärmeabfuhreffekt“ (LWE) verwendet, in Anlehnung bzw. im Gegensatz zum THE. Und ich habe die Vermutung geäußert (und begründet), dass bei relativ kleinen CO2-Konzentrationen der THE überwiegt (weswegen es heute auf der Erde wärmer ist als ohne THE), dass der LWE aber mit steigender Konzentration schneller wächst, sodass er ab einer bestimmten Konzentration überwiegen sollte. Unterhalb dieser Konzentration wird es daher mit zunehmender Konzentration wärmer, oberhalb wird es kühler. Wo dieser Umkehrpunkt ist, kann m. E. heute niemand gesichert sagen. Gefühlsmäßig neige ich zur Ansicht, dass wir nicht mehr weit davon entfernt sind, aber harte Argumente dafür habe ich nicht.

Damit lässt sich die Frage „Kein THE, weil CO2 kühlt?“ klar mit einem Nein beantworten. Der THE erwärmt eindeutig (bei gleichzeitigem Abkühlen der oberen Atmosphäre), und selbst wenn der LWE überwiegt, dann ist er nur größer, ohne den THE auszuschalten. Die unreflektierte Aussage, kein THE, weil CO2 kühlt, wird nur von Glauben getragen, wissenschaftlich ist sie m. E. eindeutig nicht haltbar. Sie trotzdem zu wiederholen, heißt, sich mit einem Glaubenskrieg zufrieden zu geben.

Schlussbemerkungen

Ein Grund, warum die Klimadiskussion nicht vom Fleck kommt, scheint mir darin zu liegen, dass sehr viele Wortmeldungen nur Glaubensbekenntnisse sind, die der eigenen Meinung durch Wiederholung zum Durchbruch verhelfen sollen, ohne auf die Gegenargumente sachlich eingehen zu wollen. Leider gilt das für viele Wortmeldungen auf allen Seiten. Können wir es wirklich nicht besser?

Irgendjemand hat einmal gesagt, dass viele Wege nach Rom führen, wir sollten möglichst alle probieren, die Vielfalt wäre ein wichtiger Erfolgsfaktor. Mag sein, ich glaube, dass nur ein solcher Weg erfolgreich sein kann, der weniger auf Wiederholungen baut, sondern vor allem durch seine Sachargumente überzeugen kann. Den Weg sollten wir suchen. Allerdings pragmatisch: Das heißt, wir sollten uns auch überlegen, welche Punkte zwar vielleicht wissenschaftlich interessant sein mögen, für die „Lagebeurteilung“ insgesamt aber nur untergeordnete Bedeutung haben. Diese Punkte können wir dann in der Diskussion etwas zurückstellen. Ein Beispiel hierzu: Ob es auf der Erde ohne Atmosphäre (oder ohne Treibhausgase in ihr) minus 18, oder minus 100 Grad hat, oder noch kälter ist, erachte ich als ziemlich nachrangig. Wir verdanken den Treibhausgasen und damit dem THE wohl auf jeden Fall eine bewohnbare Erde (was trivialerweise noch nichts über die Breite des „Fensters der Bewohnbarkeit“ aussagt). Wir sollten den THE prinzipiell loben, ihn rundweg abzulehnen, liegt m. E. sehr nahe am Verteufeln, was wieder der Religion zuzuordnen wäre.

Die Kehrseite der Medaille ist, dass wir nicht darum herumkommen, uns der mühsamen Diskussion über die reale Größe des THE bei zunehmender CO2-Konzentration zu stellen. Der einfache Ausweg „den THE gibt es nicht“, gibt es m. E. nicht. Der relativ einfachste Weg, den ich sehe, besteht darin, klarzustellen, dass das viele CO2 in der Atmosphäre gar nicht „menschengemacht“ ist, sondern überwiegend aus natürlichen Quellen stammt. Dann kommt es auf die exakte Klimawirksamkeit des CO2 nicht mehr so sehr an. Das ist aber ein ganz anderes Thema, m. E. allerdings eher erfolgreich, siehe die diversen Beiträge und Diskussionen hierzu bei EIKE. Für Interessierte noch ein paar Literaturzitate (Lit. 2-10).

Literatur

  1. Roth, E. (2019): Probleme beim Klimaproblem – Ein Mythos zerbricht. BoD-Verlag Norderstedt 2019, ISBN 978-3-7481-8275-7, E-Book 978-3-7494-0328-8.
  2. Roth, E. (2020): Abgesagt! Dem Klimanotstand bricht die Basis weg. BoD-Verlag Norderstedt 2020, ISBN 978-3-7526-4764-8, E-Book 978-3-7526-55308-8.
  3. Roth, E. (2022): Das große Klimarätsel: Woher kommt das viele CO2? BoD-Verlag Norderstedt 2022, ISBN 978-3-7562-2033-5, E-Book 978-3-7562-5347-0.
  4. Roth, E. (2023): Climate: Man or Nature? A Contribution to the Discussion. Science of Climate Change, Vol. 3.5 (2023), pp. 521-542, https://doi.org/10.53234/scc202310/40
  5. Roth, E. (2024): The Physics of the Carbon Cycle: About the Origin of CO2 in the Atmosphere. Authorea. March 15, 2024. DOI: 10.22541/au.171053031.12464953/v1
  6. Berry, E. X: (2019): Human CO2-Emissions Have Little Effect on Atmospheric CO2”, International Journal of Atmospheric and Oceanic Sciences, Vol. 3, No. 1, 2019, pp. 13-26; doi: 10.11648/j.ijaos.20190301.13.
  7. Harde, H. (2017): Scrutinizing the carbon cycle and CO2 residence time in the atmosphere. Global Planetary Change 152, 19–26. https://doi.org/10.1016/j.gloplacha.2017.02.009
  8. Harde, H. (2019): What Humans Contribute to Atmospheric CO2: Comparison of Carbon Cycle Models with Observations, Earth Sciences, Vol. 8, No. 3, 2019, pp. 139-159. doi: 10.11648/j.earth.20190803.13.
  9. Harde, H. & Salby, M. (2021): What Controls the Atmospheric CO2-Level?, Science of Climate Change, Vol. 1, No. 1, August 30, 2021, pp. 54-69, DOI: 10.53234/scc202106/22
  10. Salby, M. (2018): What is Really Behind the Increase of Atmospheric CO2?, Lecture at Helmut Schmidt Universität, Hamburg, 10.10.2018. https://youtu.be/b1cGqL9y548?feature=shared

 




Wissing schreibt Brandbrief an EU-Kommission – der Kampf gegen das Auto geht weiter

Millionen Diesel-Fahrzeugen droht im November der Entzug der Zulassung, sollte der EuGH einer Klage stattgeben. Verkehrsminister Volker Wissing schreibt panisch einen Brief an die Kommissionspräsidentin Ursula von der Leyen. Dabei trägt er selbst Verantwortung.

Von Holger Douglas

Der Kampf gegen das Auto und die Mobilität geht weiter. Wer geglaubt hatte, die alte und neue Kommissionspräsidenten von der Leyen würde eine Kehrtwende von jenem verhängnisvollen Green Deal vollziehen, der sieht sich getäuscht. Das Kind hat einen anderen Namen bekommen und die Vernichtung der individuellen Mobilität wird fortgesetzt.

Immer noch steht das Ziel, dass die EU ab 2035 alle neuen Verbrenner verbieten lassen will.

Jetzt sorgt ein Brandbrief von Verkehrsministers Volker Wissing (FDP) für Aufsehen, indem er davor warnt, dass möglicherweise acht Millionen Dieselautos plötzlich stillgelegt werden. Dann nämlich, wenn im November der EuGH sagt, die Zulassung von Dieselfahrzeugen vor 2017 gilt nicht mehr. Die wurden zwar nach den damals geltenden sogenannten Neuen Europäischen Fahrzyklus-Regeln (NEFZ) zugelassen, doch – April, April – jetzt plötzlich sollen die nicht mehr gelten.

Wissing regt eine »Klarstellung« an, wie es in seinem Brief heißt, dass zwischen der Kommission und den Mitgliedstaaten eine entsprechende Rechtsänderung schnellstmöglich ausgearbeitet wird. Die Fachebene des Bundesverkehrsministeriums werde einen konkreten Regelungsvorschlag unterbreiten.

Der Grund für die Hektik von Wissing: Er schlägt Alarm nicht zuletzt im Hinblick auf seine Parteifreunde, die im Osten vor Landtagswahlen stehen. Er selbst stünde vermutlich auch vor seinem politischen Aus. Denn wenn im November der EuGH tatsächlich urteilt, die Zulassung hätte nicht erteilt werden dürfen, würde dies dazu führen, dass das Kraftfahrtbundesamt Millionen von Autobesitzern sagen müsste: Ab morgen dürft ihr nicht mehr fahren; diese Autos besitzen keine Straßenzulassung mehr. Und übermorgen wäre Wissing seinen Chefsessel im Verkehrsministerium los. Und Deutschland stünde vermutlich vor einem Volksaufstand. Denn mittlerweile haben die Bürger von dem Unfug die Nase gestrichen voll, der mit ihrem Eigentum und ihren Arbeitsplätzen im Namen des »Klimas« getrieben wird.

Es geht wieder um die Frage, wie die Abgase eines Autos mit Verbrennungsmotor gemessen werden. Ein heikles Thema, viel Ingenieursintelligenz ist hineingeflossen, wie die Messungen unterschiedlicher Fahrzeuge vergleichbar gestaltet werden kön-nen. Festgelegt wurde in den Vorschriften eines Prüfzyklus für den NEFZ.

Klar war auch jedem Fachmann: Auf dem Prüfstand sieht das Abgasverhalten eines Autos anders aus als im realen Betrieb auf der Straße.

Anders wurde dies, als Umwelt-NGOs CO2, Stickoxide und andere Abgase des Autos als Kampfplatz wählten, um das Auto zu bekämpfen. Die riefen: Diese Messungen hätten kaum etwas mit dem realen Abgasverhalten von Verbrennungsmotoren im Straßen-verkehr zu tun. Die Innenstädte würden zu lebensgefährlichen Plätzen. Wir dokumentierten die abenteuerlichen Lügen und falschen Messungen, mit denen gearbeitet wurde, bei Tichys Einblick ausführlich.

Neue Zulassungsverfahren wurden entwickelt; die Motorenentwickler konstruierten nach viel Forschungs- und Entwicklungsarbeit entsprechende neue Motoren, die diese niedrigeren Grenzwerte einhalten. Ein moderner Diesel hinterlässt unter bestimmten Betriebsbedingungen sauberere Luft, als er vorne einzieht. Doch auch diesen sauberen Dieselfahrzeugen soll mit neuen Vorschriften der Garaus gemacht werden.

Ab Herbst könnten Millionen von Dieselfahrzeugen unterhalb Euro-6 zwangsweise stillgelegt werden, wenn der EuGH aus heiterem Himmel diesen Autos rückwirkend die Zulassung entzieht. Auch Konsequenzen für Teile der Euro-6-Flotte schließt Wissing nicht aus. Dies würde nicht nur Diesel-, sondern auch Benzinfahrzeuge treffen.

Anlass ist übrigens die Klage zweier Personen vor dem Düsseldorfer Landgericht, das die Entscheidung dem EuGH vorgelegt hat. Die Frage ist: Können neuere Zulassungsverfahren auch rückwirkend für Autos vorgeschrieben werden, die unter den alten zugelassen sind? Begriffe wie Besitzstandswahrung wären dann obsolet.

Auch die Kommission habe sich diesem Gedanken zugeneigt gezeigt. Sie will weiterhin mit aller Gewalt Elektroautos durchsetzen. Zu vermuten ist ferner, dass der EuGH auch diese absurden Wendungen in der ideologischen Auseinandersetzung um den Verbrennungsmotor mitmacht und der Klage stattgibt.

Es geht nicht ums Klima, sondern um Kohle. Davon leben unter anderem seit Jahren Umwelt-NGOs prächtig, die mit ihren Aktivitäten Sabotage am Industriestandort Deutschland leisten. Erfolgreich, muss man zugestehen.

Auch die Autoindustrie dürfte mit stillem Wohlgefallen auf die Auseinandersetzung schauen. Deren Geschäfte laufen schlecht, da käme es den Bilanzen gelegen, die alten Autos von den Straßen zu fegen und viele, viele neue verkaufen zu können

Der Beitrag erschien zuerst bei TE hier

 




Angebotsorientierte Energiepolitik– Atypische Netznutzung

Unternehmen, die bedarfsgerecht Strom beziehen, passen nicht ins grüne System zufälliger Stromlieferungen. Sie werden nun als „atypisch“ erklärt und sollen sich flexibilisieren. Nicht die Netznutzung ist atypisch, sondern die deutsche Energiepolitik.

Von Frank Hennig

Die Bundesnetzagentur (BNA) teilte mit Schreiben vom 23. Juli den Konsultationsbeginn zu einem „Eckpunktepapier zur Fortentwicklung der Industrienetzentgelte“ mit. Die bisherigen Regelungen aus der Stromnetzentgeltverordnung (StromNEV) seien nicht mehr zeitgemäß, sie begünstigten bezüglich der Netzentgelte Betriebe mit hohen Nutzungsstunden und bestimmten Nutzungszeiten, was den aktuellen Anforderungen des auf hohen Anteilen „erneuerbarer Stromerzeugung“ beruhenden Stromsystems nicht mehr entspreche.

Mit anderen Worten: Unternehmen, die bedarfsgerecht Strom beziehen, passen nicht mehr ins grüne System zufälliger Stromlieferungen. Sie sollen sich flexibilisieren im Sinne des Demand Site Managements (DSM), also der Regelung der Verbraucherseite. Unter den sogenannten Flexibilitätsoptionen zur Netzregelung wird diese Möglichkeit immer häufiger genannt, je weniger die Erzeugerseite flexibel ist. Wenn in Echtzeit ungeregelter Naturstrom auf wechselnden Bedarf trifft und trotzdem die Netzfrequenz in engen Grenzen gehalten werden muss, bleibt nur die Anpassung auf der Verbraucherseite.

Bedarfsgerechter oder konstanter Strombezug wird nun als „atypisch“ erklärt, das ist ein neues Niveau der Energiewendekommunikation. Wer ist schon gern atypisch, weicht von der Norm ab, ist unnormal? Der Schwarze Peter wird weitergeschoben. Nicht der verfehlte Ansatz der isoliert deutschen, also deutschnationalen Energiewendepolitik legt die Ursache, sondern ein „atypisches“ Verbraucherverhalten. Weitet man diese Zuschreibung auf die Haushaltsverbraucher aus, so handelt jeder atypisch, der nach Sonnenuntergang das Licht einschaltet. Es steht nicht im Einklag mit dem Aufkommen an PV-Strom.

Ahistorisch statt atypisch

Die Regelung der Verbraucherseite ist ein Rückschritt in mittelalterliche Verhältnisse. Generationen vor uns haben daran gearbeitet, in ihrer Energieversorgung unabhängig von den Launen der Natur zu werden. Endgültig geschafft wurde dies durch die Nutzung der Kohle und dem Einsatz von Dampfmaschinen. Die planbare und bedarfsgerechte Bereitstellung von Energie ebnete den Weg zur Industrialisierung, zu immer weiterer Arbeitsteilung, steigender Effektivität der Produktion, zu mehr Wertschöpfung pro Beschäftigtem, zu sinkenden Preisen und steigenden Löhnen. Bedingung der zunehmenden Arbeitsteilung war eine immer ausgefeiltere Logistik mit dem Ziel, dass Material wie auch Energie zum richtigen Zeitpunkt in der richtigen Menge am richtigen Ort sein müssen.

Genau das können Wind- und Solarstrom nicht leisten. Anstelle die Subventionierung der Naturenergie von deren sicherer Lieferung und Regelfähigkeit abhängig zu machen, fördert die Ampelregierung weiterhin grünen Zufallsstrom, egal wann und wie viel geliefert wird. Durch den nachhängenden Netzausbau nicht ableitbarer Strom wird sogar „entschädigt“; muss er im Ausland kostenpflichtig entsorgt werden, tritt volkswirtschaftlicher Schaden ein. Die „Erneuerbaren“-Betreiber stehen bei uns wie vor 25 Jahren unverändert im Streichelzoo.

Einer muss es tun

Physikalisch ist ein Netzbetrieb mit überwiegend zufälliger Stromproduktion aber nicht möglich, wenn der Verbrauch nicht angepasst wird. Kommunikative Vorfeldarbeit leistete Silvia Kotting-Uhl (Grüne) in ihrer Rede im Bundestag am 14. April 2021. Auf einen AfD-Antrag antwortete sie in bekannter Kernkraftpanik und Unkenntnis des Funktionierens eines Stromsystems, dass es künftig keine Grundlast mehr gäbe und „die Zukunft wird flexibler sein, spannender, ja, auch anspruchsvoller: nicht mehr nachfrage-, sondern angebotsorientiert …“.

Das kann man ihr persönlich nicht übelnehmen, sie war Studentin der Germanistik, Anglistik und Kunstgeschichte, arbeitete etwas als Theaterdramaturgin und entschied sich dann für ein „alternatives Leben im Kraichgau mit Selbstversorger-Tendenzen“. Beste Voraussetzungen also, um unter schwarz-roter Merkel-Mehrheit den Vorsitz des Bundestags-Ausschusses für Umwelt, Naturschutz und nukleare Sicherheit zu übernehmen.

Überrascht war ich, dass nach dieser ihrer Aussage kein Aufschrei durch Politik und Wirtschaft ging. Möglicherweise vermuteten die opportunistischen Manager der Industrie, von permanenter Suche nach Fördermitteln abgelenkt, dass es eine leere Ankündigung sein würde, während die Politiker anderer Parteien, ausgenommen die AfD, die Anschlussfähigkeit an die Grünen erhalten wollten. Nun bleibt es nicht bei der Ankündigung und es wird spannender allemal, hoffentlich nicht spannungslos. Jedenfalls werden wir auf diese Weise künftig kein Industrieland mehr sein.

Alternativlose Entscheidungen

Am Ende müssen die Manager doch wieder an ihr Betriebsergebnis denken. Nicht nur weiter steigende Energiepreise sind einzukalkulieren, künftig auch die abnehmende Verfügbarkeit von Energie, zumindest von Elektrizität mit der Folge einer Zuteilung von Energie, anders formuliert einer Rationierung. Die Abschaltpolitik und der vergebliche Versuch, durch zufälligen Naturstrom Ersatz schaffen zu wollen, werden zu Mangel führen. Unternehmen der Grundstoffindustrie, der Chemie und Metallurgie, die überwiegend 24/7 in Betrieb sind, können die Produktion kaum variieren und nur zum Preis der Zerstörung ihrer Anlagen die Produktion unterbrechen. Einem vollflexiblen Einsatz der Arbeitnehmer würde auch das Arbeitszeitgesetz im Weg stehen.

Das Schreiben der BNA wird für Vorstände und Aufsichtsräte Anlass sein, ihre Unternehmensstrategien zu überdenken. Investiert wird mit großer Wahrscheinlichkeit künftig dort, wo Energie günstig, sicher und bedarfsgerecht zur Verfügung steht. Das wird in Deutschland nicht mehr der Fall sein.

Das Denken in Zusammenhängen bereitet Grünen wie dem Chef der BNA traditionell Probleme. Primat haben Ideologie und das Wohlergehen der „Erneuerbaren“-Branche. Nicht die Netznutzung ist atypisch, sondern die deutsche Energiepolitik.

Der Beitrag erschien zuerst bei TE hier

 




Das große Offshore-Chaos

Gigantische Offshore-Windparks sollen das Rückgrat der Energiewende werden. Jetzt kommen unberechenbare Nebenwirkungen der Giganten raus: Sie kannibalisieren sich gegenseitig, erzeugen gefährliche Turbulenzen, verändern Luftströmungen und Wellen. Das Ausfallrisiko steigt.

Von Manfred Haferburg

Die große Hoffnung der Energiewender liegt in den Offshore-Windradgiganten. Angeblich weht ja auf See irgendwo immer Wind. Segler wissen aber besser, dass dies nur sehr bedingt stimmt. Auch die VGB-Studie Windenergie in Deutschland und Europa (Thomas Linnemann und Guido Vallana) hat mit dem Märchen aufgeräumt, dass irgendwo immer Wind weht – es gibt auch europaweite Flauten. Die breite Öffentlichkeit hat trotz Jahren der Energiewendepropaganda begriffen, dass es keinen Strom aus den fluktuierenden „Erneuerbaren“ gibt, wenn die Sonne nicht scheint und der Wind nicht weht. Auch scheint der Begriff „Dunkelflaute“ im Bewusstsein der Bevölkerung endlich angekommen zu sein.

Zudem hat der viel gelobte Zubau von Offshore-Windgiganten einige Schattenseiten, die in der Öffentlichkeit überhaupt noch nicht thematisiert werden. Vereinzelt wird über Netzengpässe als Herausforderungen berichtet. Was früher „Krise“ hieß, heißt heute nämlich „Herausforderung“. Die Berichte beziehen sich auf Aussagen der Bundesnetzagentur (BNetzA) und ihre Berichte zum Netzengpassmanagement. Diese Papiere sind – das muss man den verbeamteten Verschleierungskünstlern der Bundesnetzagentur lassen – nicht leicht zu lesen. Da muss man schon sachkundig mit Tabellen umgehen können, was zeitaufwändig ist und was vermutlich Journalisten nicht gerne tun beziehungsweise gar nicht können. Leider gibt es die leicht leserlichen Berichte der Übertragungsnetzbetreiber zur Leistungsbilanz nicht mehr.

Regierungs-Aussagen an Chuzpe nicht zu übertreffen

Wenn Windkraftanlagen bei einer frischen Brise an Land nicht laufen, dann fällt das auf. Auf See, dutzende Kilometer vor der Küste, bekommt es kaum jemand mit. Genau das passiert aber verstärkt seit Jahren. So geht das Thema an der öffentlichen Aufmerksamkeit vorbei, obwohl es die Bevölkerung Millionen kostet, wenn Windkraftanlagen abgeregelt werden oder ganz vom Netz genommen werden. Die Bundesampel fördert den Zubau der Windenergie auf Teufel komm raus mit Steuermilliarden, ohne dass die Windbarone in irgendeine Verantwortung für die Netzstabilität genommen werden.

Über die vielversprechenden Aussagen der Bundesregierung (mit tatkräftiger Unterstützung des grünen Klaus Müller, Chef der Bundesnetzagentur) dass Windkraftanlagen zunehmend in die Bereitstellung von Regelleistung einbezogen werden und dafür auch qualifiziert sind, kann der Fachmann nur den Kopf schütteln. Sie sind an Chuzpe nicht zu übertreffen.

Früher hatten die Energieversorger neben dem Recht auf Stromproduktion auch eine Pflicht zur Stromproduktion, um das Netz stabil zu halten. Stieg der Strombedarf, mussten sie Kraftwerksleistung vorhalten und zur Stabilisierung hochfahren. Diese Pflicht wurde für die  „Erneuerbaren“ abgeschafft. Das geht auch gar nicht anders, da die „Erneuerbaren“ ausschließlich negative Regelenergie zur Verfügung stellen können. Das heißt, man kann sie bei zu viel Stromerzeugung abstellen, aber nicht bei zu wenig Stromerzeugung hochfahren.

Weht kein Wind, müssen die konventionellen Kraftwerke ran. Diese Volatilität ist einer der unheilbaren Konstruktionsfehler der Energiewende.

Es hat sich längst herumgesprochen, dass Windräder Vogel-Schredder und Insektenkiller sind. Auch wie die Rammarbeiten unter Wasser die Orientierung der Meeressäuger stören, liest und hört man gelegentlich. Was aber bisher kaum in die Öffentlichkeit gedrungen ist, sind die Auswirkungen der immer gigantischer werdenden Windmonster, die in Massenformationen auf See installiert werden, auf die Wind- und die Wasserbewegung – und damit auf die Sedimentverteilung im Oberflächenwasser.

Es ist allerdings leicht nachvollziehbar, dass es Auswirkungen auf den Wind hinter den sogenannten Windparks hat, wenn man ihm die Leistung von vielen großen Kraftwerken abzapft respektive entzieht. Der Wind hinter den Windrädern ist alles andere als erneuerbar.

Von Windkannibalen und Wirbelschleppen

Ingenieure und Wissenschaftler arbeiten fieberhaft am Verständnis zur Turbulenzphysik des Wind- und Wasser-Offshore-Geschehens, etwa in der deutschen Nord- und Ostsee. Erste Ergebnisse sind erschreckend. So ist wissenschaftlich nachweisbar, dass Wirbelschleppen in den Offshore-Parks bis zu 70 (!) Kilometer lang sind. (Normalerweise würde man erwarten, dass solche Untersuchungen von den Betreibern vor dem Bau solcher Monumentaltechnik vorgelegt und in die Planung und Genehmigung einbezogen werden müssen. Man nennt das Technikfolgenabschätzung.)

Die jetzt gewonnenen  Erkenntnisse besagen, dass Offshore-Anlagen sich bereits im jetzigen Ausbauzustand gegenseitig kannibalisieren, indem sie buchstäblich den hinter ihnen stehenden Anlagen den Wind aus den Flügeln nehmen.

Das ist aber nicht alles: Es treten in den Wirbelschleppen auch starke Intermittenzen auf. Der Ausdruck beschreibt den Wechsel von periodischen und chaotischen Phasen eines nichtlinearen dynamischen Systems beziehungsweise den Wechsel zwischen Phasen verschiedener Arten chaotischer Dynamik. Sie treten unter anderem bei turbulenten Strömungen in der Nähe des Übergangs zur Turbulenz auf.

Bei den Offshore-Windparks ist das gekennzeichnet durch kurzzeitige, unregelmäßige und schwankende Windverhältnisse. Bisherige Ergebnisse lassen vermuten, dass sich diese mit dem Ausbau der Offshore-Windenergie noch weiter verstärken werden. Und zwar aufgrund der sich mit dem Ausbau verstärkenden Nachlaufeffekte und anderer Erscheinungen, etwa Grenzflächeneffekte.

Folge: Die Ausnutzung der Offshore-Windparks sinkt, und die mechanische Beanspruchung steigt. Bei einer Segelregatta ist es sportlich und lustig, den in Lee segelnden Konkurrenten den Wind aus den Segeln zu nehmen. Bei Windkraftanlagen ist es auch gefährlich für das Netz, da die Belastung des Netzes dementsprechend zunimmt. Schließlich wird das Stromnetz durch turbulente intermittierende Quellen gespeist. Diese physikalischen Effekte verstärken sich sogar nichtlinear, da die elektrische Leistung von Windkraftanlagen proportional zur dritten Potenz der Windgeschwindigkeit ist.

Es ist bereits in dem jetzigen Ausbauzustand festzustellen, dass sich Offshore-Windkraftanlagen gegenseitig Wind aus den Flügeln nehmen, gleichwohl werden immer weiter immer gigantischere Windmühlen auf See errichtet, mit Nabenhöhen weit über 100 Metern und Rotordurchmessern von 150 Metern und mehr, die in laminaren Strömungsgrenzschichten arbeiten, wo hohe Windgeschwindigkeiten herrschen.

„Es muss von einer hohen Unsicherheit ausgegangen werden“

Weil die Windgeschwindigkeit mit zunehmender Höhe über Grund zunimmt und in großen Höhen auf See gute Windverhältnisse herrschen, ist die Ausnutzung der Windkraftanlagen auf See im Vergleich zu Windkraftanlagen an Land deutlich höher. Moderne Offshore-Windturbinen erreichen Kapazitätsfaktoren (ein Maß für die Ausnutzung) von über 40 Prozent, während Onshore-Anlagen typischerweise bei etwas über 20 Prozent liegen.

Ausnutzung heißt: Wie viel von der installierten Nennleistung kann in der Realität nutzbar gemacht werden. Eine Ausnutzung von 40 Prozent heißt, dass von einem Windrad mit einer Nennleistung von 10 Megawatt im Jahresdurchschnitt nur vier Megawatt effektiv nutzbar sind. Durch Abregelung von Offshore-Anlagen aufgrund von Netzengpässen liegt dieser Wert der Ausnutzung aktuell deutlich niedriger, etwa bei nur 32 Prozent – da waren es nur noch drei. Drei ist aber immer noch höher als bei Windrädern an Land mit einer aktuellen Ausnutzung von circa 22 Prozent – da waren es nur noch zwei. Zum Vergleich: Die abgeschalteten Kernkraftwerke hatten eine Ausnutzung von über 95 Prozent.

Seit Mai 2024 liegt der Bericht „Ertragsmodellierung der Ausbauszenarien 22 und 23 des Fraunhofer-Instituts für Windenergiesysteme (IWES) vor. Ein zentraler Aspekt der ad-hoc Analyse ist die Untersuchung der Auswirkungen eines zukünftigen Ausbaus auf die Erträge der deutschen Offshore-Windparks. Salopp gesagt, gingen die IWES-Experten der Frage nach: Was werden wir auf See an Windenergie ernten – ohne Abregelung von Offshore-Anlagen?

IWES schreibt in einem knackigen Abschlusssatz:

„Grundsätzlich muss bei der Modellierung von Energieerträgen von Windparks in bisher ungekannten Größen von einer hohen Unsicherheit ausgegangen werden“.

Kurzum: Niemand kann konkret sagen, wo wir bei einem weiteren Ausbau auf See wirtschaftlich landen werden. Was werden die Erträge von großen Windparks sein, ohne Abregelung von Offshore-Windkraftanlagen versteht sich – also wenn das Problem des Netzengpasses durch Milliarden Euro schweren massiven Netzausbau beseitigt ist? Wird die Ausnutzung des deutschen Offshore-Windparks integral 45 Prozent betragen oder 35 Prozent oder noch deutlich weniger?

Nicht zu vergessen: Welche Auswirkungen hat das alles auf den Strompreis? Bereits jetzt, wo Anlagen aufgrund von Netzengpässen abgeregelt werden müssen, um die Netzstabilität und Qualität zu halten, fließen Millionen und Abermillionen Steuergelder als Entschädigung. Diese Entschädigungspflicht ist im Erneuerbaren-Energien-Gesetz (EEG) in §14 und §15 geregelt.

Ein weiteres Problem ganz anderer Dimension: Bereits jetzt beeinflussen Offshore-Windparks die Wellenphysik der Meeresoberfläche. Das Helmholtz-Institut schreibt: „Durch die Erzeugung von Turbulenz im Wasser können Offshore-Windparks einen wesentlichen Einfluss auf die Sedimentdynamik haben. Eine höhere Turbulenzenergie hinter den Pfählen verursacht eine erhöhte vertikale Vermischung und kann daher zu höheren Konzentrationen von Sediment nahe der Meeresoberfläche führen“.

Ferner ist festzustellen: Turbulenzen in der Luft und im Meer werden durch die Wechselwirkung von Gezeitenströmungen und Offshore-Windfarm-Strukturen verursacht. Sie erzeugen ein zusätzliches Potenzial für die Vermischung der saisonalen Schichtung, die sich in weiten Teilen der deutschen Ausschließlichen Wirtschaftszone ausbildet. Welche ökologische Folgen wird dies haben, zumal Nährstoffe aus tieferen Wasserschichten an die Oberfläche gelangen, sich die Temperaturverteilung im Wasser ändern kann und Planktonpopulationen und andere marine Organismen beeinflusst werden?

Im Wind-Zielkonflikt

Das Mantra der Energiewender sind die „Ausbauziele“. Wenn wir die erreicht haben, hat die Energiewende gesiegt. Es ist ein „mehr-vom-Selben“-Mantra, ausgegeben von den Hedge-Fonds-Windbaronen. Doch stimmt das? Werden mehr Windparks die Energiewendemisere retten? Betrachten wir die aktuelle Situation der Abregelung von Windkraftanlagen.

Nach Angaben des Ministeriums für Energiewende in Schleswig-Holstein hat sich die Abregelungen von Offshore-Windanlagen, die mit dem Stromnetz in Schleswig-Holstein verknüpft sind, im Jahr 2023 verdreifacht. Abregelung bedeutet, dass trotz gutem Wind ein Windrad vom Netz genommen und leistungslos in den Wind gedreht wird, weil sonst das Netz durch zu viel Leistung zu stark belastet wird. Bezahlt wird der dabei nicht erzeugte Strom vom Steuerzahler an den Windbaron. Betrug die Ausfall-Energie der Offshore-Anlagen des ÜNB Tennet in 2022 rund 729 GWh, so waren es in 2023 bereits rund 2.260 GWh, also mehr als eine Verdreifachung.

Die Abregelung von Offshore-Windenergieanlagen steht in direktem Zusammenhang mit dem Zubau dieser Anlagen und nimmt aus mehreren Gründen von Jahr zu Jahr zu. Der kontinuierliche Zubau von Offshore-Windparks führt zu einer steigenden Stromerzeugungskapazität auf See. Das leuchtet ein: mehr Anlagen, mehr Strom. Aber wohin damit, denn es gibt Netzengpässe, regionale Stromerzeugungsüberkonzentration, mangelhafte Netzanbindung und zu wenig regelbare Stromerzeugung.

  • Netzengpässe: Die bestehende Netzinfrastruktur kann mit dem schnellen Ausbau nicht Schritt halten, was zu Überlastungen führt.
  • Regionale Konzentration: Offshore-Windparks konzentrieren sich in bestimmten Küstenregionen, was lokale Netzüberlastungen verstärkt.
  • Direkte Netzanbindung: Offshore-Windparks sind direkt an die Übertragungsnetze angeschlossen, wodurch ihre Abregelung bei Netzengpässen effektiver zur Entlastung beiträgt als die vieler kleinerer Onshore-Anlagen.
  • Wegfall konventioneller Kraftwerke: Mit der Abschaltung von Kohle- und Kernkraftwerken fehlen flexible Ausgleichsoptionen, was die Abregelung erneuerbarer Energien, insbesondere Offshore-Wind, verstärkt.

Die Ausfallenergie bei Offshore-Anlagen steigt überproportional an. Nach Zahlen der Bundesnetzagentur haben die Netzeingriffe bei Windrädern im dritten Quartal vergangenen Jahres extrem zugenommen. Offshore- und Onshore-Windenergie seien mit 1,06 TWh und 0,65 TWh „die am meisten abgeregelten Energieträger“ gewesen, schreibt die Behörde in ihrem Bericht zum Netzengpassmanagement für Juli bis September 2023. Das Plus gegenüber dem Vorjahresquartal beziffert sie auf 223 Prozent bei Offshore und 92 Prozent bei Onshore.

Da die „abgeregelte Stromerzeugung“ trotzdem an die Windstromerzeuger bezahlt werden muss, ist auch der weitere Zubau dieser Produzenten von Abfallstrom ein sicheres Geschäftsmodell. Stellen Sie sich einen Bäcker vor, der täglich in einem 100-Seelen-Dorf 1.000 Brötchen bäckt, von denen 900 weggeworfen werden, weil sie keiner essen kann, und der trotzdem von jedem Einwohner 10 Schrippen kassiert, weil es das Gesetz so will.

Das Management des Netzes durch wetterbedingte Abregelung von Erneuerbaren und Hochfahren von konventionellen Kraftwerken sowie Stromimport kostet den Stromkunden und Steuerzahler in diesem Jahr wahrscheinlich fünf Milliarden Euro. Dafür könnte man in einer normalen Welt ein funkelnagelneues großes Kernkraftwerk bauen. Oder die letzten drei abgeschalteten deutschen Kernkraftwerke wieder funktionstüchtig machen. Das wird aber in Deutschland nicht geschehen, obwohl Robert Habeck beim Atomausstieg im letzten Jahr so einige Graichen im Keller hatte. Die Windbarone und Finanzgiganten wird es freuen, denn im nächsten Jahr werden es dank der immer weiter erreichten Ausbauziele noch ein paar hundert Millionen mehr sein.

Der Autor dankt ausdrücklich seinem Physikerfreund, der sich bestens mit chaotischen nichtlinearen Systemen auskennt, für die inhaltliche Unterstützung und die Nachtschicht beim Peer-Review dieses Beitrages.

Der Beitrag erschien zuerst bei ACHGUT hier