Das große Offshore-Chaos

Gigantische Offshore-Windparks sollen das Rückgrat der Energiewende werden. Jetzt kommen unberechenbare Nebenwirkungen der Giganten raus: Sie kannibalisieren sich gegenseitig, erzeugen gefährliche Turbulenzen, verändern Luftströmungen und Wellen. Das Ausfallrisiko steigt.

Von Manfred Haferburg

Die große Hoffnung der Energiewender liegt in den Offshore-Windradgiganten. Angeblich weht ja auf See irgendwo immer Wind. Segler wissen aber besser, dass dies nur sehr bedingt stimmt. Auch die VGB-Studie Windenergie in Deutschland und Europa (Thomas Linnemann und Guido Vallana) hat mit dem Märchen aufgeräumt, dass irgendwo immer Wind weht – es gibt auch europaweite Flauten. Die breite Öffentlichkeit hat trotz Jahren der Energiewendepropaganda begriffen, dass es keinen Strom aus den fluktuierenden „Erneuerbaren“ gibt, wenn die Sonne nicht scheint und der Wind nicht weht. Auch scheint der Begriff „Dunkelflaute“ im Bewusstsein der Bevölkerung endlich angekommen zu sein.

Zudem hat der viel gelobte Zubau von Offshore-Windgiganten einige Schattenseiten, die in der Öffentlichkeit überhaupt noch nicht thematisiert werden. Vereinzelt wird über Netzengpässe als Herausforderungen berichtet. Was früher „Krise“ hieß, heißt heute nämlich „Herausforderung“. Die Berichte beziehen sich auf Aussagen der Bundesnetzagentur (BNetzA) und ihre Berichte zum Netzengpassmanagement. Diese Papiere sind – das muss man den verbeamteten Verschleierungskünstlern der Bundesnetzagentur lassen – nicht leicht zu lesen. Da muss man schon sachkundig mit Tabellen umgehen können, was zeitaufwändig ist und was vermutlich Journalisten nicht gerne tun beziehungsweise gar nicht können. Leider gibt es die leicht leserlichen Berichte der Übertragungsnetzbetreiber zur Leistungsbilanz nicht mehr.

Regierungs-Aussagen an Chuzpe nicht zu übertreffen

Wenn Windkraftanlagen bei einer frischen Brise an Land nicht laufen, dann fällt das auf. Auf See, dutzende Kilometer vor der Küste, bekommt es kaum jemand mit. Genau das passiert aber verstärkt seit Jahren. So geht das Thema an der öffentlichen Aufmerksamkeit vorbei, obwohl es die Bevölkerung Millionen kostet, wenn Windkraftanlagen abgeregelt werden oder ganz vom Netz genommen werden. Die Bundesampel fördert den Zubau der Windenergie auf Teufel komm raus mit Steuermilliarden, ohne dass die Windbarone in irgendeine Verantwortung für die Netzstabilität genommen werden.

Über die vielversprechenden Aussagen der Bundesregierung (mit tatkräftiger Unterstützung des grünen Klaus Müller, Chef der Bundesnetzagentur) dass Windkraftanlagen zunehmend in die Bereitstellung von Regelleistung einbezogen werden und dafür auch qualifiziert sind, kann der Fachmann nur den Kopf schütteln. Sie sind an Chuzpe nicht zu übertreffen.

Früher hatten die Energieversorger neben dem Recht auf Stromproduktion auch eine Pflicht zur Stromproduktion, um das Netz stabil zu halten. Stieg der Strombedarf, mussten sie Kraftwerksleistung vorhalten und zur Stabilisierung hochfahren. Diese Pflicht wurde für die  „Erneuerbaren“ abgeschafft. Das geht auch gar nicht anders, da die „Erneuerbaren“ ausschließlich negative Regelenergie zur Verfügung stellen können. Das heißt, man kann sie bei zu viel Stromerzeugung abstellen, aber nicht bei zu wenig Stromerzeugung hochfahren.

Weht kein Wind, müssen die konventionellen Kraftwerke ran. Diese Volatilität ist einer der unheilbaren Konstruktionsfehler der Energiewende.

Es hat sich längst herumgesprochen, dass Windräder Vogel-Schredder und Insektenkiller sind. Auch wie die Rammarbeiten unter Wasser die Orientierung der Meeressäuger stören, liest und hört man gelegentlich. Was aber bisher kaum in die Öffentlichkeit gedrungen ist, sind die Auswirkungen der immer gigantischer werdenden Windmonster, die in Massenformationen auf See installiert werden, auf die Wind- und die Wasserbewegung – und damit auf die Sedimentverteilung im Oberflächenwasser.

Es ist allerdings leicht nachvollziehbar, dass es Auswirkungen auf den Wind hinter den sogenannten Windparks hat, wenn man ihm die Leistung von vielen großen Kraftwerken abzapft respektive entzieht. Der Wind hinter den Windrädern ist alles andere als erneuerbar.

Von Windkannibalen und Wirbelschleppen

Ingenieure und Wissenschaftler arbeiten fieberhaft am Verständnis zur Turbulenzphysik des Wind- und Wasser-Offshore-Geschehens, etwa in der deutschen Nord- und Ostsee. Erste Ergebnisse sind erschreckend. So ist wissenschaftlich nachweisbar, dass Wirbelschleppen in den Offshore-Parks bis zu 70 (!) Kilometer lang sind. (Normalerweise würde man erwarten, dass solche Untersuchungen von den Betreibern vor dem Bau solcher Monumentaltechnik vorgelegt und in die Planung und Genehmigung einbezogen werden müssen. Man nennt das Technikfolgenabschätzung.)

Die jetzt gewonnenen  Erkenntnisse besagen, dass Offshore-Anlagen sich bereits im jetzigen Ausbauzustand gegenseitig kannibalisieren, indem sie buchstäblich den hinter ihnen stehenden Anlagen den Wind aus den Flügeln nehmen.

Das ist aber nicht alles: Es treten in den Wirbelschleppen auch starke Intermittenzen auf. Der Ausdruck beschreibt den Wechsel von periodischen und chaotischen Phasen eines nichtlinearen dynamischen Systems beziehungsweise den Wechsel zwischen Phasen verschiedener Arten chaotischer Dynamik. Sie treten unter anderem bei turbulenten Strömungen in der Nähe des Übergangs zur Turbulenz auf.

Bei den Offshore-Windparks ist das gekennzeichnet durch kurzzeitige, unregelmäßige und schwankende Windverhältnisse. Bisherige Ergebnisse lassen vermuten, dass sich diese mit dem Ausbau der Offshore-Windenergie noch weiter verstärken werden. Und zwar aufgrund der sich mit dem Ausbau verstärkenden Nachlaufeffekte und anderer Erscheinungen, etwa Grenzflächeneffekte.

Folge: Die Ausnutzung der Offshore-Windparks sinkt, und die mechanische Beanspruchung steigt. Bei einer Segelregatta ist es sportlich und lustig, den in Lee segelnden Konkurrenten den Wind aus den Segeln zu nehmen. Bei Windkraftanlagen ist es auch gefährlich für das Netz, da die Belastung des Netzes dementsprechend zunimmt. Schließlich wird das Stromnetz durch turbulente intermittierende Quellen gespeist. Diese physikalischen Effekte verstärken sich sogar nichtlinear, da die elektrische Leistung von Windkraftanlagen proportional zur dritten Potenz der Windgeschwindigkeit ist.

Es ist bereits in dem jetzigen Ausbauzustand festzustellen, dass sich Offshore-Windkraftanlagen gegenseitig Wind aus den Flügeln nehmen, gleichwohl werden immer weiter immer gigantischere Windmühlen auf See errichtet, mit Nabenhöhen weit über 100 Metern und Rotordurchmessern von 150 Metern und mehr, die in laminaren Strömungsgrenzschichten arbeiten, wo hohe Windgeschwindigkeiten herrschen.

„Es muss von einer hohen Unsicherheit ausgegangen werden“

Weil die Windgeschwindigkeit mit zunehmender Höhe über Grund zunimmt und in großen Höhen auf See gute Windverhältnisse herrschen, ist die Ausnutzung der Windkraftanlagen auf See im Vergleich zu Windkraftanlagen an Land deutlich höher. Moderne Offshore-Windturbinen erreichen Kapazitätsfaktoren (ein Maß für die Ausnutzung) von über 40 Prozent, während Onshore-Anlagen typischerweise bei etwas über 20 Prozent liegen.

Ausnutzung heißt: Wie viel von der installierten Nennleistung kann in der Realität nutzbar gemacht werden. Eine Ausnutzung von 40 Prozent heißt, dass von einem Windrad mit einer Nennleistung von 10 Megawatt im Jahresdurchschnitt nur vier Megawatt effektiv nutzbar sind. Durch Abregelung von Offshore-Anlagen aufgrund von Netzengpässen liegt dieser Wert der Ausnutzung aktuell deutlich niedriger, etwa bei nur 32 Prozent – da waren es nur noch drei. Drei ist aber immer noch höher als bei Windrädern an Land mit einer aktuellen Ausnutzung von circa 22 Prozent – da waren es nur noch zwei. Zum Vergleich: Die abgeschalteten Kernkraftwerke hatten eine Ausnutzung von über 95 Prozent.

Seit Mai 2024 liegt der Bericht „Ertragsmodellierung der Ausbauszenarien 22 und 23 des Fraunhofer-Instituts für Windenergiesysteme (IWES) vor. Ein zentraler Aspekt der ad-hoc Analyse ist die Untersuchung der Auswirkungen eines zukünftigen Ausbaus auf die Erträge der deutschen Offshore-Windparks. Salopp gesagt, gingen die IWES-Experten der Frage nach: Was werden wir auf See an Windenergie ernten – ohne Abregelung von Offshore-Anlagen?

IWES schreibt in einem knackigen Abschlusssatz:

„Grundsätzlich muss bei der Modellierung von Energieerträgen von Windparks in bisher ungekannten Größen von einer hohen Unsicherheit ausgegangen werden“.

Kurzum: Niemand kann konkret sagen, wo wir bei einem weiteren Ausbau auf See wirtschaftlich landen werden. Was werden die Erträge von großen Windparks sein, ohne Abregelung von Offshore-Windkraftanlagen versteht sich – also wenn das Problem des Netzengpasses durch Milliarden Euro schweren massiven Netzausbau beseitigt ist? Wird die Ausnutzung des deutschen Offshore-Windparks integral 45 Prozent betragen oder 35 Prozent oder noch deutlich weniger?

Nicht zu vergessen: Welche Auswirkungen hat das alles auf den Strompreis? Bereits jetzt, wo Anlagen aufgrund von Netzengpässen abgeregelt werden müssen, um die Netzstabilität und Qualität zu halten, fließen Millionen und Abermillionen Steuergelder als Entschädigung. Diese Entschädigungspflicht ist im Erneuerbaren-Energien-Gesetz (EEG) in §14 und §15 geregelt.

Ein weiteres Problem ganz anderer Dimension: Bereits jetzt beeinflussen Offshore-Windparks die Wellenphysik der Meeresoberfläche. Das Helmholtz-Institut schreibt: „Durch die Erzeugung von Turbulenz im Wasser können Offshore-Windparks einen wesentlichen Einfluss auf die Sedimentdynamik haben. Eine höhere Turbulenzenergie hinter den Pfählen verursacht eine erhöhte vertikale Vermischung und kann daher zu höheren Konzentrationen von Sediment nahe der Meeresoberfläche führen“.

Ferner ist festzustellen: Turbulenzen in der Luft und im Meer werden durch die Wechselwirkung von Gezeitenströmungen und Offshore-Windfarm-Strukturen verursacht. Sie erzeugen ein zusätzliches Potenzial für die Vermischung der saisonalen Schichtung, die sich in weiten Teilen der deutschen Ausschließlichen Wirtschaftszone ausbildet. Welche ökologische Folgen wird dies haben, zumal Nährstoffe aus tieferen Wasserschichten an die Oberfläche gelangen, sich die Temperaturverteilung im Wasser ändern kann und Planktonpopulationen und andere marine Organismen beeinflusst werden?

Im Wind-Zielkonflikt

Das Mantra der Energiewender sind die „Ausbauziele“. Wenn wir die erreicht haben, hat die Energiewende gesiegt. Es ist ein „mehr-vom-Selben“-Mantra, ausgegeben von den Hedge-Fonds-Windbaronen. Doch stimmt das? Werden mehr Windparks die Energiewendemisere retten? Betrachten wir die aktuelle Situation der Abregelung von Windkraftanlagen.

Nach Angaben des Ministeriums für Energiewende in Schleswig-Holstein hat sich die Abregelungen von Offshore-Windanlagen, die mit dem Stromnetz in Schleswig-Holstein verknüpft sind, im Jahr 2023 verdreifacht. Abregelung bedeutet, dass trotz gutem Wind ein Windrad vom Netz genommen und leistungslos in den Wind gedreht wird, weil sonst das Netz durch zu viel Leistung zu stark belastet wird. Bezahlt wird der dabei nicht erzeugte Strom vom Steuerzahler an den Windbaron. Betrug die Ausfall-Energie der Offshore-Anlagen des ÜNB Tennet in 2022 rund 729 GWh, so waren es in 2023 bereits rund 2.260 GWh, also mehr als eine Verdreifachung.

Die Abregelung von Offshore-Windenergieanlagen steht in direktem Zusammenhang mit dem Zubau dieser Anlagen und nimmt aus mehreren Gründen von Jahr zu Jahr zu. Der kontinuierliche Zubau von Offshore-Windparks führt zu einer steigenden Stromerzeugungskapazität auf See. Das leuchtet ein: mehr Anlagen, mehr Strom. Aber wohin damit, denn es gibt Netzengpässe, regionale Stromerzeugungsüberkonzentration, mangelhafte Netzanbindung und zu wenig regelbare Stromerzeugung.

  • Netzengpässe: Die bestehende Netzinfrastruktur kann mit dem schnellen Ausbau nicht Schritt halten, was zu Überlastungen führt.
  • Regionale Konzentration: Offshore-Windparks konzentrieren sich in bestimmten Küstenregionen, was lokale Netzüberlastungen verstärkt.
  • Direkte Netzanbindung: Offshore-Windparks sind direkt an die Übertragungsnetze angeschlossen, wodurch ihre Abregelung bei Netzengpässen effektiver zur Entlastung beiträgt als die vieler kleinerer Onshore-Anlagen.
  • Wegfall konventioneller Kraftwerke: Mit der Abschaltung von Kohle- und Kernkraftwerken fehlen flexible Ausgleichsoptionen, was die Abregelung erneuerbarer Energien, insbesondere Offshore-Wind, verstärkt.

Die Ausfallenergie bei Offshore-Anlagen steigt überproportional an. Nach Zahlen der Bundesnetzagentur haben die Netzeingriffe bei Windrädern im dritten Quartal vergangenen Jahres extrem zugenommen. Offshore- und Onshore-Windenergie seien mit 1,06 TWh und 0,65 TWh „die am meisten abgeregelten Energieträger“ gewesen, schreibt die Behörde in ihrem Bericht zum Netzengpassmanagement für Juli bis September 2023. Das Plus gegenüber dem Vorjahresquartal beziffert sie auf 223 Prozent bei Offshore und 92 Prozent bei Onshore.

Da die „abgeregelte Stromerzeugung“ trotzdem an die Windstromerzeuger bezahlt werden muss, ist auch der weitere Zubau dieser Produzenten von Abfallstrom ein sicheres Geschäftsmodell. Stellen Sie sich einen Bäcker vor, der täglich in einem 100-Seelen-Dorf 1.000 Brötchen bäckt, von denen 900 weggeworfen werden, weil sie keiner essen kann, und der trotzdem von jedem Einwohner 10 Schrippen kassiert, weil es das Gesetz so will.

Das Management des Netzes durch wetterbedingte Abregelung von Erneuerbaren und Hochfahren von konventionellen Kraftwerken sowie Stromimport kostet den Stromkunden und Steuerzahler in diesem Jahr wahrscheinlich fünf Milliarden Euro. Dafür könnte man in einer normalen Welt ein funkelnagelneues großes Kernkraftwerk bauen. Oder die letzten drei abgeschalteten deutschen Kernkraftwerke wieder funktionstüchtig machen. Das wird aber in Deutschland nicht geschehen, obwohl Robert Habeck beim Atomausstieg im letzten Jahr so einige Graichen im Keller hatte. Die Windbarone und Finanzgiganten wird es freuen, denn im nächsten Jahr werden es dank der immer weiter erreichten Ausbauziele noch ein paar hundert Millionen mehr sein.

Der Autor dankt ausdrücklich seinem Physikerfreund, der sich bestens mit chaotischen nichtlinearen Systemen auskennt, für die inhaltliche Unterstützung und die Nachtschicht beim Peer-Review dieses Beitrages.

Der Beitrag erschien zuerst bei ACHGUT hier

 




22 anstatt 500.000 Atombomben: Wie man eine existenzielle Gefahr für den Klimawahn beseitigt

von Uli Weber

Der Startbildschirm von MS EDGE poppte am 5. Juli 2024 mit einer interessanten Meldung von StarsInsider hoch, die dort bereits vom 31. Jan. 2024 datiert. In der MSN-Überschrift heißt es, „Wie 22 Atombomben: Der Asteroid, der auf der Erde einschlagen wird, heißt Bennu“:

Abbildung: Screenschot der MS EDGE-Meldung vom 5. Juli 2024

Nun stolpert der physikalisch vorbelastete Betrachter aber sofort über die dort angegebene Einschlagenergie von 22 Atombomben für einen extraterrestrischen Körper, der sich ja mit Geschwindigkeiten im Bereich von 10-er Kilometern pro Sekunde fortzubewegen pflegt. So soll beispielsweise vor 66 Millionen Jahren ein etwa 14 km großer Kumpel von Bennu die Dino-Familie ausgelöscht haben. Zwar hat Bennu nur einen mittleren Durchmesser von einem halben Kilometer, aber trotzdem erscheint eine niedrige 2-stellige Anzahl von Atombomben, die üblicherweise in Hiroshima-Stärke ausgedrückt werden, für den Einschlag eines extraterrestrischen Körpers auf der Erde extrem mickerig.

Also schaunmermalgenauerhin:

Die Energie der Hiroshima-Bombe wird mit 56 Terajoule angegeben, 22 davon haben dann also 1.232 Terrajoule.

Laut Wikipedia hat Bennu eine mittlere Geschwindigkeit V von 27,75 Kilometern pro Sekunde und ein Gewicht M von etwa 70 Millionen Tonnen.

Die Physik liefert die Formel für die Energie: E = (M/2) * und das Ergebnis lautet dann auf eine Energie von 27.000.000 Terrajoule.

Und 27.000.000 TJ geteilt durch 1.232 TJ ergibt dann mal eben das 21.916-fache der Energie von den 22 Atombomben in der Überschrift.

Im Ergebnis hatten sich die dort zitierten „F_orscher“ nur mal eben um einen Multiplikator von 22×103 verrechnet, denn Bennus Einschlagenergie entspricht vielmehr 22.000 x 22 Hiroshimabomben. Auf der anderen Seite spielen in unseren MINT-fernen postwissenschaftlich-hochemotionalen Zeiten drei Zehnerpotenzen auch nicht mehr die gleiche Rolle wie noch zu alten D-Mark-Zeiten. So wird heute beispielsweise ausgabentechnisch der Unterschied zwischen Millionen und Milliarden nur noch als marginal empfunden – jedenfalls solange es sich dabei „nur“ um unsere Steuergelder handelt. Nennen wir solche Steuerleute unter Beibehaltung der obigen Schreibweise also einfach mal „P_olitiker“, um auch diese Art von Potenzschwäche einmal klar und deutlich hervorzuheben…

Man könnte diesen Text jetzt mit ein paar lustigen Worten beenden, beispielsweise: Der berechnete Multiplikator von 22×103 gilt für 22 Atombomben von Hiroshimastärke, was am Ende bedeutet, dass wir bei Bennu mit einer Einschlagenergie von etwa 500.000 Hiroshima-Bomben zu rechnen haben – was immer sich die oben zitierten MINT-fernen „F_orscher“ auch zusammengerechnet haben mö­gen; vielleicht waren es ja 22 „F_orscher“ , dann bekommt immerhin jeder von denen seine eigene…

Allerdings haben dieselben „F_orscher“ dazu auch noch das genaue Einschlagdatum ermittelt, Zitat:

Die Wissenschaftler glauben jedoch, dass der 24. September 2182 das Datum sein könnte, an dem ein echtes Risiko einer Kollision zwischen der Erde und dem Asteroiden besteht.

Kann es vielleicht sein, dass die besagten Wissenschaftler Bennus mögliches Einschlagdatum richtig und seine Einschlagenergie falsch berechnet haben? – Wohl eher nicht!

Aber noch vor Bennus Einschlagdatum liegt ein epochaler zwangsgesteuerter Umbruch in der Menschheitsgeschichte, nämlich die Dekarbonisierung der ganzen Welt bis zum Jahre 2100. Erstmalig in der Geschichte der Menschheit wird der freie Wettbewerb der landwirtschaftlich-technischen und der zivilisatorisch-kulturellen Entwicklung vorsätzlich über menschengemachte Gesetze zurückentwickelt, im Grunde von zuverlässiger industrieller Bereitstellung einer pro Kopf Energiemenge vom 90-fachen des menschlichen Grundbedarfs, vergleichbar mit einem römischen Kaiser, hin zu einer volatilen Energieversorgung mit dem spätmittelalterlichen 30-fachen des menschlichen Grundbedarfs. Der Grund dafür ist die panische Angst vor einer Selbstverbrennung unserer Erde durch den industriellen CO2-Ausstoß bei der Nutzung fossiler Energiequellen. Und diesem hehren Ziel darf nach einer grenzdebilen Zieldefinition nichts, aber auch gar nichts entgegenstehen; denn heute ist man ja bereits im irrealen Endstadium des festen Glaubens, in landschaftlichen Schutzgebieten die Natur schützen und dort gleichzeitig klimafreundliche Energie aus Sonne und Wind erzeugen zu können. Es interessiert auch keinen Menschen mehr, dass alle Beweise für die sogenannte Klimakatastrophe menschengemacht sind. Nicht nur, dass man den Klimawahn von seinen physikalischen Grundlagen her auch ganz anders sehen kann, selbst die vorgeblichen Beweise halten einer wissenschaftlichen Überprüfung nicht stand. Und die vorgeblich beweis­trächtigen Temperaturreihen sind schlecht gemachte Manipulationen unzureichender Daten von Glaubenseiferern, denen längst abgebaute Temperaturstationen bis heute Temperaturwerte zuliefern, die dann in solche Berechnungen eingehen. Kluge Klimarealisten lehnen es daher grundsätzlich ab, überhaupt auf die sogenannte „globale Durchschnittstemperatur“ einzugehen. Das hilft nur leider gar nix, denn hunderte Millionen Menschen werden ständig mittels dieser herbeiphantasierten Kunstgröße in Angst und Schrecken versetzt, und deshalb muss deren Sinnfälligkeit nun einmal für alle nachvollziehbar in Frage gestellt werden.

Ein Exkurs zur „globalen Durchschnittstemperatur“:

Abbildung: Vergleich der globalen Temperaturstationen zum Ende des 19. Jahrhunderts und heute

Wenn wir einmal die beiden Abbildungen für die globalen Temperaturstationen „1861-1890“ und „2023“ vergleichen, so hat sich in den vergangenen 130 Jahren also nicht wirklich viel verändert. Wo im 19. Jahrhundert bereits kontinuierliche Temperaturaufzeichnungen durchgeführt worden waren, ist deren Dichte noch weiter angewachsen. In der restlichen Welt ist ein dünnes Stationsnetz entstanden und auf den Ozeanen schwimmen jetzt zusätzlich noch ein paar tausend Argo-Bojen herum, das war’s auch schon. Noch immer geht es nicht um den direkt berechneten Mittelwert aus Temperaturmessungen, die zur selben Weltzeit über Tag&Nacht, Sommer&Winter, Frühling&Herbst auf der Nord- und Südhalbkugel gemessen werden. Nein, es geht immer noch darum, mit statistischen Computerprogrammen aus einem sporadisch verteilten globalen Stationsnetz mit Riesenlücken ein globales Temperaturgrid zu interpolieren, wobei den individuellen geografischen Gegebenheiten der jeweiligen Ortslagen eine ganz wesentliche Rolle zukommen dürfte. Erst aus dieser Kunstfigur lässt sich dann wiederum die sogenannte Globaltemperatur herleiten. Gegenüber den eigentlichen Temperaturmessungen spielen also die eingesetzten statistischen Verfahren die entscheidende Rolle für diese Berechnung und man kann sich leicht vorstellen, dass der Wechsel von Gridgröße und statistischer Rechenmethode einen wesentlich größeren Einfluss auf die sogenannte „Globaltemperatur“ ausüben dürfte als ein kapitaler Vulkanausbruch.

Die eigentlichen Beweise für die befürchtete Klimakatastrophe werden also lediglich mit High-Tech-Computerspielen hergestellt, bei denen CO2 als fest vorgegebener „Klimakiller“ einprogrammiert ist. Solche High-Tech-Computer erfordern für ihren Betrieb wiederum eine zuverlässige Energieversorgung, wie wir sie im Moment ja meist noch haben, und auch alle arbeitsteiligen Prozesse unserer Hochtech­nologie hängen davon ab. Denn keine Einzelperson, kein Unternehmen und kein Firmenkonglomerat ist heute noch in der Lage, ohne die Zulieferung von Fremdunternehmen mit Rohstoffen definierter Reinheit und/oder Halbfertig- und Fertigprodukten von definierter Qualität noch irgendein Hochtechnologieprodukt allein aus eigener Kraft herzustellen. Erinnern Sie Sich vielleicht noch an die Corona-Lockdowns, in denen auch die nationalen und internationalen Lieferketten auseinander gerissen worden waren und wichtige Zulieferer einfach aufgehört hatten zu produzieren? Es heißt dem Hörensagen nach, führen­de Regierungspolitiker seien höchst pikiert darüber gewesen, dass Letztere nach den Lockdowns nicht einfach dort weiterproduziert hatten, wo sie noch vor Corona wirtschaftlich gestanden hatten – so kann’s den nassforschen Adepten der Klimareligion bei fehlender Wirtschaftskompetenz halt schon mal gehen.

Und das Ende der fossilen Energieerzeugung im Jahre 2100 bedeutet dann natürlich auch das Ende unserer High-Tech-Industrie.

Im Jahr 2100 ist dann also auch die Hochtechnologie der Industrienationen Geschichte, während der Asteroid Bennu unseren Nachkommen schon sehr viel näher auf die Pelle gerückt ist, denn es verbleiben dann nur noch 82 Jahre bis zum möglichen großen Knall – aber das nötige Geld für Gegenmaßnahmen ist ja dann zusammen mit der erforderlichen Hochtechnologie bereits für den Klimawahn verbrannt worden. Und was machen unsere Nachfahren im Jahr 2100? – Sie leben in einer spätmittelalterlich-ökologischen Zwei-Erden-Agrarlandschaft* mit volatiler Energieerzeugung, essen ihr Brot im Schweiße Ihres Angesichts und beten zur fröhlichen Mutter Gaia.

Ist da noch irgendwas zu retten? – Wohl eher nicht, denn dazu leben inzwischen viel zu viele Menschen und Organisationen von den Brosamen klimawahnbedingter Steuern in Saus und Braus. Und jede neue menschengemachte Katastrophe, sei es aus Dummheit, Ignoranz oder Absicht, bringt weitere Scharen von Flachmänner:innen gegen den Klimawandel in Lohn und Brot. Der Klimawahn ist viel zu weit fortgeschritten, viele zu viele Menschen verdienen damit heute ihren Lebensunterhalt, und Regier­ungen gründen darauf Macht und Einfluss. Man stelle sich nur einmal vor, man würde wegen Bennu weltweit plötz­lich hundert­tausende von Kernphysikern und Raketeningenieuren benötigen, was würde dann wohl mit den MINT-fernen Klima-Mietmäulern aus den brotlosen Geschwätzkünsten geschehen?

Kann also vor dem Hintergrund höchst pekuniärer CO2-Interessen von UN, EU, Regierungen, Klimareligion sowie deren NGO-Adep­ten und Mietmäulern irgendjemand ernsthaft die mainstream-mediale Schlagzeile erwarten: „Am 24. September 2182 könnte der Asteroid Bennu mit der Kraft von 500.000 Atombomben auf unserer Erde einschlagen“? – Nein, das geht doch nun wirklich nicht!

*) Zwei-Erden-Agrarlandschaft: Der Bioanbau von Lebensmitteln führt zu deutlich verringerten Flächenerträgen, sodass die aktuelle Weltbevölkerung die Anbaufläche von zwei Erden für eine bioalimentierte Ernährung benötigen würde. Wenn wir jetzt einmal die weltweite Anbaufläche für Nahrungsmittel und die gegenwärtige Weltbevölkerung auf eine einzige Erde herunterrechnen, erhalten wir einen sehr nachhaltigen Einblick in die unterlegte hinterhältig-elitäre Zielsetzung…

 




Der Elefant im Raum

Von Dr. Klaus-Dieter Humpich

Wenn unsere Regierung von der „Energiewende“ spricht, erzählt sie gern von ihren „Erfolgen“ bei der Installation von Windmühlen und Sonnenkollektoren. Inzwischen sollen über 40% der elektrischen Energie damit erzeugt werden. Das ist schon mal die halbe Lüge: Erzeugung ist nicht zu verwechseln mit der notwendigen Produktion für den jeweiligen Verbrauch. Während jeder Dunkelflaute muß der Strom durch konventionelle Kraftwerke bzw. Import bereitgestellt werden (Verbrauch). Weht der Wind bzw. scheint die Sonne in verbrauchsschwachen Zeiten, muß der „Erneuerbare Strom“ teuer entsorgt werden (negative Strompreise bei Überproduktion). Die Physik läßt sich nicht überlisten. In jedem Augenblick müssen sich Verbrauch und Erzeugung genau die Waage halten.

Vollends sinnlos wird die Investition von über 500 Milliarden Euro (500000000000€) für die „Energiewende“ aber, wenn man den Endenergieverbrauch in Deutschland betrachtet: 50,4% Wärme und Kälte, 25,4% Verkehr (ohne Strom und int. Luftverkehr) und lediglich 24% Stromverbrauch im Jahr 2022. Der Elefant im Raum – über den kein „Grüner“ gern reden mag – ist der Wärmeverbrauch. Davon spielt sich der größte Teil wiederum als sog. Niedertemperaturwärme für die Gebäudeheizung und Warmwasser ab (über 3400 Petajoule jährlich). Das ist rund das Fünffache der gesamten derzeitigen Wind- und Sonnenproduktion. Wie soll das gehen? Da helfen auch keine elektrischen Wärmepumpen. Die Heizung läuft nur im Winterhalbjahr, wo kaum die Sonne scheint und aller Strom vorher (Langzeitspeicherung) durch die Windmühlen produziert werden müßte. Selbst, wenn das technisch möglich wäre, wäre es wirtschaftlicher Irrsinn.

Der finnische Ansatz

In Finnland dauert der Winter noch länger und ist meist auch kälter als in Deutschland. Will man fossile Energieträger verbannen – warum auch immer – muß man sich auf die Gebäudeheizung konzentrieren. Für die Art der Wärmeversorgung ist die Bebauungsdichte pro Grundstücksfläche das entscheidende Kriterium: Gibt es viele m2 Wohnfläche pro km2 Siedlungsfläche, bietet sich Fernwärme an. Schon frühzeitig erkannte man den Nachteil von Einzelfeuerstätten (Luftverschmutzung). In Finnland gibt es 160 lokale Netze.

Fernwärmenetze erfordern hohe Investitionen. Die Rohrleitungen müssen isoliert werden und (zumeist) in der Erde verlegt werden, wo sie mit anderen Medien (Strom, Internet, Wasser, Abwasser etc.) um den knappen Raum konkurrieren. Damit sind wir bei dem Thema Betriebstemperatur. International hat sich eine Vorlauftemperatur zwischen 120°C bis 150°C etabliert. Physikalisch hängt die transportierte Wärmeleistung von der Temperaturdifferenz zwischen Vor- und Rücklauf ab. Je größer die Temperaturdifferenz, desto kleiner die Rohrdurchmesser, die Wärmeübertrager und Pumpen und damit die notwendigen Investitionen. Es gibt aber noch eine hygienische Mindesttemperatur von 60°C (Legionellen usw.) bei der Brauchwassererwärmung. Will man auch noch Klimaanlagen bzw. Absorptionskälteanlagen (Sommerbetrieb) versorgen, liegt die Mindesttemperatur bei 120°C. Schon diese beiden Temperaturen entlarven den Sachverstand unserer derzeitigen Regierung: Die Einspeisung von Abwärme – wenn möglich – ist durchaus sinnvoll, wenn sie genug Temperatur hat. Unsere Bürokraten wollen aber nun die Grenze bei 20°C installieren. Wärme mit 20°C ist faktisch Abfall.

Wie nun die Wärme bereitgestellt wird, ist eine wirtschaftliche Frage – neuerdings aber auch ein Glaubensbekenntnis. Klassisch sind fossil befeuerte Kessel. Möglich – wenngleich fragwürdig – sind Wärmepumpen. Die Leistungszahl (Verhältnis von gewonnener Wärme zur eingesetzten Arbeit) ist abhängig von der Temperatur der Wärmequelle und der Temperatur im Netz. Man benötigt daher eine Quelle mit möglichst hoher Temperatur und großem Volumen (z. B. einen See) in der Nähe. Ein immer wieder auftauchender Klassiker – oder sollte man besser sagen Blödsinn – ist die Nutzung der Kanalisation. Kühlt man die Abwässer ab, geht der ohnehin geringere Wirkungsgrad der Kläranlagen im Winter drastisch runter. Bakterien mögen es halt warm. Schon im 19. Jahrhundert hat man Dampf aus Kraftwerken ausgekoppelt. Allerdings büßt man dadurch Stromproduktion ein. Im 20. Jahrhundert kamen die Blockheizkraftwerke hinzu. Wirtschaftlich fragwürdig, da man den zwangsweise produzierten Strom günstig verkaufen muß und andererseits im Sommer kaum Wärme benötigt. Solche Anlagen werden in der Branche gern als „rotierende Öfen“ bezeichnet, vergleicht man die Investitionen mit einfachen Gaskesseln. Wirtschaftlich sind BHKW nur in speziellen Anwendungsfällen. Es verwundert daher nicht, wenn getrennte Kesselanlagen für die Wärme und Kraftwerke zur reinen Stromgewinnung dominieren.

LDR-50 Fernwärme- Kleinreaktor

Der Reaktor ist eine Entwicklung des VTT Technical Research Centre of Finland. Inzwischen ist daraus das Startup Steady Energy hervorgegangen. Der Reaktor soll eine maximale Heizleistung von 50 MWth haben. Das reicht für die Versorgung einer Kleinstadt aus. Der Reaktor soll eine Betriebstemperatur von etwa 150°C haben und bei einem Druck von nur 10 bar betrieben werden. Daraus ergibt sich ein enormer Kostenvorteil gegenüber einem konventionellen Druckwasserreaktor (176 bar, 362 °C). Die erforderliche Wandstärke des Druckbehälters kann nur wenige Zentimeter betragen. Der Reaktor funktioniert im Naturumlauf: Das heiße Wasser steigt aus dem Reaktorkern nach oben, kühlt sich an den Wärmeübertragern ab und strömt infolge seiner höheren Dichte wieder unten in den Kern ein. Es werden deshalb keine Kühlmittelpumpen benötigt. Was man nicht hat, kann auch nicht kaputt gehen.

Zwischen dem Reaktor (Primärkreislauf) und dem Fernwärmenetz (Tertiärkreislauf) befindet sich ein Sekundärkreislauf. Das Verschleppen jedweder Radioaktivität in das Fernwärmenetz ist damit ausgeschlossen. Dies läßt sich sehr einfach und sicher überwachen. Hinzu kommt, (große) Fernwärmenetze werden mit Drücken zwischen 16 und 25 bar betrieben. Es läßt sich daher einfach ein Druckgefälle in Richtung Reaktor aufbauen: Bei einer Leckage würde Wasser vom Netz in Richtung Reaktor strömen und nicht umgekehrt.

Eine aktive Notkühlung gibt es auch nicht. Der Reaktordruckbehälter ist von einem Sicherheitsbehälter umgeben. Der Zwischenraum ist teilweise mit Wasser gefüllt. Kann der Reaktor – aus welchen Gründen auch immer – seine Wärme nicht mehr los werden, fängt dieses Wasser irgendwann an zu verdampfen (Dampfdruck bei 150°C beträgt 4,8 bar). Dieser Wasserdampf kann in einem Kühlwasserbecken niedergeschlagen werden und strömt dann wieder zurück. Dieses Konzept hat sich bei zahlreichen Reaktoren bereits bewährt.

Der skandinavische Pragmatismus

Der LDR-50 befindet sich seit 2020 beim VTT Technical Research Centre of Finland in der Entwicklung. Von Anfang an hat man die technische und politischen Rahmenbedingungen im Auge behalten. Im Februar 2024 konnte der entscheidende politische Durchbruch erzielt werden: Die finnische Behörde für Strahlung und nukleare Sicherheit hob die entfernungsbasierten Sicherheitszonen für neue Kernkraftwerke auf. Diese Änderung ermöglicht es, Kleinreaktoren in der Nähe von Wohngebieten zu bauen und betreiben. Im Mai-Juni führte das Forschungsunternehmen Aula Research per E-Mail und Telefoninterview eine Umfrage bei insgesamt 184 kommunalen Entscheidungsträgern durch. Die Zustimmung für einen Reaktor ergab in Tampere (94%), Espoo (93%), Lahti (94%), Turku (91%) und Helsinki (89%). Wichtiger noch als die Zustimmung, ist dabei die frühzeitige Einbeziehung und Diskussion in den Gemeinden – nicht gegen, sondern mit und für die Bevölkerung.

2025 beginnt der Bau einer Pilotanlage. Dabei handelt es sich um einen vollständigen Reaktor mit elektrischen Heizstäben anstelle von einem nuklearen Kern. Man gewinnt so Zeit für das notwendige Genehmigungsverfahren. Man schiebt nicht nur einfach Papier hin und her, sondern kann alle Komponenten bereits unter realen Betriebsbedingungen testen und betreiben. Dies ist auch für den Aufbau kompletter Lieferketten nötig. Später soll diese Anlage dann für Schulungs- und Ausbildungszwecke dienen. 2028 will man dann mit dem Bau des ersten Reaktors beginnen (alle nötigen Genehmigungen vorausgesetzt), der 2030 seinen Betrieb aufnehmen soll. Bisher gibt es Vorverträge für 15 Heizreaktoren (5 mit Kuopion Energia in Ostfinnland und 10 mit Helen) in Finnland. Inzwischen ist auch die schwedische Kärnfull Next eine Partnerschaft mit den Finnen eingegangen. Laut den Partnern beträgt Schwedens Fernwärmeverbrauch insgesamt etwa 50 TWh pro Jahr, von denen zwei Drittel aus Biomasse stammen. Die Brennstoffkosten sind in den letzten Jahren stark gestiegen. Im Allgemeinen wird die Zukunft der Biomasse in der Fernwärme diskutiert, nicht zuletzt, da sie wertvollere alternative Verwendungen hat. Darüber hinaus führt die Verbrennung von Biomasse zu Emissionen und erheblicher Verkehrsbelastung. „Die Heizung einer großen Stadt mit Biomasse erfordert jeden Tag einen Haufen Baumstämme von der Größe eines Fußballfeldes, mit einem konstanten Strom von Lastwagen rund um die Uhr“, sagte Tommy Nyman, CEO von Steady Energy. „Es ist höchste Zeit, daß unsere Gesellschaften das Verbrennen von Holz einschränkt um damit unsere Häuser zu heizen.“ Ob das wohl unser Habeck gehört hat?

Die Lage in Europa

In Europa gibt es ungefähr 3500 Fernwärmenetze, die 60 Millionen Menschen versorgen. Die finnische Idee könnte deshalb schnell zu einem Exportschlager werden. Für die ersten 15 Reaktoren (Vorverträge) geht man von Investitionen deutlich unter 70 Millionen EUR pro Stück aus. Die Auslegungslebensdauer beträgt 60 Jahre – die tatsächliche noch viel länger. Nicht nur, weil die Belastung durch Druck und Temperatur sehr viel geringer als in einem konventionellen Kernkraftwerk sind. Auch die Brennstoffkosten sind geringer. Technisch gesehen, kann es sich um konventionelle Brennelemente handeln. Es wird aber nur schwach angereichertes Uran (geplant 2%, vielleicht sogar abgenutzter Brennstoff aus KKW?) benötigt, was die ohnehin geringen Brennstoffkosten noch einmal mildert.

Ein weiterer Punkt ist die hohe Energiedichte des Uran. Man kann mehrere Jahre einen solchen Reaktor betreiben, ohne frischen Brennstoff zu benötigen. Dies sorgt auch für langfristig kalkulierbare Heizkosten ohne Angst vor Ölpreis- und Gaspreisschwankungen. In Finnland kommt noch die Erfahrung mit dem Krieg in der Ukraine hinzu. Da solche Reaktoren sehr klein sind, ist es kein Problem sie unterirdisch in Felskavernen zu installieren.

Der Elefant im Raum

 




Energiewende bis zum bitteren Ende

Die Ampelparteien haben sich auf einen Haushaltsentwurf für 2025 mit vielen Kürzungen geeinigt. Nur der Aufwand für die kostentreibende Energiewende im Namen der „Weltklimarettung“ wurde fortgeschrieben. Deindustrialisierung und Wohlstandsverluste gehen weiter.

Von Prof. Dr. Ing. Hans-Günter Appel Pressesprecher NAEB e.V. Stromverbraucherschutz

Fast alle Medien berichten über Streit in der Ampelregierung zum Haushaltsentwurf für 2025.  Viele Ministerien sollen mit weniger Geld auskommen, als sie geplant hatten. Selbst im Bundeswehretat wurde trotz der zunehmenden Kriegsgefahr gestrichen. Doch an der Geldverschwendung zur Durchsetzung der Energiewende wurde festgehalten. Laut Bundeskanzler Scholz sollen weiterhin mehr als 100 Milliarden Euro jährlich für die Stützung und den Neubau von Fakepower-Anlagen (Wind- und Solarstromanlagen) aufgewendet werden, die immer öfter überschüssigen Phantomstrom erzeugen, den Niemand braucht und der kostenpflichtig entsorgt werden muss. Im ersten Halbjahr dieses Jahres wurden bereits 267 Stunden mit negativen Börsenpreisen registriert. Fast so viel wie im ganzen letzten Jahr.

 

Gemeinden werden bestochen 

Neben den bekannten Kosten der Energiewende (Einspeisevergütungen nach dem EEG, CO2-Emissionskosten, Ausbau der Stromnetze und Ladestationen für E-Autos, Umlagen für abschaltbare Lasten und Kraft-Wärme-Kopplung, Beihilfen für Wärmepumpen, Anschieben der Wasserstoffwirtschaft sowie Zuschüsse für Pilotanlagen) werden die Gemeinden weiterhin bestochen, damit sie Fakepower-Anlagen genehmigen.  Von jeder auf ihrem Gebiet erzeugten Kilowattstunde erhalten sie 0,2 Cent. Als Begründung wird angegeben, die Gemeinden sollen an der „Wertschöpfung“ teilhaben. Doch diese Anlagen sind keine Wertschöpfungen, sondern ein Versenken von Steuergeldern. Und die 0,2 Cent Gemeindeanteil sind bei genauen Hinsehen Steuern, die über die Fakepower-Betreiber eingezogen werden.

 

Volksvermögen wird vernichtet

Das Abschalten intakter Kern- und Kohlekraftwerke ist ein großer Verlust an Volksvermögen. Es werden damit nicht nur große Werte vernichtet, sondern es wird auch die Stromversorgung geschwächt und wesentlich verteuert. Ein deutliches Beispiel ist das Heizkraftwerk Moorburg in Hamburg. Mit einem hohen Wirkungsgrad und Nutzung der Abwärme zum Beheizen großer Bereiche von Hamburg lag es weltweit mit an der Spitze derjenigen Kraftwerke, die den Brennstoff optimal nutzten. Doch gearbeitet hat es nur wenige Jahre und wurde gegen hohe Entschädigungen aufgegeben.

Eine sachlich arbeitende Bundesregierung müsste, zumal bei der derzeitigen Weltlage, eine sichere und unabhängige Energieversorgung fördern. Sichere und ausreichende Energie ist die Basis für die Wirtschaft und die Verteidigung unseres Landes. Nach mehr als 20 Jahren teurer Großversuche – es wurden über 500 Milliarden Euro aufgewendet oder besser: verschwendet – müsste es auch verblendeten Ideologen dämmern, dass eine Energieversorgung mit Fakepower eine Utopie ist.

 

Sichere Energieversorgung durch heimische Energieträger

Sicher ist nur eine Versorgung mit heimischen Energieträgern. Da die Kernkraftwerke abgeschaltet sind, bleiben nur noch Kohle, Erdöl und Erdgas. Energie aus Wasserkraft und Biomasse kann nur einen geringen Anteil des Bedarfs decken. Braunkohle ist am preiswertesten und reichlich vorhanden. Erdgas und Erdöl gibt es noch für Jahrzehnte in den Schiefergesteinen vorwiegend in Norddeutschland. Diese Energieträger sollten genutzt werden. Fracking zur Förderung ist bekannt. Deutsches Erdöl und Erdgas wäre in wenigen Jahren verfügbar. Die Verstromung von Braunkohle sollte ausgebaut werden, statt Braunkohlenkraftwerke zu schließen. Gleiches gilt für die Steinkohlenkraftwerke, die mit Importkohle betrieben werden. Gas und Öl sollten weitgehend zum Heizen und für die chemische Industrie genutzt werden. Nur so können wir die Anforderungen der Zukunft meistern.

 

Energiewende zerstört die Volkswirtschaft

Würde die Energiewende beendet, deren Sinnlosigkeit immer deutlicher wird, wären die staatlichen Finanzen auf einen Schlag im Gleichgewicht, und der Strompreis würde halbiert und stabilisiert. Doch die CDU als größte Oppositionspartei fordert kein Ende der Energiewende. Im Gegenteil. In ihrem Parteiprogramm ist die Fortsetzung der Energiewende festgeschrieben. Dies ist kein Zufall. Ihr Vorsitzender, Friedrich Merz, war als Vorsitzender der Vermögensverwaltung BlackRock-Deutschland Profiteur der Energiewende und dürfte dies bis heute weiterhin sein. Mit einer CDU-Regierung würde die teure und unsinnige Energiewende, die Industrie vertreibt und Wohlstand abwürgt, weitergehen.

 

 




Die potenten Geldgeber der Klimalobby

Weitherum herrscht die Vorstellung, dunkle Mächte würden enorme Summe aufbringen, um sogenannten Klimaschutz zu verhindern. Wahr ist jedoch das Gegenteil: Die Klimaschützer verfügen über weit mehr finanzielle Mittel als die fossile Branche, um ihre Interessen durchzusetzen.

Von Peter Panther

Verborgene Kräfte, die «Klimaleugner» unterstützen und finanzieren: Dieses Bild ist in der Öffentlichkeit weit verbreitet. Insbesondere herrscht die Vorstellung, dass «Big Oil» zusammen mit amerikanischen Milliardären dank ihrem Einfluss seit Jahrzehnten effektiven Klimaschutz verhinderten.

Befeuert werden solche Verschwörungstheorien durch zahlreiche Publikationen. Der eigentliche Klassiker dazu ist das Buch «Merchants of Doubt» («Händler des Zweifels») von 2010. Die amerikanischen Wissenschaftshistoriker Naomi Oreskes und Erik M. Conwy machten darin Glauben, dass ein dunkles Netzwerk an Geldgebern, Thinktanks und willfährigen Wissenschaftlern die Botschaft des menschengemachten Klimawandels seit Jahren hintertreibe.

Tatsächlich mag es stimmen, dass insbesondere die fossile Branche eine Zeit lang etliche finanzielle Mittel aufgewendet hat, um ihren Einfluss gegen eine ausufernde Klimapolitik geltend zu machen. Nur liegen diese Zeiten mutmasslich längst zurück. Dennoch wird die Vorstellung der finanziell potenten Hintermänner, welche die Rettung der Welt verhindern wollen, weiter kräftig am Leben erhalten.

«Männer, die die Welt verbrennen»

Ein Beispiel ist das Buch «Männer, die die Welt verbrennen», das vor einigen Monaten erschienen ist. Der deutsche Klimajournalist Christian Stöcker schreibt darin, es gebe «ein Netzwerk aus real existierenden Verschwörungen, die durch gemeinsame Interessen und Ziele verbunden sind». Diese Interessen und Ziele stünden im Widerspruch zum Fortbestand der menschlichen Zivilisation. «Es geht darum, für möglichst lange Zeit möglichst viel Geld damit zu verdienen, fossile Brennstoffe aus der Erde zu extrahieren und zu verkaufen, um so noch reicher und mächtiger zu werden.»

Entschieden anderer Meinung ist Axel Bojanowski, Chefreporter Wissenschaft bei der «Welt» und selbst ehemaliger Klimaforscher. Er ist wohl der einzige kritische Klimajournalist in ganz Deutschland und hat seine Befunde vor einigen Wochen im Buch «Was Sie schon immer übers Klima wissen wollten, aber bisher nicht zu fragen wagten» dargelegt (Buchbesprechung siehe hier: https://eike-klima-energie.eu/2024/07/09/eine-buchbesprechung-von-axel-bojanowski-was-sie-schon-immer-uebers-klima-wissen-wollten-aber-bisher-nicht-zu-fragen-wagten/)

Bojanowski kommt zum Schluss, dass der öffentliche Diskurs von einer «Klimalobby» geprägt werde, einem Netzwerk aus Organisationen, Forschungsinstituten, Milliardären und Journalisten, das den Ausstoss von Klimagasen bekämpfe. Diese Klimalobby habe «quasi ein freies Spiel», sagte er in einem Interview. «Es stellt sich ihr kaum jemand entgegen.» Auf die Bemerkung des Interviewers, man höre aber immer, dass die Ölkonzerne einen so grossen Einfluss hätten, meinte der «Welt»-Journalist: «Die finanziellen Mittel der Klimalobbby sind mittlerweile deutlich grösser als die der fossilen Lobby. Das lässt sich belegen.»

Ölmillionen für Klimaaktivisten

Belegen lässt sich etwa das Sponsoring von Gruppierungen wie «Extinction Rebellion» oder «Just Stop Oil». Für diese Klimaaktivisten, die damit auffallen, sich auf Strassen zu kleben und Gemälde zu verunstalten, kommen potente Geldgeber aus den USA auf. Namentlich der amerikanische Climate Emergency Fund hat Millionenbeträge aufgeworfen, um die teils illegalen Aktionen der Klimaaktivisten zu ermöglichen – auch in Europa.

Zu den Financiers der Aktivisten gehören ironischerweise auch Personen, deren Millionen- oder gar Milliardenvermögen aus dem Ölgeschäft stammt. Dazu zählen etwa Aileen Getty, die Enkelin des Erdöl-Tycoons Jean Paul Getty, der einst als reichster Mann der Welt galt, oder Rebecca Rockefeller Lambert und Peter Gill Case als Vertreter der Rockefeller-Familie, die ebenfalls mit Erdöl reich geworden ist.

Diese direkte Finanzierung von Klimaaktivisten durch reiche Amerikaner dürfte sich inzwischen auf einige Dutzend Millionen Dollar summiert haben. Das sind aber alles kleine Beträge im Vergleich zu weiteren Geldflüssen von reichen Leuten an die Klimalobby.

Warren Buffet, Bill Gates, George Soros

So haben amerikanische Stiftungen bereits 2008 die Organisation ClimateWorks mit 1,1, Milliarden Dollar ausgestattet – mit dem Ziel, «die Philanthropie zur Lösung der Klimakrise zu mobilisieren». Hinter der Gründung von ClimateWorks standen Leute wie Michael Bloomberg, Warren Buffet, Bill Gates, David Rockefeller Junior und George Soros. Es kamen später weitere Stiftungen für mehr Klimaschutz dazu – wie etwa 2021 die Climate Imperative Foundation mit einem Jahresbudget von fast 200 Millionen Franken, gegründet vom Lobbyisten Hal Harvey.

Gemäss Schätzungen der konservativen Organisation Capital Research Center sollen Grossstiftungen allein 2019 gut 2,4 Milliarden Dollar für Klimaschutz ausgegeben haben – was das Budget der fossilen Industrie für Lobbying um ein Mehrfaches in den Schatten stellt.

Laut dem US-Kommunikationswissenschaftler Matthew Nisbet haben die 19 grössten amerikanischen Umweltorganisationen zwischen 2011 und 2015 stattliche 556 Millionen Dollar für die Interessenvertretung von Klimawandelthemen bereitgestellt. Ein Viertel der Mittel soll dabei an Medien gegangen sein, zur Beeinflussung von Journalisten. Und laut dem britischen «Guardian» hat allein der US-Politiker Michael Bloomberg über seine Stiftungen von 2011 bis 2018 rund 164 Millionen Dollar in die Lobbyarbeit gegen Kohle investiert.

Der Klimanotstand als «perfekte Gelegenheit»

An einer Tagung namens «Climate Action Summit» stellten vor sechs Jahren 29 Stiftungen insgesamt vier Milliarden US-Dollar in Aussicht, um für den Übergang zu erneuerbaren Energien zu lobbyieren. Bereits 2014 war dank eines Berichts der US-Regierung publik geworden, dass neben ClimateWorks zehn weitere Grosssponsoren zugunsten von Klima und Umwelt ein Vermögen von 23,2 Milliarden Dollar gemeldet hatten. Von 2010 bis 2013 hatten sie damit 23 Kampagnen mit insgesamt 202 Millionen Dollar gefördert.

Gemäss Matthew Nisbet ist der sogenannte Klimanotstand für Milliardäre «die perfekte Gelegenheit, noch grösseren Einfluss auf das Weltgeschehen geltend zu machen, da sie die Zivilgesellschaft mit Milliarden an Philanthropie überschütten und ihre Geschäfte und Investitionen vor kritischer Prüfung schützen zu können».

Die Mär, wonach die Klimapolitik durch dunkle fossile Mächte gesteuert werde, wird zwar kaum so schnell verschwinden. Es gibt aber doch einige Argumente, wie man ihr entgegnen kann.