Mit einer Versteigerung das große Geld machen ?

Das geht, wenn man scheinbar Wertloses, also Wind und Wasser, anbietet und sich Mutige finden, die dabei auch noch ein Geschäft wittern. PI-News hatte über einen solchen Fall berichtet: Offshore-Windrechte: Das große Geld, in der Nordsee versenkt | PI-NEWS

von Peter Würdig

Das ging, denn die Freiheit der Meere war schon vorher eingeschränkt, man hatte schon in den 90-er Jahren die Außenwirtschaftszone (AWZ) eingerichtet, und so konnte man dort Flächen für die Errichtung von Windkraftanlagen anbieten. Und damit wurden schon mal 1,07 Milliarden aufgebracht, und dazu wurde ganz stolz verkündet: „Für den EnBW-Vorstandsvorsitzenden Georg Stamatelopoulos sei der Auktionsgewinn ein «wichtiger Meilenstein im Umbau unseres Erzeugungs-Portfolios»“. Ob sich dieser Meilenstein am Ende wirklich rentiert oder ob man mit diesem Portfolio im Konkurs landet, ein Fall, der jetzt häufiger vorkommt, ist eine andere Frage, aber darüber wollen wir jetzt nicht lamentieren.

Nun, wenn das einmal so gut geklappt hat, dann finden sich Nachahmer. In Dänemark hat man zwar reichlich Wind, aber die Kassen können ganz gut noch eine Auffrischung vertragen, da kann man das ja auch noch mal versuchen, und so hat man denn das größte dänische Offshore-Windgebiet zur Versteigerung angeboten.

Gut gedacht, hat nun aber leider doch nicht geklappt, denn zur großen Überraschung hat sich kein Bieter gefunden. Darüber berichtet jetzt EIKE: Dänemark bietet größtes Offshore-Windgebiet zur Versteigerung an, doch niemand bietet etwas – EIKE – Europäisches Institut für Klima & Energie

Ja, aber warum will denn keiner mehr, auch der dänische Wind ist ja kostenlos und reichlich vorhanden ? Nun, es ist wie so oft in diesem Bereich, ohne Subventionen läuft rein gar nichts. Und die sind in Dänemark deutlich knapper gehalten, der dänische Staat bezahlt auch den Netzanschluss nicht, warum auch, das ist Sache des Betreibers.

Die großen Pläne der EU sind erst mal ins Wanken geraten, denn man wollte bis Ende des Jahrzehnts eine Gesamtkapazität von 150 Gigawatt aufbauen, also das Vierfache des heutigen Bestandes. Die verunglückte dänische Ausschreibung rückt dieses Ziel in die Ferne, denn auch im Nachbarland Schweden gab es Schwierigkeiten, neue Investoren zu finden, das ist also kein Einzelfall.

Kristian Jensen, der Geschäftsführer von Green Power Denmark sagt dazu: „Der grüne Wandel in Dänemark ist derzeit ins Stocken geraten. Es werden zu wenige Windturbinen sowohl auf See als auch an Land gebaut, und wenn sich diese Situation nicht ändert, werden wir weiterhin auf Strom aus braunen Energiequellen angewiesen sein.“ Warum die konventionellen Energiequellen als „braun“ bezeichnet werden, erschließt sich mir nicht, denn Kohle ist eher schwarz, und die Neutronen der Kernkraftwerke haben gar keine Farbe. Es stellt sich allmählich heraus, dass es wohl doch keine so gute Idee ist, Windmühlen auf See zu installieren, die konventionellen Kraftwerke können es wohl besser, auch wenn man die als „braun“ und nicht als „grün“ bezeichnet.

 




Warum geht es der deutschen Autoindustrie nicht mehr gut?

Eine Analyse, woran es liegen könnte-

von Klaus Ridder

Der deutschen Autoindustrie, die Jahrzehnte eine Schlüsselrolle in der deutschen Industrie hatte, geht’s nicht mehr so gut. Ursachen für die Misere werden herbeigeredet und je nach Zugehörigkeit zu einer Partei oder gar einer Interessengemeinschaft oder gar einer der vielen sog. Umweltschutzorganisationen, hat man schnell das Ergebnis: Die deutschen Autobauer haben sich nicht rechtzeitig auf die neuen globalen Herausforderungen eingestellt.

Ist das so? ich versuche mal, auf alles eine (andere) Antwort zu finden.

Ausgangslage nach 1945

Nach dem verlorenen Zweiten Weltkrieg lag Deutschland in Schutt und Asche – doch die Deutschen waren fleißig, ehrgeizig und nicht dumm. Deutschland stand auf – man sprach von einem Wirtschaftswunder.

Waren es anfangs Motorräder, die man sich leisten konnte (Maico, Zündapp, NSU, BMW, Dürkopp, Horrex, …), so waren es nach der Motorradzeit schon Kleinwagen (Zündapp-Janus, BMW-Isetta, Heinkel-Kabinenroller, Lloyd, …).

Auch im internationalen Motorsport waren deutsche Fabrikate vorne mit dabei, NSU wurde 5x Weltmeister und Mercedes gewann mit dem Argentinier J.M. Fangio sogar 1954 und 1955 die F1-Weltmeisterschaft.

J:\Artikel\Mercedes 300SL\2-Presse.jpg

Nach dem Zweiten Weltkrieg in den 50iger Jahren war die deutsche Autoindustrie weltweit schon vorne mit dabei (Bild Mercedes)

Mit der deutschen Autoindustrie ging es rasant aufwärts, wenn auch dabei das Bremer Privatunternehmen Borgward auf der Strecke blieb. Das lag nicht an den tollen Autos, sondern wohl mehr an den nicht vorhandenen kaufmännischen Fähigkeiten des Besitzers Carl F.W. Borgward. Übrigens, auch BMW in München hatte Probleme, wurde aber vom Freistaat Bayern gerettet.

Immer weiter auf der Erfolgsschiene

Volkswagen stieg zum größten Autokonzern der Welt auf. Audi steigerte sich vom 2-Takter DKW 3=6 hoch zu Premiumautos. BMW baute schon in den 50er Jahren mit der Sportlimousine 507 ein Auto, das (fast) jeden Schönheitswettbewerb gewann. Mercedes baute hochklassige Staatskarossen und auch prestigeträchtige Autos der Oberklasse. Einzigartig bis heute ist die Geschichte der Porsche Sportwagen aus Stuttgart. Begleitet durch motorsportliche Erfolge auf den Rennpisten der Welt erreichte Porsche eine wohl einmalige Zustimmung unter den Sportfahrern in aller Welt.

Es ging also immer bergauf. Mal davon abgesehen, dass in Japan vor allem mit Toyota ein Automobilriese entstand, der auch Volkswagen überholte.

Gleichwohl waren deutsche Autos, insbesondere solche der Oberklasse von BMW, Audi, Porsche und Mercedes, auf dem Weltmarkt gefragt. Selbst für einen noch nicht erfolgsgewohnten Chinesen war es ein Prestige, ein deutsches Auto der Oberklasse zu fahren.

Wer erfolgreich ist – der hat Neider

Aber, wer erfolgreich ist, der hat auch Neider – und die sitzen auch dort, wo Gesetze/Regelungen getroffen werden – das kann in den Gremien der EU, in Staaten, die eine Konkurrenz durch Einfuhr befürchten (USA) oder auch in sog. „grünen“ Regierungen der Fall sein.

Hinzu kommen sog. NGO (= Not Government Organisation – Nicht-Regierungs-Organisationen), die oftmals von Steuergeldern unterstützt (angeblich gemeinnützig) oder auch Geld aus anderen Ländern bekommen. Und diese NGO’s verfügen weltweit über ein großes Netzwerk, um ihre Interessen, die Umwelt schützen zu wollen, zu vertreten.

Es gibt unzählige davon und man muss sich doch fragen, woher die alle ihr Geld bekommen?

Für die deutsche Autoindustrie sind diese NGO’s jedenfalls kein Segen, ich denke da vor allem an die vielen Klagen, die die Deutsche Umwelthilfe (DUH) vor Jahren eingeleitet hat, um die Dieselfahrverbote durchzusetzen (dazu später mehr).

Gegen etwas zu tun, das gehört zum „Geschäftsmodell“ der NGO’s.

Abgase und Rauch sind schädlich

Grundsätzlich sind natürlich Abgase von Kraftfahrzeugen oder der Rauch aus Schornsteinen schädlich für Menschen, Tiere und Umwelt.

Von meinem ersten Besuch in der damaligen DDR habe ich noch in Erinnerung, dass es kräftig nach verfeuerter Braunkohle roch und der DDR-Zweitakter Trabbi auch noch eine „Auspufffahne“ mit kräftigem Zweitaktgeruch hinterließ.

Gerne habe ich früher auch mal die Abgase von Traktoren gerochen – das war für mich als Kind sogar eine Art Wohlgeruch.

Doch die Zeiten haben sich geändert: Den Braunkohlenrauch gibt es seit kurz nach der Wende nicht mehr und den Trabbi gibt es nur noch als Oldtimer, und Mexiko City ist in den letzten 40 Jahren auch sauberer geworden.

Angefangen mit der Abgasreinigung haben eigentlich die Amerikaner, die schon in den 70er Jahren für ihre „großen Schiffe“ (= Straßenkreuzer) Katalysatoren vorschrieben, mit der Reinigung von schädlichen Abgasen.

Das war der Angang einer anfangs sinnvollen Regelung, die aber im Verlaufe von 5 Jahrzehnten in einen „Regelungswahn“ ausuferte.

Das Schachern mit Regeln

Bevor jemand auf die Idee kommt, meine nachfolgenden Ausführungen zu kritisieren, möchte ich aus meinen Erfahrungen in der Mitarbeit/Zuarbeit in internationalen Gremien berichten.

Werte, hier Festlegung von Abgasnormen, werden international festgelegt – und zwar in Gremien der Unterorganisationen der Vereinten Nationen (wie UN-ECE), der Zentralkommission für die Rheinschifffahrt (ZKR) oder, bezogen auf Europäische Union, auch in Arbeitsgruppen der EU-Kommission.

Und in den internationalen Gremien habe ich über 2 Jahrzehnte als deutscher Delegierter und teilweise auch als Chairman mitgearbeitet. Da werden Vorschriften erarbeitet, nicht immer nach wissenschaftlichen Erkenntnissen, sondern auch schon mal nach nationalen Interessen. Und dann wird stundenlang/tagelang verhandelt. „Gibst Du mir – gebe ich Dir“.

Was dabei rauskommt, ist nicht immer eine sachgerechte Lösung des Problems. Aber, das Ergebnis fließt in die internationalen und nationalen Gesetzestexte ein – und man muss daran festhalten.

Abgasnormen – gegen die deutsche Industrie

Wir leben heute in einer Zeit, in der es eine seriöse unabhängige Wissenschaft wohl kaum noch gibt. Die Wissenschaft ist im Verlaufe der letzten 2 Jahrzehnte politisch geworden.

Ich denke da vor allem an das Potsdam Institut für Klimafolgeforschung (PIK), an die AGORA Denkfabrik, an das Wuppertal Institut, an das Institut der deutschen Wirtschaft (IW) und noch andere.

Und diese v.g. Einrichtungen beraten unsere Regierung und vor allem auch die Regierungsvertreter, die im Auftrag der Regierungen in den internationalen Gremien verhandeln.

Da ist es nicht verwunderlich, dass dort etwas vorgeschlagen und auch beschlossen wird, was völlig unrealistisch ist. Ich denke da vor allem daran, dass von der Europäischen Union (EU) für das Jahr 2035 das Aus der Verbrennungsmotoren beschlossen wurde – dazu später mehr.

Und in Sachen Abgasnormen gab es mehrere weitere Beschlüsse der EU, die sich gegen die deutsche Autoindustrie richteten. Dazu ist zu bemerken, dass über Abgasnormen auch EU-Staaten abstimmen, die keine eigene Autoindustrie haben. Auch waren die Festlegungen von „neuen“ Abgasnormen klar gegen die deutsche Autoindustrie ausgerichtet. Dazu die Anmerkung, dass Deutschland sog. Premiumfahrzeuge baut und für diese hochvolumigen Motoren die immer strenger werdenden Normen nur mit hohem technischen Aufwand eingehalten werden können.

Übrigens, der neueste Beschluss der EU, Strafzölle für chinesische Autos einzuführen, ist auch ein Affront gegen die deutsche Autoindustrie, denn Deutschland exportiert viele Premiumfahrzeuge nach China und die Reaktion der Chinesen auf den Import dieser Autos ist vorhersehbar.

Muss der CO2-Ausstoß verringert werden?

Kohlendioxid (CO2) ist ein Segen für die Menschheit. Ohne CO2 wäre ein Leben auf der Erde nicht möglich. Ohne CO2 würden auch keine Pflanzen wachsen. Und CO2 in der Limonade oder im Bier, das ist sogar erfrischend. Wo ist dann der Grund, CO2 zu reduzieren? Kann man mit einer Reduzierung von CO2 das Klima schützen?

Diese Fragen zu beantworten – das ist eine Art „Glaubenskrieg“. Für viele Menschen ist das Thema zur Ersatzreligion geworden. Und noch mehr Menschen leben davon/damit, den steigenden CO2-Ausstoß für die derzeitige Klimaveränderung und die Überschwemmungskatastrophen (2021 Ahrtal, 2024 Valencia, …) verantwortlich zu machen. Und wenn ich an die jüngste Umweltkonferenz in Baku denke, dann ging es dort vorrangig nicht um sog. „Klimaschutz“, sondern darum, von den Industriestaaten Geld zu bekommen für die „angebliche“ CO2-Belastung durch Industrieabgase. Deutschland mit einer grünen Außen- und einer grünen Umweltministerin war im Geld ausgeben vorne mit dabei, während die Staaten mit hohem CO2-Ausstoß wie China, USA, Russland und Indien sich bedeckt hielten.

Es gibt aber auch viele Menschen, darunter auch seriöse und vor allem unabhängige Wissenschaftler wie beispielsweise Prof. Dr. Fritz Vahrenholt (früher mal Senator in Hamburg), Dr. Jürgen Schulz (AGEU – die Realisten) oder Dr. Wolfgang Thüne (Meteologe), die anderer Meinung sind.

Dazu Auszug aus einem Brief, den ich Ende Oktober 2024 an FDP-Chef Lindner geschrieben habe:

Zunächst ist kritisch zu hinterfragen, ob wir Menschen das Klima verändern können. Es gibt da auch andere Meinungen als der „Mainstream“.

Und selbst wenn man dem „Mainstream“ folgt, dann hat Deutschland nur einen Anteil von 2 % am weltweiten Ausstoß von CO2 (China etwa 35 %) uns mit diesem geringen Anteil wollen wir das Klima schützen (der Ausdruck „schützen“ ist schon falsch) und machen unsere Wirtschaft kaputt.

Als Folge der CO2-Reduzierung wurde das politisch geplante Aus für Verbrenner von der EU beschlossen – mit der Ausnahme, das Verbrenner-Motoren, die mit E-Fuels betrieben werden, weiterhin verwendet werden dürfen.

Diese „Rettung“ durch den früheren FDP-Verkehrsminister Dr. Volker Wissing (nunmehr parteilos) ist zwar ein kleiner Erfolg, aber bringt in Sachen CO2-Einsparung wenig, weil E-Fuels nur mit einem energetisch hohen Aufwand hergestellt werden können (durch Elektrolyse) und hierfür wird viel Energie (und auch reinstes Wasser) benötigt.

Dieselmotor – die Grenzwerte müssen überdacht werden

Ein Dieselmotor ist ein Verbrennungsmotor, der nach dem 1893 von Rudolf Diesel erfundenen Verfahren arbeitet. Charakteristisches Merkmal ist die Selbstzündung des eingespritzten Kraftstoffes mittels der Verbrennungsluft, die durch Komprimieren erhitzt wird.

Seit der Erfindung wurde der Dieselmotor stetig fortentwickelt, ein großer Entwicklungssprung brachte die TDI-Technik in den 90er Jahren, die Charakteristik eines bis dahin ‚lahmen‘ Dieselmotors erreichte die eines Benzinmotors. Der Dieselmotor ist effizienter als ein Benziner und stößt viel weniger CO2 aus.

Bei der Verbrennung entstehen Stickoxide, die in hohen Konzentrationen schädlich für Menschen sind. Um die Menschen zu schützen, wurden 2010 Grenzwerte von der EU für die Außenluft festgelegt Jedenfalls sind die 2010 festgelegten Werte von 40 Mikrogramm pro Kubikmeter im Jahresdurchschnitt bzw.200 Mikrogramm pro Kubikmeter pro Stunde kritisch zu hinterfragen, zumal im Arbeitsbereich, wo ein Mensch täglich 8 Stunden Stickoxiden ausgesetzt ist, der Grenzwert um ein Vielfaches höher ist und hier bei 950 Mikrogramm pro Kubikmeter liegt. Dieser gravierende Unterschied ist für mich nicht zu erklären!

Ja und dann wird immer wieder davon berichtet, dass der Jahresmittelwert von 40 Mikrogramm pro Kubikmeter überschritten wird. Da wird oftmals der Jahresmittelwert mit dem aktuell gemessenen Wert verwechselt. Und nun kommt eine der NGO’s, die Deutsche Umwelthilfe (DUH) ins Spiel, die mit dem Rückenwind von (fragwürdigen) Gerichtsurteilen sogar Fahrverbote in einigen Städten erstritt, obwohl feststeht, dass Niemand durch Stickoxide signifikant geschädigt wurde.

Der sog. Dieselskandal hat der deutschen Autoindustrie sehr geschadet und einigen „Autobossen“ sogar den Job gekostet und hohe Strafen eingebracht.

Übrigens, der „Skandal“ wurde 2015. von den US-Behörden zum Zeitpunkt der Automesse IAA Frankfurt bekanntgemacht – sicher auch kein Zufall.

Die Dieseltechnik wurde in über 130 Jahren stetig fortentwickelt und Dieselmotoren tragen dazu bei, dass unser Wohlstand erhalten bleibt: Wir kaufen doch immer wieder beim Discounter Lebensmittel ein, die mit LKWs von weither angeliefert werden? Wir fahren Busse, die mit Dieselmotoren angetrieben werden und auch der Motor eines Krankenwagens ist in der Regel ein Diesel. Wollen wir die alle aus unseren Städten verbannen?

Sicher kann man die Dieseltechnik weiter entwickeln, doch das kostet viel Geld und der weiterentwickelte Motor braucht mehr Kraftstoff. Hier sind vernünftige Entscheidungen gefragt und vielleicht kann man auch mal darüber nachdenken, warum ein Arbeitsplatz höhere Grenzwerte hat als die Außenluft an Straßen?

Geschwindigkeitsbegrenzung macht wenig Sinn

Es ist schon beängstigend wie in den Medien und auch unter den Bürgern, die wohl selten Autobahn fahren (und davon habe ich im Bekanntenkreis einige) über Geschwindigkeitsbegrenzungen auf Autobahnen diskutiert wird. Da ist von einer Auto-Lobby, von vielen Toten oder vom Klimaschutz die Rede. ‚Losgetreten‘ wurde die Diskussion von der Deutschen Umwelthilfe (DUH), die Umweltschutz zum Geschäftsmodell gemacht hat und von der selbst die ehemalige Bundeskanzlerin Angela Merkel gesagt hat, dass man die Gemeinnützigkeit dieser Organisation kritisch prüfen wolle (Bundestagsfragestunde am 12.12.2018).

Bei allen Diskussionsbeiträgen sollten wir berücksichtigen, dass wir immer noch ein Industrieland sind und überwiegend vom Export unserer Premiumfahrzeuge von BMW, Porsche, Mercedes und AUDI leben. Ein wichtiges Verkaufsargument ist, dass wir in Deutschland keine Geschwindigkeitsbegrenzung haben und unsere Autos somit schnell sind. Diejenigen, die unsere großen und teuren Autos kaufen, legen Wert auf Leistung und Schnelligkeit.

Es gibt aber noch viele andere Argumente:

-deutsche Autobahnen sind sicher und bezogen auf die gefahrenen Kilometer haben wir dort die wenigsten Verkehrstoten

-die Zahl der Verkehrstoten ist von ursprünglich mal weit über 20.000 ist auf etwa 3000 zurückgegangen

-selten kann man die Autos mit hoher Leistung ausfahren, weil es auf etwa der Hälfte aller Autobahnen lokale Geschwindigkeitsbegrenzungen gibt und auch viele Staus höhere Geschwindigkeiten nicht zulassen.

-die Einsparung von ’schädlichen‘ Abgasen durch eine Geschwindigkeitsbegrenzung ist minimal im Vergleich zu solchen, die durch Staus verursacht werden.

Sind wir es nicht selbst, die dafür mitverantwortlich sind, dass unsere Autobahnen immer voller werden, verursacht durch unser Kaufverhalten im online-Handel, durch Anspruch auf frisches Gemüse über das ganze Jahr oder durch lange Urlaubsreisen?

Übrigens, ich fahre im Jahr fast 30000 km, überwiegend auf Autobahnen. Ich kann gut damit leben, dass einige Autos schneller fahren als ich!

Elektromobilität: Seit über 100 Jahren kein großer Fortschritt

Zur Erinnerung: Das erste Auto der Welt, das eine Geschwindigkeit von über 100 km/h erreichte, war ein Elektro-Auto. 1899 fuhr Camille Jenatzys mit der „Elektrozigarre “La jamais contente“ 105,876 km/h.Und die Chronisten schrieben, dass die Rekordfahrten immer wieder unterbrochen werden mussten, weil die Säurebatterien leer waren.

Der geniale Ferdinand Porsche konstruierte um 1900 ein Auto, das in den vorderen Radnaben einen Elektromotor eingebaut hatte. Eine geniale Idee von Porsche, man ersparte sich das Getriebe und hatte einen gleichmäßigen Antrieb an beiden Vorderrädern. Ein 44zelliger Akku ließ das Auto 50 km weit fahren, bei 37 km/h Normalgeschwindigkeit. Am Gesamtgewicht von einer Tonne war die Säure-Batterie mit 410 kg beteiligt. Nochmals zur Erinnerung – das alles geschah vor 120 Jahren!

Und noch eine Zahl aus der Autostadt Köln – dort gab es um 1900 etwa 1000 E-Fahrzeuge.

Heute wird das E-Mobil medienwirksam als zukunftsweisende Technik propagiert. Politiker und viele Journalisten singen „Jubelarien“. Die großen Autokonzerne stellen „bahnbrechende“ neue E-Mobile vor. Letztlich aber hat sich seit über 120 Jahren nicht viel geändert – trotz großer Investitionen in die Forschung.

Und nun wird versucht, durch Subventionen den Kauf von E-Mobilen anzukurbeln. Trotz dieser Subventionen reagieren die Käufer zurückhaltend, weil

-sie die ganze E-Mobilität skeptisch sehen

-sie nach wie vor zu teuer ist

-eine begrenzte Reichweite hat

-keine wirkliche Einsparung von CO2 erfolgt zumal auch der Strom für ein E-Mobil in Deutschland überwiegend aus Kohle produziert wird (Strommix).

Und irgendwann kommt auch die Zeit, dass E-Mobile für die Straßenbenutzung zahlen müssen.

Und noch ein Problem: China bietet staatlich subventionierte E-Mobile an und „überschwemmt“ damit den europäischen Markt – zu Lasten der deutschen Autohersteller. Übrigens, auch die deutschen Subventionen für den Kauf von E-Mobilen wurden für E-Mobile aus China gezahlt.

Die nahe Zukunft des E-Mobils ist sehr skeptisch zu betrachten! Sie wird dann kommen, wenn es gelungen ist, einen vollkommen neuen Batterietyp (keine Lithium-Ionen, keine Säure-Batterie) zu entwickeln und das kann noch Jahrzehnte dauern.

Das passiert nie

Näheres zu Lithium hier

Laut Erhebung der DAT ist die Nachfrage nach E-Mobilen nicht so berauschend (DAT Nov.2024 -Repro Lars Ridder)

Der Normalautofahrer wird sich trotz Subventionen ein E-Mobil nicht leisten können

Wasserstoff – gefährlich und teuer

Nunmehr soll Wasserstoff das Speicher- und Energieproblem lösen, auch Automobile sollen mit Wasserstoff angetrieben werden.

Wasserstoff herzustellen ist sehr teuer. Zwar ist das Verfahren hier die Elektrolyse, physikalisch einfach. Der energetische Aufwand ist sehr hoch. Für die Herstellung einer Kilowattstunde Wasserstoff benötigt man 3 Kilowattstunden Strom.

Den klimaschädlichen „grauen“ Wasserstoff will man künftig durch „grünen“ Wasserstoff ersetzen. Aus Namibia soll „grüner“ Wasserstoff in großen Mengen nach Deutschland gehen. Für die Herstellung einer Kilowattstunde Wasserstoff benötigt man viel Energie. Das ist nicht zu ändern, weil es die Physik so will. Die noch mit deutscher Hilfe (Geld) zu bauenden Elektrolysefabriken können technisch und wirtschaftlich nur funktionieren, wenn sie kontinuierlich, rund um die Uhr, arbeiten. Dafür Wind- und Solarkraft zu verwenden, ist kritisch zu hinterfragen. Nicht geklärt ist auch, wie das Wasser in die Wüste kommen soll. Nicht geklärt ist auch der Transport von Namibia nach Deutschland.

Autos mit Wasserstoff zu betreiben, wird technisch schon praktiziert. Eine Massenmotorisierung ist derzeit aber nicht praktikabel.

E-Fuels nur ein Märchen

Der Verbrenner soll weg – ab 2035 keine Neuzulassungen mehr. Allenfalls darf dann ein Verbrenner eingesetzt werden, wenn er mit E-Fuels betrieben wird. Was steckt dahinter?

Unter E-Fuels (=‘Elektro-Kraftstoffe‘) versteht man solche, die synthetisch aus Wasser (Wasserstoff) und Kohlendioxid hergestellt werden. Wenn man für die Herstellung sog ‚erneuerbare‘ Energie verwendet, dann, so die Annahme, soll dieser Kraftstoff ‚klimaneutral‘ sein.

Diese Annahme geht nicht auf!

Bei der Verbrennung entsteht natürlich wieder CO2, so viel wie bei normalen Kraftstoffen.

Die Herstellung von Wasserstoff ist sehr energieintensiv (um das Äquivalent von 1 Kilowattstunde Wasserstoff herzustellen werden 3 Kilowattstunden Strom benötigt) und die Annahme, dass man dafür nur sog ‚erneuerbare‘ Stromenergie verwendet, ist sehr kritisch zu hinterfragen.

Man könnte E-Fuels natürlich auch aus Bio-Masse (Jauche, Mist , Raps, Mais, Ölpalmen) herstellen – doch wenn diese Bio-Masse extra angebaut wird, dann fehlen die landwirtschaftlichen Flächen in der Ernährungswirtschaft. Ich kann mich an einen Kongress in Berlin erinnern, wo sogar die Greenpeace-Organisation gegen eine solche Herstellung war.

Die künftigen Produktionsmengen sind schwer abschätzbar – werden aber auf keinen Fall ausreichen, um den Bedarf nach 2035 zu decken. Also E-Fuels ein Märchen?

Politik ist zerstritten

Von der „Politik“ haben die deutschen Autohersteller keine Unterstützung zu erwarten – jahrelang wurde die deutsche Autoindustrie mit Regeln torpediert – alles, um die Umwelt zu schützen. Das führte sogar soweit, dass die EU das „Aus“ der Verbrennungsmotoren für 2035 beschlossen hat.

Weitere Beschlüsse waren der Kohleausstieg und die Abkehr von der Kernenergie. Die Strompreise schossen förmlich in die Höhe, die Industrie und insbesondere auch die deutsche Autoindustrie wanderte ab.

Auch das „Verbrenneraus“ führte zu Irritationen, es ist nicht durchführbar – und letztendlich ist ein Dieselmotor immer noch wirtschaftlicher und umweltfreundlicher als ein E-Motor.

Einzig der frühere SPD-Politiker Sigmar Gabriel hat sich von den „seriöse“ Parteien gegen das „Verbrenneraus“ ausgesprochen.

Ex-Bundeswirtschaftsminister Sigmar Gabriel (SPD) hat das Verbrennerverbot der EU ab 2035 scharf kritisiert. »Ich habe in meiner Zeit in der Bundesregierung immer davor gewarnt, dem Verbrennungsmotor ein schnelles Auslaufdatum zu setzen und bin dafür heftig kritisiert worden«, sagte Gabriel dem »Handelsblatt«. Er habe »nie verstanden, warum wir Deutschen eine der wichtigsten Säulen unserer Volkswirtschaft und unseres Wohlstands so derartig mutwillig ruinieren.« Kein anderes Land der Welt würde so etwas tun.

Gabriel sorgt sich vor allem um die Autozulieferer. »Das ist ein stilles Sterben. Wo bleibt der Aufschrei?« Dass sich die Politik nun wundere, »dass Zigtausend Stellen in der Zuliefererindustrie abgebaut werden, ist schon ziemlich merkwürdig. Denn das war alles absehbar.«

Das vom Jahr 2035 an geltende Verbrenner-Aus sei umso fragwürdiger, weil »ein neuer Diesel den Vergleich mit den Umweltbelastungen eines batteriegetriebenen Fahrzeugs über die gesamte Lebenszeit des Wagens nicht scheuen muss«, sagte Gabriel dem »Handelsblatt

Hinzu kommt der „unglückselige“ Zertifikatehandel. Wer CO2-Emissionen einspart, bekommt Gutschriften, so verdient die Firma Tesla so nebenbei Milliarden Euro, weil E-Mobile CO2-frei fahren. Dabei wird nicht berücksichtigt, dass die Herstellung der Batterien sehr energieintensiv ist, also dabei viel CO2 ausstößt.

Resümee

Der deutschen Autoindustrie, die jahrzehntelang eine Schlüsselposition in der deutschen Industrielandschaft einnahm, geht es sehr schlecht – und so recht wollen das insbesondere unsere grünen Politiker nicht glauben.

Man will in Deutschland mit einem CO2-Anteil von 2 % das Weltklima retten und vergisst dabei, dass wir in Deutschland ein Industrieland sind, das überwiegend von der Autoindustrie lebt – und die braucht faire und verlässliche Regeln und eine preisgünstige Energie, um wettbewerbsfähig zu bleiben.

Aber, auch die Autoindustrie hat es versäumt, sich energischer zu wehren.

 




Paralleler Atom- und Kohleausstieg: Friedrich Merz: „Wir werden nichts mehr abschalten in Deutschland“

Reden und Handeln sind im politischen Raum zwei völlig verschiedene Kategorien. Ankündigungen und darauf folgendes Nichthandeln können durch Feigheit oder Kalkül begründet sein. Vertrauen gegenüber Politikern ist ohnehin nicht angebracht.

 Von Frank Hennig

Gesetzeskonform ging der Block F des Braunkohlekraftwerks Weisweiler am 31. Dezember 2024 endgültig vom Netz. Die 320 Megawatt elektrischer Leistung waren über die Zeit der Dunkelflaute am 27. Dezember noch voll in Betrieb. Nun weht wieder guter Wind und das Fehlen des Blockes F wird vorerst nicht bemerkt werden.

Bei der Aufstellung der Landesliste NRW der CDU hatte Mitte Dezember Kanzlerkandidat Friedrich Merz noch getönt: „Wir werden nichts mehr abschalten in Deutschland, bevor Ersatz am Netz ist.“ Vielleicht meinte er nur die künftige Zeit seiner absehbaren Kanzlerschaft. Er hätte aber schon jetzt eine Mehrheit gehabt, das Kohleverstromungsbeendigungsgesetz (KVBG) zu ändern oder auszusetzen.

Es war wohl eher eine Absichtsbekundung, die er in den Koalitionsverhandlungen mit den Grünen und/oder Roten vortragen möchte, um dann im Sinne der Machterlangung einen basarähnlichen Kompromiss zu erzielen.

Nachdem Merz schon kleinlaut das Gebäudeenergiegesetz, gegen das er noch vor kurzem heftig polterte, mit etwas Kosmetik und anderen Terminen beibehalten will, wird er auch „aus Klimagründen“ am Kohleausstieg festhalten. Einen Paradigmenwechsel, von dem er sprach, wird es mit der Klimaunion im Rücken und rot-grünen Koalitionspartnern nicht geben.

Allerdings wird dieses unterlassene Handeln ein Bumerang für ihn sein, denn selbst 320 Megawatt werden im mangelbehafteten Stromsystem deutliche Auswirkungen haben. Nach KVBG würden folgende Braunkohleblöcke noch in den Zwanzigern vom Netz gehen:

  • Jänschwalde A (500 MW) 2025
  • Jänschwalde B (500 MW) 2026
  • Jänschwalde C (500 MW) 2028
  • Jänschwalde D (500 MW) 2028
  • Weisweiler G (600 MW) 2028
  • Weisweiler H (600 MW) 2029
  • Boxberg N (500 MW) 2029
  • Boxberg P (500 MW) 2029

Selbst ein Sinneswandel kurz vorher würde nicht helfen. Die Forderung an die Unternehmen, noch „ein bisschen“ weiterzufahren, würde abschlägig beschieden. Die Tagebaue sind dann in der genehmigten Endstellung, das Personal mit hohem Altersdurchschnitt ist dann so gut wie weg und die Anlagen sind verschlissen. Wie beim Atomausstieg würden sich die Betreiber verlängerten Laufzeiten oder gar Neuinvestitionen in „saubere“ Kohlekraftwerke verschließen.

Ersatz für diese Kapazitäten wird es nicht geben. Mit Gaskraftwerken, wasserstofffähig oder auch nicht, kann erst ab den dreißiger Jahren gerechnet werden, auch dann in nicht ausreichendem Umfang. Wie viel Gas dann zu welchem Preis zur Verfügung stehen wird, weiß heute niemand.

Nur eines ist gewiss: Der parallele Ausstieg aus Atom und Kohle zerstört uns als Industrieland und katapultiert uns ins vorgestern. Die Naturkräfte werden wieder unseren Alltag bestimmen.

Der Beitrag erschien zuerst bei TE hier

 




Die seltsamen Geldströme deutscher Energieplanwirtschaft

Wer bestimmt die Einzelheiten in der deutschen Energieplanwirtschaft? Wie wird ihre Finanzierung organisiert? Ohne die Änderung von Geldströmen ist ein Wandel zu einer vernünftigen Energiepolitik nicht möglich. Auch das ist ein Thema für die Wahlentscheidung.

Von Frank Bothmann.

Warum können deutsche Gasnetzbetreiber ihre Abschreibungen erhöhen? Wer bestimmt das und wie kommt so eine Entscheidung zustande? Wieso müssen in einer Wirtschaftskrise gerade diese Abschreibungskosten erhöht werden und bei uns Verbrauchern zu höheren Gaspreisen führen? Das waren die Ausgangsfragen zu diesem Beitrag und die Recherche hierzu führte zu tiefen Einblicken in das Energiewunderland Deutschland im Jahre 2025. Die Antworten finden sich im Energiewirtschaftsgesetz  (EnWG), dem Energiefinanzierungsgesetz (EnFG) und dem Klima- und Transformationfonds (KTF).

Mitte Oktober 2024 taucht diese Meldung in den Nachrichtenportalen auf, mit der  steigende Gastnetzentgelte angekündigt werden und zu Mehrkosten in Höhe von einigen Hundert Euro pro Haushalt führen können. Als Ursache hierzu wird der (notwendige) kürzere Abschreibungsbedarf der Gasnetzbetreiber angeben. Da die Gasnetze obsolet sein werden und zwar ab dem Jahr 2035, muss (!) jetzt höher abgeschrieben werden um keine Investitionsruinen zu hinterlassen.

In dieser Formulierung ist zwar eine Logik enthalten, aber ich konnte mich nicht erinnern als Gaskunde den jeweiligen Eckpunkten jemals zugestimmt zu haben oder darüber ordentlich informiert worden zu sein.

Der erste Rechercheschritt war, zwei Bekannte anzufragen, die bei sogenannten „Netzbetreibern“ arbeiten. Beide hatten hierzu keine Kenntnis und einer wollte recherchieren wofür er dreimal einen KI-Chatbot quälte. Parallel zu seiner Antwort kam auch eine von der Bundesnetzagentur (BNA), die ich angefragt hatte. Um die Antwort der BNA einordnen zu können, lohnt sich jedoch der Blick auf das Energiewirtschaftsgesetz.

Das Energiewirtschaftsgesetz – Regulation über alles

Das deutsche Energiewirtschaftgesetz (EWG) ist von 1935 und damit eins der ältesten deutschen Gesetze. Es war ein Rahmengesetz und bestand aus 19 Paragraphen. Ziel war die Sicherung der leitungsgebundenen Energieversorgung, Vermeidung schädlichen Wettbewerbs und „die Energieversorgung so sicher und billig wie möglich zu gestalten“. Es übertrug den Energieversorgungsunternehmen (EVU) in sogenannten Demarkationsgebieten das Versorgungsmonopol und legte dabei die Anschlusspflicht unter allgemeinen Bedingungen und Tarifen für alle Anschlussnehmer fest.

Das Gesetz wurde nach Gründung der Bundesrepublik in mehreren Novellen angepasst, hatte jedoch in seinen Grundzügen bis 1998 Bestand und einen prägenden Einfluss auf den Aufbau und Ausbau der heutigen Energieversorgung. Der entscheidende Impuls für eine grundlegende Reform des EnWG ging von der Verwirklichung des europäischen Binnenmarktes aus.

In der Fassung des EnWG von 1998 überlies der Gesetzgeber die erforderlichen Regelungen des Zugangs zu den Netzen den Interessensverbänden und Fachverbänden (Verbändevereinbarung). Insofern wurde von einer Liberalisierung der Stromversorgung gesprochen, indem der  Staat auf eine Regulierung weitgehend verzichtete.

Die im EnWG von 1998 von der Bundesregierung favorisierte Lösung einer unregulierten marktwirtschaftlichen Organisation der Energiewirtschaft hatte jedoch nicht lange Bestand. Bereits 2005 wurde das EnWG, das wie das Vorgängergesetz von 1935 mit nur 19 Paragraphen auskam, grundsätzlich reformiert. Vor dem Hintergrund der Beschleunigungsrichtlinien Strom (Richtlinie 2003/54/EG) und Gas (Richtlinie 2003/55/EG) der Europäischen Union wurde die Energiewirtschaft mit diesem Gesetz neu strukturiert und ein umfassender regulatorischer Rahmen geschaffen (zitiert aus Quelle)

Statt 19 nun 121 Paragraphen

Die Änderung des EnWG im Jahre 1998 ist ein Wendepunkt hinzu zu einer staatlich regulierten Energiewirtschaft. Aus dem Rahmengesetz wurde ein Regulationsgesetz mit 121 Paragraphen in denen insgesamt 288 Regelungsinhalte beschrieben sind, da einige Paragraphen bis zum Buchstaben „m“ untergliedert sind. Zu dieser gesetzlichen Grundlage gehören jedoch noch insgesamt 18 Durchführungsverordnungen, die den Inhalt des EnWG konkretisieren. Die Stromnetzentgeltverordnung regelt beispielsweise im liberalisierten Energiemarkt die Ermittlung der Netznutzungsentgelte für die Durchleitung von Strom durch die Netze der Stromnetzbetreiber zu den Verbrauchern. Warum in einem liberalisierten Strommarkt eine staatliche Regulierung notwendig ist, ist wohl eine gute Frage.

Wenn wir in der aktuellen Zeit der deutschen Energiekrise nach deren Ursachen forschen, dann ist sicherlich in diesem überregulierten EnWG eine zu finden.

Statt die Energieversorgung so sicher und billig wie möglich zu gestalten, verfolgt das Gesetz nun das Ziel „… eine möglichst sichere, preisgünstige, verbraucherfreundliche, effiziente, umweltverträgliche und treibhausgasneutrale leitungsgebundene Versorgung der Allgemeinheit mit Elektrizität, Gas und Wasserstoff, die zunehmend auf erneuerbaren Energien beruht“ umzusetzen.

Zur Verfolgung der Ziele in Absatz 1 berücksichtigt die Regulierung insbesondere

1. den vorausschauenden Ausbau, die optimierte Nutzung und die Digitalisierung der Energieversorgungsnetze,

2. die Erzeugung und Nutzung von Strom aus erneuerbaren Energien und Wasserstoff,

3. die Flexibilisierung im Elektrizitätssystem, einschließlich der Nutzung von Energiespeichern sowie

4. eine angemessene Verteilung der Netzkosten im Zusammenhang mit dem Ausbau der Stromerzeugung aus erneuerbaren Energien“ (§1 EnWG).

Das Desaster der deutschen Energiewende ist also bundesgesetzlich in einen monströsen Regulationsrahmen gespannt. Die Regulationstiefe wurde durch die Ampel-Regierung mit den Novellen in den Jahren 2021 bis 2022 noch ergänzt. Hierbei spielt die Bundesnetzagentur eine wesentliche Rolle.

Die Rolle der Bundesnetzagentur

Die Bundesnetzagentur (BNA) ist eine dem Bundeswirtschaftsministerium nachgeordnete Behörde, die aus dem ehemaligen Bundespostministerium hervorgegangen ist. 1998 wurde die BNA als eine Regulierungsbehörde für Post und Telekommunikation gegründet und ab 2005 mit der Neuaufstellung des EnWG auch mit den Regulierungsaufgaben für Strom und Gas betraut. Im Rahmen des EU-Binnenmarktes wurden der BNA eine ganze Reihe von Zuständigkeiten aus EU-Verordnungen übertragen, die sich aus aus der EU-Binnenmarktstrategie ableiten. Dementsprechend ist die Aufgabenbeschreibung in den §§ 54 – 60 des EnWG für die BNA recht umfangreich.

Funfact hierbei: Im § 59 EnWG wird in einer Auflistung von 35 Punkten dann noch festgelegt für welche Inhalte des Gesetzes die BNA nicht zuständig ist.

Die Entscheidungen der BNA werden nach dem § 59 in sog. „Beschlusskammern“ getroffen. Die jeweiligen Vorsitzenden und Beisitzer müssen Beamte sein und die Befähigung zum Richteramt oder höheren Dienst haben. Es gibt auch eine sog. „Große Beschlusskammer“, die aus dem Präsidium der BNA sowie den sachlich zuständigen Beschlusskammervorsitzenden und Abteilungsleitungen besteht. In dieser Kammer werden bundesweite gültige Entscheidungen zu Netzzugängen und -endgelten getroffen. In der „Großen Beschlusskammer“ wird mit einfacher Mehrheit abgestimmt, bei Stimmengleichheit entscheidet die Stimme des Vorsitzenden also dem BNA-Präsidenten.

Bei dem Namen der „Großen Beschlusskammer“ handelt es sich um einen Euphemismus.  Es sind gerade mal elf (!) beamtete Personen, die dieser Kammer angehören und bundesweite gültige Entscheidungen treffen.

Der Europäische Gerichtshof hat in einer Entscheidung vom Juni 2021 dafür gesorgt, dass die BNA ihre Entscheidung vollkommen unabhängig treffen kann. Die vormalige ministerielle und damit politische Rückkopplung wurde hierdurch abgeschafft. Dies bedeutet jedoch auch, dass die BNA keinerlei demokratischen oder politischen Kontrolle unterliegt. Das einzige „Kontrollgremium“ ist der Beirat, der jedoch bei den Entscheidungen der Beschlusskammern nicht involviert ist.

Vor diesem Hintergrund macht es natürlich Sinn, dass der Behördenchef trotz seiner formellen Unabhängigkeit ein strammer Parteisoldat ist. Die Besetzung mit dem Grünen-Parteikollegen Klaus Müller seit 2022 ist hierzu die perfekte Lösung. Trotz Unabhängigkeit und ohne politische Kontrolle hat er im Chorgesang uns Bürger vor der Kälte des Winters gewarnt und das Runterdrehen der Thermostaten unserer Gasheizung verlangt, derweil sein vorgesetzten Minister uns zur Nutzung von Waschlappen mahnte.

Das Energiefinanzierungsgesetz macht den Staat zum Dauerschuldner

Im Zuge der Sanktionspolitik gegenüber Russland und der hieraus resultierenden Energiekrise mit extrem steigenden Kosten, wurde von der Ampel-Regierung beschlossen, die sog. „EEG-Umlage“ nicht mehr durch die Stromkunden bezahlen zu lassen sondern vollständig aus Steuermitteln aufzubringen. Politisches Ziel war die Bürger zu „entlasten“ und niedrigere Stromkosten zu suggerieren. Aus der Sicht des steuerzahlenden Bürgers ist das natürlich nichts anderes als eine „linke Tasche – rechte Tasche“-Politik.

Dies ist nur eine der vielen Maßnahmen, die im Rahmen des sog. „Osterpaketes“ bei der Novellierung des „Eneuerbaren-Energien-Gesetz“ im Frühjahr 2022 umgesetzt wurden. Vorrangig wurde hiermit ein massiver und aktionistischer Ausbau von PV-Anlagen und Windkraftanlagen durch Setzung neuer Normen und Anreizen vorangetrieben.

Auf der Webseite der Bundesagentur heißt es Das Energiefinanzierungsgesetz (EnFG) dient vor allem der Finanzierung der nach dem Erneuerbare-Energien-Gesetz (EEG) und dem Kraft-Wärme-Kopplungsgesetz (KWKG) sowie der im Zusammenhang mit der Offshore-Netzanbindung entstehenden Ausgaben der Netzbetreiber. Der EEG-Finanzierungsbedarf wird seit dem EEG2023 nicht mehr durch EEG-Umlagezahlungen, sondern durch Zahlungen der Bundesrepublik Deutschland ausgeglichen“. Zur Erinnerung: damit sind wir Bürger als Steuerzahler gemeint! Das EnFG ist zu Beginn 2023 in Kraft getreten. Der Bundesnetzagentur kommt dabei die Aufgabe der Geldverteilstelle zu.

Offensichtlich wurden die Macher des Gesetzes sehr schnell von „der Realität umzingelt“. Die notwendigen Haushaltsmittel waren schlecht geplant bzw. der deutliche Mehrbedarf für das Haushaltsjahr 2024 wurde zu spät an den Finanzminister mitgeteilt. Dieser sah sich dann gezwungen für das laufende Jahr einen Nachtragshaushalt einzubringen, der nahezu ausschließlich die EEG-Kosten in Höhe von rund 10 Milliarden Euro umfasste.

In der deutschen Energieplanungswirtschaft müssen nun die Netzbetreiber bis zum Oktober des laufenden Jahres ihren EEG-Finanzierungsbedarf mitteilen. Dies kann man hier einsehen. Für das Jahr 2024 werden insgesamt 10,6 Mrd. Euro aufgerufen und für das Jahr 2025 sind es bereits 17 Mrd. Euro!

Das wir ja hier vom Geld der Steuerzahler schreiben, erlaube ich mir eine kleine Rechnung um dies in eine Relation zu stellen. Bei rund 84 Millioen Einwohnern in Deutschland entsprechen die 17 Mrd. Euro einem jährlichen Kostenanteil von etwa 200 Euro pro Kopf. Jedes Familienoberhaupt kann nun ausrechnen, wieviel Geld er zusätzlich zu seiner Stromrechnung tatsächlich zahlt. Um ein berühmtes Zitat abzuwandeln, sind dies nun schon einige Kugeln Eis pro Tag und pro Kopf, die wir für die sogenannte „Energiewende“ dauerhaft zahlen müssen.

In kürzlich hier auf der Achse erschienen Beitrag wurde von einer notwendigen Dauersubventionierung für die nicht konkurrenzfähigen sog. Erneuerbare-Energien geschrieben. Mit dem EnFG ist diese Dauersubventionierung mit Steuermitteln – ohne eine definierte Kostenobergrenze – in ein Gesetz gegossen worden.

Der Reptilienfonds der Klima- und Energiewende-Lobby

Für den schnellen Wechsel der EEG-Finanzierung in den Bundeshaushalt (aus der linken Tasche in die rechte Tasche des Bürgers) musste die Haushalts-Allzweckwaffe, der Klima- und Transformationsfonds (KTF) herhalten.

Der KTF speist sich im Wesentlichen aus drei Quellen: den Einnahmen aus dem europäischen Emissionshandel (EU-ETS), denen aus der nationalen CO2-Bepreisung und Zuweisungen aus dem Bundeshaushalt. Im Haushaltsjahr 2023 sollten ungenutzte Corona-Kredite in Höhe von 60 Milliarden Euro in den KTF verschoben werden. Glücklicherweise wurde ja wegen des nicht verfassungsmäßigen Bundeshaushalt geklagt und das erhoffte Riesenbudget kam glücklicherweise nicht zustande.

Der KTF ist ein riesiges Finanzbudget welches außerhalb des Bundeshaushaltes geführt wird. Altgediente Beamte werden sich an den Begriff eines „Reptilienfonds“ erinnern. Damit wurde ein Geldbudget in öffentlichen Haushalten gemeint, im weiteren Sinn eine „schwarze Kasse“ in die aus anderweitigen Haushaltsgeldern abgezweigte Mittel versteckt waren.

Da im Bundeshalt gar kein Geld für die EEG-Umlage vorhanden ist, bediente sich die Bundesregierung an dem KTF. Das wird wohl noch bis zum Jahr 2027 weitergehen. Danach gibt es offensichtlich aus dem Bundeswirtschaftsministerium noch keine gesicherte Finanzierungsperspektive.

Der aufmerksame Bürger wird in den letzten Monaten erstaunt festgestellt haben wofür seine CO2-Abgaben, die in dem KTF gebunkert werden, verwendet werden. Da sollten bspw. rd. 10 Mrd. Euro für die Ansiedlung einer  Intel Chipfabrik als staatliche Förderung verwendet werden. Es war zu lesen, dass die Instandsetzung der Bahninfrastruktur ins Stocken gerät, weil auch dies aus dem KTF finanziert werden sollte mit 4 Mrd. Euro in 2024 und bis 2027 sogar mit 12,7 Mrd. Euro. Das ist eigentlich eine Aufgabe des Bundeshaushaltes aber der ist nun mal deutlich überzeichnet u.a. wegen socher „Nicht-Transformationsausgaben“ zur Unterstützung des Ukraine-Krieges, Migrationskosten und eben der teuren Energiewende.

Das krude Konstrukt zur Finanzierung der EEG-Umlage aus Steuermitteln bzw. aus dem KTF ist ein teurer Dauerläufern und damit eine Kernursache für einen verfassungswidrigen Bundeshaushalt. Letztlich kann man auch sagen, dass dies eine Ursache für das „Ampel-Ende“ war, weil die Regierung keinen ausgeglichenen und verfassungsmäßigen Haushalt aufstellen kann.

Um die wundersame Vielfältigkeit des KTF zu verstehen, sei hier noch ein Blick auf das „Aktionsprogramm Natürlicher Klimaschutz(ANK)“ erlaubt. Auch dieses knapp 4 Mrd. Euro  schwere Förderprogramm wird vollkommen aus dem KTF finanziert. Die Ampel-Regierung hat dies auf  den Weg gebracht um gegenüber der Klimawandel-Klientel nochmal ordentlich die Spendierhosen anzuziehen. Etwas anders drückt dies der Bundesrechnungshof in seiner durch und durch kritischen Stellungnahme aus. Die Kritik beginnt grundsätzlich mit der fehlenden verfassungsrechtlichen Grundlage einer Bundesförderung für sog. Klimaschutzmaßnahmen auf kommunaler Ebene. Im weiteren wird die weitgehend ziellose Geldausgabe des ANK, kritisiert sowie die mangelhafte Überprüfbarkeit der Ergebnisse. Praktisch wird Geld für Projekte zur Verfügung gestellt, die bereits durch andere Steuermittel hinreichend finanziert werden.

Eine anekdotische Evidenz hierzu aus dem Bekanntenkreis: Ein Landschaftsbauingenieur wechselt in die Verwaltung einer kleinen Ruhrgebietsstadt. Dort gelingt es ihm schon innerhalb der Probezeit einen 3 Millionen Euro-Förderbescheid aus dem ANK an Land zu ziehen. Hierzu wurden beim Antrag keine validierten Kostenangaben und kein Gesamtkonzept für die Maßnahmen gefordert. So leicht geht es an dieses Geld zu kommen. Das Projekt wird jedoch nicht umgesetzt werden können weil der Kommune das Personal hierzu fehlt.

Als eine andere anekdotische Evidenz mag der Hinweis auf das Teilförderprogramm „KlimaWildnis“ des ANK dienen. Hiermit der soll der Ankauf von „alten Buchenwäldern mit eigendynamischer Entwicklung und von KlimaWildnisBotschafter*innen als Beitrag zum natürlichen Klimaschutz“ gefördert werden weil diese einen so unfassbar großen CO2-Speicher darstellen.

Der KTF als Allzweckfinanzierungsquelle steht also für Chipfabriken, Bahngleise, Stadtbegrünung, Buchenwälder und für „KlimaWildnisBotschafter*innen“ zur Verfügung. Hätten Sie, liebe Leser gedacht, mit welcher Kreativität dafür gesorgt wird wie ihre CO2-Abgaben wieder in den Wirtschaftskreislauf gelangen? Damit wird jedoch auch klar, dass jegliche CO2-Abgabe tatsächlich eine zusätzliche Steuer ist, mit dem sich der bundesdeutsche Staat bedient um einen strukturell mangelhaften Haushalt auszugleichen.

Die Bundesnetzagentur und die Agora Energiewende

Kommen wir an dieser Stelle zurück zu den höheren Abschreibungen der Gasnetzbetreiber.

Wie kommt es dazu, dass wir diese Meldung lesen und nirgendwo in Deutschland ein Hahn danach kräht. Wir Bürger bekommen es quasi verkündet als unausweichliche Weisung „von oben“.

Die Entscheidungsbefugnis hierzu liegt, wie oben beschrieben, einzig und allein bei der BNA in einer der sog. „Beschlusskammern“. Die BNA vereint zu sehr vielen Infrastrukturnetzen eine Regelungs- und zugleich eine Sanktionskompetenz in ihrem Haus.

Konkret hat die BNA zum Thema Abschreibungen auf Gasnetze einen Handlungsrahmen selber erarbeitet. Der vollständige Titel lautet: Festlegungsverfahren zur Anpassung von kalkulatorischen Nutzungsdauern und Abschreibungsmodalitäten von Erdgasleitungsinfrastrukturen (KANU 2.0).

Die hierin enthaltene Logik zu einer Abschaltung und Rückbau der Gasnetze deckt sich mit Äußerungen der Lobby-NGO Agora-Energiewende. Warum nur wurde bisher darüber nicht öffentlich informiert und auch intensiv debattiert? Die Vermutung liegt nahe, dass hiermit ebenso wie mit dem „Wärmeplanungsgesetz“ in einem top-down-Verfahren politische Zielsetzungen durch einen Eingriff in die Infrastruktursubstanz manifestiert werden sollen. Politische Ziele unterliegen in einer Demokratie aber einem ständigen Wandel und Aushandlungsprozess.

Im konkreten Fall wird hierzu die formelle Unabhängigkeit der BNA instrumentalisiert um außerhalb demokratischer Kontrolle, mittels einer mehr oder weniger willkürlichen Normensetzung, gesellschaftliche Kontrolle auszuüben. Dieses top-down-Verfahren stellt also einen erheblichen Machtmissbrauch dar.

Ausblick in das Wahljahr 2025

Der Einblick in die Energieplanwirtschaft Deutschlands ist ernüchternd. Die sogenannte „Energiewende“ ist durch die Verordnungsfreaks perfekt in einen gesetzlichen Rahmen zementiert worden. Egal welche Regierung antritt, der Energiewende-Holzweg wird erstmals ungehindert weiter begangen.

Allerdings werden Gesetze von Menschen gemacht, sie fallen nicht vom Himmel. Deswegen können Gesetze wieder rückgängig gemacht werden. Der Blick auf das Verordnungsmonster Energiewirtschaftsgesetz zeigt jedoch, dass es Politiker und Parteien braucht, die „Eier haben“ um an dieses Machtwerk möglicherweise „eine Kettensäge“ anzulegen. Wünschenswert wäre es. Zur Organisation der Energieversorgung in Deutschland hat ein halbes Jahrhundert ja ein einfaches Rahmengesetz ausgereicht

Aussagen zu einer ernsthaften Veränderung der Energiewirtschaft in Deutschland müssen jedoch vor dem Hintergrund der beschriebenen Gesetzeslage beurteilt werden. Wer als Politiker die dargestellte „Dreifaltigkeit der deutschen Energieplanwirtschaft“ nicht kennt oder negiert, wird nicht ernsthaft versuchen einen Wandel herbeizuführen.

Der Kern für einen substantiellen Wandel liegt in der Änderung von Geldströmen. Aus der Sicht sind die EEG-Umlage und jegliche CO2-Abgaben/Steuern grundsätzlich abzulehnen und abzuschaffen. Auch das ist ein Prüfthema für eine Wahlentscheidung für eine vernünftige und demokratische Energieversorgung in Deutschland.

Frank Bothmann (Jahrgang 1962), Diplom-Geograph, ist als Landschaftsplaner im Ruhrgebiet tätig.

 




Generisches Statement zum Stand der Klimaforschung in Hinblick auf die Belastbarkeit der CO2-Modellierungsvorhersagen und der daraus gezogenen wissenschaftlichen und politischen Schlussfolgerungen[1]“

Dr. rer nat Philipp Lengsfeld, re:look climate gGmbH

Dipl-Ing Michael Limburg, EIKE

Hauptproblem: Die wissenschaftliche Begründung für die Forderung nach Dekarbonisierung – CO2-These basiert nur auf Modellierungen und ist als Haupterklärung vermutlich falsch

Die wissenschaftliche Großkontroverse „Klima“ fängt schon bei der Bezeichnung an: Durch die Bezeichnung als „menschgemachter Klimawandel“ (anthropogenic global warming, AGW) wird die hier in Rede stehende CO2-Hypothese schon inhaltlich vorgeprägt. Eigentlich müsste sie gemäß des wissenschaftlichen Kerns im Deutschen korrekterweise „Durch von Menschen eingebrachte zusätzliche Treibhausgase verursachte zusätzliche Erderwärmung“ heißen – zur wissenschaftlich-argumentativen Vereinfachung benutzen wir in diesem Papier den Terminus CO2-Erdwärmungs-These.

Die CO2-Erdwärmungs-These ist ein rein Modell-basiertes Konstrukt. Die Modelle fußen auf Annahmen, die im Kern von den komplizierten, mindestens 18 Grob-Prozessen, die an einem Energiegleichgewicht der Atmosphäre beteiligt sind und die alle mit und untereinander in Wechselwirkung stehen, überdies in Zeitskalen von wenigen Tagen bis > 100.000 Jahren (im Anhang befindet sich in Abb. 1 eine Übersicht), nur einen einzigen, nämlich die atmosphärische Zusammensetzung und darin wieder den CO2 Anteil[2] als Hauptmechanismus (Treibhausgas-Annahme) voraussetzen, der dann in den komplexen mathematischen Klimamodellen zu Erwärmungsszenarien gerechnet wird.

Ein Bild, das Text, Screenshot, Diagramm, Kreis enthält. Automatisch generierte Beschreibung

Abb. 1: Qualitative Darstellen der Hauptprozesse der atmosphärischen Energiebilanz nach W.Soon

Alle momentanen Modelle leiden aus unserer Sicht an dieser fundamentalen Schwäche: Der angenommene zentrale Einfluss des CO2 geht als Hauptmechanismus in die Modellierung ein und damit wird über die Annahme der Modellierung schon deren Ergebnis vorweggenommen. Das ist ein Zirkelschluss.

Und das auch unabhängig von der Frage, ob der zu Grunde liegenden Mechanismus „Treibhaus-Effekt“ und dessen abgeleitete Konsequenz „Zunahme des Treibhaus-Effekts bei Zunahme der Treibhausgaskonzentration“ im Kern korrekt ist oder nicht. Wir können für die hier vorgelegte Argumentation durchaus annehmen, dass ein merkbarer temperature forcing effect bei Verdoppelung des CO2-Gehalts in der Luft existiert, obwohl wir schon anmerken, dass es ernstzunehmende wissenschaftliche Positionen gibt, die sagen, dass ein Treibhaus-Effekt für die Erklärung der Grunddaten des Weltklimas, insbesondere der globalen Mitteltemperatur nicht notwendig ist.

Unser Hauptkritikpunkt ist ganz eindeutig, dass während der Einfluss des CO2 über verschiedene diverse Szenarien (RCP2.6-RCP8.5) variiert wird, mit teilweise hanebüchenen sozio-ökonomischen Annahmen, werden andere (meist natürliche) Klimamechanismen wenig oder gar nicht in der momentanen Modellierung beachtet. Auf diese Weise entsteht zu einem komplexen Thema eine total verengte Diskussion, die sich praktisch nur noch um CO2-Anteile dreht.

CO2-Thesen Dramatik zerfällt bei normaler Verweildauer von CO2 in der Atmosphäre

Aus unserer Sicht ist darüber hinaus eine der zentralen Kernschwächen der CO2-Modellierungen die angenommene lange Retentionszeit für CO2 in der Atmosphäre – die momentan akzeptierte Denkschule ist das sogenannte Berner Modell. Durch eine angeblich sehr lange Verweildauer von Teilen des CO2 in der Atmosphäre (in der Kommunikation werden gerne drastische Vokabeln, wie „Endlagerung“ oder „Verklappung“ von CO2 in der Atmosphäre bemüht) ergibt sich bei konstanter weiterer Emission ein exponentieller Anstieg des CO2 in der Atmosphäre – je nach Feintuning prognostizierten die Wissenschaftler vom „Berner Modell“ eine CO2-Konzentration von 1000ppm in der Atmosphäre im Jahr 2100. Das wäre ein 2.5-fach höherer Wert als heute (420 ppm) und der dreifache Wert des CO2-Niveaus der Nachkriegszeit. Die Retentionsannahmen des Berner Modell werden in der Wissenschaft kontrovers diskutiert – die entgegengesetzte, einfache Annahme, die sich auch mit Messdaten aus französischen Atomtests deckt, geht von einer Halbwertszeit des CO2 in der Atmosphäre von 25-40 Jahren aus – in diesen Rechnungen sättigt sich die CO2-Konzentration bei gleicher anthropogener Emission im Jahre 2100 bei z.B. 500 ppm (Abb. 2 im Anhang verdeutlicht diesen Effekt im direkten Vergleich).

Zwischen diesen beiden Extremannahmen gibt es diverse Schattierungen gemäß Annahmen der Senken und ihrer Leistungen, deren prognostizierte CO2-Anstiege dann natürlich ebenfalls zwischen diesen beiden Extremvarianten liegen.

Selbstredend verändern sich die Erwärmungsprognosen der Modellierungen in den unterschiedlichen Szenarien drastisch, selbst wenn alles andere unverändert bleibt.

Erstes Fazit:

Die CO2-These ist ein Ergebnis von Modellierungen, deren Output schon über den Input festgelegt wurde. Das ist ein Zirkelschluss. Und für Modellierung von Klima absolut unterkomplex.

Abb. 2: CO2-Projektionen gemäß verschiedener Modellannahmen führen im Jahr 2100 zu völlig unterschiedlichen Ergebnissen.

Aber selbst, wenn man alle anderen Annahmen akzeptiert (was wir definitiv nicht tun), bleibt von der CO2-Erwärmung wenig bis nichts, wenn die „Endlagerung“s-Annahme des Berner Modells sich als falsch erweisen sollte (wovon wir fest überzeugt sind). Die CO2-Thesen Dramatik fällt bei normaler Verweildauer von CO2 in der Atmosphäre praktisch in sich zusammen.

Unteraspekt: Anteil des menschlichen CO2 am Anstieg der Keeling-Kurve

Ein großer Verdienst der Klimaforschung der letzten Jahrzehnte ist die systematische Erhebung des CO2-Gehalts in der Atmosphäre vor allem durch die Messstation in Mauna Loa, Hawai, die sogenannte Keeling-Kurve – seit Beginn der Messung 1958 ist der CO2-Gehalt in der Atmosphäre von 315 ppm auf momentan 425 ppm gestiegen – ein ca. 100 ppm-Anstieg in 70 Jahren.

Gemäß der momentan akzeptierten Lehrmeinung wird angenommen, dass praktisch der gesamte Anstieg der Keeling-Kurve seit Start der Messungen menschengemacht sei (also durch die Verbrennung fossiler Brennstoffe verursacht wird). Auch diese These wird aber in Frage gestellt. So vermutet unter anderem der deutsche Wissenschaftler Hermann Harde, dass der Anteil des durch die Menschen in die Atmosphäre eingebrachten CO2 am Anstieg der Keeling-Kurve maximal bei 5 Prozent liegt.

Dass sich der unbestrittene Einbruch in der CO2-Emission im Zuge der globalen Covid-Krise nicht wirklich in der Keeling-Kurve abbildet, ist ein weiterer Hinweis, dass der Anteil der anthropogenen Emission am Keeling-Kurven-Verlauf überschaubar sein dürfte.

Ein Bild, das Text, Zeitung, Papier, Zeitungspapier enthält. Automatisch generierte Beschreibung

Abb. 3: Meyers Konversationslexikon 4. Auflage, 1885-1890. 2. Band: Atlantis – Blatthornkäfer, S.12

Und wie sehr viele Lehrsätze in der momentanen Klimaforschung ist auch diese vermeintliche Gewissheit überhaupt nicht gesichert: Sind die CO2-Werte der Neuzeit (310-450 ppm) im Vergleich zum z.B. dem 19 Jahrhundert überhaupt erhöht? Die Enceclopedia Britannica, aber auch Meyers Konversationslexikon listeten Ende des 19. Jahrhunderts bereits CO2 Anteile von rd. 400 ppm auf mit einer Schwankungsbreite von 370 bis 620 ppm (ein entsprechender Beleg ist im Anhang als Abbildung 3 angefügt).

Die momentane Lehrmeinung postuliert stattdessen, dass der Neuzeit-CO2-Wert drastisch oberhalb eines CO2-Korridors der letzten 800 tausend Jahre läge und versucht die CO2-These mit einer konstruierten CO2-Hockeyschlägerkurve glaubhafter zu machen. Dabei handelt es sich um eine Aneinanderreihung von Datensätzen aus Eisbohrkernen für die Paleodaten, Übergangsdaten und aktuellen Messdaten. Wir beschäftigen uns mit dieser Hockeyschlägerkurve weiter unten etwas ausführlicher, postulieren aber, dass deren Belastbarkeit massiv angezweifelt werden muss.

Zweites Zwischenfazit:

Obwohl sich alles um CO2 dreht ist, sind viele fundamentale Fragen, wie die Retentionszeit, der Vergleich zu Paleodaten oder auch der Anteil der fossilen Verbrennung an dem in den letzten 70 Jahren gemessenen CO2-Anstieg in der Atmosphäre überraschend unklar.

Echte CO2-Thesen Dramatik entsteht durch Kopplung mit feedback und Kipppunkten

Die wahre Dramatik der CO2-Szenarien ergibt sich durch die Hinzunahme von diversen feed back-Verstärkungsmechanismen (vor allem über Wasserdampf, einem wesentlich potenteren Treibhausgas, als das CO2) und durch die Kombination mit den sogenannten Klima-Kipppunkten.

Ein zentraler Beitrag der deutschen Klimaforschung, insbesondere des eigens für die Thematik gegründeten PIK, dem Potsdamer Institut für Klimafolgenforschung ist die Einbringung des Konzepts „Kipppunkte“ in die internationale Klimadiskussion – „Kipppunkte“ sind hier irreversible dramatische Prozesse, die theoretisch durch steigenden Global- Temperaturen ausgelöst werden könnten. Diese Kipppunktszenarien haben dramatische Wirkung. Zum Beispiel im Szenario „Schmelzen des Grönland-Eises“ oder „Schmelzen signifikanter Teile des antarktischen Eisschilds“ führt zu bekannten Meeresanstiegs-Schreckensszenarien – 1986 „prophezeite“ der Spiegel basierend auf einem vermutlich fehlinterpretierten Thesenpapier des Arbeitskreises Energie der Deutschen Physikalischen Gesellschaft: Im Jahr 2040 sind wichtige Metropolen, wie New York, Rom, Hamburg vom Meer verschlungen.

Wir haben also eine Dreifach-Steigerung in den Modeliierungs-Schreckensszenarien: Mit extremen sozio-ökonomischen Maßnahmen wird der Treibhausausstoß hochgerechnet, durch Schärfung der feedback-Effekte wird der Temperaturanstieg der Modelle forciert und schlussendlich wird mit der Kombination mit Kipppunkt-Szenarien eine absolut düsteres Zukunftsbild gemalt. „hot house earth“/“Heißzeit“ nennen das PIK und ihre engsten Miststreiter diese Art Endzeitszenarien.

Zum Glück gibt es auch in der deutschen Wissenschaft besonnenere Stimmen: Prof. Jochem Marotzke, Direktor des Hamburger Max-Planck-Institut für Meteorologie und in dieser Position einer der wichtigsten Klimaforscher des Landes hat sich jedenfalls mehrfach deutlich gegen die Überbetonung des Themas Kipppunkte positioniert.

Aus unserer Sicht handelt es sich bei den Klima-Kipppunkten um sehr geschickte Wissenschaftsangstmache praktisch ohne Relevanz, ganz sicher nicht für einen sinnvollen wissenschafts-politischen Referenzrahmen von 75 Jahren, also bis 2100.

Zwischenfazit CO2-These:

Die CO2-These ist eine rein Modell gestützte Konstruktion, die ein Zirkelschluss ist (es wird das als Voraussetzung in die Modellierung reingesteckt, was dann als Ergebnis rausmodelliert wird). Trotz jahrelanger Forschungen sind fundamentale Basics (z.B. Retentionszeit, Anteil des Menschen am Anstieg der Neuzeit, Vergleich zu Paleodaten) viel unklarer, als in der Öffentlichkeit angenommen.

Die eh schon aufgebauschte Dramatik der CO2-Szenarien entsteht vor allem durch die Kipppunkte- Ergänzung (die nicht Teil der Modellierungen sind) – letztlich ist die CO2-Weltungergangs-These ein Angst-Modellierungs-Turm auf extrem wackeligen Grundbausteinen – auch nur ein loser Stein darin lässt alles in sich zusammenfallen. Und das ist im Kern eine sehr gute Nachricht.

Schlussfolgerung für „Dekarbonisierung“s-Strategien: Mitigation hinfällig

Es gibt aus unserer Sicht keine Rechtfertigung für eine Dekarbonisierungspolitik. Die sogenannte „Mitigation“s-Strategie ist insgesamt hinfällig.

Konkret ist das Konzept der „Carbon-Budgets“ (angeblich noch verbleibenden Restmenge an CO2, die noch in die Atmosphäre kommen kann damit die politisch vorgegebenen Erwärmungswerte nicht überschritten werden) hinfällig. Die dazugehörigen Doomsday-Uhren, welche die verbleibende Zeit bis zur Erschöpfung des „Carbon-Budgets“ runterzählen („time left until CO2 budget is depleted“, z.B. des MCC Berlin) und Stand Dezember 2024 für das sogenannte 1.5°C-Ziel momentan noch ca. 4,5 Jahre ausweisen, können getrost abgestellt werden.

CO2-Senkungsziele, CO2-Steuern, CO2-Zertifikatsmodelle sind ohne wissenschaftlichen und damit letztlich auch politischen Gegenwert und müssen umgehend eingestampft werden.

Die technisch schon ausgereifte CCS-Technik (CO2-Abscheidung z.B. bei Kohleverbrennung und deren „Endlagerung“) ist weder notwendig noch zielführend und darf politisch nicht weiterverfolgt werden.

Attributionsforschung ohne Basis

Eine aktuelle Spielwiese der Klimamodellierung und der Klimawissenschaftspolitik ist die sogenannte Attributionsforschung, in welcher versucht wird, den Anteil von CO2 (und damit z.B. eine historische Schuld von Hauptemittenten der letzten 100 Jahre) an regionalen Wetterkatastrophen zu extrahieren – selbstredend bleibt von einer Attribution in der Jetztzeit nichts übrig, wenn sich die CO2-Modell-Katastrophenszenarien der Zukunft in Luft auflösen.

Intervention/Geoengineering ungerechtfertigt und brandgefährlich

Wenn es für „Dekarbonisierung“ und Mitigation keine Rechtfertigung gibt, dann sind die noch viel extremeren „Intervention“s-Strategien („Geoengineering“), insbesondere die Entnahme von CO2 aus der Luft und jegliche Abscheide- und Einlagerungstechniken unnötig und falsch. Alle diese Konzepte sind nicht nur unbezahlbar, sondern bergen massive Risiken für nicht intendierte negative Effekte.

Anpassung, „Adaptation“ ist die richtige Klima-Strategie

Anpassung, „Adaptation“, eine kluge „wait-and-see-and-better-understand-and-prepare-where-necessary“-Strategie ist dagegen absolut sinnvoll und zeitgemäß. Anpassun, „Adaptation“ ist die richtige „Klima“-Strategie – in jedem Land, in jeder Region.

Nebenaspekt-Probleme:

T-Hockeyschlägerkurve ohne Substanz

Michael Mann und Mitarbeiter sind die Urheber der wohl bekanntesten Klima-Hockeyschlägerkurve – über den Zeitraum der vergangenen 1000 Jahre (später 2000 Jahre) wurden Temperaturproxies von dieser Arbeitsgruppe so zusammengestellt und mit aktuellen Messdaten kombiniert, so dass der Eindruck eines dramatischen Hockeyschlägerverlaufs entsteht – der T-Verlauf ist über Hunderte Jahre konstant (bzw. sogar leicht fallend), um dann mit der Industrialisierung dramatisch anzusteigen – quasi die Visualisierung der CO2-Erwärmungsthese – die zwischenzeitlich sehr berühmte Grafik zierte auch mal das Deckblatt eines IPCC-Berichts (TAR 2001).

Mittlerweile ist diese aus der Club-of-Rome-Schule übernommene Mann-Hockeyschlägerkurve völlig entzaubert – ohne aktuelle Temperaturmessungen würde es überhaupt keinen auffälligen Verlauf geben.

Nebennebenaspekt: Mit der Hinfälligkeit der Hockeyschläger-Originalkurven entfällt natürlich auch jegliche Dramatik bei den einige Jahre sehr beliebten Kult-T-Stripes (ein solcher T-Stripe ziert wohl immer noch den Hauptbahnhof von Cottbus). Auch die Temperaturstreifen auf Straßenbahnen und Kaffeetassen können getrost eingemottet werden.

CO2-Hockeyschlägerkurve unüberprüft

Es gibt eine ähnlich dramatisch aussehende Hockeyschlägerkurve für den CO2-Anstieg, allerdings basierend auf ganz anderen Daten und von Auswertungen anderer Gruppen – auch hier ergibt sich der Hockeyschlägerverlauf nur durch die Kombination verschiedener Datensätze aus völlig unterschiedlichen Quellen (Eisbohrkernen, kombiniert mit Firneis, kombiniert mit Atmosphärendaten) – diese CO2-Kurve ist aus unserer Sicht unzulässig, weil hier die Datensätze verschiedener Herkunft zusammengespleist wurden.

Es gibt aber auch an den Eisbohrkernmessungen aus der Antarktis (und in Grönland) massive wissenschaftliche Kritik, die aber, vielleicht weil sie schon länger zurück liegt, aus der momentanen Diskussion fast komplett verschwunden zu sein scheint. So zeigte bspw. Jaworowski um 1992, dass ca. 20 Prozesse biologischer, chemischer und physikalischer Art den CO2 Gehalt in den Eisbohrkern-Proben dauerhaft beeinträchtigen. Jaworowski äußert gut unterlegte Zweifel an den grundsätzlichen Charakteristika der CO2-Eisbohrkerndaten, insbesondere an den Absolutwerten (Schwankungen in den letzten 800.000 Jahren immer nur zwischen 180 und 280 ppm) und anderen Kerncharakteristika.

Es ist mehr als unwahrscheinlich, dass der dramatische CO2-Kurven-Hockeyschlägerverlauf einer kritischen Überprüfung Stand hält.

Klima hat sich immer gewandelt

Was wie eine Banalität klingt und deshalb angstkommunikatorisch leicht skandalisiert werden kann, ist aus unserer Sicht die wissenschaftliche Wahrheit: Das Klima auf der Erde hat sich immer verändert, es gab Temperatur- und CO2-Veränderungen. Es ist nicht nur alles andere als eindeutig, sondern aus unserer Sicht sogar ziemlich wahrscheinlich, dass wir in den letzten 100 Jahren überhaupt keine irgendwie ungewöhnliche Entwicklung von Temperatur oder CO2 beobachten.

Für die Zahl der Extremwetterereignisse ist dies ja längst belegt – es hat hier keinen signifikanten Trend in den letzten Jahrzehnten gegeben.

Es gibt keinen Klima-„Konsens“ in der Wissenschaft

Eine geschickt konstruierte Fata Morgana ist der sogenannte Klima-„Konsens“.

Braucht Wissenschaft für den Erkenntnisfortschritt überhaupt einen „Konsens“? Eher im Gegenteil, etablierte Lehrmeinungen werden von disruptiver wissenschaftlicher Erkenntnisgewinnung immer wieder in Frage gestellt und müssen sich immer wieder neu bewähren – deshalb ist die Konstruierung eines vermeintlichen „Konsens“ aus unserer Sicht eine wissenschafts-kommunikative und wissenschafts-politisch ziemlich fragwürdige Aktion.

Eine Wissenschaft im „Konsens“ ist für uns eine tote Wissenschaft. Die Lehrmeinung verkommt zu einer Dogmatik und Ideologie oder im extremsten Falle zu einer (Ersatz-)Religion. Wir scheinen davon bei „Klima“ nicht mehr weit entfernt: Die Öffentlichkeit und die Wissenschaft sollen die CO2-Thesen „glauben“, Wissenschaftler, die einer normalen wissenschaftlichen Aufgabe nachgehen, nämlich der konstanten Herausforderung der jeweils etablierten Lehrmeinung, werden als „Leugner“ diffamiert. Wer als Wissenschaftler echte Fakten und Daten „leugnet“, ist kein Wissenschaftler – der Vorwurf der „Leugnung“ ist letztlich ein Anschlag auf die Wissenschafts- und Forschungsfreiheit.

Aber egal ob man einen „Konsens“ überhaupt braucht: In jedem Falle gibt es einen Klima-„Konsens“ in der Wissenschaft nicht: Sowohl der geschickt über die Analyse von Abstrakts wissenschaftlicher Veröffentlichungen konstruierte Oreskes-Cook-Konsens (das ist der berühmte 97.1%, mittlerweile 99%-Konsens) ist substanzlos, als auch der eher uninspirierte „Konsens“ der mittels Suggestivfragen-„Surveys“ und geschickter Filterung daneben gestellt wurde.

Dass der IPCC als politisch kreiertes Gremium von selektiv berufenen Wissenschaftlern keinen „Konsens“ ermitteln kann, ist dagegen selbsterklärend. Wer trotzdem darauf besteht, dass der IPCC einen „Konsens“ repräsentiert erliegt dem nächsten Zirkelschluss, denn das explizite Mandat des IPCC war und ist es, den anthropogenen Klimawandel zu analysieren.[3]

Rolle der Industrie heillos überzogen (Behauptung systematischer Desinformationskampagnen)

Auch die angebliche jahrzehntelange Desinformationskampagne der Ölindustrie ist im Kern eine geschickte Konstruktion der gleichen Arbeitsgruppe, die auch Urheber des Klima-„Konsens“-Claims ist („#exxonknew“). Diese konstruierte Kampagne gab es so nicht.

Eine Zögerlichkeit und Unsicherheit von Industrie im Umgang mit NGO-Vorwürfen und Kampagnen und einem sich plötzlich massiv gegen sie wendenden gesellschaftlichen und politischen Klima und ein gerade in der Vergangenheit stark ausgeprägter Hang zur Intransparenz und Schönfärberei ist dagegen ein Charakteristikum von Industrie alter Prägung und triff sicherlich auch auf die „fossile“ Industrie der Vergangenheit zu. Leider kann dieser Mechanismus momentan auch wieder massiv bei der PV- und Windindustrie beobachtet werden. Moderne Industrie ist transparent, compliant, unterstützt und fördert gute Wissenschaft und hoffentlich auch vernünftige Regulatorik.

Was es aber auf jeden Fall gab, war der Club of Rome und sein sehr wirkmächtiger „Grenzen des Wachstums“-Angst-Untergangs-Modellierungen-Klassiker (Träger des Friedenspreises des Deutschen Buchhandels 1973).

Und es gab und gibt jahrzehntelangen, systematischen Aktivismus von Teilen der Wissenschaft (ein prominentes Beispiel sind die Professoren Schellnhuber und Rahmstorf vom PIK) und massive, mittlerweile gesamtgesellschaftliche kommunikative Propaganda, insbesondere von Seiten der Grünen/Linken und der Wind und Solarindustrie.

Es gibt anthropogene Einflüsse auf Wetter und Klima, die aber regional wirken

Es ist völlig unstrittig, dass es anthropogene, lokale, regionale Klima- und Wetteränderungen gibt und gab. Eine berühmtes Lernbeispiel ist die Katastrophe durch die Zerstörung des Aralsees (eines Binnenmeers) durch exzessive Wasserbewirtschaftung der anliegenden Wüstengebiete in Usbekistan (Baumwolle) und Kasachstan (Reis) in der Sowjetzeit, die auch zu einer massiven Änderung des regionalen Klimas führte.

Auch in Mitteleuropa haben wir durch massive Änderungen in Luftverschmutzung Einflüsse auf das Wetter: Waren die 50-80iger Jahren durch massive Smogereignisse gekennzeichnet, so hat die Reduzierung der Luftverschmutzung zu einem massiven Anstieg der Sonnenstunden geführt – dies in Kombination mit massiver Landnutzung (z.B. urbane Räume, Straßen- und Autobahninfrastruktur, aber neuerdings auch riesige Solarfelder) hat durchaus erheblichen Anteil daran, dass es in Deutschland in den letzten Jahren lokal wärmer geworden ist.

Wichtig ist auch der Urban Heat Island Effekt, der recht gut erforscht ist. Auf Grund des globalen Bevölkerungsanstiegs und der starken Urbanisierung kam es zu einem massiven Anstieg der Zahl lokaler Wärmeinseln in deren Zentren teilweise deutlich erhöhte Temperaturen herrschen. Da inzwischen ca. 50 % der heute mehr als 8 Mrd Menschen in urbanen Räumen leben, beeinflusst, bzw. erschwert dieser Effekt auch massiv die systematische Dokumentation der Temperatur in der nicht vom Menschen massiv überformten Natur der jeweiligen Region.

Einfluss auf regionales Wetter- und Klima durch massiven Windkraftaufbau?

Keine Energieerzeugung ist ohne Nebeneffekt („keine Wirkung ohne Nebenwirkung“) – es gibt deshalb keine „grüne“ Energie.

Auch die sehr flächenintensiven, ineffizienten PV- und Windkraftanlagen haben Einfluss auf die lokale Umgebung – im Falle von Wind ist dieser Effekt in Europa aus unserer Sicht noch völlig unterbewertet – das massive Ernten von Wind führt zu lokalen und regionalen Windabnahmen, deren Wetter- und Klimafolgen (z.B. lokale, regionale Dürre oder auch Starkregenereignisse) momentan noch viel zu wenig beachtet werden – aber mit relativ wenig Aufwand modelliert werden könnten.

Für ganz besonders Ängstliche: „Adaptation“ ist anderes Wort für klugen Katastrophenschutz

Für Staaten oder Staatengemeinschaften, die immer noch an ein Restrisiko „Erderwärmung“ „glauben“ empfiehlt sich die konsequente Anwendung der generische Strategie der Anpassung, die folgende fundamentale Aspekte aufweist: Adaptation ist (nach S. Koonin)

  • Effektiv (weil auf die jeweilige Situation -örtlich u zeitlich- angepasst)
  • Agnostisch (es ist egal ob Klimaänderung menschgemacht oder natürlich ist)
  • Proportional (z.B. höhere Dämme in konkret gefährdeten Gebieten)
  • Lokal
  • Autonom (es kann unabhängig von anderen Maßnahmen passieren)

Klimaforschung sollte sich fokussieren

Klimaforschung ist momentan massiv überfördert. Wirklich gute regionale und lokale Wettervorhersagemodelle sind wissenschaftlich und gesellschaftlich relevant, müssen aber alle natürlichen und anthropogenen Einflüsse abbilden (z.B. exzessiven Windausbau). Grundlagenforschung zu Klimafragen ist genauso interessant und relevant wie jede andere Grundlagenforschung.

Anhang:

Ein Bild, das Text, Screenshot, Diagramm, Kreis enthält. Automatisch generierte Beschreibung

Abb. 1: Qualitative Darstellen der Hauptprozesse der atmosphärischen Energiebilanz nach W.Soon

Abb. 2: CO2-Projektionen gemäß verschiedener Modellannahmen führen im Jahr 2100 zu völlig unterschiedlichen Ergebnissen.

Ein Bild, das Text, Zeitung, Papier, Zeitungspapier enthält. Automatisch generierte Beschreibung

Abb. 3: Meyers Konversationslexikon 4. Auflage, 1885-1890. 2. Band: Atlantis – Blatthornkäfer, S.12

  1. Dieses Papier ist ein forschungspolitisches Thesenpapier und verzichtet bewusst auf komplette Referenzen – alle Quellen sind für die Fachleute identifizierbar und überprüfbar
  2. Weitere Treibhausgase werden in dieser Diskussion als CO2-Äquivalent behandelt und nicht in Tiefe separat diskutiert.
  3. “The role of the IPCC is to assess on a comprehensive, objective, open and transparent basis the scientific, technical and socio-economic information relevant to understanding the scientific basis of risk of human-induced climate change, its potential impacts and options for adaptation and mitigation.” (PRINCIPLES GOVERNING IPCC WORK, approved 1998, last amended 2013)