Anmerkungen zu Brüssel vom ehemaligen Ministerpräsidenten und Präsidenten der Tschechischen Republik Prof. Dr. Vaclav Klaus

Vorbemerkung der EIKE-Redaktion: EIKE ist für Klima und Energie zuständig, aber auch für politische Kritik und Diskussionen zu diesen Themen. Im folgenden Vortrag von Prof. Dr. Vaclav Klaus, ehemaliger Ministerpräsident und Präsident der Tschechischen Republik (hier), gibt es keine Beschränkung auf EIKE-Themen. Dazu hätten wir ganze Passagen aus seiner Rede herausschneiden müssten und die Rede wäre unleserlich geworden.  Wir machen lediglich darauf aufmerksam, dass diejenigenTeile der Rede von V. Klaus, die nicht EIKE-Themen sind, hier weder kommentiert, noch thematisiert werden. Formal maßgebend für diese EIKE-News sind die Teile der Rede, die direkt oder indirekt zur Klima- und Energiepolitik der EU gehören wie „Klimaschutz“, „green Deal“, CO2-Bepreisung, Abschaffung des Verbrenner-Motors und weitere unsere Industrie vernichtenden Maßnahmen. EIKE lehnt bekanntlich diese EU-Politik ab, weil sie ideologisch, aber nicht sachlich ist und Deutschland schadet.

Die Rede von Vaclav Klaus ist in Englisch und wurde von uns ins Deutsche übersetzt. Einige EIKE-Mitglieder sind mit Vaclav Klaus persönlich bekannt, so dass auch EIKE immer wieder einmal seine Reden hier publizieren kann. Diesmal ist es seine Rede im MCC Brussels (hier). Sie hat den Arbeitstitel The Battle for the Soul of Europe.

 

Anmerkungen zu Brüssel MCC1)

Vaclav Klaus

3. Dezember 2025

 

Sehr geehrte Damen und Herren,

vielen Dank für die Einladung zu dieser wichtigen Veranstaltung und für die Möglichkeit, hier zu sprechen. Hier in Brüssel. Ich habe etwas Stress den Namen dieser Stadt zu nennen. Für die meisten von Ihnen ist es wahrscheinlich ganz normal, nach Brüssel zu kommen, aber für mich ist das nicht so. Natürlich habe ich diese Stadt während meiner Zeit als Ministerpräsident und Präsident der Tschechischen Republik oft besucht, aber das ist vorbei. In den letzten mehr als zehn Jahren war ich nur einmal in Brüssel. Die Stadt ist nicht mehr die Stadt meiner Träume. Sie hat sich in vielerlei Hinsicht stark verändert seit 1962, als ich hier zufällig an einem Basketballturnier teilgenommen habe.

Es ist neun Jahre her, im Jahr 2016, seit ich das letzte Mal hier war. Ich kam hierher, um die flämische Version meines Buches „Europe All Inclusive: A Brief Guide to Understanding the Current Migration Crisis” ( Europa All Inclusive: Ein kurzer Leitfaden zum Verständnis der aktuellen Migrationskrise) vorzustellen. Dieses Buch kritisierte scharf die Zustimmung Westeuropas (und der EU) zur Masseneinwanderung nach Europa, kritisierte Angela Merkels Slogan „Wir schaffen das” und kritisierte die weit verbreitete europäische Illusion, dass es normal sei zu migrieren und dass jeder das Recht dazu habe. Diese Idee ist eine direkte Ablehnung des Konzepts des Nationalstaates. Wir sehen die Folgen an vielen Orten in Europa, Großbritannien ist in dieser Hinsicht wahrscheinlich führend.

Ich habe wiederholt argumentiert, dass wir die Gründe für Migration falsch interpretieren. Die europäische Nachfrage nach Migranten war als Quelle der Migration viel wichtiger als ihr Angebot. Nicht umgekehrt, wie es normalerweise behauptet wird. Ich erinnere mich, dass das belgische öffentlich-rechtliche Fernsehen während dieses Besuchs mir und meinen Ansichten gegenüber äußerst aggressiv war. Ich habe fast keine ähnlichen Erfahrungen gemacht – ehemalige Staatschefs genießen im Ausland normalerweise zumindest einen gewissen grundlegenden Respekt. Zu Hause ist das natürlich etwas anderes.

Seit den 1990er Jahren ist Brüssel zu einem Inbegriff all dessen geworden, womit ein europäischer Demokrat nicht einverstanden sein kann. Ich bin nicht einverstanden mit der Unterdrückung der Nationalstaaten und mit der Verherrlichung supranationaler Institutionen. Ich bin nicht einverstanden mit der Blockade elementarer Prinzipien der Marktwirtschaft und mit der Förderung lähmender Regulierung – einer Regulierung, die uns, die wir den Kommunismus erlebt haben, immer mehr an die alte zentrale Planwirtschaft erinnert. Politische Korrektheit und die fortwährende Bevormundung durch mächtige Brüsseler Eliten, die ohne elementare Kontrollmechanismen regieren, sind ebenso inakzeptabel. Diese Kontrollmechanismen sind für das Funktionieren der Demokratie unverzichtbar, existieren aber in der EU nicht.

Einige von uns haben ihr Leben dem Kampf gegen solche oder ähnliche Systeme gewidmet, die – wie viele Menschen jetzt verspätet zu verstehen beginnen – nicht nur mit dem offensichtlich unterdrückerischen und tragisch funktionierenden Kommunismus in Verbindung stehen. Wie wir sehen, stehen sie auch mit ähnlichen Systemen in Verbindung, die auf anderen kollektivistischen Ideologien basieren.

Ich entschuldige mich für diese schnelle und nur proklamatorische Zusammenfassung meiner Position, aber es ist unmöglich, diese Themen in einer kurzen Konferenzrede verständlich zu diskutieren.

Lassen Sie mich daher zwei Teilthemen als Beispiele für das aufgreifen, was ich für relevant halte.

Sie haben beschlossen, die heutige Konferenz „Kampf um die Seele Europas” zu nennen. Ist das ein korrekter und angemessener Titel? Ich glaube nicht. Es handelt sich um ein Thema, das ich vor sechzehn Jahren mit dem angesehenen Wiener Kardinal Christoph Schönborn bei einem Diskussionsforum in der bayerischen Stadt Passau erörtert habe. Die damals aufgeworfene Frage lautete: „Gibt es eine Seele Europas?” oder, in milderer Form, „Gibt es eine gemeinsame Idee von Europa?” Meine dortigen Ausführungen finden Sie auf meiner Website (auf Deutsch)2).

Die Europäer, die naiven Befürworter einer politischen Vereinigung Europas, die die Debatte in Passau organisiert hatten, suchten nach einem Konzept, das einen positiven „Europa-integrierenden Effekt” haben könnte. Ich war anderer Meinung. Wie ich damals sagte: „Europa hat keine gemeinsame Idee, es kann keine haben und es braucht auch keine.“ Stattdessen schlug ich vor, nach einem authentischen gemeinsamen Nenner zu suchen, den ich in der Freiheit sehe, etwas, das wirklich zu Europa gehört. Aber Freiheit ist nicht die Seele Europas. Freiheit ist eine soziale oder besser gesagt gesellschaftliche Vereinbarung, in der ein einzelner Mann (oder eine einzelne Frau) nicht vom Staat kontrolliert oder gelenkt wird.

Für Freiheit zu kämpfen bedeutet nicht, für eine pan-kontinentale Gemeinschaft oder für einen kulturell völlig homogenen Raum zu kämpfen. Europa ist nicht homogen. Wir sollten auch nicht so tun, als gäbe es eine gemeinsame Geschichte Europas (die es natürlich nicht gibt). Und wir sollten nicht künstlich eine „Seele Europas” erfinden. Solche Bemühungen können nur zur Verfälschung der Geschichte und der heutigen Realität führen. Unser Kontinent hat weder eine gemeinsame Idee noch eine Seele. Die Existenz einiger allgemein akzeptierter Werte ist wichtig, schafft aber keine Seele.

Ich betone immer wieder, dass die unbestreitbare Existenz eines europäischen Zivilisationsraums etwas völlig anderes ist als das künstliche Konstrukt namens Europäische Union. Wir sollten diese beiden Dinge nicht miteinander vermischen.

Ich habe die künstliche Intelligenz gefragt, ob ich jemals den Begriff „Seele Europas“ verwendet habe. Die Antwort war nein. Er (oder sie) sagte auch, dass ich den Begriff „kollektive Psyche Europas“ verwendet habe. Aber ich habe ihn ironisch verwendet, als etwas, das von den europäistischen Eliten in ihren Bemühungen zur Förderung des sehr fragwürdigen Projekts der politischen Vereinigung Europas propagiert wird.

Betrachten wir die EU einmal pragmatisch und realistisch. Es handelt sich um eine Gruppierung von Ländern, die einige gemeinsame Interessen haben und diese gemeinsam verfolgen wollen. Die Ökonomen würden von sogenannten öffentlichen Gütern auf kontinentaler Ebene sprechen, aber sie wissen, dass es davon nicht viele gibt.

Lassen Sie mich nun zu meinem zweiten Thema kommen. Ich nehme an einem europäischen Forum nach dem anderen teil. Die europäische Gesellschaft ist wohlhabend genug, um solche Zusammenkünfte großzügig zu finanzieren. Eine der prominenten Persönlichkeiten bei solchen Treffen ist Mario Draghi (aber wir könnten auch einige andere bekannte Konferenzredner nennen). Seine jüngste Rede in Rimini hat mich dazu veranlasst, ihn – auf einem Forum in Lugano – als den Gorbatschow der Europäischen Union von Ursula von der Leyen zu bezeichnen. Er spricht wie ein typischer „Perestroika“-Mann, falls sich noch jemand an diesen Begriff erinnert. Draghi möchte die Grundlage der aktuellen EU-Vereinbarungen intakt halten. Gorbatschow wollte ebenfalls den Kommunismus bewahren, strebte jedoch an, ihn – technokratisch – effizienter zu gestalten.

Nach dem Fall des Kommunismus lehnten wir – in den meisten mittel- und osteuropäischen Ländern – die Idee der Perestroika, diese Form eines „dritten Weges”, ab und erklärten stattdessen, dass wir den Kapitalismus, den ersten Weg, wollten. Ich möchte hier kein Geschichtsseminar halten, sondern spreche darüber, weil ich überzeugt bin, dass wir – in ähnlicher Weise – jetzt einen systemischen Wandel in ganz Europa brauchen.

Die Märkte sind nicht frei. Die Märkte in Europa wurden in den letzten Jahrzehnten so stark besteuert, reguliert und unterdrückt, dass wir – statt einer Informationsrevolution oder Digitalisierung – eine Rückkehr zu freien Märkten brauchen. Digitalisierung ist nicht das Gegenteil eines überregulierten Marktes, sondern eine Methode, um Regulierung einfacher und effizienter zu gestalten. Das Ziel der politischen Eliten ist es, uns effektiver zu regulieren. Heute befinden sich die Volkswirtschaften der EU-Länder in einer untergeordneten Position. Die Wirtschaft wird wieder einmal von der Politik diktiert.

Der Green Deal ist die offensichtlichste Verkörperung der grünen Politik, und trotz aller Kritik von vielen vernünftigen Gegnern gerät die EU immer tiefer in diese Falle, in diesen unverantwortlichen Irrtum. Um ihn zu beseitigen, brauchen wir die freie Meinungsäußerung als einzigen Weg zu einer grundlegenden Veränderung, nicht nur zu einer weiteren Perestroika.

Ich bin überzeugt, dass die MCC-Konferenz hier in Brüssel eine seltene Veranstaltung ist, die einen freien Meinungsaustausch ermöglicht. Ich danke Ihnen für die Einladung, hier zu sprechen.

 

  • 1) “Battle for the Soul of Europe”, MCC Brussels Conference, December 3, 2025, Brussels
  • 2) Notizen für Passau: Gibt es eine gemeinsame Idee Europas? Passauer Gespräche, Mediazentrum der Verlagsgruppe Passau, Passau, 16. September 2009; https://www.klaus.cz/clanky/1247

 




Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert

Ende September 2025 erhielt ich die Anfrage vom Kontrafunk (hier), ob ich nicht einmal in seinem Format „Vorlesung“ über Strom vortragen könne – Vorlesungsdauer eine Stunde. Ich sagte zu, weil diese Dauer ausreicht, um neben Allgemeinem zur elektrischen Energie auch detailliert auf die Probleme der deutschen Energiewende einzugehen. Die deutsche Energiewende passte zum Thema wie die „Faust aufs Auge“, denn mit Windrädern und Photovoltaik als ihren Grundpfeilern wird ausschließlich Strom erzeugt. Und dass dies nicht unproblematisch ist, weiß heute jedes Kind. Die angeblichen Vorzüge der Energiewende – propagiert von ihren Profiteuren und dem ÖRR – hat zu Verunsicherung in der Bevölkerung geführt. Vielleicht sei ja doch etwas dran, ist oft zu hören.  Mein Ziel war daher: Einmal den ausführlichen physikalischen Nachweis zu erbringen, dass die zwei Fundamentalmängel der deutschen Energiewende ihre Anwendung in einem Industrieland ausschließen. Oder genauer: Die deutsche Energiewende zu analysieren und zu belegen, was sie wirklich ist, nämlich degrowth, Rückkehr ins energetische Mittelalter und Nirwana jeder Vernunft.

Die Vorlesung erhielt vom Kontrafunk den Titel „Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert“. Die Vorlesung kann unter dem Kontrafunk-Link

https://kontrafunk.radio/de/sendung-nachhoeren/kultur-und-wissenschaft/kontrafunkkolleg/audimax-horst-joachim-luedecke-kampf-gegen-die-physik-warum-die-deutsche-energiewende-scheitert

frei angehört werden. Nachfolgend ist auch ihr Text angegeben, um bei Bedarf interessierende Einzelheiten nachlesen zu können. Einziger Unterschied zur gesprochenen Vorlesung im Kontrafunk sind dabei einige Internet-Links zu relevanten Quellen, die im Text anklickbar sind, verbal  dagegen beschrieben werden mussten, damit Zuhörer sie im Browser bei Bedarf googeln konnten.

 

Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert

Horst-Joachim Lüdecke

24. Oktober 2025

Der moderne Mensch braucht immer mehr Energie. Kostengünstige Energie und insbesondere preiswerte elektrische Energie sind die wichtigsten Aktivposten einer erfolgreichen Industrienation.  Bei zu hohen Energiepreisen verliert ein Industrieland seine Konkurrenzfähigkeit und steigt wirtschaftlich ab. Elektrische Energie ist zumindest in Industrieländern zur weltweit wichtigsten Energieform geworden.

Dies wird einem erst richtig bewusst, wenn elektrische Energie durch einen Blackout plötzlich fehlt. Während etwa Unterbrechungen der Benzinversorgung nur teure Hindernisse für den Verkehr, die Produktion und das Geschäftsleben sind, bricht dagegen bei einem Blackout plötzlich unsere gesamte technische Lebensgrundlage weg. Kassen und Kühlanlagen in Supermärkten, Licht, Telefon, Radio, Fernsehen, Handy, Bahn und Straßenbahn, kurz alle mit Strom betriebene Technik ist nicht mehr nutzbar. Bisherige Erfahrungen zeigen, dass nach wenigen Tagen Blackout die Supermärkte geplündert werden. Die Ordnungskräfte sind ohne Strom machtlos, nach mehr als einer Woche herrscht gefährliches Chaos. Notstromaggregate in Krankenhäusern haben, wenn überhaupt, nur für die gesetzlich vorgeschriebenen vierundzwanzig Stunden Sprit.

Trotz des höchsten Stellenwertes von elektrischer Energie in Industrienationen ist ihr Anteil vergleichsweise klein im Vergleich mit allen anderen genutzten Energieformen wie im Wesentlichen von Wärme aus Verbrennung von Kohle, Gas und Erdöl. Weltweit machte Strom im Jahr 2024 je nach Datenquelle zwischen 12 und 17 Prozent der weltweit genutzten Energie aus, in Deutschland waren es genau 15 Prozent. Die weit vorwiegenden Energieträger sind sowohl weltweit als auch in Deutschland immer noch Kohle, Gas und Erdöl. Die hierzulande so propagierten Methoden der Windräder und Photovoltaik zur Stromerzeugung machen weltweit nur jeweils 1 Prozent der Gesamtenergie aus und spielen praktisch keine Rolle. Auch der weltweite Anteil der Kernenergie von etwa 4,5 Prozent ist relativ klein. Die deutschen Zahlen für Wind und Sonne sind zwar etwas höher, aber ebenfalls unbedeutend. Wie kann das aber sein, denn die Medien nennen doch beeindruckend hohe Zahlen? Dieser Widerspruch wird hier später noch aufgeklärt.

Woher kommt eigentlich die von uns genutzte Energie? Energie kann schließlich weder erzeugt noch vernichtet werden. Sie steckt in natürlichen Quellen und wird aus der Umwelt bezogen wie aus den fossilen Energiequellen Kohle, Erdöl, Erdgas sowie aus Uran ferner aus Sonnenstrahlung, Wind, Wasserkraft und Biomasse. Die aus diesen Quellen insgesamt gewonnene Energie eines Landes ist seine Primärenergie. Endenergie sind die umgewandelten Energie-Träger wie Kraftstoffe, Heizöl, heißes Wasser als Fernwärme und so weiter. Nutzenergie ist das, was vom Verbraucher verwendet wird, hier insbesondere die elektrische Energie.

Die technischen und physikalischen Eigenschaften von elektrischer Energie, ihre Besonderheiten und die Gründe ihres höchsten Stellenwerts sind die Stationen der Vorlesung. So werden insbesondere die Vorteile von elektrischer Energie gegenüber anderen Energieformen behandelt. Weitere Stationen sind „Die Physik und Technik von elektrischer Energie in Erzeugung, Verbrauch und Speicherung“. Die deutsche Energiewende basiert im wesentlichen auf den im großen Maßstab eingesetzten neuen Methoden der Windräder und Photovoltaik, die ausschließlich elektrische Energie erzeugen. Als Folge dieser neuen Energiepolitik hat Deutschland inzwischen weltweit die höchsten Strompreise. Daher behandelt die letzte Vorlesungs-Station „die Besonderheiten der Strom-Erzeugung und -nutzung in Deutschland.“ Es wird dort auch auf die folgende Kernfrage unserer Stromversorgung eingegangen, die allen technisch besser informierten gewissenhaften Zeitgenossen den Schlaf raubt: Wie weit können überhaupt unsere bisherigen Grundlastkraftwerke mit Kohle und Gas durch die neuen Methoden ersetzt werden? Ferner wird auf die Frage eingegangen, ob das komplette Umkrempeln unserer ehemals bestens funktionierenden Stromwirtschaft, das rücksichtslos gegen unsere überlebenswichtige energieintensive Industrie durchgezogen wird, überhaupt noch vernünftig ist und das Prinzip der Verhältnismäßigkeit einhält.

Ihnen ist inzwischen vielleicht aufgefallen, dass sowohl von elektrischer Energie als auch von elektrischem Strom oder kurz Strom die Rede war, so dass vielleicht der Eindruck entstand, Strom sei mit elektrischer Energie identisch. Das ist aber nicht der Fall. Aber welche Bezeichnungen sind dann korrekt? Die physikalischen Begriffe der Elektrotechnik sind zwar eindeutig definiert und unverwechselbar, nur kümmert sich die Umgangssprache oft nicht darum. So sind zum Beispiel die Bezeichnungen Strommenge oder Stromverbrauch physikalisch unsinnig. Natürlich ist mit Strom fast immer die elektrische Energie gemeint. Weil „elektrische Energie“ aber zu sperrig ist, machen Umgangssprache und sogar Stadtwerke auf der Rechnung einfach Strom daraus. Man sollte hier nachsichtig sein. Die korrekte Ausdrucksweise wird in dieser Vorlesung eingehalten, wenn sie für das Verständnis wichtig ist. Ansonsten wird aber auch hier dem üblichen und nicht immer korrekten Sprachgebrauch gefolgt. Außerdem wissen Sie dann schon aus der Vorlesung, was gemeint ist.

Mit den bitte nicht zu verwechselnden physikalischen Größen Energie und Leistung soll der folgende  kurze Überblick beginnen: „Leistung ist Energie-pro-Zeit“, umgekehrt wird daraus „Energie ist Leistung-mal-Zeit“. Dieser grundlegende Zusammenhang wird uns immer wieder begegnen.  Was ist jetzt aber elektrischer Strom oder kurz Strom? Er ist eine Flussgröße und keine Energiegröße. Strom ist fließende elektrische Ladung, meist von negativ geladenen Elektronen durch einen Stromleiter. Der Elektronenfluss wird von einem elektrischen Potentialunterschied angetrieben wie aus einer Batterie oder einem elektrischen Generator. Diese Bewegung von Elektronen kann nur in Stromleitern erfolgen, das sind vorwiegend geeignete Metalle, meistens Kupfer aber auch Silber, Gold und Aluminium, wobei Silber und Gold sogar noch besser als Kupfer leiten. In metallischen Stromleitern sind die äußeren Elektronen ihrer Atome relativ frei beweglich, so dass sie sich in Richtung eines elektrischen Potentialgefälles bewegen können.

Die Gravitation spielt beim Strom keine Rolle. Es ist daher auch keine zusätzliche Energie aufzuwenden wenn eine elektrische Leitung ansteigt – im Gegensatz etwa zum Energieaufwand beim wiederholten Transport von Kohle von einem tiefgelegenen zu einem höhergelegenen Ort, den man dann als  zusätzlichen Kostenfaktor ansehen könnte. Aber auch Wasser, das Chloride, Sulfate oder Carbonate enthält, leitet Strom. Die Strömungsgeschwindigkeit der Elektronen in einem Stromleiter beträgt erstaunlicherweise nur wenige Millimeter pro Sekunde, auch bei höheren Stromstärken, weil dann auch entsprechend größere Leiterdurchschnitte verwendet werden. Im Gegensatz zu den fast kriechenden Elektronen verbreiten sich aber Änderungen wie zum Beispiel das Absperren des Stroms oder ein elektromagnetischer Impuls mit bis 90 Prozent der Lichtgeschwindigkeit von 300.000 km/s im Stromleiter. Strom als fließende Elektronen erzeugt im Leiter stets ein wenig Reibungswärme, so dass es selbst bei günstigsten Höchstspannungs-Gleichstrom-Übertragungen in Freileitungen zu Verlusten von etwa 3-4 Prozent pro 1000 km Länge kommt. Verlustfreie elektrische Leitfähigkeit als sogenannte Supraleitung gibt es zwar, aber nur in speziellen Metall-Legierungen bei ausreichender Kühlung. In der Praxis werden supraleitende Magnetspulen zum Beispiel im Teilchenbeschleuniger der Genfer Großforschungseinrichtung CERN eingesetzt, wobei bis minus 271 Grad Celsius mit superfluidem Helium gekühlt wird. Das sind nur 2 Grad über dem absoluten Temperaturnullpunkt.

Nun zu den physikalischen Einheiten, der uns hier interessierenden elektrischen Größen. Für die Maßeinheiten werden die Namen maßgeblicher Entdecker von physikalischen Gesetzen genommen, der Anfangsbuchstabe ist dann die Kurzbezeichnung der Maßeinheit. So in der Elektrotechnik für den Strom das A für André Ampere, für die elektrische Spannung das V für Alessandro Volta, und für die elektrische Leistung das W für James Watt. Energie hat die Maßeinheit J für James Joule. Die Sekunde ist ein kleines s zur besseren Unterscheidung.

Fangen wir mit Strom als Fluss von elektrischer Ladung an. Alle Flussgrößen sind Quotienten mit der Zeit im Nenner. Mit der Maßeinheit Coulomb für die elektrische Ladung ist Coulomb-pro-Sekunde die Maßeinheit von Stromstärke als das Ampere. Die Maßeinheit der elektrischen Spannung ist das Volt. Die Leistung Joule-durch-Sekunde ist in der Elektrotechnik kürzer das identische Watt. Und weil Energie Leistung-mal-Zeit ist, wird die elektrische Energie zu Watt-mal-Sekunde oder kurz Wattsekunde, praktischer meist Kilowattstunde. Eine Wattsekunde ist identisch mit einem Joule. Kilowattstunden finden Sie auf Ihrer Stromrechnung. Man zahlt für die verbrauchte Menge elektrischer Energie und nicht oder höchstens nur einmal für die elektrische Leistung, die nur zur Verfügung steht. Beim Autokauf ist es ähnlich. Im Kaufpreis ist die Leistung des Motors enthalten. Nur für die verbrauchte Energie beim Fahren ist jedesmal beim tanken zu zahlen.

Volt, Ampere und Watt sind durch den einfachen Zusammenhang Volt-mal-Ampere ist Watt miteinander verknüpft. Er kommt hier später immer mal wieder vor. Eine erste Begegnung mit diesem Zusammenhang wären vielleicht die dicken Kabel an der Autobatterie, wobei die Frage aufkommen könnte, warum diese Kabel bei mickrigen 12 Volt der Batterie so dick sind. Die Autobatterie muss aber nicht nur beim Starten des Anlassers ordentlich Leistung in Watt aufbringen. Das kann sie aber bei den wenigen 12 Volt wegen „Volt-mal-Ampere gleich Watt“ nur mit ausreichend viel Strom und der braucht eben dicke Kabel.

Noch weitere Eigenschaften von Strom sind interessant: Eine stromdurchflossene Leitung enthält praktisch keine Energie und sei sie noch so groß wie vielleicht eine 600 Kilometer lange 380.000 Volt Freileitung mit 700 Megawatt. Die elektrische Leistung eines Strom-Erzeugers und seine gelieferte Energie entsprechen ferner genau denen des Verbrauchers, von den geringen Wärmeverlusten der Stromleitung abgesehen. Um in großen Stromnetzen dieses Gleichgewicht von jetzt vielen Erzeugern und noch zahlreicheren Verbrauchern bei sich ändernden Verbrauchswerten einzuhalten, sind Erzeuger erforderlich, die sich problemlos den Verbrauchswerten anpassen können. Das war im ehemalig bestens funktionierenden Stromnetz Deutschlands bis etwa zum Ende des zwanzigsten Jahrhunderts auch der Fall. Mit der Energiewende und ihren jetzt bevorzugten Methoden der Stromerzeugung aus Wind und Sonne entstand dagegen eine bis jetzt ungelöste und hochbrisante Problematik bei der Aufrechterhaltung dieses unabdingbaren Gleichgewichts. Darauf wird hier später noch im Detail eingegangen.

Die Geschichte von Strom und Elektrizität begann im antiken Griechenland, als die elektrischen Eigenschaften von Bernstein durch Reibung entdeckt wurden. Die späteren Entdecker-Namen reichen, um nur wenige zu nennen, von William Gilbert über Benjamin Franklin, Alessandro Volta, André Ampere bis hin zu Nicola Tesla. Erst der Schottische Physiker James Clerk Maxwell erreichte einen endgültigen physikalischen Abschluss mit seinen berühmten elektromagnetischen Feldgleichungen, die man später auf vier Grundgleichungen komprimierte. Die Maxwell-Gleichungen beschreiben vollständig alle Phänomene elektromagnetischer Felder in einem System von vier linearen partiellen Differentialgleichungen erster Ordnung. Später kam als Ergänzung die davon unabhängige Lorentzkraft hinzu, die ein geladenes Teilchen in einem elektromagnetischen Feld erfährt. Diese Bewegung von geladenen Teilchen konnte erst nach Maxwell mit Hilfe der speziellen Relativitätstheorie von Albert Einstein genau beschrieben werden.

Die Maxwell-Gleichungen sind nicht aus noch tieferen physikalischen Gesetzen herleitbar. Sie sind vielmehr die geniale Zusammenfassung aller vor Maxwell entdeckten physikalischen Gesetze von Elektrizität und Elektromagnetismus. Solch eine grundsätzlich nicht mehr zu verbessernde Zusammenstellung wird als ein physikalisches Grundsystem bezeichnet. Grundsysteme prägen unser Weltverständnis. In den Maxwell-Gleichungen ist der gesamte Elektromagnetismus sowie alles von Wellenausbreitung, über Antennen, elektrische Schaltkreise, bis hin zu Elektro-Motoren enthalten, einfach alles. Die Maxwell-Gleichungen sind unverändert auch ein wichtiger Baustein der modernsten physikalischen Feldtheorien wie der Quantenelektrodynamik.

Natürlich ist es in der elektrotechnischen Praxis mit den Maxwell-Gleichungen allein noch nicht getan, denn den konkreten Anwendungen sind noch Materialgleichungen hinzuzufügen. So ist zum Beispiel der Widerstandsfaktor im Ohmschen Gesetz vom Material abhängig. Schließlich werden Lösungen der Maxwell-Gleichungen benötigt, wenn beispielsweise der optimale Aufbau eines neu konstruierten Elektromotors berechnet werden soll. Analytische Lösungen sind hier aber nur in einfachsten Spezialfällen möglich. Die Lösungen der Maxwell-Gleichungen zusammen mit allen Materialgleichungen können nur numerisch aber dennoch beliebig genau mit dem Computer berechnet werden. Dabei wird das stetige System der Maxwell-Gleichungen in ein diskretes System umgewandelt. Aus Differentialquotienten werden Differenzenquotienten.

Bei der täglichen Nutzung von Strom wird man mit Gleichstrom und Wechselstrom bekannt. Alle mit Batterien betriebenen Geräte wie zum Beispiel Heckenscheren, die ohne lästige Stromkabel auskommen, werden von Gleichstrom-Motoren angetrieben. Im Gegensatz dazu wird bei uns die Geschirrspülmaschine oder der Haarföhn mit 230 Volt Wechselstrommotoren betrieben. Warum gibt es die Trennung in Gleichstrom und Wechselstrom überhaupt?

Ursprung der Trennung war um 1890 ein technisch-wirtschaftlicher Stromkrieg zwischen Thomas Edison und George Westinghouse um die geeignete Technik für Beleuchtung. Dabei ging es um viel Geld von Marktanteilen. Edison war für Gleichstrom, Westinghouse für Wechselstrom. Westinghouse gewann diesen Krieg. Bei Gleichstrom bleibt die Stromrichtung konstant, bei Wechselstrom ändert sie sich periodisch. Weltweit ist die Wechselstromfrequenz 50 Hertz, also 50 Wechsel pro Sekunde. 50 Hertz wurden in Europa und dem größten Teil der Welt als bester Kompromiss für alle Anwendungen von Wechselstrom angesehen. Die ebenfalls noch verwendeten 60 Hertz spielen – außer in den USA – nur noch eine untergeordnete Rolle.

Westinghouse setzte sich durch, weil der maßgebende Vorteil von Wechselstrom gegenüber Gleichstrom die Möglichkeit ist, Spannung mit dem relativ einfachen elektrischen Bauelement „Transformator“ auf höhere oder tiefere Spannungen zu transformieren. An der Leistung ändert sich dabei nichts, von Wärmeverlusten abgesehen. Ein Transformator ist im Prinzip ein U-förmiger Eisenkern mit gegenüberliegenden Spulen aus isoliertem Kupferdraht. Damit kann die Spannung von Freileitungen beliebig erhöht werden wie zum Beispiel hierzulande maximal bis auf 380.000 Volt, um die Stromstärken und damit die Kabelquerschnitte für die hohen Leistungen solcher Freileitungen noch wirtschaftlich klein zu halten. Hier begegnet uns wieder die Beziehung Volt-mal-Ampere ist Watt – je höher die Spannung, umso weniger Ampere und Kupfer sind nötig.

Der Transformator und damit das kaufmännische weniger Kupfer bei längeren Stromleitungen war der entscheidende Vorteil, mit dem Westinghouse seinen Punktsieg errang.  Bei Verwendung von Gleichstrom ist es dagegen vorteilhaft, dass es keine störende Blindleistung gibt. Wegen Abwesenheit von Blindleistung wird Gleichstrom heute meist bei Energieübertragung durch Seekabel verwendet.

Nach diesem Überblick soll nun die Energie behandelt werden, insbesondere die elektrische Energie. Alle Energie, die auf der Erde vorzufinden ist, ist entweder umgewandelte Sonnenenergie, die in fossilen Brennstoffen schlummert oder Kernenergie aus Kernspaltung. Zur Kernenergie und ihren Gegnern sei eine kurze Anmerkung erlaubt: Die Kernenergie ist keine Erfindung des Leibhaftigen, sondern völlig natürlich und wurde vom modernen Menschen nur wiederentdeckt. Im afrikanischen Gabun fand man fünfzehn natürliche Kernreaktoren, die durch eine Verkettung von ganz natürlichen Umständen kritisch wurden, über eine halbe Millionen Jahre aktiv waren, insgesamt einige hundert Terawattstunden Wärme erzeugten und vor bereits 1,5 Milliarden Jahren erloschen sind.  Zurück zu den natürlichen Umgebungsenergien! Zu denen zählt die Strahlungsenergie der Sonne, die ebenfalls aus Kernenergie stammt, hier aber aus Kernfusion. Ferner gibt es noch die Bewegungsenergien von Wind, Meeresströmungen und Gezeiten, die aus der Bewegungsenergie unseres planetarischen Systems Erde und Mond kommen.

Gezeiten, Meeresströmungen und Wind erzeugen Reibungswärme, die letztlich wieder als Strahlung ins Weltall verschwindet. Die Rotationsenergie der Erde wird durch diese Reibungsverluste verringert und als Folge davon wird die Umdrehungsdauer der Erde, also die Tagesdauer, immer länger. Zudem entfernt sich dadurch auch der Mond immer weiter von der Erde und zwar um 3,83 Zentimeter pro Jahr. Die Tageslänge erhöht sich zwar nur um etwa 20 Sekunden über eine Million Jahre, aber das addiert sich mit der Zeit. Seit Aussterben der Dinosaurier vor 65 Millionen Jahren ist unsere Tageslänge immerhin schon 22 Minuten größer geworden.

Energie kann weder erzeugt noch vernichtet, sondern nur von einer Energieform in eine andere umgewandelt werden. Dabei entstehen stets Verluste, in aller Regel als Wärme wie zum Beispiel in Maschinen mit bewegten Teilen als Reibungswärme. Wenn allerdings Wärme in eine andere Energieform wie zum Beispiel in elektrische Energie oder mechanische Energie umgewandelt werden soll, geht das in größerem Maßstab nur mit Wärmekraftmaschinen, wobei physikalisch grundsätzliche Verluste unvermeidbar sind. Der französische Physiker Sadi Carnot hat die physikalische Gesetzmäßigkeit von Wärmekraftmaschinen um 1824 mit seinem berühmten Carnot-Prozess entdeckt und damit ungewollt gleich auch noch die neue physikalische Disziplin Thermodynamik gegründet. Das Prinzip des Carnot-Prozesses ist eine von mehreren Formulierungen des zweiten Hauptsatzes der Wärmelehre und gehört zu einem für die ingenieurtechnische Anwendung wichtigsten Prinzip überhaupt.

Jede Wärmekraftmaschine hat ein Wärmereservoir hoher Temperatur und eines mit tieferer Temperatur. In größeren Anwendungen wird dabei meist Gas oder Wasserdampf genutzt. In einem Gas-und-Dampfkraftwerk, kurz GUD, wird beides kombiniert, wobei übrigens mit dem Begriff Kraftwerk immer die Erzeugung von Strom gemeint ist. Im GUD erzeugen die noch heißen Gase am Ausgang der Gasturbine Dampf für eine parallellaufende Dampfturbine.

Nun zum zweiten Hauptsatz der Thermodynamik: Er besagt, dass in Wärmekraftmaschinen ein theoretischer Bestwirkungsgrad nicht überschritten werden kann. Man erhält seinen Wert, indem man die Temperaturdifferenz der beiden Reservoire durch die Temperatur des wärmeren Reservoirs teilt. Dies zeigt schon, dass für gute Wirkungsgrade die Temperaturdifferenz möglichst hoch sein sollte. Daher vermutet man richtig, dass beispielsweise elektrische Energie aus deutscher Erdwärme dem Verfahren von Kohleverbrennung hoffnungslos unterlegen ist. In Island, wo sich heiße Erdzonen extrem nahe unter der Oberfläche befinden, ist das aber anders. Die elektrische Energie von Island kommt tatsächlich zu 29 Prozent aus Geothermie, die restlichen 71 Prozent aus Wasserkraft – um dieses Geschenk der Natur ist Island zu beneiden.

Zurück zu Carnot. Der Wirkungsgrad eines Benzinmotors ist seine mechanische Antriebsenergie geteilt durch die Verbrennungswärme des Benzins. Er beträgt wegen des Carnot-Prozesses nur ungefähr 0,3 oder 30 Prozent – beim Diesel geht es herauf bis 45 Prozent. Das theoretische Carnot-Prinzip geht über die spezielle Wärmekraftmaschine weit hinaus, denn der zweite Hauptsatz der Thermodynamik besagt auch noch, dass Wärme durch überhaupt keine periodisch arbeitende Maschine vollständig in Arbeit umgesetzt werden kann, und sei sie noch so raffiniert gebaut. Auch wir Menschen unterliegen dem zweiten Hauptsatz der Thermodynamik, denn wenn wir Körperenergie einsetzen, wird es uns warm. Auch unsere Erde muss dem zweiten Hauptsatz gehorchen. Hier ist das warme Reservoir die Sonne und das kalte Reservoir der dunkle Weltraum. Weitere, dem zweiten Hauptsatz unterliegenden Anwendungen sind der Kühlschrank, der aus Strom im Kühlfach Kälte und außen an seiner Rückwand Wärme erzeugt. Die jüngst propagierte Wärmepumpe funktioniert, anschaulich ausgedrückt, wie ein umgekehrt laufender Kühlschrank. Sie ist wesentlich energieeffizienter als die Wärmeerzeugung mit einer simplen elektrischen Widerstandsheizung.

Die Umwandlung von elektrischer Energie in mechanische Energie mittels eines Elektromotors und auch der umgekehrte Vorgang sind dagegen prinzipiell verlustfrei, von unvermeidbaren geringfügigen Reibungsverlusten abgesehen. Elektrische Energie und mechanische Energie zählt man daher zu den wertvollen Energien, weil ihre Umwandlung in andere Energieformen prinzipiell verlustfrei ist. Wärme ist dagegen die am wenigsten wertvolle Energie, weil ihre Umwandlung in andere Energiearten dem grundlegenden Carnot-Verlust unterliegt.

Die Menge an elektrischer Energie, die mit Kohle, Mineralöl oder Erdgas betriebene Kraftwerke weltweit erzeugen, übertrifft bei weitem die aller anderen Methoden. Kernkraftwerke könnte man noch dazuzählen, weil die Kernspaltung Wärmeenergie erzeugt, die dann genauso wie in den fossilen Kraftwerken über Dampfturbinen in elektrische Energie umgewandelt wird. Ferner werden noch Wind, Sonneneinstrahlung und Biomasse zur Stromerzeugung eingesetzt. Wegen der prinzipiellen Carnot-Verluste könnte man annehmen, dass Stromerzeugung aus Wärme generell ungünstiger sei als Strom aus Wind oder Sonne. Dies trifft nicht zu. Es wird sich später noch zeigen, dass die Vorteile fehlender Carnot-Verluste bei der Stromerzeugung aus Wind und Sonne sogar völlig vernachlässigbar sind, wenn man diese Vorteile mit den grundlegenden Nachteilen von Wind und Sonne vergleicht.

Elektrische Energie kann nur in geringen Mengen direkt gespeichert werden. Das erfolgt mit passiven elektrischen Bauelementen wie Kondensatoren. Selbst sogenannte Superkondensatoren können aber nur um 20 Wattstunden Energie pro Kilogramm Kondensatorgewicht speichern. Hier geht es aber jetzt um elektrische Energie, die um mehrere Größenordnungen größer sein muss als die in Powerbanks. Sie wäre zu speichern, um beispielsweise für die Überbrückung eines längeren Blackouts zu sorgen. Das geht nur durch indirekte Speicherung von Energie mit chemischen, hochgewichtigen und kostspieligen Batterien – heute meist Lithium-Ionen-Batterien. Eine andere Lösung wären Pumpspeicheranlagen, die die Lageenergie von Wasser zwischen einem Berg und dem zugehörigen Tal nutzen.

Die Energiekosten von Lithium-Ionen-Batterien werden unterschiedlich angegeben. Sie liegen aktuell am günstigsten bei etwa 100.000 Euro für eine Megawattstunde. Als Anschauungsbeispiel wollen wir verlangen, dass bei einem längeren bundesweiten Blackout, wenigstens für einen Tag die elektrische Energie Deutschlands durch derartige Batterien überbrückt werden sollte und nach den Kosten fragen. Die Realisierbarkeit dieses Szenarios ist mühelos abzuschätzen: Das Umweltbundesamt nennt im Schnitt etwa 550 Terawattstunden benötigter elektrischer Energie in Deutschland pro Jahr. 550-durch-365 Tage sind 1,5 Terawattstunden, die unsere Batterien an einem einzigen Tag ersetzen müssten. Mit 100.000 Euro für eine Megawattstunde kostet der Ersatz aus Batteriestrom 150 Milliarden Euro. Die zusätzlichen Kosten für die Anschlusstechnik der Batterien, ihre Lagerung, ihr Aufladen etc. sind dabei unberücksichtigt, auch nicht die Kosten von Batterieverschleiß durch allmählichen Verlust der Leistung aufgrund von Alterung. Die dramatische Kapazitätsabnahme von Batterien bei Kälte soll ebenfalls keine Rolle spielen. Unsere elementare Abschätzung reicht bereits aus, um zu belegen, dass die Batterielösung aus wirtschaftlichen Gründen völlig unrealistisch ist.

Es bleiben dann in Deutschland nur noch Pumpspeicherwerke übrig wie das hierzulande größte – Goldisthal in Thüringen –, dessen technische Werte wir verwenden wollen. Große Staudämme haben wir nicht, und alle anderen immer wieder einmal vorgeschlagenen Lösungen sind noch teurer. Pumpspeicherwerke verfügen über ein Wasser-Reservoir im Tal und eines auf dem Berg. Ist für das Pumpspeicherwerk ausreichend Strom aus dem Netz verfügbar, wird von der Tal-Pumpturbine in das obere Reservoir Wasser gepumpt, das Pumpspeicherwerk wird sozusagen geladen. Fehlt Strom, wird das Wasser unter Ausnutzung seiner Lageenergie im oberen Reservoir über die 800 Meter lange Wasserleitung von Goldisthal wieder von der Tal-Pumpturbine in elektrische Energie umgewandelt. Die maximal gespeicherte Energiemenge von Goldisthal beträgt 8,5 Gigawatt-Stunden. Die kürzeste Entleerungsdauer beträgt eine Stunde, dabei ist die Maximalleistung ca. 1 Gigawatt. Für den Ausgleich eines vollen Tages Blackout in Deutschland, bräuchte man unter großzügiger Weglassung der nicht mehr zu vernachlässigenden Reibungsverluste der Wasserleitung mindestens 180 Pumpspeicherwerke mit der Leistung von Goldisthal. Deutschland hat für Pumpspeicherwerke aber nicht einmal die topographischen Voraussetzungen.

Vor dem näheren Eingehen auf die Erzeugungsmethoden von elektrischer Energie in Deutschland ist eine aktuelle Bestandsaufnahme sinnvoll, um eine konkrete Vorstellung über die Größenverhältnisse zu erhalten: Elektrische Energie hat, wie schon erwähnt, hierzulande nur einen Anteil von 15 Prozent an der deutschen Primärenergie, weltweit ist der Wert ähnlich. 80 Prozent der Primärenergie Deutschlands kommen immer noch aus Kohle, Erdöl und Erdgas, weltweit ist dieser Anteil etwa gleich groß. Deutschland unterscheidet sich daher in der Primärenergie mit den beiden Werten 15 Prozent elektrischer Energie und 80 Prozent Energie aus fossilen Brennstoffen kaum von der weltweiten Situation.

Ganz anders sieht es dagegen bei den Methoden zur Erzeugung von elektrischer Energie aus. Hier macht Deutschland zusammen mit wenigen Ländern eine auffällige Ausnahme im weltweiten Vergleich. Im Jahr 2024 wurde die elektrische Energie Deutschlands zu etwa 37 Prozent aus Kohle und Erdgas, aber bereits schon zu 31 Prozent aus Windrädern und zu 14 Prozent aus Photovoltaik erzeugt. Weltweit sind dagegen Kohle und Erdgas mit 47 Prozent deutlich stärker, Wind mit 8 Prozent und Photovoltaik mit 7 Prozent viel schwächer. Deutschland betreibt eine deutliche Verschiebung seiner Erzeugungsmethoden von Strom hin zu mehr Wind und Sonne und weg von Kohle und Gas. Ob dieser Sonderweg technisch und wirtschaftlich sinnvoll ist, und welche Konsequenzen er für die Versorgungssicherheit mit Strom nach sich zieht, wird hier noch näher untersucht.

Bezieht man freilich für Deutschland die Anteile von Wind und Photovoltaik nicht auf die elektrische Energie, sondern auf die Primärenergie, bleibt von den eindrucksvollen Zahlen nichts mehr übrig, nämlich nur 4,5 Prozent Primärenergie-Anteile aus Wind- und 1,8 Prozent aus Photovoltaik. Weltweit ist es noch einmal weniger. Nur 1 Prozent der Primärenergie aus Wind und 1 Prozent aus Photovoltaik wurden schon erwähnt. Die stolzen Erfolgsmeldungen in den öffentlich rechtlichen Sendern über deutsche Windenergie von 31 Prozent, wobei dabei oft gerne vergessen wird zu erwähnen, dass diese Zahl sich nur auf elektrische Energie bezieht, sind korrekt. Die wohl wichtigere Zahl von nur 4,5 Prozent Wind an der Primärenergie war dagegen in den Öffentlichrechtlichen noch nie zu vernehmen. Somit ist der Widerspruch der in den Medien genannten Zahlen mit den realen Verhältnissen geklärt.

Die viel wichtigeren wesentlich kleineren Anteile von Wind- und Sonnenstrom an der Primärenergie werden salopp verschwiegen, weil die langfristige Planung über die jetzige Energiewende hinaus die sogenannte Sektorenkoppelung vorsieht. Dabei soll der Einzelsektor „elektrische Energie“ auf alle Sektoren bis hin zur Wärmedämmung von Gebäuden erweitert werden. Sektorenkoppelung ist im Klartext auch Dekarbonisierung, denn so gut wie alle Primärenergie soll dabei nur noch aus CO2-freiem Strom von Wind und Sonne kommen. Dies bei heute mickrigen 4,5 Prozent Windstromanteil trotz 30.000 Windräder. Der Energieexperte Professor André Thess, Institutsleiter der Universität Stuttgart, hat die Kosten von Dekarbonisierung bis 2045 rechnerisch gut nachvollziehbar zu 10 Billionen Euros geschätzt (hier). Diese Summe belegt, dass den politischen Planern des Abersinns Energiewende und auch noch Sektorenkopplung jede Wirklichkeitsnähe, jedes Verständnis von Physik und Technik und jede Beachtung von Verhältnismäßigkeit abgeht.

Will man nun ganz allgemein die in modernen Batterien gespeicherte elektrische Energie mit der aus fossilen Brennstoffen oder Uran vergleichen, benötigt man die hier schon einmal verwendete Energiedichte als Quotient von Energie pro Gewicht. Ihre Maßeinheit ist die Wattsekunde durch Kilogramm. Lehrreich ist der Vergleich der Energiedichte einer modernen Lithium-Ionen-Batterie von 0,2 Kilowattstunden-pro-Kilogramm, mit der Energiedichte von Dieseltreibstoff von 5,3 Kilowattstunden pro Kilogramm, wobei in dieser Zahl die prinzipiellen Carnot-Verluste des Diesels mitberücksichtigt sind. Wir werden diesen Wert später noch einmal brauchen. Die 5,3 Kilowattstunden des Diesel dividiert durch die 0,2 der Batterie ergeben rund 26. Diesel hat also einen 26-fachen Energievorsprung vor einem E-Auto, beim Benziner ist der Vorsprung nur um etwa 20% kleiner. Oder anders ausgedrückt: Ein Diesel-Auto hat bei gleichem Gewicht im Tank wie ein E-Auto 26 Mal mehr Antriebsenergie zur Verfügung. Die geringe Reichweite von E-Autos wird nun besser verständlich. Hinzu kommt, dass E-Autos bei Temperaturen unter Null Grad Celsius dramatisch an verfügbarer Reichweite verlieren.

Wichtiger und interessanter ist dann allerdings der Vergleich der Energieeffizienz von Wind mit Kohle. Er erfordert den Begriff der Leistungsdichte als Leistung pro Fläche, also Watt-pro-Quadratmeter. Die Art der Fläche hängt von der Anwendung ab, hier wird die „verbrauchte Bodenfläche der jeweiligen Methode“ verwendet. Bei Windrädern ist dabei zu beachten, dass sie aus technischen und Kosten-Gründen in Windparks, oder genauer ausgedrückt, in Windrad-Industriegebieten installiert werden. Dort sind Mindestabstände gegen leistungsmindernde gegenseitige Strömungsbeeinflussung erforderlich. Über das Jahr 2024 und ganz Deutschland Onshore gemittelt betrug die mittlere Wind-Leistungsdichte 3,7 Watt-pro-Quadratmeter Bodenfläche. Für Kohle sind es dagegen um die 8000 Watt-pro-Quadratmeter Bodenfläche. Der Flächenverbrauch eines Windrads ist also mehrtausendfach größer als der von einem Kohlekraftwerk. Die 3,7 Watt pro Quadratmeter werden hier später noch einmal benötigt.

Unterschiedliche Leistungsdichten sind für den realen Nutzen der miteinander verglichenen Methoden absolut ausschlaggebend. Je höher die Leistungsdichte einer Methode zur Erzeugung von elektrischer Energie ist, um so effizienter, naturschonender und materialschonender ist sie. Das erkennt man sofort, wenn man die Definition Leistungsdichte ist Leistung-durch-Fläche umkehrt und als Leistung ist Leistungsdichte-mal-Fläche formuliert. Bei zu geringer Leistungsdichte benötigt man eine sehr große Fläche, damit das Produkt Leistungsdichte-mal-Fläche, also die gewünschte Leistung, noch ausreichend groß wird. Große Systemflächen bedeuten zudem noch großen Materialverbrauch des Systems. Man braucht dabei nur an Windrad-Riesenmonster zu denken, bei denen ausschließlich die zu geringe Leistungsdichte der Grund ist, warum sie so riesig sind. In einem schon älteren Artikel der ZEIT wurden Energien aus Wind und Sonne wegen ihrer Sanftheit dagegen als optimal umweltschonend bezeichnet. Das ist bereits absurd, denn es ist genau umgekehrt. Je sanfter eine Methode der Stromerzeugung ist, um so kleiner ist ihre Leistungsdichte, und um so größer ist ihr Flächenverbrauch, ihr Materialaufwand und ihre Umweltschädigung.

Historisch verlief die bisherige Entwicklung aller technischen Energiemethoden grundsätzlich immer von kleineren zu höheren Leistungsdichten. Das Umgekehrte gab es nie. Das Aufkommen von Windrädern verletzt dieses – man ist versucht zu sagen Naturgesetz – weil es den Weg zurück ins energetische Mittelalter beschreitet. Windräder basieren trotz modernster eingebauter Technik auf der mittelalterlichen Methode der Windmühle. Selbst modernste Technik vermag aber nicht die physikalischen Gesetzmäßigkeiten des mittelalterlichen Windmühlenprinzips auszuhebeln. Man kann aus der Wind-Leistungsdichte von den schon erwähnten 3,7 Watt pro Quadratmeter Bodenfläche nun auch den Flächenverbrauch bei hypothetisch allem Strom Deutschlands aus Onshore-Wind abschätzen. Das Ergebnis nähert sich der Gesamtfläche Thüringens. Bei Sektorenkoppelung wären es 15 Mal Gesamtfläche mehr. Das belegt wieder wie schon betont die meilenweite Entfernung der deutschen Energiepolitik von Wirklichkeit und Verhältnismäßigkeit.

Das hier bisher Geschilderte wird von der begutachteten wissenschaftlichen Fachliteratur vollumfänglich bestätigt. Es handelt sich dabei um eine begutachtete Studie von Weißbach und Mitautoren, die im Fachjournal Energy des renommierten Elsevier-Verlags erschien. Um sie zu lesen, tippe man den Titelbeginn der Studie „Energy intensities, energy returned on invested“ ins Suchfenster von Google Scholar und klicke danach rechts unten auf „alle 17 Versionen“ (hier). Dort findet sich ein pdf des papers. Bild 3 auf Seite 219 zeigt die Verhältnisse an gelben Balken mit Schrägstrichen, wobei die Effizienz von acht Methoden von Photovoltaik bis hin zu Kernenergie miteinander verglichen werden. Das Ergebnis ist überdeutlich: Wind, Photovoltaik und Biomasse sind die ungünstigsten Methoden zur Erzeugung von elektrischer Energie überhaupt, sie liegen sogar unter der im Bild 3 eingetragenen ökonomischen Schwelle von OECD-Ländern und kommen daher für die Erzeugung elektrischer Energie großen Maßstabs nicht in Frage. Zu geringe Leistungsdichte bei der Erzeugung von elektrischer Energie mit Wind, Sonne und Biomasse wird hier im Folgenden als ihr „erster Fundamentalmangel“ bezeichnet. Es gibt nun aber noch einen zweiten Fundamentalmangel, der nur Wind- und Sonne betrifft.

Die dringend erforderliche Bekanntheit des ersten Fundamentalmangels von Wind- und Sonnenstrom wird leider durch weitgehende Unkenntnis des Begriffs „Leistungsdichte“ verhindert. Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist dagegen wesentlich anschaulicher und daher besser bekannt. Er hat es schon bis in alle Medien geschafft. Es ist die Wetterabhängigkeit von Wind- und Sonnen-Energie, der die Stromlieferungen dieser beiden Methoden zufällig und zappelig macht.

Zufalls-Strom kann ohne weitere Maßnahmen nicht in das deutsche Wechselstromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund schon für Glättung sorgt, weil irgendwo immer Wind wehen würde, hat eine ausführliche Studie des technischen Fachverbands für Energieanlagenbetreiber VBG widerlegt. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.“ Zitatende. Die Studie steht nach eingeben in Ihrem Browser von „VGB-Studie: Windenergie in Deutschland und Europa“ frei im Internet (hier).

Die erwähnten Backup-Systeme sind heute schnell reagierende Gaskraftwerke, Kohlekraftwerke oder auch alte Ölkraftwerke. Diskussionswürdige Stromspeicherlösungen gibt es nicht, wie es hier bereits belegt wurde. Man muss daher für ausfallenden Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, das die Gesamtkosten der Stromversorgung mit Wind- und Photovoltaikanlagen zumindest verdoppelt. Genau dies ist bereits erfolgt, aber unvollständig. Schaut man sich die Grafiken der stündlichen Energieeinspeisungen von Wind- und Sonnenstrom an, fallen die extremen Fluktuationen auf, bei Wind noch wesentlich stärker als bei Sonne.

Das liegt an folgendem physikalischen Gesetz für alle Strömungsmaschinen, so auch für Windräder. Ihre Leistung ist grob proportional zur dritten Potenz der Windgeschwindigkeit. Nur grob, weil die nur für Windräder gültige Betz-Joukowsky-Grenze noch eine Rolle spielt. Ist die Windgeschwindigkeit nur noch halb so groß, halbiert sich nicht die erbrachte Leistung wie man eigentlich vermuten könnte, sondern wird zu ½ hoch drei gleich 1/8 oder 12 Prozent. Windräder in schwachwindigen Wäldern sind daher besonders unsinnig. Der zweite Fundamentalmangel und das v-hoch-3 Gesetz bewirken, dass Onshore-Windräder über Deutschland und das Jahr gemittelt nur etwa 20% ihrer Nennleistung erbringen, Offshore ist es etwa das Doppelte.

Ein Dieselauto zu betanken reicht bereits aus, um die Schwächen von Windrädern zu veranschaulichen. Durch den Zapfhahn einer Tankstelle fließen etwa 0,7 Liter Diesel pro Sekunde, das sind etwa 2000 Kilogramm pro Stunde unter Berücksichtigung des spezifischen Gewichts von Diesel. Multipliziert man dies mit der schon erwähnten Diesel-Energiedichte von 5,3 Kilowattstunden-pro-Kilogramm, ergibt sich für den strömenden Dieseltreibstoff eine Leistung von 12 Megawatt. Im Zahlenwert 5,3 ist der Carnot-Verlust bereits berücksichtigt. Auf der anderen Seite hat ein modernes Windrad wie zum Beispiel die Enercon E-160 EP5 mit 5 Megawatt Nennleistung nur 20 Prozent Realleistung, gemittelt über ganz Deutschland und ein Jahr. Das sind ein Megawatt. Tanken Sie Diesel, so erfolgt dies demnach mit rund der 10-fachen Realleistung eines großen Windrads. Oder anders ausgedrückt: Ein einziger Diesel-Füllhahn hat die gleiche Leistung wie zusammen 10 große deutsche Windräder. Dies macht der Diesel-Füllhahn aber ohne die insgesamt 70.000 Tonnen Material der 10 Windräder inklusive der Fundamente und auch ohne die von den 10 Windrädern belegte Bodenfläche von etwa 270 Hektar zu bemühen. Die fast unwahrscheinlich erscheinenden extremen Zahlen dieses Beispiels sind leider zutreffend und belegen die fatalen Konsequenzen der zu geringen Leistungsdichte von Wind.

Die Photovoltaik zeigt als Besonderheit einen deutlichen Leistungshügel mit dem Gipfel im Sommer. Im Winter kommt nur noch wenig Sonnenstrom an, nachts das ganze Jahr überhaupt nichts.

Noch einmal zurück zum zweiten Fundamentalmangel. Infolge der Abschaltung aller deutschen Kernkraftwerke, der Beseitigung von selbst mit modernsten Filtern ausgestatteten Kohlekraftwerken und infolgedessen zunehmenden Wind- und Sonnenstroms, entsteht immer öfter die Situation von Stromunterdeckung oder umgekehrt von Stromüberschuss – der genauso gefährlich ist. Wenn zu viel Wind herrscht und auch noch die Sonne mithilft, muss Strom ans Ausland verkauft oder sogar gegen Aufpreis verschenkt werden. Im Fall von zu wenig Strom müssen die fossilen Ersatzkraftwerke gestartet oder Strom vom Ausland eingekauft werden. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten. Bereits bei höheren Abweichungen als ± 0,2 Hertz droht ein großflächiger Blackout wie er erst jüngst im einem Großbereich von Spanien Portugal und Südfrankreich vorkam. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihren problemlos dem schwankenden Verbrauch anpassbaren Grundlaststrom unbekannt. Wetterabhängiger Zufallsstrom ist ohne Ersatzkraftwerke oder die Mithilfe französischer Kernkraftwerke nicht in der Lage, immer den Strombedarf zu decken. Fossile Ersatzkraftwerke sind aber infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und daher wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben kein Interesse sie zu bauen.

Inzwischen sind zur Aufrechterhaltung sicherer Stromversorgung sogenannte dispatch-Maßnahmen in drei Regelungsstufen erforderlich. Primäre Stufe sind Störungen im Sekundbereich, sekundäre im Bereich mehrerer Minuten und tertiäre ab 15 Minuten aufwärts. Von Hand können meist nur im Tertiärbereich Ersatzstromquellen zugeschaltet oder vom Netz genommen werden. Solche Maßnahmen gab es bis Ende des zwanzigsten Jahrhunderts nur in einstelliger Anzahl pro Jahr. Heute liegt die Anzahl der jährlichen dispatch-Eingriffe – automatisch oder von Hand – bei rund Zwanzigtausend (hier), und ihre jährlichen Kosten gehen in die Milliarden Euro.

Wegen ihrer extrem kurzen Reaktionszeit ist die Primärregelung kritisch und entscheidend. Sie kann weder durch Eingreifen per Hand noch durch automatische dispatch-Regelung erfolgen. Fällt beispielsweise ein großer Umspannungstransformator durch einen Defekt, Terroranschlag, oder Blitzschlag aus, ist dies ein Vorgang im Sekundenbereich. Die inzwischen vorliegenden Fachuntersuchungen der Gründe des jüngsten großen Blackouts in Spanien deuten tatsächlich auf das Fehlen ausreichender Primärregelung. Zu wenige Grundlastkraftwerke liefen und zu viel Sonnenstrom wurde eingespeist.

Die einzige Abhilfe bei Sekundenstörungen vermag nur die Physik zu liefern. Es sind die extrem hohen Rotationsenergien der Dampfturbinen-Rotoren aller Grundlastkraftwerke mit Kohle und ehemals Uran. Plötzliche Leistungsungleichgewichte durch Störungen im Sekundenbereich werden durch Abbremsen oder Beschleunigen dieser riesigen Rotoren verzögerungsfrei ausgeglichen. Ihre Rotorwellen sind bis 40 m lang, können bis 300 Tonnen wiegen und drehen sich mit genau der Netzfrequenz von 50 Hertz oder 3000 Umdrehungen pro Minute. Bei plötzlichem Leistungsabfall infolge einer schnellen Netzstörung springen sie ohne jedwedes Zutun ein und bügeln die Störung ausreichend lang weg bis die Sekundärregelung eingreifen kann. Kurz, die einzige Lösung der Primärregelungsproblematik ist die ausreichende Rotationsenergie aller Stromerzeuger im deutschen Stromnetz. Sie gibt es nur mit ausreichend vielen Grundlastkraftwerken. Kommt der Strom nur noch aus Wind und Sonne, ist das deutsche Wechselstromnetz grundsätzlich instabil und nicht mehr regelbar.

Daraus ergibt sich die dringende Frage wie viele Grundlastkraftwerke unabdingbar vorhanden sein müssen. Die Mindestanzahl an Grundlastkraftwerken hängt von der aktuellen Netzstruktur und davon ab, welches Blackout-Risiko man noch toleriert. Eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW ging dieser überlebenswichtigen Frage in einer Fachstudie nach. Sie ist nach Eingabe des Titels „Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb“ (hier) in Ihren Browser als pdf verfügbar. Als Ergebnis wird eine Mindestregelleistung von 20 Gigawatt für den Regelblock Deutschland angegeben, was einem Drittel der mittleren Gesamtleistung von etwa 60 Gigawatt an deutschem Strom entspricht. Mit den momentan noch vorhandenen Rotationsmassen der Grundlastkraftwerke und zusätzlichem Einkauf von Strom im Ausland scheint die erforderliche Sicherheit gegen Blackout vielleicht gerade noch vorhanden zu sein. Man bewegt sich aber auf stark schwankendem Terrain. Tatsächlich trägt die aktuelle Energiewende Deutschlands nicht nur zur maßgeblichen Schädigung seiner Industrie bei. Die Versorgung mit Heizenergie ist in einem wirklich kalten Winter nicht mehr sicher. Und zu all dem wird auch noch durch das weiter geplante Abschalten von Kohlekraftwerken in unverantwortlicher Weise das Blackout-Risiko erhöht.

 

 




Das Ende vom Klimawahn – Ottmar Edenhofer warnt vor den Folgen

Prof. Ottmar Edenhofer (hier), war da nicht etwas? Ja klar doch, es ist zwar schon länger her, aber immer noch top-aktuell. Bereits am 14.11.2010 verkündete er in einem Interview von der NZZ:

„Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch nichts mehr zu tun.“

Wer ist eigentlich mit dem pluralis majestatis „wir“ gemeint? Na egal. Das Statement Edenhofers klingt jedenfalls beim ersten Hinhören wie das von einem strammen Kommunisten der alten Lenin-Schule. Vielleicht meinte er es ja auch so, man kann in fremde Köpfe nicht hineinsehen. Käme seine Aussage von einem miserablen Ökonom, dann wäre sie tatsächlich kommunistisch gemeint.  Käme sie von einem guten Ökonom, dann wäre sie eine weitsichtige Vorausschau über die größte jemals geplante und auch einige Zeit bestens funktionierende Umverteilung des Weltvermögens von „arm nach reich“ – wohlgemerkt nicht von reich nach arm! Die dem Jahr 2010 folgende Realität gäbe dem fiktiven guten Ökonom recht. Warum? Zur Erklärung ist eine kurze historische Rückschau hilfreich.

Grün-Rot hatte es nach dem Ende der RAF ohne nennenswerte bürgerliche Gegenwehr geschafft die ehemals kritischen Medien zu unterwandern und den ÖRR zu einem sozialistisch geprägten Propagandamedium umzuformen. Die großen deutschen Zeitungen und Wochenjournale wie FAZ, SPIEGEL usw. waren gezwungen zu folgen, denn nicht nur der ÖRR, sondern auch das Internet begann ihr Geschäftsmodell zu zerstören. Sie ergriffen erleichtert die angebotene finanzielle Hilfestellung des Staates und wurde zu Staats-Claqueuren. Ehemals gute Journalisten, die berichteten, was ist und nicht was regierungsnah gewünscht ist, mussten der neuen Linie folgen oder gehen.

Die im Laufe der Zeit total dominierende grün-rote Medienmacht hämmerte dem naiven Bürger jede Art von Klimaschäden ein, bis hin zum Weltuntergang durch menschengemachtes CO2. Jedes als ungewöhnlich empfundene Wetterereignis erhielt das label „menschengemachter Klimawandel.“ Infolgedessen war es bald keiner deutschen Regierung mehr möglich, sich sachlich gegen den geballten Klimaunsinn zu positionieren. Insbesondere ließ man den sogenannten wissenschaftlichen Beirat der Bundesregierung WBGU (hier) ohne demokratische Gegenwehr sein „großes Klima-Transformationsprogramm“ erstellen. Der WBGU hatte mit Demokratie und dem deutschen Grundgesetz nichts, aber auch gar nichts mehr gemeinsam.

Übertrieben? Leider nein, denn im Hauptgutachten des WBGU (hier) – das Herunterladen und Lesen des pdf ist zu empfehlen – beschreibt der WBGU seine „Große Transformation“, die auf einen ökologischen und alle Menschen der Welt gleichmachenden Umbau der Menschheit unter einer Herrschaft „weiser“ Experten hinausläuft. Kommt einem irgendwie bekannt vor – richtig, es ist fast das kommunistische Manifest. Der Begriff  „demokratische Entscheidung“ ist dem WBGU unbekannt! Kein Verfassungsschutz und keine Fraktion des deutschen Bundestages protestierte gegen die grundgesetzwidrigen Machenschaften des WBGU. Insbesondere auch nicht die für Freiheitliches zuständige FDP, die folgerichtig in der politischen Versenkung verschwand und ohne ein konsequent liberales neues Personal auch dort enden wird.

Klima-Fachleute, die anfänglich versuchten das sich schon früh abzeichnende Unglück für unsere Industrie und unseren Wohlstand mit korrekten Sachargumenten aufzuhalten und sich gegen den Klimawahn positionierten, wurden kaltgestellt.  Bürger mit gesundem Verstand, die die ÖRR- Klimaschutz-Propaganda durchschauten und sich öffentlich dazu äußerten, wurden zu „Klimaleugnern“ und riskierten sogar ihren Arbeitsplatz. Keine Firma konnte es sich noch leisten mit „Klimaleugnern“ in Zusammenhang gebracht zu werden.

Ähnliches wie oben beschrieben passierte auch unserem großen Bruder, den USA. Das große Geschäft mit der Klima-Masche machten dann die steinreichen weltweiten Profiteure, meist über Blackrock, das deren Assets verwaltete. Aber auch unzählige Klima-Aktivisten, die ohne ausreichende Berufsausbildung auf dem Arbeitsmarkt schlechte Karten hatten, fanden als Klima-Helfer in einschlägigen NGOs ihr Auskommen. Sie wurden zur Unterstützung, Belebung und Mitarbeit an den jährlichen weltweiten Klimakonferenzen gebraucht. Die weltweite ESG-Aktion (Environmental, Social and Governance) war schließlich als Höhepunkt ein perfides hochwirksames Werkzeug, um die im Macht-Mittelpunkt stehenden Finanzinstitute an die Kandare der Klima-Aktion zu spannen.

Das Geschäftsmodell war einfach: Ahnungslosen Anlage-Kunden wurden grüne Anlagetypen untergejubelt, die nur in ersten Anfängen kurzfristig Gewinne einbrachten, aber sich auf Dauer fatal für die Kunden herausstellten – nicht für Blackrock natürlich. Die Regierungen der Klimaschutzländer machten durch immer weitere Aufweichungen des Naturschutzes von Flugtieren, durch Subventionen und durch Einschränkungen der juristischen Werkzeuge von Anrainern gegen Windräder den Weg für Windradprofiteure frei, die am freien Markt und ordentlichen Naturschutzregeln nie eine Chance gehabt hätten. Die ganz großen Mitspieler wie stellvertretend Bill Gates von Microsoft wussten Bescheid, beteiligten sich am ESG, stopften ihre Taschen voll und spielten die Warner vor der kommenden Klima-Apokalypse.

Nun gilt immer noch auf dieser Welt, dass sich sachlicher Unsinn niemals auf Dauer behaupten kann. Die ganz großen Nutznießer des vorgegaukelten Klima-Armageddons machten ihr Geld, indem sie den ahnungslosen Regierungen, anfänglich sogar erfolgreich afrikanischen Ländern, die hoffnungslos ineffiziente Methode zur Stromerzeugung aus Windrädern andrehten. Diese Strategie ging nicht lange gut, denn schnell stellte sich heraus, auf was man sich als betroffenes Land da eingelassen hatte. Damit setzte der Zerfall des Geschäftsmodells ein, wobei dafür gesorgt wurde, dass so lange wie möglich nichts in die Öffentlichkeit drang.

Es fing damit an, dass der verärgerte treasurer des US-Bundesstaat Missouri 500 Millionen Dollar von Blackrock wegen zu großer Verluste aus Beteilungen an „Erneuerbaren“ abzog, was der SPIEGEL erstaunlicherweise publizierte (hier). Danach begann es überall zu rutschen. Blackrock zog sich so rasch als möglich, aber unauffällig, aus dem Klima- und Energiewende-Geschäft zurück. Die deutschen ÖRR schwiegen selbstverständlich über diese unliebsame Entwicklung. Der oben zitierte SPIEGEL-Artikel darf als Ausnahme gelten, vielleicht war er sogar nur ein Versehen. Solange das Klima-Geschäft noch irgendwo lief, wurde von den Investoren mitgenommen, was mitzunehmen war. Alles aus ESG und Medienunterstützung Gewonnene und alles bis zum Ende Mitgenommene war letztlich das Geld des wehrlosen Steuerzahlers. Denn deutscher Klimaschutz und deutsche Energiewende kostete bis heute gemäß Chatgpt 300-500 Milliarden Euros ohne jeden Gegenwert! Nebenbei: Warum war Chatgpt nötig, das sogar die ordentlichen Quellen für diese Zahlen angibt? Zur Antwort versuchen Sie doch einmal im Internet mit den Suchbegriffen „Kosten für Klimaschutz und Energiewende Deutschlands“ irgend etwas Sachliches aufzutreiben! Wie schafft man es eigentlich, die entsprechenden Angaben aus dem Internet weg-zu-zensieren, die es sicher gab? Vielleicht kann ja einer der Kommentatoren erklären wie das funktioniert.

Als das allmähliche Ende des Klimawahns bereits feststand, lenkte Gottseidank ein gütiges Geschick die für Donald Trump vorgesehene Gewehrkugel nur um wenige Zentimeter ab. Trump gewann die Wahl und begann seine Wahlversprechen – im Gegensatz zu einem aktuellen deutschen Vorbild – unverzögert in die Tat umzusetzen. Es ging danach sehr schnell. Dies ließ auch Bill Gates als bis dato wildesten Klima-Warner handzahm werden, „Es sei alles halb so schlimm, Klimaschäden könnten mit bester Technologie beherrscht werden etc.“ war nun von ihm zu vernehmen.

Wir in EIKE dachten natürlich sofort daran, Bill Gates als EIKE-Mitglied zu gewinnen, denn er gehörte jetzt zu uns – irony off!

Natürlich hat Bill Gates nichts von all dem geglaubt, was er da die ganze Zeit an Klima-Schauermärchen erzählte. Ein Überzeugter hätte nämlich für seine Meinung gekämpft. Es wurde lediglich Zeit für ihn die Anlageklasse zu wechseln – vom zu erwartenden mausetoten Klimageschäft hin zum neuen KI-Geschäft – und sich dabei vor allem auch mit Donald Trump gut zu stellen. Der Fall „Bill Gates“ wäre vielleicht etwas für einen realistischen Unterricht im Fach „Wirtschaft und Wirtschaftspsychologie“ an deutschen Gymnasien. Wenn einer der reichsten Männer der Welt mit der besten Spürnase für lukrative Geschäfte aus der Klima-Agenda aussteigt, dann ist diese wirklich früher oder später mausetot. Am längsten noch überleben wird der Klimawahn freilich in … na, Sie kennen das Land sicher schon.

Nun aber wieder zurück zu O. Edenhofer: Die WELT ließ ihn am 31.Oktober 2025 gnädig einen Beitrag mit dem Titel schreiben „Dann verliert Europa seine Glaubwürdigkeit. Dann haben wir ein Riesenproblem.

Gehen wir die Begriffe im Titel einfach mal kurz durch. Falls man Europa mit der EU gleichsetzt, kann tatsächlich von Glaubwürdigkeit angesichts des vielfachen Bruchs der Maastricht-Verträge schon lange keine Rede mehr sein. Dabei wären nur zu nennen

a) die Fiskalpolitik, Defizit  ≤ 3 %, Schulden, Schulden ≤ 60%, fast alle Länder haben diese Vorschriften mehrfach verletzt,

b) No-Bailout-Klausel, keine Haftung anderer Staaten, EFSF, ESM, Hilfspakete,

c) ZB- Staatsfinanzierungsverbot, keine Finanzierung von Staaten, Sekundärmarktkäufe der EZB.

Hier liegt Edenhofer also richtig.

Zum „Riesenproblem“ im Titel verdeutlicht Edenhofer näher

Wenn der Emissionshandel verwässert oder der Green Deal ausgebremst wird, verliert Europa seine Glaubwürdigkeit und seine beispielgebende Funktion.

Glaubwürdigkeit hatten wir soeben, bleiben jetzt nur noch „beispielgebend“ und „Riesenproblem“. Mit „beispielgebende Funktion“ liegt Edenhofer ebenfalls absolut richtig, denn unser „Green Deal“ ist weltweit beispielgebend wie man es auf gar keinen Fall machen darf (vielleicht ein Fall von kognitiver Dissonanz?).

Weiter erklärt Edenhofer:

Der Emissionshandel darf nicht beschädigt werden, denn dank ihm konnten in der EU Wirtschaftswachstum und Emissionsausstoß entkoppelt werden. Das sei ein sehr bemerkenswerter Erfolg“.

Hmm … welchen Erfolg, welches Wirtschaftswachstum der EU oder gar Deutschlands und welche Entkoppelung meint Edenhofer eigentlich? Lebt er noch in dieser Welt? Die deutsche Wirtschaft geht durch den extrem unsinnigen CO2-, Klimaschutz- und Energiewende-Zauber schon seit Jahren den Bach runter (s. wie oben erwähnt die verlorenen 300 bis 500 Milliarden ohne jedweden Gegenwert). Von Entkoppelung kann keine Rede sein, tatsächlich ist die Koppelung sogar perfekt. Je mehr Klimaschutz und je mehr Energiewende, umso schlimmer steht es um unsere Industrie und unseren Wohlstand. Das verkündet bereits zutreffend, aber zurückhaltend-höflich, unsere aktuelle Ministerin für Wirtschaft und Energie, Katherina Reiche. Bloß wirksams gegensteuern darf sie nicht, unser Finanzminister Klingbeil sei zu sensibel dafür.

Nur die sofortige und komplette Abschaffung des EEG und jeden Emissionshandels, inklusive aller damit zusammenhängenden Folgengesetze und Vorschriften, und zusätzlich die Abschaffung sämtlicher „Klimaschutzgesetze“ und ihre Folgegesetze, Vorschriften, Richtlinien etc. kann nicht nur die deutsche, sondern auch die gesamte weitere EU-Industrie Industrie wieder wettbewerbsfähig machen. Dazu gehört auch die sofortige Abschaffung des EU-Emissionshandelsystems (EU-EHS oder englisch EU-ETS), das unsere Industrie in den Wahnsinn treibt und immer mehr Unternehmen zum Aufgeben zwingt. Nicht Planwirtschaft, sondern eine von  Fesseln befreite freie und soziale Marktwirtschaft wie die vom ehemaligen Ludwig Erhard (Bundesminister für Wirtschaft von 1949 bis 1963) ist allein der richtige Weg. Ein konsequenter Bürokratieabbau von mindestens 80 % Reduzierung gehört dazu.

Deutschland wird keine Probleme damit haben Brüssel von diesem Weg der Klima- und Energie-Vernunft zu überzeugen. Einen Dexit kann sich Brüssel nicht leisten. Deutschland muss nur wollen.

 

 




Prof. Gerd Ganteför gegen Prof. Jochem Marotzke: Wer von beiden sagt wissenschaftlich korrekt aus?

Die Talk Show von Markus Lanz (10.7.25)

Bevor auf das eigentliche Thema der vorliegenden EIKE-News eingegangen werden kann – nämlich das Youtube von Gerd Ganteför, in welchem er eine Kernaussage von Marotzke in der Lanz-Talk-Show fachlich angreift und sich sogar über eine Verächtlichungmachung seitens Marotzke’s beschwert – muss kurz auf die Lanz-Talk-Show eingegangen werden:

In der Talk Show von Markus Lanz am 10. Juli 2025 (hier) waren als Gäste Maja Göpel (hier), Boris Palmer (hier), Jochem Marotzke (hier) und Axel Bojanwski (hier) eingeladen. Das Thema der Talkshow orientierte sich an den jüngsten katastrophalen Überschwemmungen in Texas, die Wetterereignisse, aber keine Klimaereignisse waren. Die Talk Show wurde dennoch vom ZDF mit drei Schwerpunkten beschrieben als „Über das Ziel, Tübingen bis 2030 klimaneutral zu machen, Konzepte für eine zukunftsfähige Gesellschaft, den aktuellen Stand der Klimaforschung und den gesellschaftlichen Diskurs zu diesem  Thema“. Es gibt bereits zwei Kritiken an der Lanz-Talk-Show, eine negative von Michael Limburg (hier) und eine fast schon positive (hier).

Nun meine dritte Kritik: Von den vier Eingeladenen wiesen nur Marotzke und Bojanowski überhaupt Klima-Fachkenntnisse für eine sinnvolle Diskussion auf. Die beiden restlichen Gäste und Lanz waren fachlich „unterirdisch“. Palmer, ein bemerkenswert tüchtiger OB, faselte von seinem Ziel, Tübingen bis 2030 klimaneutral zu machen. Zu diesem Projekt kann man nur noch die Antwort von Prof. André Thess (hier) der Uni Stuttgart auf das Wahnsinnsprojekt „deutsche Klimaneutralität“ empfehlen, schließlich ist Palmer studierter Mathematiker fürs Lehramt.

Thess, von Bojanowski (sic) am 12.04.2025 interviewed (hier) ermittelte Gesamtkosten von zehn Billionen Euro, also etwa 100.000 Euro pro Kopf in Deutschland, um deutsche Klimaneutralität bis 2045 zu erreichen (das Ziel von Palmer ist sogar noch näher auf die nächsten 15 Jahre gesteckt). Gestreckt auf 20 Jahre von heute bis 2045 müsste gemäß Thess Deutschland jährlich 10% seiner Wirtschaftsleistung nur für Klimaneutralität ausgeben. Auch  FOCUS und FAZ berichteten über die Abschätzung von Thess (hier, hier). Thess ist kein nobody, und er hat seine Abschätzung in einem Podcast von Thichys Einblicke einwandfrei und nachvollziehbar begründet (hier). Thess ist auch nicht mehr alleine. Auch die britische Finanzaufsichtsbehörde OBR schlägt Alarm zur Umstellung Großbritanniens auf eine Netto-CO2-Null-Wirtschaft (hier).

Alle eingeladenen Gäste der Lanz-Talk-Show sprachen sich für den Wahn „Klimaneutralität“ aus – ohne erkennbares verantwortungsvolles Nachdenken über die katastrophalen Folgen dieses Wahns für den Wohlstand Deutschlands und der diesen Wohlstand erzeugenden Industrie (auf Bokanowski komme ich gleich). Solchen Leuten ist das Wohlergehen der deutschen Bevölkerung offenbar völlig schnuppe.

Hauptsache ist anscheinend, dass sich Deutschland der nicht bei der CO2-Vermeidung mitmachenden Welt wieder einmal als Vorbild zeigen kann. 85% der Weltbevölkerung denken nämlich gar nicht an CO2-Vermeidung, und sie haben dafür sehr vernünftige und nachvollziehbare Gründe. Die Hoffnung, dass die historisch wohlbekannte und stets mit einer Katastrophe verbundenen deutschen Lieblingsübung, Vorbild aller Völker zu spielen oder gar die Welt zu retten, einmal dem gesunden Menschenverstand weichen würde, darf man auch nach dieser Lanz-Talk-Show wieder begraben.

Was Frau Göpel angeht, hätte Lanz an ihrer Stelle besser Greta Thunberg oder Luisa Neubauer eingeladen. Das fachliche Vakuum wäre gleichgeblieben, nur die Talk Show lustiger geworden. Zu allen von Bojanowski geäußerten vernünftigen Vorbehalten konnte ich keine fachlichen Gegenargumente dieser gut aussehenden Dame vernehmen, nur das stets Wiederholte „… doch bitte, bitte niemals die Hauptsache „CO2-Vermeidung zu vergessen„. Dass solch eine „Expertin“ Karriere bis hin zu einer Honorarprofessur machen konnte, läßt vielleicht manchen vermuten, dass  ganz allgemein etwas in Deutschland schief lief und der grüne Marsch durch die Institutionen erfolgreich war.

Zu Bojanowski ist entlastend anzumerken, dass er zwar sehr viel deutlicher in seinem Klimabuch (hier) und in einem Interview (hier) spricht, dies aber nicht in der Lanz-Talk-Show vor Millionenpublikum. Er würde dann nämlich nie wieder eingeladen werden, zweifellos kein Unglück, denn welcher vernünftige Mensch begibt sich freilwillig in eine deutsche Talk-Show. Der Druck auf den Arbeitgeber Bojanowski’s, die WELT, dürfte freilich bei mehr Mut so groß werden, dass die WELT als Bauernopfer vermutlich den Job Bajonowski’s streichen würde. Einknicken vor grünem Unsinn ist ja momentan „die“ Mode in Deutschland. Was man von Bojanowski bei Lanz wirklich erfuhr, ist „zwischen den Zeilen“ herauszuhören (vielleicht war dies auch der Grund, warum er viel zu schnell und hastig sprach). Nur wer sich in ähnlicher beruflicher Abhängigkeit befindet und deutlich mutiger ist als er, möge den ersten Stein werfen.

Gerd Ganteför weist eine Kernaussage Jochem Marotzke‘s der Lanz-Talk-Show zurück

Ganteför ging es ausschließlich um die fachlich fragwürdige Behauptung Marotzke’s, auch die CO2-Senken Ozean und Biosphäre könnten nicht verhindern, dass ein Viertel des anthropogenen CO2 unabdingbar in der Atmosphäre verbliebe. Die Aufregung Ganteförs darüber ist berechtigt, denn diese fachlich falsche Aussage hat es in sich. Ganteför leitete aus Marotzke‘s Aussage eine Verächtlichmachung oder „Sich lustig machen“ seiner Youtubes über dasCSenkenmodell“ her. Falls es so war, ist ignorieren immer das beste, denn Wissenschaft ist immer Streit, der aber nie ad hominem gehen darf. Nun ist Ganteför keineswegs der Entdecker des Senkenmodells, sondern berichtet darüber in seinen wirklich guten Erklärvideos (ich kenne Ganteför aus früheren Zeiten persönlich, schätze ihn sehr und vertrat ihn sogar einmal in seinem Seminar an der Uni Konstanz). Ein „Sich lustig machen“ seitens Marotzke in der besagten Talk Show konnte ich allerdings nicht hören, auch den Namen Ganteför nicht. Dies lag aber vielleicht nur an meinem unzureichenden Anschauen der Lanz-Talk-Show. Talk-Shows ertrage ich nicht über längere Zeit.

Wie auch immer es sich verhielt, Ganteför ließ nicht locker. Ein Freund von ihm hatte die kostenbewehrte Version von ChatGpd abonniert und fragte spaßeshalber ChatGpd, was es über das Senkenmodell wüsste und ob es gemäß wissenschaftlicher Fachliteratur in Ordnung sei. Das Ergebnis darf als kleine Sensation gelten. Schauen Sie sich das Ganteför-Erklär-Youtube in seinen Einzelheiten selber an (hier). Natürlich ist das Senkenmodell in Ordnung, ChatGpd bestätigt es, und es entspricht der begutachteten Fachliteratur. Sogar die hier als Zeuge unverdächtige EU schustert auf diesem Modell ihre Klimapolitik zusammen. Dies allerdings mit einem derart abstrusen Fehler, dass man sich vor lachen verschluckt.

Der EU-Fehler geht so: Das Senkenmodell ist von der EU akzeptiert, d.h. je mehr anthropogenes CO2 in der Luft, umso mehr fließen in die Senken Ozeane und Pflanzenwachstum – heute verbleiben übrigens von 1 Tonne in die Atmosphäre geblasenem anthropogenen CO2 nur noch die Hälfte in der Luft, die andere Hälfte geht zu gleichen Teilen in die Ozeane und ins Pflanzenwachstum. Mit den Ozeanen ist die EU aber doch nicht einverstanden! Nicht der Physik wegen, sondern aus formalen Gründen, denn Ozeane gehören nicht zur EU. Unglaublich, aber wahr! Vielleicht dient dieser EU-Witz aber auch nur dazu, höhere CO2-Einsparungen zu rechtfertigen, EU-Verdummungen der Bevölkerungen sind hinreichend bekannt.

Nun aber zur Frage, warum Marotzke das Senkenmodell ablehnt. Er hätte für seine Auffassung sogar begutachtete Fachveröffentlichungen nennen können, was in einer Talk Show natürlich nicht möglich ist. Wissenschaft muss immer Streit sein, Marotzke hat also durchaus einen Punkt mit seiner Behauptung, die ich auch respektiere. Um zu verstehen, was er meinte und wo sein Fehler zu suchen ist, werde ich im Folgenden kurz das Senkenmodell vorstellen, weil ich selber Mitautor eines frühen papers darüber bin (s. Literaturanhang).

Die Schlüsselrolle beim CO2-Kreislauf spielen die Ozeane, die grob die vierzigfache Menge der Atmosphäre an frei gelöstem CO2 enthalten. Der CO2-Partialdruck der Ozeane ist infolgedessen nicht vom vergleichsweise verschwindenden CO2-Gehalt der Erdatmosphäre abhängig. Er bleibt konstant, unabhängig davon, wie viel CO2 die Menschheit in die Luft bläst. Zwischen Ozeanen und Atmosphäre vor dem anthropogenen CO2 gab es nur einen gleichgewichtigen natürlichen Hin-und-Her-CO2-Austausch, wobei die Verweilzeit eines CO2-Moleküls in der Luft nur wenige Jahre betrug. Am CO2-Gehalt der Luft hatte sich daher früher so gut wie nichts geändert. Dieses Gleichgewicht wurde durch die menschgemachten CO2-Emissionen dann zu einem immer höherem CO2-Gehalt der Luft verschoben (Henry Gesetz). Dies erfolgte nur, weil die natürliche Herstellung des CO2-Partialgleichgewichts zwischen Ozean und Atmosphäre eine lange Zeitverzögerung von über 50 Jahren aufweist – entsprechende Fachpublikationen geben unterschiedliche Werte an, was an den grundlegenden Mechanismen aber nichts ändert.

Die Konsequenz der geschilderten Zusammenhänge war und ist weiterhin ein stetig steigender CO2-Partialdruck der Luft im Vergleich zum dem konstant bleibenden CO2-Partialdruck der Ozeane. Der Partialdruck in der Luft wurde seit 1958 genau vermessen, er verlief von ca. 280 ppm bis etwa 320 ppm von 1850 bis 1958 und stieg danach bis auf  heute ca. 420 ppm an Der stetig höhere CO2-Partialdruck in der Luft drückt immer mehr CO2 in die Ozeane und das Pflanzenwachstum als zweite Senke. Die sich in dieser Richtung ändernden Werte des globalen CO2-Kreislaufs, die Quellen und Senken über die letzten Jahrzehnte werden benfalls seit Jahren gemessen, dokumentiert und in Fachpublikationen beschrieben. Im Anhang dieser EIKE-News ist eine (unvollständige) Literaturliste zu finden.

Nun der alles entscheidende Punkt, den die Klimakatastrophen-Alarmisten fürchten wie der Teufel das Weihwasser: Der CO2-Gehalt der Atmosphäre durch anthropogene CO2-Emissionen kann eine obere Grenze von ganz grob 600-800 ppm grundsätzlich nicht überschreiten! Damit wäre die berühnte Klimasensitivität, die auf Verdoppelung der jeweils aktuellen CO2-Konzentration der Luft basiert, bereits obsolet, denn 2 x 400 = 800 ppm sind gar nicht erreichbar.

Der Grund der genannten Obergrenze ist unschwer zu verstehen: Um den CO2-Anstieg in der Atmosphäre weiterhin zu steigern sind immer höhere CO2-Emissionen erforderlich, denn es fließen schließlich bei dieser Steigerung auch immer entsprechend gesteigerte Mengen des anthropogenen CO2 in die Ozeane und das Pflanzenwachstum. Theoretisch gleichbleibende anthropogene CO2-Emissionen würden nach sehr langen Einschwingzeit den CO2-Gehalt der Luft konstant werden lassen, alles anthropogene  CO2 ginge dann in die beiden Senken.

Man stelle sich dazu, wie bei Ganteför so schön veranschaulicht, die Atmosphäre als Badewanne und das CO2 als Wasser in der Wanne vor. Die Badewanne hat zwei Löcher, durch die immer mehr abfließt, je höher der Wasserstand der Badewanne ist. Bei konstantem CO2-Zufluss bleibt der sich enstellende Wasserspiegel (CO2-Konzentration der Luft) nach langer Abklingzeit konstant, obwohl die Menschheit konstant weiter CO2 in die Luft bläst.

Dies alles ist aber bei der genannten Grenze um die 600-800 ppm CO2 in der Luft beendet. Das Verbrennen der Ressourcen an Kohle, Öl und Gas reicht nämlich irgend wann nicht mehr für immer höhere CO2-Konzentrationen der Luft aus, weil dabei zwangsweise die Ozeane und das Pflanzenwachstum ebenfalls immer stärker mit dem anthropogenen CO2 „gefüttert“ werden. Bevor dies in wenigen hundert Jahren endgültig der Fall sein würde, werden freilich längst Kernkraftwerke (Brüter) der Generation IV die komplette Energieversorgung der Menschheit übernommen haben – CO2-frei und mit Brennstoffreserven von mehr als mehreren Millionen Jahren (hier). Die Fusion wäre theoretisch dazu auch fähig, ich glaube aber nicht, dass sie jemals wirtschaftlicher als die Fission sein kann. Es gibt infolgedessen absolut keinen Grund, einen unaufhaltbaren CO2-Anstieg der Atmosphäre durch menschgemachte Aktivitäten zu befürchten.

Von den Klima-Aktivisten und der Ozeanchemie mit unzähligen Forschern in Arbeit und Brot wird diese Schilderung nicht gerne gehört. Als wissenschaftliches Gegenargument führen sie den Revelle-Effekt an, der zukünftig die CO2-Aufnahme des Ozeans vermindern soll. Das ist vermutlich auch die Argumentation Marotzke’s, er hat sie in der Talk Show aber nicht näher erklären können. Der Revelle Effekt existiert tatsächlich (hier) – aber nur im Labor. Die Ozeane mit ihrer komplexen Biologie ticken anders, beispielsweise beherbergen sie Kalkschalen bildende Lebewesen, die nach Ende ihres Lebens auf den Meeresgrund sinken und weiteres mehr. In der Natur hat man den Revelle-Effekt nicht nachweisen können (hier). In dieser Studie der renommierten Atmospheric Chemistry and Physics der Europäischen Geophysikalischen Union EGU, lautet der entscheidende letzte Satz im abstract „Therefore, claims for a decreasing long-term trend in the carbon sink efficiency over the last few decades are currently not supported by atmospheric CO2 data and anthropogenic emissions estimates.”

Ganteför hat auf einem anderen Weg an Hand von Messungen ebenfalls korrekt gegen die Auffassung Marotzke’s argumentiert (s. Titelbild). Da Wissenschaft immer Streit sein muss, ist die oben geschilderte Erkenntnis der Korrektheit des Senkenmodells nicht in Stein gemeißelt. Es ist aber extrem unwahrscheinlich, dass sie falsch ist.  Marotzke sollte sich daher vielleicht einmal die Aussage von Richard Feynman, einem der bedeutendsten Physiker des 20. Jahrhunderts zu Herzen nehmen:

Egal, wie bedeutend der Mensch ist, der ein Modell vorstellt, egal, wie elegant es ist, egal wie plausibel es klingt, egal wer es unterstützt, wenn es nicht durch Beobachtungen und Messungen bestätigt wird, dann ist es falsch.

Eine (unvollständige) Fachliteratur zum Thema CO2-Senkenmodell

  • Joachim Dengler & John Reid (2023), Emissions and CO₂ Concentration – An Evidence Based Approach,  Atmosphere, mdpi
  • Keenan et al. (2023), A constraint on historic growth in global photosynthesis due to rising CO2, nature climate change
  • Wang, S., et al. (2020), Recent global decline of CO2 fertilization effects on vegetation photosynthesis, Science
  • O’Connor (2020),“Modeling of Atmospheric CO₂ Concentrations as a Function of Fossil‑Fuel and Land‑Use Change…”, Climate, mdpi
  • Gaubert et al. (2019), Global atmospheric CO2 inverse models converging on neutral tropical land exchange, but disagreeing on fossil fuel and atmospheric growth rate, Biogeosciences EGU
  • Strassmann & Joos (2018), The Bern Simple Climate Model (BernSCM) v1.0. Model Dev.
  • Zhu, Z., Piao, S., et al. (2016), Greening of the Earth and its drivers, Nature Climate Change
  • Weber, Lüdecke, Weiss (2015), A simple model of the anthropogenically forced CO2 cycle, Earth Syst. Dyn. Discuss.
  • Sarmiento et al. (2010), Trends and regional distributions of land and ocean carbon sinks, Biogeosciences
  • Rödenbeck et al. (2003),CO₂ flux history 1982–2001 inferred from atmospheric data using a global inversion…, Chem. Phys.
  • Stephens et al. (2007), Weak Northern and Strong Tropical Land Carbon Uptake from vertical profiles of atmospheric CO2, Science
  • Tans, Fung & Takahashi (1990), Observational constraints on the global atmospheric CO₂ budget, Science
  • Keeling & Whorf (1979), The Suess effect: ¹³Carbon–¹⁴Carbon interrelations, Int.

Ein Nachttrag in Memoriam des in 2010 verstorbenen EIKE-Mitglieds Ernst Beck

Immer wieder wird (korrekt) angemerkt, dass bodennahe CO2-Konzentrationen bis weit über 500 ppm ansteigen können und diese Werte bereits im 19. Jahrhundert vor der Industrialisierung belegt sind.  Die daraus abgeleitete Hypothese, dass der aktuelle CO2-Anstieg aus anthropgenen Quellen blanker Unsinn sei, geistert aus diesem Grund immer noch herum. Insbesondere Ernst Beck (Gymnasiallehrer in Freiburg) vertrat sie. Er hatte in jahrelanger monumentaler Arbeit unzählige Messungen von Meteorologiestationen des 19. Jahrhundert ausgewertet und weit höhrer CO2-Konzentrationen als heute gefunden. Die modernen CO2-Messungen werden allerdings auf hohen Bergen oder isolierten Inseln vorgenommen.

Dann passierte etwas, das einen nur noch den Hut vor Beck ziehen lässt. Er erkannte seinen Irrtum und korrigierte ihn ohne zu zögern. So verhält sich nur ein echter Wissenschaftler.  Beck  zusammen mit dem Franzosen Dr. Francis Massen waren dann meiner Kenntnis nach die ersten, die den Grund für die irritierend hohen CO2-Konzentrationen bis weit in 19. Jahrhundert hinein aufklärten und die modernen CO2-Messungen bestätigten.

Die Idee von Beck und Massen und Beck bestand darin, die historischen CO2-Messungen durch orts- und zeitgleiche Messungen der Windgeschwindigkeiten zu ergänzen, die oft noch den historischen Unterlagen beilagen. Dabei stellte sich heraus, dass starke Schwankungen der CO2-Konzentrationen bis hin zu sehr hohen Werten nur bei sehr kleinen Windgeschwindigkeiten auftraten, bei zunehmender Windgeschwindigkeit aber verschwanden. Anschaulich ausgedrückt, bläst der Wind die lokalen CO2-Fluktuationen weg und lässt nur den CO2-Untergrund übrig, der dann den gemessenen Mauna-Loa-Werten entspricht. Bei ihren zahlreichen Auswertungen konnten die beiden Autoren die Zuverlässigkeit Ihrer „Windmethode“ auf maximal 10 ppm Abweichung zu den Mauna-Loa-Daten eingrenzen. Da all dies kurz vor dem Tod Becks erfolgte, konnte die daraus folgende Fachpublikation nicht mehr in einem zuständigen Fachjournal eingereicht werden und ist daher leider nur indirekt unter

Massen, F., Beck, E. G., 2011. Accurate estimation of CO2 background level from near ground measurements at non-mixed environments. In: W. Leal Filho (Ed.). The Economic, Social and Political Elements of Climate Change, pp. 509-522. Berlin, Heidelberg: Springer.

aufzufinden.

Quelle des Titelbildes

Von mir entnommen aus der Fachstudie Hua et al. (2022): Atmospheric radiocarbon for the period 1950–2019, Radiocarbon 64:723–745

 

 

 

 

 




Eine begutachtete Widerlegung der menschgemachten CO2-Klimakatastrophe aus Polen

Begutachtete Studien, die die politisch gewünschte Mär von der maßgebenden Gefährdung unseres Planeten durch anthropogenes CO2 widerlegen, sind nicht gerade zahlreich. Die Gründe: Die Abneigung der Wissenschaftsverlage, solche Widerlegungen zu veröffentlichen, ist verständlich. Zudem riskieren CO2-kritisch publizierende Wissenschaftler ihren Arbeitsplatz. Wissenschaftliche Kritik an der Klima-Ideologie in begutachteten Fachveröffentlichungen läuft daher in der Regel nicht in Form offener wissenschaftlicher Konfrontation, sondern versteckt sich in Studien benachbarter Themen. Diese erlauben es dann, an Hand von auffällig tief gehängten Ergebnissen auch Kritisches zum CO2-Tabu zu bringen – denn das Thema der Studie war ja nun wirklich ein ganz anderes. Alle, von den Reviewern bis hin zu den fachlich kundigen Lesern wissen in solchen Fällen Bescheid und denken sich ihren Teil.

Daher war ich über eine an mich persönlich gerichtete Mail des polnischen Geologen Maciej Dabski überrascht, in der er mir sein jüngstes paper zur CO2-Hypothese schickte. Es ist begutachtet, fundamental kritisch der anthropogenen-Klimahypothese gegenüber, redet nicht um den Brei herum und geht bereits mit dem Titel „Global climate change, CO2 and climatic catastrophes“ in die Vollen. M. Dabski behandelt in seiner Arbeit allerdings allein schon aus Platzgründen nicht alle Schwachpunkte der CO2-Katastrophenhypothese, denn dies hätte wohl den Umfang seines papers verzehnfacht.

Die Studie von M. Dabski ist in einem polnischen Wissenschaftsverlag in Englisch (hier) als Nummer 486 erschienen, zielt daher international, ist open und kann infolgedessen frei verteilt werden. Ohne des Polnischen mächtig zu sein, erkennt man beim Aufruf des oben genannten Links, dass es sich um einen Geologie-Fachverlag handelt. In Google Scholar ist die Studie von M. Dabski wegen der Kürze der Zeit seit ihrem Erscheinungstermin noch nicht gelistet, das wird aber in Kürze erfolgen. Man kann sich alle bisherigen paper Dabski‘s von Google Scholar anzeigen lassen, indem man einfach seinen Namen mit Vornamen ins Suchfenster eingibt.

Ein geologischer Fachverlag senkt sicherlich die unwissenschaftlichen Hürden, die sich solch einer Arbeit entgegenstellen.  Geologen haben eine tiefere Sicht auf unsere Erde, weil sie sich besser mit ihr auskennen. Ihre Kenntnisse reichen nicht wie die in der Klimamodellierung bis höchstens 1850 zurück. Klimamodelle basieren nämlich auf der Prämisse, dass es vor 1850 keinen Klimawandel gab – schließlich gab es davor auch kein anthropogenes CO2. Solch ein sachlicher Unsinn oder “Klimagedöns“ (Zitat Gerhard Shröder) verfängt bei Geologen nicht, weil ihnen der fortwährende Klimawandel der Erde seit ihrer Existenz bestens bekannt ist

Die Arbeit von M. Dabski hat mich nicht nur gefreut, sondern auch eine Erinnerung an vergangene Zeiten wiederbelebt. In den Zeiten des eisernen Vorhangs und meiner Diplomarbeit am Max-Plack-Institut für Kernphysik in Heidelberg waren uns nur Kollegen von der Universität Krakow bekannt, die sich mit Kernphysik beschäftigten und Ergebnisse veröffentlichten. In allen anderen Ländern des Ostblocks herrschte dagegen eisernes Schweigen. Zum Zweiten war es ein polnischer Wissenschaftler – der Physiker Zbigniew Jaworowski (1927-2011) -, durch dessen paper ich vor etwas mehr als 20 Jahren überhaupt erst auf die CO2-Problematik aufmerksam wurde. Es handelte sich um sein paper „Solar Cycles, not CO2 Determine Climate“, das im Winter 2003-2004 erschien (hier). Damals war ich an der CO2-Problematik nicht interessiert, aber die Veröffentlichung von Jaworowski hat mich sofort von der Fragwürdigkeit des Narrativs vom klimagefährlichen anthropogenen CO2 überzeugt.

Im Laufe seiner Ausbildung als Physiker lernt man zwei praktische Regeln: Zum Einen, dass  persönliche Befindlichkeiten beim Zerpflückens der Argumente eines physikalischen Meinungsgegners für beide Seiten ein strenges Tabu ist. Zum Zweiten zu unterscheiden, ob das, was ein Fachmann oder gar ein Fachkollege in einem Vortrag erzählt, vernünftig oder Quatsch ist. Die Arbeit von Jaworowski war ausgesprochen vernünftig und kann unter dem oben angegebenen Link als pdf heruntergeladen werden. Seine Aussagen sind immer noch relevant und korrekt.