Reaktoren als Schiffsantrieb

von Dr. Ing. Klaus-Dieter Humpich

In den letzten Monaten verstärkt sich international die Suche nach „alternativen“ Schiffsantrieben. Ursache sind immer strengere Umweltschutzvorschriften auch auf hoher See (Schwefeldioxid, Stickoxide, Ruß etc.) und der „Kampf gegen CO2 zur Weltenrettung“. Bisher gibt es drei Wege:

  1. Ausrüstung der Schiffe mit Wäschern, wie sie schon seit Jahren in Kraftwerken üblich sind. Diese nehmen aber viel Platz ein und sind aufwendig im Betrieb. Vorteil: Man kann weiterhin Kraftstoffe minderer Qualität (z. B. hoher Schwefelgehalt) verwenden.
  2. Die Umstellung auf Gas-Diesel-Motoren, die mit über 98% Erdgas gefahren werden. Wegen des kleineren Energiegehalts (≈65% von Diesel) erfordern sie jedoch größere Tankanlagen, die überdies auch noch für LNG (-164°C) geeignet sein müssen. Abgesehen von hohen Investitionen, schlechterer Infrastruktur und höheren Betriebskosten, ergibt das weniger Schadstoffe und auch weniger CO2. Bislang galt es deshalb als Königsweg. Bis – erfahrene Energietechniker ahnen es – die „Grünen“ die „schlechte Klimabilanz von Methan“ aus dem Hut zogen: In der üblichen Manier wurden nun so hohe Schlupfraten unterstellt, daß solche Schiffe angeblich noch „klimaschädlicher“ sind.
  3. Die Verwendung von „alternativen Kraftstoffen“, wie Methanol (≈50% von Diesel), Wasserstoff (≈20% von Diesel) oder gar Ammoniak (bei -33°C oder 9bar, ≈33% von Diesel). Sie sollen mittels „Grünstrom“ aufwendig produziert werden. Abgesehen von ihrer Giftigkeit (CH4 O, NH3) erscheint das als eine Schnapsidee. Wo sollen die gewaltigen Mengen „Grünstrom“ eigentlich herkommen? In Wirklichkeit doch aus Kohle und Kernenergie?

Es verwundert daher nicht, daß immer mehr Reeder Kernreaktoren als Antrieb wieder entdecken.

Der Istzustand

Man muß zwischen militärischer (U-Boote, Flugzeugträger, Kreuzer) und ziviler Nutzung unterscheiden. Bisher sind die USA, Russland, Frankreich, GB, China und Indien nukleare Seemächte. Es wurden mehrere hundert Reaktoren von diesen Staaten für solche Schiffe gebaut. Wegen der speziellen Anforderungen sind diese Reaktoren für die zivile Nutzung ungeeignet. Es wurden überwiegend Druckwasserreaktoren mit hoher Anreicherung (>93% U235) und auch schnelle Reaktoren von den USA (USS Seawolf SSN-575 mit Natrium zur Kühlung) und Russland (Alfa-Klasse mit Blei-Wismut als Kühlmittel) eingesetzt. Eindeutig dominiert jedoch der Druckwasserreaktor.

Die zivile Nutzung setzte frühzeitig mit der Savannah (USA, 1962–1972), der Otto Hahn (D, 1968–1997), der Mutsu (Japan, 1974–1992) und der Sevmorput (UDSSR, 1988–2007 und wieder seit 2016) ein. Letzterer ist ein Container/Lash-Carrier, der immer noch in Betrieb ist. Die anderen sind aus wirtschaftlichen Gründen einen frühen Tod gestorben. Eine Sonderstellung nehmen die russischen Eisbrecher ein: Die Lenin (1959–1989) und die Taimyr Sovetskiy Soyuz (1989–2014) sind nicht mehr im Dienst. Jedoch der Taimyr (1989), der Vaygach (1990), der Yamal (1992), der 50 Let Pobedy (2007) und der Arktika (2020). Weitere sind in Planung. Es gibt also genug Betriebserfahrung.

Anforderungen an einen Schiffsantrieb

Für alle Antriebe gelten folgende Gesichtspunkte:

  • Energiedichte: Jedes Schiff muß nicht nur sein komplettes Antriebssystem bei sich tragen, sondern auch den gesamten Kraftstoffvorrat. Das daraus resultierende Gewicht bzw. Volumen geht einem Schiffskörper als Fracht verloren.
  • Wirkungsgrad: Bezieht sich nicht nur auf die Umwandlung des Kraftstoffs, sondern auch auf den gesamten Antriebsstrang.
  • Umweltbelastung: Während des Betriebs (z.B. Abgase) und auch bei Unglücken (z. B. Ölverschmutzung).
  • Sicherheit: Feuer, Kollisionen etc. Auf einem Schiff kann man weder weglaufen noch einfach die Feuerwehr rufen.
  • Verfügbarkeit: Ausfall der Antriebsanlage bedeutet automatisch Seenot. Aber auch Liegezeiten für Wartungsarbeiten oder Sicherheitsüberprüfungen bedeuten keine Auslastung und meist hohe Kosten.
  • Lastwechsel und Anfahren: Schiffsantriebe müssen den gesamten Geschwindigkeitsbereich von Null bis Höchstgeschwindigkeit ohne all zu große Verluste verändern können und dies muß möglichst schnell geschehen (Revierfahrt). Die Zeit bis zur Einsatzfähigkeit (Hafen, Kanaleinfahrten etc.) soll möglichst klein sein.
  • Wirtschaftlichkeit: Hängt maßgeblich von den Investitionskosten und dem Brennstoffverbrauch über die gesamte Lebensdauer ab (Öltanker oder Kreuzfahrer). Dies ist nur schwer im Voraus kalkulier- und optimierbar. Schiffe haben meist eine relativ kurze Lebensdauer (ca. 20 Jahre).

Reaktoren

Kernreaktoren sind sehr klein und leicht verglichen mit einem Schiffsdiesel. Das notwendige Gewicht kommt aber von der notwendigen Abschirmung gegen Strahlung. Man muß von etwa 2000 Tonnen ausgehen. Hinzu kommt noch der eigentliche Antrieb in Form einer Dampf- oder Gasturbinenanlage nebst Hilfsaggregaten. Für Handelsschiffe kommen in absehbarer Zeit nur Druckwasser- (PWR), Hochtemperatur- (HTR) oder Salzschmelze-Reaktoren (SSR) in Betracht. Druckwasserreaktoren haben so geringe Temperaturen, daß nur eine Dampfturbine verwendet werden kann. Die beiden anderen könnten auch Gasturbinen verwenden. PWR und HTR stehen unter Druck und sind damit auf einen entsprechend großen Sicherheitsbehälter angewiesen. HTR auf der Basis von Helium als Kühlmittel sind voluminös. PWR erfordern etwa alle zwei Jahre einen mehrwöchigen Hafenaufenthalt zum Wechseln der Brennelemente. HTR als Kugelhaufenreaktoren könnten kontinuierlich „abgebrannte“ Kugeln ersetzen. SSR könnten sogar die gesamte Lebensdauer des Schiffs ohne Brennstoffwechsel auskommen.

Abgesehen davon, daß bisher noch kein HTR und kein SSR auf einem Schiff eingebaut worden ist, ist die Auswahl des Reaktortyps nur im Zusammenhang mit Schiffstyp und Antriebsstrang möglich.

Antriebssystem

Dampf- (Rankine-Prozess) und Gasturbinen (Brayton-Prozess) sind erprobte Schiffsantriebe. Sie wirken üblicherweise über ein Untersetzungsgetriebe direkt auf die Schiffsschraube. Solche Getriebe sind komplex, teuer und oft auch störanfällig. Die Reaktoranlage sollte aus Stabilitätsgründen mitschiffs eingebaut werden. Damit ergibt sich eine sehr lange Welle. Moderne Containerschiffe haben einen Bedarf an elektrischer Energie von etwa 25% der Antriebsleistung. Es stellt sich damit die Frage, ob man nicht gleich zu einem vollelektrischen Antrieb übergeht, durch den man konstruktive Freiheit gewinnt. Man hätte dann das kleine „Kernkraftwerk“ gut und sicher in der Mitte des Schiffs eingebaut und könnte sogar sogenannte „Pods“ verwenden. Das sind Elektromotoren in 360° drehbaren Gondeln unter Wasser. Solche Schiffe brauchen keine Ruderanlage.

Verwendet man Reaktoren mit höheren Betriebstemperaturen (HTR ca. 700°C, SSR ca. 580 °C) könnte man auf Gasturbinen übergehen. Es sind offener und geschlossener Kreisprozess zu unterscheiden. Bei offenen Gasturbinen wird Luft angesaugt, in der Brennkammer erhitzt und diese tritt nach getaner Arbeit als Abgas aus dem Schornstein aus. Solche Gasturbinen sind im Schiffbau Stand der Technik. Die eigentliche Turbine ist nur sehr klein, das erforderliche Beiwerk (z. B. Luftfilter) aber durchaus voluminös. Wollte man nun Kernenergie einsetzen, müßte man die Brennkammer durch einen geeigneten Wärmeübertrager ersetzen. Es empfiehlt sich, einen HTR mit möglichst hohen Temperaturen zu verwenden, da der Wirkungsgrad solcher Turbinen stark temperaturabhängig ist. Solch eine Turbine erscheint für den Betrieb eines Handelsschiffs eher ungeeignet.

Eine vielversprechende Alternative ergibt ein geschlossener Kreislauf mit überkritischem scCO2 (supercritical). Bei CO2 in einem Betriebsbereich oberhalb des Kritischen Punkts (31°C und 74bar) erhält man – verglichen mit Dampfturbinen – eine extrem kleine Turbine mit viel weniger Stufen, da das scCO2 eine Dichte wie die Flüssigkeit, aber gleichzeitig die (geringe) Viskosität des Gases, hat. Bei 550°C und 80 bar Druck, kann man theoretisch Wirkungsgrade von bis zu 50% – gegenüber nur etwa 30% bei kleinen Druckwasserreaktoren – erreichen. Allerdings laufen solche Turbinen mit 40 bis 75 Tausend Umdrehungen pro Minute. Es erscheint deshalb nur die Verwendung als vollelektrischer Antrieb möglich. Kosten und Betriebssicherheit könnte nur ein realisiertes Schiff zeigen.

Lastwechsel und Anfahren

Ein Schiff muß von Stillstand im Hafen bis volle Fahrt betrieben werden. Außerdem ergibt sich eine unterschiedliche Belastung, je nach Beladung (Ballast), Strömung, Seegang etc. Ein Schiff muß auch jederzeit (Reede) anfahrbar sein. Auch das ist keine triviale Forderung. Ein Dieselmotor ist in diesen Disziplinen unschlagbar – ein Grund, warum er auch bei großen Schiffen die Dampfturbine verdrängt hat (Vorwärmung). Heute liegt die Grenze bei Dieselmotoren für Containerschiffe bei rund 80 MW Wellenleistung. Wie weit das noch zu steigern ist (Fertigung), wird sich zeigen. Die verfügbaren Motoren begrenzen jedoch die (sinnvolle) Größe eines Handelsschiffes.

Druckwasserreaktoren von Kernkraftwerken lassen sich nicht einfach auf Schiffe übertragen. Ein wesentlicher Faktor ist das Wieder-Anfahren nach Abschaltung. Durch den Zerfall der Spaltprodukte Jod und Tellur bilden sich Xenon und Samarium – zwei Elemente mit außerordentlich großen Einfangquerschnitten für Neutronen. Abhängig von der „Überschußreaktivität“ kann sich eine Totzeit von mehreren Stunden ergeben, bis der Reaktor überhaupt wieder in Betrieb gehen kann. Dies ist mit ein Grund, warum Marine-Reaktoren eine so hohe – aber unerwünschte (Proliferation) – Anreicherung besitzen.

Sicherheit und Verfügbarkeit

Die Vorschriften, die Überwachung und die Ausbildung müssen genauso streng sein, wie bei Kernkraftwerken an Land. Insbesondere die US-Marine beweist seit Jahrzehnten, daß ein unfallfreier Betrieb möglich ist. Schlechtes Gegenbeispiel ist die russische Marine. Schlechte Ausbildung, Schlamperei und Mangelwirtschaft haben sogar zu mehreren Totalverlusten und unzähligen Unfällen geführt. Auf nuklearen Schiffen muß ausreichend Redundanz bei technischen Anlagen vorhanden sein. So sollten mehrere Notdiesel vorhanden sein, die das gesamte Schiff, den Reaktor und sogar einen kleinen Notmotor (für eine Langsamfahrt bis zum nächsten Hafen oder wenigstens in ein sicheres Gebiet) mit elektrischer Energie versorgen können.

Brennstoffwechsel, notwendige (umfangreiche) Wartungsarbeiten und Sicherheitsüberprüfungen ergeben über die Nutzungsdauer erhebliche Ausfälle und erzeugen damit beträchtliche Kosten. Russische Eisbrecher mit ihren Saisoneinsätzen haben diese Probleme nicht. Es sind daher Konzepte ohne Brennelementewechsel erforderlich. Auch hier weisen Marineschiffe den Weg: Dort ist der Brennstoffwechsel erst nach der halben geplanten Nutzungsdauer nach etwa 20 Jahren vorgesehen. Dieser wird mit einer generellen Überholung und Modernisierung des Schiffs kombiniert. Nach der mehrmonatigen Liegezeit verläßt praktisch ein „neues“ Schiff die Werft.

Umweltbelastungen

Bei konventionellen Schiffen sind diese in Form von Abgasen und Abwässern permanent. Hier hat sich zwar gewaltiges getan (Primärmaßnahmen oder Abgasreinigung, Müllverbrennung, Kläranlage usw.), aber wegen der hohen Anzahl sind sie immer noch deutlich spürbar. Es ist abzuwarten, was den „Ökos“ noch alles einfällt. Es sei nur an das Schicksal des Dieselmotors bei PKW erinnert. Darüber hinaus ist durch die Erschaffung neuer Abgaben (CO2 Abgabe, Energiesteuer) die Kostenschraube stets gezielt überdehnbar.

Die Angst vor einem „Atomunfall“ ist ziemlich unbegründet. Wie die Totalverluste mit U-Booten gezeigt haben, ist das Strahlenrisiko sogar weit geringer als an Land. Wasser ist eine nahezu ideale Abschirmung (siehe Abklingbecken) und es würden sich bei einer Freisetzung in den Weiten der Meere radioaktive Stoffe sehr schnell verdünnen (siehe Kernwaffenversuche sogar unter Wasser im Pazifik). Die biologischen Auswirkungen wären kleiner als bei den bekannten Tanker- und Bohrinsel Unglücken.

Rechtliche Situation

Grundsätzlich muß jedes Schiff durch eine Klassifizierungsgesellschaft zugelassen sein. Ansonsten ist es frei auf der Hohen See zu fahren. Allerdings kann jeder Hafen die Erlaubnis zum Einlaufen verwehren. Das ist in der Tat grundsätzlich und in bestimmten Fällen geschehen. Wie sich das entwickelt, wird die Zukunft zeigen. Würde den Einsatz aber nicht grundsätzlich verhindern, da die großen Handelsrouten ohnehin zwischen den „Atommächten“ verlaufen. Allerdings ist eine möglichst enge Abstimmung zwischen möglichst vielen Staaten der beste Garant für eine (schnelle) Verbreitung.

Die Wirtschaftlichkeit

Letztendlich hängt immer alles von der Wirtschaftlichkeit ab. Man sollte sich durch das Scheitern von Savannah, Otto Hahn und Mutsu nicht täuschen lassen. Das waren lediglich Demonstrations- und Werbeobjekte. Dies gilt insbesondere für die Savannah, die eher eine schnittige Jacht als ein Handelsschiff war. Sie haben allerdings alle drei unter Beweis gestellt, daß ein Handelsschiff mit Kernenergieantrieb möglich ist.

Die Investitionskosten können heute nicht sicher abgeschätzt werden. Sie sind mit Sicherheit höher als bei einem konventionellen Schiff. Andererseits wäre mit einer steilen Lernkurve zu rechnen. Laufen erstmal ein paar Schiffe erfolgreich, ist schnell mit größeren Bestellungen zu rechnen. Standardisierungen sind dabei sehr hilfreich. In diesem Sinne ergibt sich gerade auf dem Land mit den SMR (Kleine Reaktoren bis 300 MWel und Kleinstreaktoren bis 20 MWel) eine förderliche Situation: Umstellung der Genehmigungsbehörden auf „kleine“ Reaktoren und Aufbau einer Industrie mit „Massenfertigung“. Der Schritt – insbesondere für Nationen mit nuklearer Marine – aufs Meer ist dann nur noch kurz.

Es müssen Betriebsmannschaften ausgebildet werden. Auch hier haben die Nationen mit nuklearer Marine einen entscheidenden Vorteil: Sie verfügen über solche Ausbildungsstätten, haben jahrzehntelange Erfahrung und sogar erfahrene „Gediente“. Außerdem hat sich seit dem Jahrhundert der Savannah und Otto Hahn eine Menge auf dem Gebiet der Automatisierung und Überwachung (Computer) und Fernwirktechnik (Satellitenkommunikation) getan.

Der wesentliche Faktor für die Betriebskosten eines Schiffs ist der Brennstoff. Fossile Brennstoffe werden teurer werden – nicht zuletzt wegen Umweltauflagen. Bei Kernreaktoren hingegen, spielen die Brennstoffkosten (Uran, Anreicherung, Entsorgung) schon heute eine nahezu vernachlässigbare Größe. Gehen die „modernen“ Reaktoren, die heutigen „Atommüll“ weiter nutzen, erst einmal in Betrieb, werden die Brennstoffkosten absehbar noch weiter sinken.

Bei Schiffen kommt noch eine Besonderheit hinzu: Die Antriebsleistung steigt mit der dritten Potenz (doppelte Geschwindigkeit, achtfache Leistung). Aus diesem Grund ist man in den letzten Jahrzehnten zu immer langsameren Schiffen übergegangen. Langsam, bedeutet aber weniger Umläufe pro Jahr (z. B. Shanghai – Wilhelmshaven – Shanghai) und das führt bei den Reedern zu mehr Schiffen und damit zu höheren Kosten. Ein weiterer Vorteil hoher Reisegeschwindigkeit sind kurze Transportzeiten. Es gibt genug Güter, wo das ein Kostenvorteil an sich ist. Deshalb gibt es Luftfracht oder Eisenbahntransporte sogar von China nach Duisburg. Mit steigenden Zinsen nimmt dieser Trend wieder zu. Insofern verwundert es nicht, daß man bereits Studien für ein nukleares Containerschiff mit 37,5 Knoten (über 1600 km pro Tag) gemacht hat. Solche Fahrzeiten müssen sogar gegen die Nutzungsgebühren und Passagedauern von Suez und Panama Kanal gegengerechnet werden. Dies ist nur ein Beispiel dafür, daß Wirtschaftlichkeit in der Logistik ein komplexes Thema ist.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Willis Eschenbach hat gar nicht gemerkt, dass er den Treibhauseffekt selbst widerlegt hatte

von Ulli Weber

 

Am 11. September 2022 erschien auf EIKE die Übersetzung eines Artikels von Willis Eschenbach mit dem Titel „Eine ernste Frage“. Die Titelfrage lautet, Zitat aus dieser deutschen Übersetzung:

Wie wird aus einem CO2-Antrieb von 1,2 W/m² an der Oberseite der Atmosphäre auf mysteriöse Weise ein zusätzlicher Oberflächen-Energiefluss von 7 W/m², den wir brauchen, um die Erde um 1°C zu erwärmen?“

Einmal abgesehen davon, dass Eschenbach mit Durchschnittswerten rechnet, mit denen sich die Stefan-Boltzmann-Beziehung physikalisch gar nicht abbilden lässt, lehnt er in seinem Artikel jede Diskussion über die Existenz des sogenannten „natürlichen atmosphärischen Treibhauseffektes“ ausdrücklich ab. Dabei hatte er dort selbst hergeleitet:

  • Eine Erhöhung der Oberflächentemperatur unserer Erde um 1 Grad Celsius erfordert nach dem Stefan-Boltzmann-Gesetz eine zusätzliche spezifische Strahlungsleistung von etwa 7 W/m².
  • Nach Aussagen des IPCC soll eine Verdoppelung des atmosphärischen CO2-Anteils eine Verminderung der langwelligen Abstrahlung der Erde @TOA um 3,7 W/m² zugunsten der sogenannten „atmosphärischen Gegenstrahlung“ bewirken.
  • Bei einer Klimasensitivität von 3°C/2xCO2 (offenbar als IPCC-Mittelwert) ergibt sich für eine Temperaturerhöhung der Erdoberfläche um ein Grad Celsius eine erforderliche Reduzierung der langwelligen Abstrahlung @TOA von 1,2 W/m² an.

Willis Eschenbach hat damit den Knackpunkt des IPCC-Treibhausmodells exakt herausgearbeitet: Danach stehen @TOA 1,2 W/m² zur Verfügung, um die „THE-Gegenstrahlung“ an der Erdoberflächen um 7 W/m² zu erhöhen und damit die Oberflächentemperatur um 1 Grad Celsius ansteigen zu lassen.

Das führt zu einer klassischen Widerlegung des sogenannten „natürlichen atmosphärischen Treibhauseffektes“ durch einen physikalisch unmöglichen Energiegewinn aus dem Nichts. Dieser Energiegewinn kann nämlich nur durch ein funktionierendes atmosphärisches Perpetuum Mobile aufgebracht werden. Aber selbst das alarmistische Wikipedia weiß, Zitat:

Als Perpetuum mobile (lat. ‚sich ständig Bewegendes‘, Mehrzahl Perpetua mobilia) werden unterschiedliche Kategorien ausgedachter, nicht existierender Geräte bezeichnet, die – einmal in Gang gesetzt – ohne weitere Energiezufuhr ewig in Bewegung bleiben und dabei je nach zu Grunde gelegter Definition möglicherweise auch noch Arbeit verrichten sollen. Allen ist gemeinsam, dass sie mindestens einem thermodynamischen Hauptsatz widersprechen und deshalb nicht realisierbar sind.

Wir haben es beim sogenannten „natürlichen atmosphärischen Treibhauseffekt“ also mit dem klassischen Widerspruch zwischen herkömmlicher und erneuerbarer Physik zu tun. Es bleibt zu hoffen, dass der erneuerbaren Alchemie die Auflösung dieses Widerspruchs noch vor dem kommenden Winter gelingen möge, denn wer über ein solches Perpetuum Mobile mit einem Hebel von knapp sechs verfügt, der benötigt auch kein russisches Erdgas mehr…

 




Was bedeutet „unter 10 μSv/a“?

von Dr. Lutz Niemann

Herr Ulrich Waas hat einen exzellenten Artikel geschrieben „Die Grünen sind Genies darin, das Volk über die Atomkraft zu täuschen“, der in der Berliner Zeitung am 23.8.2022 abgedruckt worden ist (https://www.berliner-zeitung.de/politik-gesellschaft/kernkraftwerke-robert-habeck-die-gruenen-sind-genies-darin-das-volk-ueber-die-atomkraft-zu-taeuschen-li.258958). Darin wurde auf den bei Rückbau von Kernkraftwerken und bei Endlagerung geltenden Strahlen-Grenzwert 10 μSv/a (= Mikrosievert pro Jahr) eingegangen. Die Unsinnigkeit des Grenzwertes von 10 µSv/a wurde erläutert, hier sollen noch weitere Argumente zugefügt werden.

  • Die Grenze von 10 µSv/a gilt im Bereich Rückbau und Endlagerung, es ist die über ein ganzes Jahr aufsummierte zusätzliche Bestrahlungsdosis. Das bedeutet bei Gleichverteilung über ein Jahr eine zusätzliche Ortsdosisleistung von 0,0011 µSv/h = 1 nSv/h, und das ist ganz grob etwa ein Hundertstel der Schwankungsbreite der überall auf der Erde vorhandenen Radioaktivität. Bestrahlungsdosen in diesem Bereich sind belanglos und auch nicht meßbar, sie werden in Rechenmodellen berechnet.
    Bei den Jahrestagungen Kerntechnik wurde wiederholt über den Unsinn der Bestimmung „unter 10 μSv/a“ diskutiert.
  • Es ist richtig, durch einen Transatlantikflug von FRA – JFK – FRA erhält jeder Reisende in den 15 Stunden des Fluges etwa 100 µSv, also das Zehnfache von 10 µSv (das können je nach Aktivität der Sonne auch 40% mehr oder 20% weniger sein). Die Ortsdosisleistung – also der Strahlenpegel – beträgt in Reiseflughöhe über Deutschland ca. 6 µSv/h, er ist etwa 100-fach höher als am Boden. Ein 100-fach erhöhter Strahlenpegel würde in Kernkraftwerken sämtliche Alarmglocken ertönen lassen, im Flugzeug ist er akzeptiert, man weiß aus Erfahrung daß er harmlos ist.
  • Das fliegende Personal der Lufthansa sammelt in einem Jahr eine zusätzliche Strahlendosis bis zu 10 000 µSv = 10 mSv an, also das 1000-fache von der Grenze 10 µSv/a (sehr abhängig von der Flugroute). Das geschieht ohne irgendwelche negativen gesundheitlichen Folgen.
    Es ist immer auch die Zeit, in der eine Dosis einwirkt, zu beachten. Zur Veranschaulichung erinnere ich an die Wirkung von einer Dosis Ethanol (Alkohol): Die Flasche Schnaps ist tödlich beim Konsum in der Zeit von wenigen Minuten, jedoch harmlos bei Verteilung über ein Jahr. Dieses Beispiel zeigt die Unsinnigkeit der im Strahlenschutz üblichen Aufsummierung kleinster Dosen über ein ganzes Jahr an.
  • Für medizinische Röntgenuntersuchungen sind die Bestrahlungsdosen folgender Tabelle zu entnehmen [1]:

    Es werden in der Medizin Bestrahlungsdosen vom 1000-fachen der Grenze „10 μSv/a“ angewendet. Das geschieht innerhalb von Zeiten weniger Minuten, täglich zum Wohle von Millionen Patienten. Das ist ein weiteres Beispiel für die Unsinnigkeit der gesetzlichen Grenze von „unter 10 μSv/a“.
  • Erst bei Bestrahlungen zur Krebsbekämpfung kommt man in den Bereich, wo schwere Nebenwirkungen durch die Strahlung auftreten. Dort wird über einen Zeitraum von 6 Wochen an den 5 Tagen der Woche in der Regel täglich mit 2 Sv bestrahlt, in der Summe mit 60 Sv [2]. Es heißt dort: „Gesundes Gewebe kann subletale Schäden in den Bestrahlungspausen weitgehend reparieren, die Erholungszeiten bei malignen Zellen sind für vergleichbare Reparaturvorgänge häufig länger.“ Bei der Krebsbekämpfung geht es um das Weiterleben der Patienten, dort geht man bis an die Grenze der für gesundes Gewebe gerade noch erträglichen Bestrahlungsdosis.
    Der Abstand der Bestrahlungsdosen zur oben genannten Grenze „unter 10 μSv/a“ liegt ganz grob im Bereich Millionen, der Abstand bei der Dosisleistung im Bereich Milliarden. – Wo kann man bei diesen Abständen noch die Notwendigkeit zur Festlegung einer Grenze erkennen?
    Dem geneigten Leser sei empfohlen, auch bei Ethanolkonsum sich die Bedeutung des Abstandes von einem Millionstel der letalen Dosis klar zu machen.

Mit der Grenze 10 µSv/a wird eine Gefahr suggeriert, diese Gefahr gibt es jedoch nicht. Durch Schutzmaßnahmen vor einer nicht existierenden Gefahr werden Arbeitsplätze geschaffen, eine riesige Industrie lebt davon. So wird der unwissende Bürger in die Irre geführt, er muß unnütze Dinge bezahlen.

Inzwischen hat die Angstmache vor Strahlung Deutschland dazu gebracht, freiwillig aus seiner lebensnotwendigen Stromversorgung auszusteigen.

Endlagerung oder das „1-Millionen-Jahre“-Missverständnis

Das von der Politik erfundene Totschlagargument „1-Million-Jahre“ suggeriert ein unlösbares Problem mit der Endlagerung. Auch dazu einige zusätzliche Gedanken:

  • In der oberen 1 Meter dicken Erdschicht eines normalen Gartens von 500 m² Fläche sind 3 bis 5 kg Uran enthalten. Wenn man dieses Uran aus dem Garten zum Einsatz im Kernkraftwerk gewinnen könnte und im Schnellen Reaktor einsetzen würde, dann würde es ausreichen 30 bis 50 Personen ein ganzes Leben mit Strom zu versorgen.
    Dieses Beispiel zeigt die ungeheure Energiedichte im Uran an und damit die millionenfach höhere Bedeutung für die Stromversorgung im Vergleich mit den fossilen Brennstoffen Kohle, Gas, Öl.
  • Es gelangt Uran mit Nahrung und Getränken auch in unseren Körper, im Laufe des Lebens sammeln sich etwa 50 µg Uran an [3]. – Aber was bedeuten nun 50 µg Uran, ist das viel oder ist das wenig? Sind wir dadurch mit Uran vergiftet? 50 µg Uran sind eine verschwindend geringe Masse, aber es sind 100 000 000 000 000 000 Uranatome und das ist eine gigantisch große Zahl.
    Durch Zahlenspielereien dieser Art lässt sich beliebig Angst erzeugen. In Deutschland wurde die Methode zur Perfektion gebracht.
  • Aus dem ASSE-Bergwerk wurde durch die Förderung von Kalisalz (Kalium-40 ist radioaktiv) etwa genau so viel Radioaktivität heraus geholt, wie später durch Einlagerung von schwach aktiven Stoffen wieder hinein gebracht wurde (nach 100 Jahren sind die 250 g Pu-241 verschwunden, die heute noch den überwiegenden Teil der Aktivität darstellen).
    Mit dem Kalisalz wird auf unseren Äckern genau so viel Radioaktivität verteilt, wie es in der Tiefe des ASSE-Bergwerkes als Gefahr dargestellt wird.
  • Aus den schönen Rechenbeispielen von Herrn Ulrich Waas zum Urangehalt der Erdkruste folgt für das Deckgebirge oberhalb der ASSE: Die schwach radioaktiven Abfälle in der Tiefe werden durch ein Deckgebirge mit dem100-fachen an Radioaktivität geschützt. Das gilt sowohl in Bezug auf die Aktivität wie auch in Bezug auf die Masse [4].
    Warum sollen die Abfälle wieder an die Oberfläche geholt werden, wo sie doch durch die 100-fach höhere „Gefahr“ im Deckgebirge geschützt werden?
  • Vor großen Gefahren sollen Menschen geschützt werden, und das ist immer eine hohe Dosis in kurzer Zeit. Bei den Abfällen aus der Kernspaltung gibt es diese Gefahr kaum. Die Gefahr wurde durch unsinnige Grenzwerte suggeriert und später von der Politik für politische Ziele ausgenutzt. Die Spaltprodukte aus der vollständigen Stromversorgung eines Menschen durch Kernkraft aufsummiert für das gesamte Leben machen gerade einmal 100 Gramm aus. Das ist die Masse einer Tafel Schokolade, vor der Menschen problemlos geschützt werden können [5].

Die Kernspaltungsenergie ist eine der großartigsten Erfindungen der Menschheit. Überall wird sie benutzt, überall auf der Erde wird eingestiegen, nur in Deutschland wird ausgestiegen. Die Ursache für das Verhalten Deutschlands ist politischer Art, verstärkt durch ein wahres Trommelfeuer der Medien durch jahrzehntelange Falschinformation der Bürger zu nicht existierenden „Gefahren“ von Radioaktivität und Strahlung. Die Deutschen sollten sich besinnen und an klugen Nachbarvölkern ein Beispiel nehmen, z. B. an Rußland mit der Anwendung des Schnellen Reaktors, wie er in Deutschland in Kalkar fertig gestellt worden ist, aber nie in Betrieb ging.

Hinweise

[1] Strahlenschutzlexikon 2012

[2] Deutsches Ärzteblatt, Jg.110, Heft 17, 26.4.2013, Seite 720 ff

[3] P. Roth, E. Werner, H.G. Paretzke, “Untersuchungen zur Uranausscheidung im Urin”, GSF-Bericht 3/01

[4] StrahlenschutzPRAXIS 1/2010 S. 98.

[5] https://eike-klima-energie.eu/2019/10/14/kernenergie-der-weg-in-die-zukunft/

 




Beeinträchtigung von Windparks untereinander größer als bisher angenommen

Dass sich Windenergieanlagen (WEA) gegenseitig, um eine nautische Redensart zu verwenden, den „Wind aus den Segeln“ nehmen können, ist bekannt. WEA entziehen dem Wind Energie und sorgen für Verwirbelung. Beides reduziert die Leistung der nachfolgenden WEA.

Für die Entwickler von insbesondere Offshore-Windparks ist es daher wichtig zu wissen, in welchem Abstand die WEA optimal aufgestellt werden müssen. Untersuchungen darüber laufen.

Wenn Turbinen größer werden, nehmen auch die Beeinträchtigungen der nachfolgenden Turbinen zu, und so haben die Ingenieure im Laufe der Zeit immer größere Abstände empfohlen. Zwar gibt es Rechenmodelle zur Berechnung der optimalen WEA-Abstände, aber sobald neue, größere Generation von Turbinen eingeführt wird, betreten sie Terra incognita: ein Szenario, das außerhalb des Bereichs ihrer Kalibrierdaten liegt.

Wie Net Zero Watch [1] berichtete, habe ein neues Arbeitspapier des Erneuerbare-Energien-Beraters ArcVera [2] ergeben, dass die Nachlaufeffekte hinter den riesigen Turbinen, die jetzt in Betrieb genommen werden, viel schlimmer sein werden als bisher angenommen. Die gängige technische Weisheit ist, dass es einen Leistungsverlust von 10-15% für eine Turbine geben wird, die weniger als 2 km gegen den Wind einer anderen platziert ist. ArcVera geht davon aus, dass neue Windparks Verluste von bis zu 25% in einer Entfernung von 10 km (!) erleiden könnten.

Das Papier ist ein weiteres Modell, das noch einer empirischen Validierung bedarf. Aber sollte sich das Modell in Praxis bestätigen, sind die Auswirkungen auf Windparks, die in Betrieb genommen werden, sehr ernst. Die Turbinen müssen viel weiter voneinander entfernt aufgestellt sein, und Windparks müssen auch weiter voneinander entfernt sein. Dies wird die Kosten einer schon von Natur aus teuren Technologie noch weiter erhöhen. Die Kosten tragen letztlich die Stromkunden.

 

[1] https://www.netzerowatch.com/offshore-wind-its-more-expensive-than-we-thought-2/?mc_cid=c1ef5f63f3

[2] https://arcvera.com/wp-content/uploads/2022/08/ArcVera-White-Paper-Estimating-Long-Range-External-Wake-Losses-WRF-WFP-1.0.pdf

Der Beitrag erschien zuerst auf der AGEU Blog hier




Die düstere Zukunft der „Freiheitsenergien“

Der Ausbau der Erneuerbaren hat uns in die Abhängigkeit nicht nur von Wind und Wetter, sondern auch von Russland getrieben. Es wird Zeit, damit aufzuhören, unsere Energieversorgung und damit unseren Wohlstand zu demolieren.

von Thilo Spahn

Es herrscht Energiekrise in Europa. Der Auslöser der Energiekrise ist der Ukrainekrieg, die Ursache der Energiekrise ist die Klimapolitik. Sie hat dafür gesorgt, dass nicht mehr ausreichend in fossile Energien investiert wurde. Fossile Energie decken aber nach wie vor über 80 Prozent des globalen Bedarfs – auch wenn manche Leute wähnen, schon zum großen Teil von Wind und Sonne versorgt zu werden, deren Anteil tatsächlich bei etwa 5 Prozent liegt. (Im Energiewendevorreiterland Deutschland waren es im Jahr 2021 laut AG Energiebilanzen 1,6 Prozent Solar und 3,5 Prozent Wind.) Daran ändert sich nur sehr, sehr langsam etwas. Und um die Versorgung stabil zu halten, müssen jedes Jahr mindestens 300 Milliarden Dollar in den Sektor der fossilen Energieerzeugung investiert werden. In Wirklichkeit muss die Summe sogar kontinuierlich steigen, denn der globale Bedarf wächst nach wie vor stetig.

Wenn jedoch Politik und NGOs die Parole ausgeben, dass solche langfristigen Investitionen erstens moralisch verwerflich und damit schlecht fürs Image der Investoren sind und zweitens keine Gewinne abwerfen werden, da durch den politisch verordneten Ausstieg aus Kohle, Gas und Öl nur „stranded assets“ entstehen, die den Investoren Verluste bringen werden, dann wird nicht mehr genug in diese langfristigen Projekte investiert. Genau das ist in den letzten Jahren geschehen. Dann stagniert und schrumpft der Sektor und ist kapazitär nicht mehr in der Lage, Situationen wie die Reduktion russischer Gaslieferungen nach Europa aufzufangen.

„Eine Stunde in Energie-Masochismus“

Das gleiche gilt – insbesondere in Deutschland – für die Kernenergie, wo die bislang leistungsfähigsten Kraftwerke der Welt, die noch Jahrzehnte hätten laufen und billigen Strom produzieren können, tatsächlich mutwillig zu Milliardengräbern gemacht wurden. Der Übergang von fossiler Energieerzeugung zu Kernenergie ist die einzige realistische Option für eine Dekarbonisierung im großen Maßstab. Wind und Sonne sind als Teil des Energiemixes brauchbar, werden aber aufgrund ihrer zwei großen Schwächen, dem hohen Material- und Flächenverbrauch sowie der hohen Fluktuation, aber immer nur Beiwerk bleiben.

Nun sieht es – wie wir alle zu spüren bekommen – düster aus. Das liegt einerseits daran, dass Putin am Gashahn sitzt. Beziehungsweise von uns dort hingesetzt wurde. „Noch vor 15 Jahren produzierten die Länder der Europäischen Union mehr Gas, als Russland exportierte. Doch die europäische Produktion ist in den letzten zehn Jahren um mehr als die Hälfte zurückgegangen. Putin hat die Versorgungslücke mit Freude geschlossen“, schreibt das Wall Street Journal in einem Artikel mit der bezeichnenden Überschrift „A Lesson in Energy Masochism“.

Es liegt aber auch daran, dass wir eine große Investitionslücke haben, die, selbst wenn der politische Wille da wäre, nicht schnell genug geschlossen werden kann, um die Preise in absehbarer Zeit wieder auf ein erträgliches Niveau zu senken. Aber noch nicht einmal der Wille ist ja da. Das sehen wir am Atomausstieg, aber auch am Fracking-Verbot. Bis zu 2,3 Billionen Kubikmeter erschließbares Erdgas liegen unter Deutschland im Schiefergestein. Laut Hans-Joachim Kümpel, früher Präsident der Bundesanstalt für Geowissenschaften und Rohstoffe, könnten jährlich bis zu 20 Milliarden Kubikmeter gefördert werden, und zwar für viele Jahrzehnte.

Eine künstliche Knappheit erzeugt

Alexander Stahel beschreibt in einem sehr langen Thread auf Twitter die schwierige aktuelle Situation bei der europäischen Stromversorgung. In den 1960er und 70er Jahren hat Europa in kurzer Zeit Kernkraftwerke mit einer Kapazität von rund 200 Gigawatt (GW) aufgebaut. Man hat massiv investiert und hatte in der Folge viel billigen Strom zur Verfügung. In der letzten Dekade ist das Gegenteil passiert, wir haben abgeschaltet und so künstlich eine Knappheit erzeugt, die uns jetzt hart trifft. Heute sind von den 200 GW nur noch 116 übrig und mit dem Neubau tun wir uns reichlich schwer.

Nicht nur Deutschland, auch Frankreich hat mit der Kernenergie gefremdelt und zu wenig in Erhalt und Erneuerung der 57 Reaktoren investiert. Erst seit relativ kurzer Zeit sind einige Länder wieder auf einen Pro-Nuklear-Kurs umgeschwenkt. Großbritannien investiert wieder verstärkt, und Macron hat „Réinventer le nucleáire“ als Ziel Nummer 1 für 2030 genannt. Die Vernachlässigung und Geringschätzung der fossilen Energien und der Glaube an die Wunderkräfte von Wind und Sonne scheinen indes in der politischen Klasse Westeuropas, die sich den sogenannten „Klimazielen“ verschrieben hat, ungebrochen.

Deutschland gefährdet ganz Europa

Deutschland beeinträchtigt mit seinen Abschaltungen die Versorgungssicherheit in Europa. Mit der Abschaltung der letzten drei Reaktoren fehlen uns im nächsten Jahr 32 Terawattstunden (TWh) sehr billiger und CO2-freier Strom. Insbesondere Italien, Österreich und Ungarn haben ungenügende eigene Kapazitäten. Italien hat seine Atomkraftwerke in den 1990er Jahren abgeschaltet und nie für Ersatz gesorgt und ist in hohem Maße von Erdgas abhängig.

Österreich ist bekanntlich mit Bergen gesegnet und damit sehr stark von Wasserkraft abhängig. Wenn es im Winter wenig Schnee gibt, der im Frühjahr schmelzen kann, ist das ein Problem. Insgesamt fehlt es an Erzeugungskapazität. Man hat sich immer darauf verlassen, von Deutschland noch etwas abzubekommen, aber offenbar verschlafen, dass Deutschland sich dem doppelten Ausstieg verschrieben hat und ab dem nächsten Jahr wohl Nettoimporteur wird, also nichts mehr für Österreich abknapsen kann. Ungarn ist stark von russischem Gas abhängig und damit auch auf Hilfe angewiesen. Frankreich war traditionell Netto-Exporteur im Umfang von 30 bis 40 TWh. Doch ausgerechnet in diesem Jahr ist das Land aufgrund der Probleme und dem umfangreichen Wartungsbedarf der KKW-Flotte erstmal Netto-Importeur. Wir können nur hoffen, dass sich das bald wieder ändert.

Etwas Hoffnung bieten der finnische Reaktor Olkiluoto 3, der nach 17 Jahren Bauzeit seit März 2022 endlich am Netz und derzeit im Testbetrieb ist, und die slowakischen Reaktoren Mochovce 3 und 4, von denen der erste im nächsten Jahr angeschlossen werden soll. Olkiluoto 3 wird aber zunächst nur die Lücke von 20 Prozent des Strombedarfs schließen, die in Finnland selbst seit Jahren klafft und zur Hälfte von Russland gedeckt wurde.

Belgien hat 50 Prozent Nuklearstrom aus alten Reaktoren, für die bald Ersatz her muss. Fürs erste wurde beschlossen, den Atomausstieg von 2025 auf 2035 zu verschieben.

Insgesamt ist die Lage im europäischen Netz also derzeit extrem angespannt. Die Rolle der Retter in der Not können Norwegen und Schweden mit ihrer Wasserkraft übernehmen. Doch auch hier sieht es in diesem Jahr aufgrund der geringen Niederschläge nicht besonders komfortabel aus, so dass ungewiss ist, ob der Norden alle sich auftuenden Lücken stopfen kann.

Deutschland hat viel weniger steuerbare Energie als früher. Genau die ist aber bei den viel zu knappen Kapazitäten erforderlich, um das (europäische) Netz stabil zu halten. Wir haben für zwei Dienste auf Gas gesetzt: zum Ersatz wegfallender Stromerzeugung aus Kohle und Nuklear und zur Stabilisierung des Netzes. Denn damit das Netz nicht zusammenbricht, muss in jeder Sekunde genau so viel Strom produziert werden, wie verbraucht wird! Je mehr Erneuerbare „Zappelstrom“ ins Netz speisen, desto höher der Aufwand, diese permanenten Schwankungen durch flexibel steuerbare Reaktoren auszugleichen.

Energiewende ist kein Kinderspiel

Wir sehen heute, dass die Energiewende eine sehr große Herausforderung ist. Wir haben mit den großen Dekarbonisierungsplänen gerade erst angefangen und stecken schon mitten in einer Energiekrise mit explodierenden Preisen und drohenden Blackouts. Der Krieg in der Ukraine zeigt, wie fragil und krisenanfällig Europas Energiesektor jetzt schon ist.

Wir müssen uns fragen, ob es der richtige Weg ist, die Energieversorgung mutwillig weiter zu schwächen und zu destabilisieren. Die lustige Fantasie, dass wir damit das Weltklima retten und dafür kein Opfer groß genug sein kann, hat leider mit der Realität reichlich wenig zu tun. Selbst wenn die ganze EU über Nacht „klimaneutral“ würde, fiele nach dem mittleren Szenario des Weltklimarats der Temperaturanstieg am Ende des Jahrhunderts gerade einmal 0,14 Grad geringer aus. Da wir nicht zaubern, sondern nur allmählich unser Energieversorgungssystem im Zuge der Energiewende in der bisherigen Art und Weise erheblich schwächen und dabei ein bisschen dekarbonisieren, werden es wohl sogar nur wenige Hundertstel Grad sein.

Noch glauben viele Menschen die Geschichten von Wind und Sonne, die „keine Rechnung schicken“ und uns vor der „Klimakatastrophe“ retten. Die Politik wurde ja nicht müde, die Vorzüge der vermeintlich billigen Erneuerbaren Energien zu beschwören, die man problemlos immer weiter ausbauen könne. Christian Lindner fabulierte kurz nach Ausbruch des Krieges munter und kenntnisfrei daher, Erneuerbare Energien leisteten „nicht nur einen Beitrag zur Energiesicherheit und Versorgung“, sie lösten uns auch von Abhängigkeiten und seien deshalb „Freiheitsenergien.“ Der Energieexperte der SPD, Karl Lauterbach, kommentierte: „Das ist korrekt.“

Die Wahrheit ist: Wir haben uns die große Wohlfühlaktion namens Energiewende (Ausstieg aus Kernenergie und Kohle) fahrlässig im Merkelschen Durchwurstelmodus durch eine scheinbar bequeme Abhängigkeit von billigem, russischem Gas erkauft. Der Ausbau der Erneuerbaren hat uns in die Abhängigkeit nicht nur von Wind und Wetter, sondern auch von Russland getrieben.

„Niemand wird hungern und niemand wird frieren.“

Dabei hat man stets geschickt verborgen, dass Wind und Sonne trotz gigantischer Subventionen noch immer nur rund fünf Prozent des Primärenergiebedarfs decken. In den Fantasien deutscher Energiewendevisionäre und ihrer Nachplapperer in der Politik war die Übergangslösung Erdgas auch schon fast durch „grünen Wasserstoff“ ersetzt, den der Kanzler in Kanada bestellt hat. Der Eintritt ins Paradies war ja per Klimaschutzziele für das Jahr 2030 oder spätestens 2035 terminiert. Was sollte da schon schiefgehen?

Einiges. Wenn man ehrlich ist, sollte man das Projekt der „Weltklimarettung“ lieber als das grüne Projekt der europäischen Postwohlstandsgesellschaft bezeichnen. Denn darauf läuft es letztlich hinaus. Und zwar unweigerlich, denn die Bereitschaft gegenzusteuern, scheint in der deutschen Politik noch nicht einmal mehr in Ansätzen vorhanden zu sein.

Um noch einmal den amerikanischen Blick des Wall Street Journals – diesmal unter der Überschrift „The Coming Global Crisis of Climate Policy“ – zu zitieren:

„Die einzige politisch tragfähige Lösung für diesen Winter werden Subventionen in monumentalem Ausmaß sein. Hunderte von Milliarden Dollar für Haushalte und Unternehmen (und Versorgungsunternehmen) auf dem gesamten Kontinent wurden bereits angekündigt, und die verzweifelten Hauptstädte werden sich nicht damit zufriedengeben. Dies wird eine erhebliche Kreditaufnahme zusätzlich zu den fiskalisch ruinösen Anleiheemissionen während der Pandemie erfordern. […] Die Politiker machen gerne Wladimir Putin und seine Invasion in der Ukraine für die aktuelle Energiekatastrophe verantwortlich. Doch was diese einmalige Verschiebung des relativen Energiepreises in eine globale Katastrophe verwandelt hat, waren zwei Jahrzehnte grüner Energiepolitik im Vorfeld. Dazu gehören in Europa die Fixierung auf erneuerbare Energien, die ohne nicht vorhandene Batterietechnologien nicht in der Lage sind, eine industrielle Wirtschaft zu versorgen, die Weigerung, die heimischen Reserven an fossilen Brennstoffen wie Schiefergas zu erschließen, und eine tiefe und irrationale Feindseligkeit gegenüber der Kernkraft in vielen Teilen des Kontinents.“

Trost spendet der Finanzminister: „Wir müssen realistisch sein: Wir können nicht alles abwenden, was an Herausforderungen auf unser Land zukommt. Ein Versprechen kann diese Bundesregierung aber geben: Aufgrund von finanziellen Sorgen wird in diesem Land in diesem Winter niemand hungern und niemand frieren. CL“

Bin ich zu negativ? Dann hier die gute Nachricht zum Schluss: Mittelfristig wird Energie, global gesehen, überhaupt kein Problem sein. Wir haben die Technologie, um viel und billig zu produzieren.

Dieser Beitrag erschien zuerst bei Novo-Argumente.

Anmerkung der Redaktion zu Lindners Worthülse „Niemand wird hungern und niemand wird frieren.“

das hätte wohl besser und ehrlicher heißen müssen:

„Niemand wird hungern ohne zu frieren.“

Und dazu passt noch besser eine Absprache zur Aufgabenteilung zwischen Fürst und Bischof aus der frühen Neuzeit:

„Du hältst sie dumm“, sagte der Fürst zum Bischof  , „ich halte sie arm!“

Gesagt, getan!