Warum die Grünen für den Dual Fluid Reaktor sein werden

Deutschland aber sortiert Energieressourcen wacker nach Freund/Feindbild und steigt aus den wichtigsten Energieträgern aus. Dass es dabei zum energetischen Geisterfahrer geworden ist, macht den Bundeswirtschaftsminister Altmaier stolz:

Wir sind das einzige Industrieland dieser Größe, das gleichzeitig aus der friedlichen Nutzung der Kernenergie und dann 15 Jahre später aus der Nutzung der Kohleverstromung aussteigt. Das sind die historischen Aufgaben und die Leistung, die wir zu vollbringen haben.“ Das ist eben so, einem Geisterfahrer kommen tausende Geisterfahrer entgegen.

Aus dem Ausland beobachtet man diese Entwicklung mit Kopfschütteln. Am 22.04. berichtete die FAZ über ein Interview mit William Magwood, dem Generaldirektor der Nuclear Energy Agency (NEA), in welchem die Energieversorgung der Zukunft beleuchtet wird. Der Titel des Artikels lautet; „Deutschland steuert in eine unglückliche Situation”.

Auf die Frage: „Wie steht es um die Sicherheit der modularen Mini-Reaktoren, von denen gerade viel die Rede ist?“ antwortet Magwood:

Ich halte diese kleinen modularen Reaktoren für mögliche Gamechanger, weil sie Charakteristika aufweisen, die die großen kommerziellen Reaktoren nicht haben. Das macht sie noch sicherer. Nehmen Sie zum Beispiel die, die Nuscale in den Vereinigten Staaten entwickelt und die durch die amerikanischen Aufsichtsbehörden gerade geprüft wird. Die Besonderheit dieses Kraftwerks ist, dass es aus mehreren kleinen Reaktorkernen besteht und jeder dieser Kerne von enorm viel Wasser umschlossen. So kann es niemals zu einer Kernschmelze kommen. Auch Pläne für gasgekühlte und Flüssigsalzreaktoren werden vorangetrieben“.

Die nächste Frage lautet: „Was halten Sie von Dual Fluid Reaktoren, an denen auch deutsche Wissenschaftler forschen?“ Magwood:

Sie kombinieren verschiedene technologische Verfahren, die schon funktionieren. Dual Fluid Reaktoren könnten sich als sehr effizient erweisen, da sie mit hoher Temperatur arbeiten. Zudem sind sie klein, kompakt und sicher. Aber einen solchen Reaktor hat noch niemand gebaut, womit Fragen zur Genehmigung und Wirtschaftlichkeit offen bleiben. Wenn jemand die Ressourcen aufbringen würde, könnte ein Demonstrationskraftwerk innerhalb einer Dekade stehen“.

Das Zeug zum Game Changer

Der Dual Fluid Reaktor wurde in Deutschland erfunden und muss, wie so viele andere deutsche Erfindungen, auswandern. Die Dual Fluid Energy Inc. ist jetzt ein kanadisches Unternehmen. Warum? Die kanadische Regierung schätzt und fördert die Kernkraft als Zukunftstechnologie. Die kanadische Bevölkerung sieht Kernkraft überwiegend als Chance. Das Land ist nukleartechnisch erfahren und kann auf eine ununterbrochene Expertise zurückreifen.

Achgut.com hat schon mehrfach über den Dual Fluid Reaktor berichtet, etwa hier und hier. Der neue Kernkraftwerkstyp hat wirklich das Zeug zum Game Changer. Es ist richtig, es hat ihn noch niemend gebaut. Aber das ist wohl mit allen Neuerungen so.

Beim kleinsten Modell des Dual Fluid Reaktors beträgt der Erntefaktor 800 (energy returned on investment / EROI). Er bezeichnet das Verhältnis von gewonnener Energie zur Gesamtheit an eingesetzter Energie für Bau, Brennstoff, Unterhalt, Sicherheit, Rückbau eines Kraftwerks etc. Zum Vergleich – bei den „Erneuerbaren“ beträgt der Erntefaktor 4. Liebe Leser, schauen Sie sich die deutschen Windspargellandschaften an. Wir stehen erst am Anfang der Energiewende. Zur höheren Versorgung mit Ökoenergie muss künftig noch ein Vielfaches dieser Monster hinzugebaut werden. Die Windkraft benötigt viele hundertmal so viel Fläche für die gleiche Erzeugung, wie der Dual Fluid Reaktor.

Der Reaktor kann jedes spaltbare Material nutzen. Als Schnellspaltreaktor verwertet er neben Atommüll auch Natur-Uran oder Thorium. Atommüll wird dadurch zum Wertstoff. Der verschrieene deutsche Atommüll reicht mit dem Dual Fluid Reaktor für eine Vollversorgung Deutschlands bei heutigem Verbrauch ganze 350 Jahre lang. Im Ergebnis wäre kein Endlager mehr nötig, da die Strahlung der Reststoffe des neuen Reaktors nach 300 Jahren auf dem Niveau von Natur-Uran ist. Insofern wird aus der erfolglosen deutschen  Endlagersuche vielleicht eines Tages doch noch eine Erfolgsgeschichte.

Ich wage mal eine Prognose: In 10 Jahren werden diejenigen, die heute für die Zerstörung der Kernenergie gesorgt haben, die Kernkraft zur Rettung des Klimas propagieren. Sie werden völlig vergessen haben, dass sie, um zu dieser Erkenntnis zu gelangen, einen ganzen Wirtschaftszweig unter Milliardenverlusten zerstört haben. Sie werden ihren Irrtum aber nicht zugeben, sondern darüber rabulieren, dass die neuen Reaktortypen ja ganz anders sind, viel besser, viel sicherer, ohne den ewigen Abfall und zum Wohle der ganzen Menschheit. Konnte ja keiner ahnen.

Ein paar Milliarden müssen bis zum Moment der grünen Einsicht allerdings noch vernichtet werden und ein paar Jahre Schamfrist müssen wohl auch noch vergehen.

Niemand auf der ganzen Welt ist den deutschen Vorreitern gefolgt

Wie ich darauf komme? Erstens: Politiker haben kein Problem, ihre Ansichten um 180° zu ändern, wenn es ihnen opportun und nützlich für die Macht erscheint. Am 27. Mai 1998 sagte Merkel als damalige Bundesministerin für Umwelt, Naturschutz und Reaktorsicherheit dem deutschen Bundestag: „Meine Damen und Herren, ich habe immer deutlich gemacht und werde dies auch weiter deutlich machen, dass ich die friedliche Nutzung der Kernenergie für verantwortbar halte – gerade und insbesondere in Deutschland.“ Ein gutes Jahrzehnt später, nach dem Tsunami mit dem folgenden Reaktorunglück in Fukushima und den bevorstehenden Wahlen in Baden Württemberg änderte sie bekanntlich ihre Meinung und legte per Telefonanruf ach Kernkraftwerke sofort still, um danach den endgültigen Ausstieg aus der Kernenergie zu zementieren.

Merkel nutzte für die Begründung ihrer Atom-Wende eine von ihr handverlesene Ethikkommission, in der allerhand Volk vertreten war, nur keine Fachleute. Jetzt will es keiner gewesen sein. Leider sind inzwischen fast alle Kernkraftwerke Deutschlands abgeschaltet und nach 2022 ist Schluss.

Zweitens: Es lässt sich immer weniger kaschieren, dass die Energiewende krachend gescheitert ist. Niemand auf der ganzen Welt ist den deutschen Vorreitern gefolgt, nicht einmal die Japaner. Deutschland als energetisches Beispiel, wie man es nicht machen soll. Die Kosten dieser Fehlentscheidung explodieren immer weiter, kein Ende in Sicht. Die Energieversorgung verkommt zum Glücksspiel, keiner der medial gehypten dummsinnigen Energiewenderettungsringe funktioniert. (hier) (hier) (hier) und der blödsinnigste (hier).

Jetzt fabulieren grüne Bundestagsabgeordnete, dass man ja Grundlast gar nicht braucht. „Die Zukunft der Energieversorgung wird angebotsorientiert sein“, sagt Frau Silvia Kotting-Uhl im hohen Hause des Bundestags – und der ganze Saal bricht nicht in ein homerisches Gelächter aus. Frau Kotting-Uhl ist ihres Zeichens Germanistin und Kunstgeschichtlerin, was sie zur Vorsitzenden des wichtigen Umweltausschusses qualifiziert. Für sie ist Grundlast etwas Gestriges und wird nicht gebraucht. So wie im Mittelalter die Windmüller nur mahlen konnten, wenn der Wind wehte, so soll wohl nach ihrer Vorstellung Energie „angebotsorientiert“ für die Industrie zur Verfügung gestellt werden. Und der Bundeswirtschaftsminister Altmaier bastelt schon mal an einem entsprechenden Gesetz für den kommenden Stromsozialismus.

Doch die Wähler werden wohl irgendwann einmal unfroh reagieren, wenn es bei Flaute oder Dunkelheit regelmäßig zur Stromrationierung oder gar zum Blackout kommt. Der Umfragewind dreht sich, je mehr die Bürger mit den realen Folgen der Energiewende leben müssen. Daher will die Regierung die enormen Kosten des Energiewende-Unfugs mit dem massiven Einsatz von Steuermitteln kaschieren – für die Stromkunden und Steuerzahler heißt das: rechte Tasche, linke Tasche. Steuerzahler sind nämlich in der Regel auch Stromkunden.

Die Sprengung der rotgrünen Kernenergiegegnerschaft wird aus dem Inneren der grünen Bewegung kommen. So wie die Grünen heute die Gefahren der Kernenergie aufbauschen, werden sie übermorgen die Vorteile der Kernreaktoren der Vierten Generation preisen. So vehement, wie sie heute gegen Kernenergie sind, so vehement werden sie morgen dafür sein. Was stört einen Politiker schon ihr Geschwätz von gestern? Zumal, wenn er wohlversorgt seine Pension genießt.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Die Scheintoten der zahlreichen Ökokatastrophen

Die UN-Berichte geben an:

Tschernobyl: Strahlentote:  47 Helfer, Erkrankungen von 4.000 Kindern in der Umgebung an  Schilddrüsenkrebs, davon 9 Todesfälle, zusätzlich 4.000 geschätzte Todesfälle durch zusätzliche Fälle verschiedener Arten Krebs.

Wer bei Tschernobyl heute schon von 8.047 Toten redet, hat momentan folgende Bilanz:

Bilanz: 56 Tote, 7.991 Scheintote, denn zum Glück leben noch 3991 Kinder mit einer Erkrankung der Schilddrüse, und die übrigen Bürger mit dem erhöhten Risiko leben sicher mehrheitlich auch noch.

Fukuschima:   Strahlentote: Noch keine. Etwa 550 indirekte Tote durch Evakuierung. Mögliche spätere Strahlenerkrankungen 15- 1300, mögliche zusätzliche Krebsfälle 24 – 2.500.

Bilanz: keine Strahlentoten, 550 kollaterale Tote, 39 – 3.800 Scheintote.

Hier wird begrifflich gern etwas durcheinander gebracht, um Aufmerksamkeit zu erzielen. Einmal gibt es den monokausalen Tod, mit eindeutiger Ursache, Beispiel Verkehrsunfall, Absturz etc., bei dem man sagen muss „ erlag seinen schweren Verletzungen durch …“. Das sind die kleineren Zahlen.

Die großen Zahlen, die wir etwas medienkritisch als Scheintote bezeichnen, könnte man als Risikogruppe bezeichnen, das würde jeder sofort richtig verstehen. Die Vorwegnahme des Todes in den Medien kommt sicher bei den Betroffenen auch nicht gut an.

Wenn es sich um eine große Gruppe handelt, die einer Anzahl von verschiedenen Belastungen durch Umwelteinflüsse wie Gefahrstoffe, Lärm, Luft, Wasser, Radioaktivität, Stress etc. ausgesetzt ist, so lassen sich die genauen kausalen Zusammenhänge bei jeder einzelnen Person nicht mehr finden. Die Belastung lässt sich eventuell schwer von der ohnehin vorhandenen natürlichen Belastung trennen. Was man dann noch machen kann, ist es, die Statistik zu bemühen. In den meisten Ländern der Erde werden alle Todesursachen, die als nicht natürlich eingestuft werden, in Kategorien registriert.

Anhand von Statistiken kann man versuchen, die Teilwirkung von einzelnen Belastungen dadurch zu erfassen, dass man den Faktor zahlenmäßig erfasst, und die Anzahl von vorzeitigen Erkrankungen in den einzelnen Kategorien notiert.  Das ist schwierig, weil man oft die Teilwirkung anderer Faktoren nicht konstant halten kann, und Wechselwirkungen nicht ausschließen kann.  Die Übertragbarkeit von solchen Statistiken ist oft nicht gegeben. Dennoch ist natürlich eine Statistik besser als nichts, wenn sie zumindest die Tendenz richtig zeigt. Mit einer solchen Statistik kann man dann rechnen, und Prognosen abgeben.

Wenn man so etwas verwendet, muss man aber die Öffentlichkeit ins Bild setzen und einen klaren begrifflichen Unterschied zwischen den monokausalen Todesfällen wahren.  Ansonsten muß man es sich gefallen lassen, daß man genannt wird als jemand, der Scheintote in die Medien gesetzt hat.

Mit einem Artikel der Forscher Corbett, Winebrake, Eyring und anderen, in Folgenden die Autoren genannt, wurde ich zum ersten Mal aufmerksam auf die Methodik der Scheintoten. Ziel war die Begründung für die weitere Regulierung von Brennstoff in der Schifffahrt, die bei der IMO auf der Tagesordnung stand. Dazu wurde ein unangreifbarer Artikel gebraucht.

Die Schiffahrt vollbringt eigentlich transporttechnische Wunder: mit nur 3-4 % des Brennstoffverbrauches aller Transportsysteme der Welt erbringt sie etwa 90% der weltweiten Transportleistung. Daraus muss man, sofern möglich, schlußfolgern, dass die Schifffahrt ein sehr energie- und damit Ressourcen-  schonendes Transportsystem darstellt. Man sollte versuchen, noch viel mehr Transporte auf Schiffe zu verlegen.

Daß all das regelmäßig in politischen Sonntagsreden erwähnt wird, aber selten wirklich passiert, zeigt die Verlogenheit der Verkehrspolitik, und besonders der deutschen. Sie war und ist nicht auf Energieeffizienz ausgerichtet, sondern auf Verkaufsmaximierung. Mehr Verkehr, mehr Autos, mehr Kraftstoff, mehr Mineralölsteuer, mehr Maut. Dort wird das Geld verdient.

Da man dieses Dilemma nicht öffentlich erkannt haben will, und es auch nicht auflösen möchte, muss man die Bemühungen in eine andere Richtung lenken. Beim Straßenverkehr kann man weitere Verminderungen der Abgasemissionen nicht mehr erzielen, weil man dort schon bei einem relativ hohen Aufwand angekommen ist. Die beste Entlastung der Luft wäre die absolute Verminderung der Abgasmenge, indem man mit dem Transportgut auf Bahn und Schiff umsteigt, aber das ist politisch nicht wirklich gewollt.

Was sich inzwischen ganz von selbst entwickelt hat, ist die Benutzung von Schweröl als Brennstoff für Schiffsdieselmotoren. In den Raffinerien, die Erdöl bekommen und durch Trennung die saubere Ware für die Tankstellen herstellen, bleibt die weniger saubere Fraktion des Erdöles als sogenanntes Schweröl übrig. Es ist dickflüssiger als Benzin und Tankstellendiesel, und enthält auch unerwünschte Beimengungen. Es kann bei entsprechender Erwärmung und Reinigung auch in Dieselmotoren eingesetzt werden. Im letzten Viertel des 20. Jahrhunderts werden nach intensiver und teurer Entwicklungsarbeit aller Hersteller die Schiffsmaschinen schweröltauglich. Dabei wird das Schweröl allerdings an Bord nochmals aufwendig gereinigt, ehe es dem Motor zugeführt wird. Einziger Begleitstoff, der bei dieser Reinigung nicht entfernt werden kann, ist der Schwefel.

Somit entsteht eine recht vernünftige Arbeitsteilung: Die Flotte der Landfahrzeuge bekommt den saubersten möglichen Brennstoff, damit ihre Katalysatoren und sonstigen Filter funktionieren, während das Schweröl mit dem Schwefel auf hoher See zum Einsatz kommt. Vor der Benutzung an Bord wird das Schweröl aufgeheizt und gereinigt. Die abgetrennten Stoffe werden an Bord gesammelt und als Brennstoffschlamm wieder zur Entsorgung an Land verbracht. Abgase von Schwerölmotoren enthalten deshalb mehr Schwefeldioxid als Abgase von normalen Dieselfahrzeugen, je nachdem, wie hoch der Schwefelgehalt im Brennstoff ist.  Allerdings ist Schwefeldioxid nicht sehr langlebig. Es wird in feuchter Umgebung schnell gebunden und kann sich daher über dem Wasser  kaum konzentrieren.

Der große Unterschied im Schwefelgehalt, der bewusst aufgebaut wurde, um die Risiken an Land zu senken, fällt nun plötzlich ins Auge. Daraus wird nun von neuen Mitspielern eine ganz neue  Argumentationskette aufgebaut: Die hohen Forderungen für den möglichst niedrigen Schadstoffgehalt von Abgasen, die man bei Straßen- und Schienenfahrzeugen in Europa schon erzielt hat, muss nun nach deren Meinung auch die Schifffahrt erzielen. Zu diesem Zweck wird nun von unseren Autoren eine breite Aufregung über das „schmutzige und giftige Schweröl“ in allen Medien losgetreten. Die Schifffahrt selber stellt sich kaum öffentlich dar, aber die neuen Mitspieler, die in den Medien die Erklärung der Schifffahrt übernommen haben,  müssen scheinbar noch einiges dazu  lernen. In deren öffentlichen negativen Darstellungen zum Schweröl fehlt immer ein wichtiges System im Schwerölbetrieb: die Aufbereitungsanlage für Brennstoff an Bord.

Sie reden über einen Stoff, mit dem Schiffsmechaniker und Ingenieure bereits Jahrzehnte oft in direktem Hautkontakt stehen und damit umgehen müssen, weil sie auch diese Reinigungsanlagen für Brennstoff betreiben müssen. In der Brennstoffaufbereitung werden mit Filtern und Zentrifugen alle Begleitstoffe, die größere Partikel oder größere Dichten als Brennstoff haben, abgetrennt. Ansonsten wäre das Schweröl für den Betrieb unbrauchbar, weil eben zu schmutzig.

Die Forderungen nach sauberen Abgasen von Schiffen führten bereits dazu, dass den Anhang VI der MARPOL-Konvention ausgearbeitet wird. Er reguliert zwei Zusammenhänge:

  1. Die Entstehung von Stickoxiden zu begrenzen wird durch konstruktive Gestaltung des Motors und eine zusätzliche Bauteildokumentation realisiert,
  2. und der Schwefelgehalt der Abgase wird limitiert, indem der Schwefelgehalt im Brennstoff limitiert wird.

Die Emissionen beider Stoffe sind nicht langzeitstabil, Stickoxide und Schwefeloxide werden in der Luft innerhalb weniger Tage natürlich abgebaut. Es lohnt sich also eigentlich nicht, bei Schiffen einen hohen Aufwand zu treiben, nur um der Natur zuvorzukommen.

Dieser Sachverhalt wird nun von den neuen Mitspielern, zu denen unsere Autoren gehören,  ausgeblendet. Die Grundidee ist, wenn man die immerhin 3-4% vom Weltbrennstoffverbrauch rechnet, die Schiffe benötigen, so kann man mit einer Abgasbehandlung zumindest auf dem Papier einige tausend Tonnen Schadstoffe einsparen. Politisch ist das gut durchsetzbar, denn die IMO hat spezielle Mechanismen, um die Konventionen nachträglich zu verschärfen, die von den Vertretern der Nationen schon unterzeichnet sind. Dieser Mechanismus heißt „MARPOL ANNEX“, in unserem Fall ist es Nummer VI.

Die Tonnenideologie muss noch wissenschaftlich abgesichert werden. Dabei muss die Ferne der Schiffe vom Menschen möglichst wegdiskutiert, und der natürliche Abbau der Stoffe als möglichst geringfügig dargestellt werden. Nur so ist es zu verstehen, wenn man zur Einstimmung auf die wissenschaftliche Gratwanderung der  Autoren 2008 plötzlich solchen neuen Unfug liest wie: „Die meisten Schifffahrtsrouten befinden sich in Landnähe (!) Das kann man wirklich nur behaupten, wenn 400 km Nähe bedeuten…“

Auch darf man auf keinen Fall Luftmesswerte benutzen, denn sie stützen die These von der Wirkung von Schiffsabgasen an Land nicht. Beispiel Deutschland, die Luftqualität im Zentrum Hamburgs ist im Vergleich immer schlechter, als an der Elbe oder in Brunsbüttel neben der Schleuse. Wenn man Messwerte zur Kenntnis nehmen würde, müsste man merken, dass seit der Entschwefelung von Abgasen in Kohlekraftwerken das Schwefeldioxid in der Luft nur eine Tendenz kennt: nach unten. Es ist auf einem solchen historischen Tiefstand,  es dass es die ganze Limitierung von Schwefel im Brennstoff eigentlich lächerlich macht.

Hier muss ein neues Erklärungsmodell her, das die Schwefelgesetze und vielleicht auch das geplante Geschäft mit Umwelttechnik retten soll. Das Erklärungsmodell heißt jetzt „Partikel“ oder Feinstaub.

In einer Versuchsreihe mit einem Dieselmotor in Hamburg  im Labor des Germanischen Lloyd wurde versucht, Klarheit über die Zusammensetzung Partikeln in Abgasen von Motoren zu bringen. Es wurden verschiedene Sorten Brennstoff benutzt, Dieselöl und Schweröl, der Schwefelgehalt wurde systematisch erhöht, während die anderen Bestandteile annähernd gleich gehalten wurden. Die Partikel im Abgas wurden mit Filtern zurückgehalten und gewogen.  Wesentliche Partikel fallen in folgenden Gruppen an:  1. Ruß, 2. Schwefeldioxid oder Sulfat, 3. Wasser, 4. Teilverbrannter Brennstoff, 5. Asche.

Das Ergebnis war einfach: bei erhöhtem Schwefelgehalt im Brennstoff fand sich mehr Schwefeldioxid im Abgas, und mehr Wasser, Alle übrigen Anteile veränderten sich kaum. Man kann kaum etwas anderes erwarten, denn was in den Motor hineingeht, muss hinten wieder herauskommen.

Von den Partikeln, die sich im Abgas befinden, sind Ruß (Black Carbon = BC) und teilverbrannter Brennstoff (Particular Organic Matters = POM) die gefährlichen Sorten, da bekannt ist, daß sie Lungenkrebs erzeugen können. Schwefeldioxid und Sulfat gehört nicht zu den Krebserzeugern, es reizt die Luftwege bei größeren Konzentrationen. Der Rest ist eher unkritisch.

Damit kommt man zu zwei wichtigen Aussagen: bei Erhöhung des Schwefelgehaltes steigt die Gesamtmenge der Partikel im Abgas an, allerdings bleiben die Mengen der krebserzeugenden Partikel konstant. Diese, Ruß und teilverbrannter Brennstoff,  könnten durch eine optimale Verbrennung im Motor reduziert werden, aber nicht durch Begrenzung des Schwefelgehaltes. Diese nicht unwesentliche Tatsache wird konsequent verschleiert. Man geht scheinbar stillschweigend davon aus, dass eine Begrenzung des Schwefels im Brennstoff die Gesundheitslage verbessern könnte, weil insgesamt weniger Partikel entstehen.

Im Artikel unserer Autoren geht man nun großflächig und ganz gewissenhaft vor: man stellt ein Emissionsinventar auf, d. h. alle Schadstoffquellen der Welt werden modelliert, und die Schifffahrt auf ihren Routen auch. Dann wird die Ausbreitung der Partikel modelliert, indem man die Modelle der allgemeinen Zirkulation benutzt. Was ist das? Die allgemeine Zirkulation bildet die Windgürtel der Erde nach, und ist somit eine gute Annäherung für die geografische Verschiebung von Luftmassen, und damit auch der Partikel.

Zur Einschätzung der Schiffsemissionen ergeben sich mit dem Modell nun die Möglichkeiten, ihre alleinige Wirkung auf die Konzentration zu sehen, indem man die übrigen Emissionen wegläßt. Dabei stellt sich heraus, daß die höchsten erzielbaren Konzentrationen von Feinstaub mit Schiffen in der Nähe von Hauptschifffahrtslinien bei zwei Mikrogramm pro Kubikmeter Luft liegen. Die Erhöhung der an Land schon vorhandenen, meistens wesentlich höheren Konzentrationen (7-14 Mikrogramm ) kann man ebenfalls nachweisen, indem man an Land einmal ohne, und einmal mit den Schiffsemissionen rechnet. Die Ergebnisse zeigen, daß die Konzentrationen von Partikeln aus Schiffsemissionen die Konzentration an Land um 0.5 bis 1.5 Mikrogramm pro Kubikmeter Luft anheben kann.

Damit ist man nun in der Lage, flächendeckend die Wirkung der Schifffahrt nachzubilden. Um die Wirkung auf die Bevölkerung zu ermitteln, ordnen die Autoren nun die Bevölkerungszahlen den Wohnorten zu, und können somit errechnen, für wieviel Menschen es welche Erhöhung der Feinstaubwerte gibt.

Anhand von statistischen  Zusammenhängen zur Konzentration von Feinstaub, und den erwähnten Fällen von Lungenkrebs fühlt man sich nun in der Lage, eine weltüberspannende Prognose zu Erkrankungen mit und noch einmal ohne die Partikelanteile der Schifffahrt zu machen.

Methodisch ist das bis dahin ganz in Ordnung, und die Zahlen mögen für interne Abschätzungen brauchbar sein. Sie wurden aber umgehend publiziert, um Beschränkungen beim Schwefelgehalt durchzusetzen. Auf dem langen Weg bis zu diesem Ergebnis mussten die Autoren aber einige Schwachstellen der Zusammenhänge in Kauf nehmen:

Nach der Emission wurde der Feinstaub nur noch als Partikel abgebildet, nicht mehr in den einzelnen Fraktionen. Damit wurde automatisch dem Schwefeloxid gleiche Lebensdauer und  Wirkung zugeschrieben wie dem Rest der Partikel, was so nicht stimmt.  Damit ging der Sachzusammenhang der Wirkungen verloren, und Wirkung wurde mit Masse gleichgesetzt.

Der Zusammenhang der Sterblichkeit der Menschen abhängig vom Feinstaubgehalt der Luft ist  aus Statistiken der USA übernommen worden, ohne die Zusammensetzung des Feinstaubes dort und des Feinstaubes von Schiffen zu vergleichen.  Aus diesen Statistiken wurden die Herzerkrankungen und Lungenkrebs gemeinsam berücksichtigt, wobei der Zusammenhang der Herzerkrankungen mit Abgasen nicht nachgewiesen ist.

Schwellenwerte wurden nicht berücksichtigt. In Deutschland gelten für PM 10 als zulässig 50 Mikrogramm pro Kubikmeter, Jahresmittel 40, die werden nur in Städten mit starkem Autoverkehr besonders bei Inversionslagen erreicht. Die Hintergrundbelastung (7-14) und die Konzentrationen aus der Schiffahrt (+1.5) sind weit darunter.

Mechanismen der Ausfällung der Partikel aus der Luft wurden nicht modelliert. Der Fakt, dass Schwefeloxid schnell Wasser an sich bindet, und damit Kondensationskeime schafft, welche für schnelleres Abregnen sorgen, wurde nicht berücksichtigt.  Der Abbau des übrigen Feinstaubes erfolgt hauptsächlich durch Regen. Niederschläge haben die  Autoren nicht nachgebildet, jedenfalls wurde es nicht erwähnt.

Besonders hohe Konzentration von Feinstaub erfolgt über Land in trockenen Inversionswetterlagen. Auch zur Berücksichtigung solcher Spitzen und ihrer Wirkung finden wir keine Hinweise.

Daras folgt, dass die Bevölkerung, die mit Partikeln aus Schiffsabgasen in Berührung kommt, wahrscheinlich systematisch kleiner ist, als von den Autoren angegeben.

Die Differenz der beiden Szenarien, mit und ohne Schiffsemissionen,  sind die Zahlen, die hier als Tote in die Öffentlichkeit gelangt sind.  Das suggeriert, daß man für jeden Todesfall eine genaue Todesursache angeben kann. In Wirklichkeit ist die Sache aber komplexer, jeder Mensch stirbt an der Summe von verschiedenen Ursachen. Gerade die Ursachen von Krebs sind vielfältig und nur teilweise bekannt. Die Ergebnisse der Studie zeigen bei all ihren Schwächen mit Sicherheit richtige Tendenzen auf,  die Ergebnisse wären sogar akzeptabel,  wenn man sie nicht in der Presse als „Tote durch Schiffsabgase“ sondern als „Risikofaktor einer Prognose“ bezeichnen würde.

Wer einen Zeitungsartikel liest, und 20.000 Tote genannt bekommt, stellt sich einen Berg mit 20.000 Leichen vor, bei denen als unmittelbare Todesursache Rauchvergiftung oder Lungenkrebs, ausgelöst  durch Schiffsabgase, auf dem Totenschein steht.  Das ist Panikmache. In Wirklichkeit gibt es diese klare Zuordnung von Ursache und Wirkung so nicht. Es sterben weltweit jährlich weit mehr Menschen an Krebs, und jeder einzelne Fall davon wird ausgelöst durch eine Summe verschiedensten Ursachen. Die Berechnungen der Autoren drücken lediglich die Stärke einer Teilwirkung aus, die als Ursache in Frage kommt.  Den genauen Auslöser festzumachen, ist nur bei wenigen Krebsarten gelungen.

Aber die gravierendsten Fehler werden jetzt bei der Interpretation der Ergebnisse gemacht.

In einer zweiten Rechenschleife werden nun verschiedenen geplante Schwefelbeschränkungen berücksichtigt, und die gesamten Partikelmengen der Schiffe um die Schwefelanteile entsprechend verringert. Niemandem erinnert sich, dass nur Ruß (BC) und teilverbrannter Brennstoff (POM) die Krebsmacher sind, und daß diese durch Schwefelbeschränkungen nicht verringert werden.

Die Tonnenideologie führt zwangsweise zum gewünschten Ergebnis. Der Schwefel wird reduziert, die Feinstaub Konzentrationen sinken um minimale Beträge, die gleichen statistischen Kurven damit multipliziert ergeben geringere Wahrscheinlichkeiten von Erkrankungen, und diese geringen Unterschied, multipliziert mit einer viel zu großen Bevölkerung, ergibt schließlich beeindruckende Zahlen.

Der Beantwortung einer Grundfrage, die zur Wahrung des Überblicks dient und an den Anfang aller Betrachtungen gehört,  wird im gesamten Beitrag konsequent ausgewichen,

Die Grundfrage lautet:

Ist der Risikofaktor für die Gesundheit von Menschen durch Feinstaub aus Abgasen der Schifffahrt überproportional im Vergleich zu Ihrem Brennstoffverbrauch, oder nicht?

Ein „JA“  würde bedeuten, dass die Maßnahmen der Schifffahrt tatsächlich unzureichend wären.

Die Antwort ist gut versteckt,  aber wir haben die Puzzleteile gefunden, und zusammengesetzt.

Alle Todesfälle durch städtischen Feinstaub werden durch Corbett mit 800.000 pro Jahr, an anderer Stelle mit 737.000 pro Jahr angegeben. Die Zahl müsste  erhöht werden, um die ländlichen Fälle zu berücksichtigen, das tun wir aber nicht. Diese Daten sind älter, so dass wir einen Vergleich mit den Berechnungen der Inventare 1a und 1b von 2001 machen könnten. Dort sind nur Ruß (BC) und Organik (POM) und SO4 berücksichtigt, was unserer Auffassung von den Verursachern am nächsten kommt.  1 c ist zu hoch, da hier alle Partikel in Betracht gezogen werden. Der Mittelwert aus der Betrachtung 1a und 1b wäre in etwa realistisch, das ist (18.920 + 38.870) /2 = 57.790/2 = 28.895  Fälle.

Im Verhältnis zu den nach eigenen Angaben der Autoren  737.000 Personen starken Risikogruppe durch Feinstaub insgesamt weltweit wären das 3,92 % durch die Teilwirkung der Emissionen der Schifffahrt. Das ist fast genau der Anteil des Brennstoffes, den die Schifffahrt vom gesamten Brennstoffverbrauch des Transportes bekommt. Eine überproportionale Gefährdung durch Schweröl und Schwefel, wie gern herbeigeredet wird, ist also nicht erkennbar.

Somit muss die Einrichtung der Schwefelemissions-Kontrollgebiete als nahezu wirkungslos angesehen werden. Wirkungslos, was die Luftqualität betrifft. Eine andere Wirkung entfalten sie täglich. Durch das Umstellen von Brennstoffen kommt es gelegentlich zu Ausfällen von  Hilfs- und Hauptmaschinen, also zum Verlust des Antriebes oder zu Ausfällen der Stromversorgung an Bord. Die Betriebssicherheit von Schiffen ist zeitweise stark vermindert, das häuft sich an den Grenzen der Schwefelkontrollgebiete. Für solche Vorkommnisse gibt es noch keine Meldepflicht, denn sie war in der Vergangenheit nicht notwendig.  Reeder und Schiffsführungen werten das heute als eigenes Versagen, wenn Motoren den Temperaturschock oder unterschiedliche Brennstoffe nicht vertragen. Wenn möglich, werden solche Ereignisse noch vertuscht.

Das alles spielt den selbsternannten Schiffahrtsfachleuten noch in die Hände. Das wird sich aber ändern, denn auch Schiffspersonale und Schiffsbetreiber werden die neuen Spielregeln begreifen. Daß das Umstellen von Kraftstoff gefährlich ist, ist längst bekannt. Daß sich aus Motorausfällen gefährliche Situationen entwickeln können, ist auch nicht neu. Wenn man ab sofort eine Meldepflicht für solche Komplikationen einführen würde, würden die Neueingänge von Fällen sofort sprudeln. Daß diesen Risiken keine Vorteile beim Umweltschutz gegenüberstehen, wird man hoffentlich bald begreifen. Wenn nicht, wird die Sache durch das Produkt aus Risiko und Zeit gelöst, indem irgendwann der unvermeidliche erste Schiffsverlust eintritt, für den man als Ursache nennen muss: „Umweltschutz“.

Joachim Illge ist Schiffsingenieur und befuhr alle Weltmeere. Auf Kiribati gab er Kurse für zukünftige Kollegen.




Milliardenfacher Insektentod an Windrädern*

Der Rückgang landlebender Insekten ist ein globales Phänomen mit sehr unterschiedlichen regionalen Ausprägungen. Das ergab eine von einem internationalen Forscherteam am Deutschen Zen-trum für integrative Biodiversitätsforschung Halle-Jena-Leipzig, der Universität Leipzig und der Martin-Luther-Universität Halle-Wittenberg durchgeführte Metastudie, die bereits im April letzten Jahres veröffentlicht wurde.

Dabei wurden erstmals Daten aus 1676 Orten weltweit ausgewertet, um Veränderungen der Insektenzahlen, nicht der Arten, zu untersuchen. Die Daten wurden zwischen 1925 und 2018 erhoben. Die Analyse ergab einen Rückgang der landlebenden Insekten um jährlich 0,92 Prozent, was einem Rückgang von 24 Prozent innerhalb der letzten drei Jahrzehnte entspricht.

Dagegen stieg die Zahl der Wasserinsekten wie Libellen und Köcherfliegen zuletzt um 1,08 Prozent pro Jahr. Das wird auf Gewässerschutzmaßnahmen zurückgeführt.

Seit dem Ende des Zweiten Weltkriegs und zunehmend seit 2005 werden die stärksten Rückgänge der Insekten für Teile der USA und Europas verzeichnet, und zwar vor allem für Deutschland. Der stärkste Rückgang wurde bei fliegenden Insekten wie Schmetterlingen, Wildbienen und Schwebfliegen beobachtet, die bei der Bestäubung vieler Pflanzen einen wichtigen Beitrag leisten. Vom Insektenschwund unmittelbar betroffen sind insektenfressende Vögel.

Eindeutige Studie des DLR

Ohne Insekten würden die Ökosysteme zusammenbrechen, und die Erde wäre unbewohnbar für Menschen. Die wesentlichen Ursachen für diese dramatische Entwicklung sind bekannt: die intensive Landwirtschaft mit Überdüngung und hohem Pestizideinsatz, die Zerstörung von Lebensräumen durch Bodenversiegelung sowie nach neuerer Erkenntnis auch die sogenannte Lichtverschmutzung bei Nacht in den Städten. Da die meisten Insekten nachtaktiv sind, lassen schätzungsweise eine Milliarde Insekten ihr Leben in einer einzigen Sommernacht an Deutschlands Lichtquellen. Allen Faktoren ist gemein, dass sie mit den Aktivitäten des Menschen zusammenhängen.

Durch eine 2019 veröffentlichte Studie von Forschern des Deutschen Zentrums für Luft- und Raumfahrt (DLR) ist als weiterer Faktor des Insektensterbens die Wechselwirkung von Fluginsekten und Windturbinen bekannt geworden.

Eine Modellrechnung führte zur Annahme, dass die Größenordnung der von Windturbinen geschlagenen Fluginsekten relevant für die gesamte Insektenpopulation sein könnte. Die Forscher empfahlen, die Verluste näher zu untersuchen. Anlass der Studie waren die Überreste von Fluginsekten an Rotorblättern, die zu hohen Einbußen beim Wirkungsgrad der Windkraftanlagen führen können und die Entstehung einer Reinigungsindustrie für Rotorblätter zur Folge hatten. Der Zusammenprall der Fluginsekten mit den bis zu 60 Meter langen Rotorflügeln und ihre tödliche Verwirbelung durch die arbeitenden Turbinen geschieht während der Wanderbalz der Insekten. Dabei nutzen Insekten starke, gleichmäßige Luftströmungen in Höhen bis zu 2000 Meter gleichsam als Fahrstuhl, um zur Eiablage in ihre Brutgebiete zu gelangen. Wissenschaftler bezeichnen diese Schicht als „Insektenmigrationsschicht“. Dieser wichtige Lebensraum wird auch von Vögeln und Fledermäusen genutzt. Durch den milliardenfachen Insektentod an Windrädern kurz vor der Eiablage könnten sich exponentielle Verlustraten für die Insekten ergeben.

Kein Verträglichkeitsnachweis

Es ist bezeichnend, dass das alarmierende Ergebnis der Studie in den Medien sogleich vielstimmig zerredet wurde. Auch im Maßnahmenpaket des Bundesumweltministeriums zur Rettung der Insekten vom letzten Oktober ist der Insektenschlag durch Windturbinen nicht berücksichtigt worden, was der Umweltministerin Svenja Schulze (SPD) schwer anzulasten ist. Forscher beklagen, dass es immer noch keinen Verträglichkeitsnachweis von Windanlagen gegenüber Fluginsekten gibt. Christian Voigt vom Leibniz-Institut für Zoo- und Wildtierforschung, Berlin, hat in einem im Januar veröffentlichten Aufsatz darauf aufmerksam gemacht, dass Scheimpflug-Lidarmessungen bei arbeitenden Windrädern eine hohe Insektenaktivität in der Risikozone der Turbinen bestätigen. Seine Forderungen an die Politik: Wir müssen verstehen, wie die Anziehung der Insekten durch Windräder wirkt, desgleichen die Interaktionen von Insektenfressern, Vögeln und Fledermäusen, mit Windturbinen. Wir müssen ferner die Schlagraten von Insekten durch Windräder mit Bezugsgrößen in Verbindung bringen, um zu ermitteln, wie stark diese zum Niedergang der Insektenpopulationen beitragen. Und wir brauchen Erkenntnis darüber, in welchem Umfang die Insektenverluste durch Windräder zur Veränderung der Ökosysteme beitragen.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  4. Juni 2021, S.4; EIKE dankt der PAZ-Redaktion sowie der Autorin Dagmar Jestrzemski  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/ ; Hervorhebungen im Text: EIKE-Redaktion.

=================================================================




Droht uns durch Klima­engineering eine neue Eiszeit?

NTV hatte am 12. Januar 2019 berichtet, Zitat:

Bisher waren Forschungen zum SRM, auch solares Geoengineering genannt, auf das Labor und Computersimulationen beschränkt. Doch dieses Jahr wollen Wissenschaftler erstmals den Schritt nach draußen wagen: Forscher der Harvard-Universität planen ein Experiment, bei dem kleine Partikel in einer hohen Luftschicht ausgebracht werden, wie das Magazin „Nature“ berichtete. Untersucht werden soll so die „Stratospheric Aerosol Injection“ (SAI), eine Variante des solaren Geoengineerings, bei der ein Partikelmantel einen Teil der Sonnenstrahlen ablenkt und die Sonne so verdunkelt wird. Das Projekt mit dem Namen Stratospheric Controlled Perturbation Experiment (SCoPEx) hat mit Bill Gates einen berühmten Förderer und könnte schon in der ersten Jahreshälfte starten. Ein Ballon soll bis in die Stratosphäre aufsteigen, in rund 20 Kilometern Höhe soll er dann Wolken kleiner Partikel aus Kalziumkarbonat, also Kalk, ausstoßen. Anschließend messen Sensoren an dem Ballon, wie sich diese ausbreiten.“

Als Förderer des SCoPEx-Projekts werden angegeben:

William and Flora Hewlett Foundation; The Open Philanthropy Project; Pritzker Innovation Fund; The Alfred P. Sloan Foundation; VoLo Foundation; The Weatherhead Center for International Affairs; G. Leonard Baker, Jr.; Alan Eustace; Ross Garon; Bill Gates; John Rapaport; Michael Smith; Bill Trenchard.”

Dem EIKE-Artikel „‚Klimaschutz‘: Riskantes Spiel mit dem Wetter“ vom 7. Februar 2021 war zu entnehmen, dass ein erster Praxistest im Rahmen des SCoPEx-Experiments offenbar bereits für Juni 2021 geplant gewesen sei. Aber aus diesem SCoPEx-Test wird nun offenbar vorerst nichts werden, wie die taz am 5. April 2021 unter dem Titel „Klimamanipulation abgeblasen“ gemeldet hatte, Zitat:

Ende letzter Woche gaben Harvard und SSC [staatliche schwedische Raumfahrtgesellschaft] bekannt, dass die Pläne auf Eis gelegt würden: Es gebe in der internationalen Wissenschaft einen Bedarf nach weiterer Diskussion zu diesem Thema, denn bislang gebe es ‚keinen Konsens, inwieweit ein solcher Versuch angemessen ist‘. Die SSC-Mitteilung führt eine weitere Begründung an, die eine Beteiligung Schwedens am Test auf absehbare Zeit unmöglich machen dürfte: ‚Es fehlen heute internationale Abkommen bezüglich der Forschung im Geoengineering-Sektor.‘“

Bevor man mit dem solaren Klimaantrieb unserer Erde herumspielt kann uns ja vielleicht die Aga-Kröte mal erzählen, was bei nicht bis zu Ende gedachten menschlichen Eingriffen in natürliche Abläufe so alles passieren kann.

Schauen wir uns nachfolgend also einmal genauer an, ob ein solcher Eingriff in die terrestrische Temperaturgenese mit oder ohne ein internationales Abkommen tatsächlich angemessen wäre

Kiehl & Trenberth lassen in ihrem konventionellen IPCC-Modell KT97 die Vektor-Richtung der solaren Einstrahlung [1] mit einem Skalar-Trick verschwinden und fokussieren ihren Tag=Nacht-Faktor4-Flacherdeansatz für die Solarkonstante „So/4“ auf die radiale Abstrahlung der Erde [3]. Die gesamte Ursachen-Wirkungs-Kette für die terrestrische Temperaturgenese lautet aber,

Aussage 1:

Solare HF-Einstrahlung@PIR² [1]=> Erwärmung von Materie@2PIR² [2]=> IR-Abstrahlung@4PIR² [3]

Der EIKE-ArtikelAnthropogener Treibhauseffekt: nach wie vor zu schwach für die Klimakatastrophe!“ von Dr. Roland Ullrich enthält die bekannte KT97-Darstellung mit einer atmosphärischen Gegenstrahlung von 333W/m². Dort wurde auch eine Gleichung für die globale Verteilung der Sonneneinstrahlung aufgestellt:

GLEICHUNG 1: So + Evap + Erad + Konv + X = 0 (Dr. Roland Ullrich)

Die in einem späteren Artikel von Dr. Ullrich nachgereichte „realistische Darstellung der Energiebilanz der Erde“ verschleiert durch Prozentangaben wiederum die zugehörigen spezifischen Leistungen:

Abbildung 1: „Realistische Darstellung der Energiebilanz der Erde“ – Quelle: Sekundärzitat aus „Oberflächenbilanz und Kirchhoff’sche Knotenpunktregel“ von Dr. R. Ullrich

Durch die Prozentangaben in Abbildung 1 wird aber auch noch die Betrachtungsperspektive (PIR² oder 2PIR² oder 4PIR²) verschleiert. Allein der Term „Von Ozeanen und Land absorbiert 51%“ entspräche bezüglich der Solarkonstanten (So=1.367W/m²) einer spezifischen Strahlungsleistung von 697W/m² mit einem rechnerischen S-B-Temperaturäquivalent von 60°C. Und für die „atmosphärische Gegenstrahlung“ taucht dort lediglich der aufsteigende IR-Term „Von der Atmosphäre absorbierte Wärmestrahlung 15%“ (entsprechend 205W/m² von So) auf, der jedoch nicht auf die Erdoberfläche zurückgeführt wird. Von daher bleibt dort der fiktive atmosphärische Antrieb für den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ rechnerisch völlig im Dunklen. Und damit fehlt wiederum jede Erklärung, wie die Lücke von 155W/m² in der konventionellen Faktor4-Klimatheorie zwischen einer fehlerhaft abgeleiteten „natürlichen Gleichgewichtstemperatur“ unserer Erde von (-18°C) und der sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) geschlossen werden sollte.

Die Vektorrichtung der parallelen solaren HF-Einstrahlung kann nämlich nur über die Erwärmung von Materie in eine radiale terrestrische IR-Abstrahlungsrichtung transformiert werden. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwelliger HF-Strahlung (solar=niedrige Entropie) zu langwelliger IR-Strahlung (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie (Aussage1: [2]), und das ist nur auf der Tagseite der Erde möglich. Dazu passt auch die Aussage von Prof. Dr. Heinz Fortak aus seinem Buch Meteorologie von 1971, Sekundärzitat aus einer Email vom 21.05.2021 um 21:08 Uhr an einen reduzierten Skeptiker-Email-Verteiler mit Dank an Dr. Gerhard Kramm:

Der Strahlungsanteil in Hoehe von 3.52 kWh/(m2 d) (42 %), welcher das System Erde – Atmosphaere effektiv erwaermt, besteht aus der kurzwelligen Strahlungsabsorption in der Atmosphaere und am Erdboden (17 % + 47 % = 64 %) abzueglich des Energiebetrages, der zur Verdunstung des Wassers benoetigt wurde. Der „Kreislauf“ der langwelligen Strahlung zwischen Erdoberflaeche und Atmosphaere traegt nicht zur Erwaermung des Systems bei. Die effektive langwellige Ausstrahlung nach oben von 64 % dient zur Aufrechterhaltung des Strahlungsgleichgewichts an der Obergrenze der Atmosphaere.“

Damit können wir für einen (IN=OUT)-Gleichgewichtszustand feststellen,

Aussage 2:

(Solare HF-Einstrahlung [1] @2PIR² [2] = terrestrische IR-Abstrahlung @4PIR² [3]) @ NST=CONST

Und wenn wir in Ermangelung von Alternativen mit Durchschnittswerten argumentieren, führt die Gleichsetzung NST=Tphys zu

Aussage 3:

Hinweis zur Temperatur auf der Nachtseite: Die Umgebungsgleichung des S-B-Gesetzes stellt die Ausgangssituation für meine Betrachtung der Nachtseite unserer Erde dar. Dadurch werden die Temperaturverhältnisse und die daraus abzuleitenden Flussrichtungen der Energie von warm zu kalt eindeutig definiert, aber der physikalische Ausgleichsmechanismus kann und wird selbstverständlich alle Arten des Energietransportes umfassen, wie ich das in der Vergangenheit bereits mehrfach ausgeführt hatte (beispielsweise hier: Land-Seewind-System und hier: 6. ERKENNTNIS).

Kommen wir jetzt noch einmal zu dem Modell KT97 von Kiehl & Trenberth zurück. Es ist klar hervorzuheben, dass der Ausdruck „S0“ in der Wissenschaft eindeutig für die Solarkonstante von 1.367 W/m² steht; das Faktor-4-Derivat von Kiehl & Trenberth leitet sich dagegen aus (S0/4) her. Und schließlich wäre hier von den KT97-Anhängern noch zu klären, wie ein IR-Spektrum von bis zu 120°C (@ S0) auf der Tagseite unserer Erde (generell S0 (1-ALBEDO)*COS(Zenitwinkel)) mit dem ominösen „Faktor4“ gemittelt wird, um so 4x das IR-Spektrum von -18°C (@235W/m²) zu erzeugen; insbesondere, wo dabei die höheren, ausschließlich auf der Tagseite erzeugten IR-Frequenzen abbleiben sollen (hier in Abbildung 6 dargestellt). Auf der anderen Seite kann Energie nicht einfach so verschwinden. In der Gleichung 1 sind aber Kondensation („Kond“) und Advektion („Adve“) nicht enthalten, es sei denn implizit in „Evap“ und „Konv“, was diese Terme dann allerdings mit („Evap“=„Evap“-„Kond“) und („Konv“=„Konv“-„Adve“) selbst auf „0“ bringen würde. Klarer wird vielleicht eine hemisphärische Betrachtung:

Es ergibt sich daraus die nachfolgend in Tabelle 1 dargestellte Situation:

 

Der Bodenwärmefluss sowie der Term „X“ aus Gleichung 1 sind hier nicht aufgeführt. Setzen wir einmal anstelle von Term „X“ einen Albedo-Antrieb ein:

Tabelle 1: Die Temperaturgenese auf unserer Erde [1]=>[2]=>[3] wird durch die ozeanischen Wärmespeicher mit einer Mitteltemperatur von etwa 15°C gestützt.

Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Die Albedo unserer Erde ist dagegen die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann. Der Antrieb „X“ kann daher als +/-DELTA ALBEDO durch ein Albedo-Forcing beschrieben werden:

Gleichung 3: (S0 – S0*ALBEDO +/- S0*DELTA ALBEDO)@PIR² = (Merw + Evap + Konv)@2PIR²

Die linke Seite der Gleichung 3 bestimmt also, welche spezifische solare Strahlungsleistung überhaupt für die terrestrische Temperaturgenese zur Verfügung steht, und zwar zwischen einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, respektive 1.367W/m² und 0W/m². Manchmal wird die Zeit (t) ebenfalls eingebunden, aber das würde insofern zu Komplikationen führen, weil die Verweildauer von Wärme in den globalen Strömungssystemen von Atmosphäre und Ozeanen sehr unterschiedlich ist. Verstehen wir die Gleichungen 2 und 3 also eher als Ergebnis einer langjährigen Durchschnittsbetrachtung. An einer Weltformel für die Temperatur hatte ich mich hier einmal versucht, und hier an einem natürlichen Klimamechanismus.

Und jetzt schauen wir einmal genauer auf unser Eiszeitalter:

Wir leben gegenwärtig in einem Interglazial der gegenwärtigen Eiszeit, also irgendwo zwischen der letzten Kaltzeit und der nächsten, wie die nachfolgende Abbildung mit den Temperaturproxys der antarktischen Vostok-Bohrung zeigt:

Abbildung 2: Isochrone Interpolation der Temperaturproxys aus den Vostok-Daten [1]

In den vergangenen 420.000 Jahren beschränkten sich die sogenannten Warmzeiten oder Interglaziale auf Zeiträume von jeweils 10.000 bis 15.000 Jahren. Unser aktuelles Interglazial besteht nun bereits seit etwa 12.000 Jahren, hat also voraussichtlich noch zwischen 0 und 3.000 Jahre Bestand. Und dann wird es wieder für etwa 100.000 Jahre lang ziemlich kalt, mit Gletschern im norddeutschen Tiefland und allem was so dazu gehört. Damit sollte uns aber auch die Frage interessieren, was genau den Wechsel von einer Warmzeit zu einer Kaltzeit hervorruft.

Köppen und Wegener machen in ihrem Werk „Die Klimate der geologischen Vorzeit“ (Bornträger 1924, Nachdruck bei Schweizerbart) die sommerliche Sonneneinstrahlung in höheren geographischen Breiten für den Wechsel von Warm- und Kaltzeiten verantwortlich.

Abbildung 3: Rekonstruktion der Sonnenstrahlung des Sommerhalbjahres in höheren Breiten im Quartär seit 650.000 Jahren, aus Köppen & Wegener (1924), Graphik von M. Milanković, gemeinfrei aus Wikipedia

Nach Köppen und Wegener kommt es bei einer Kaltzeit nämlich gar nicht darauf an, wie extrem kalt es im Winter wird, sondern wie viel Schnee und Eis über den Sommer liegen bleibt. Das gilt insbesondere für die polaren Regionen in den höheren geographischen Breiten, wo durch eine solche Erhöhung der sommerlichen Albedo dann weitere Sonneneinstrahlung reflektiert wird, sodass dadurch keine Materie mehr erwärmt werden kann und folglich die Temperaturen sinken.

Die dänischen Forschungseinrichtungen für die Arktis präsentieren auf ihrem Polar Portal die Daten über den Zustand zweier Hauptkomponenten der Arktis, der grönländischen Eisdecke und des Meereises. Die nachfolgende Abbildung von diesem Portal zeigt, wie die Oberfläche des grönländischen Eisschildes täglich an Masse gewinnt und verliert, also die Oberflächenmassenbilanz. Die Massenverluste durch Abkalben von Gletschern sind dort nicht enthalten.

Abbildung 4: Oberflächenmassenbilanz der aktuellen Saison für das Grönländische Eisschild gemessen in Gigatonnen (1 Gt entspricht 1 Milliarde Tonnen und entspricht 1 Kubikkilometer Wasser). Die dunkelgraue Kurve zeichnet den Mittelwert aus dem Zeitraum 1981-2010. Quelle: Dänisches Polar Portal

Das hellgraue Band in Abbildung 4 zeigt die jährlichen Masseunterschiede von Jahr zu Jahr für den Zeitraum 1981-2010, wobei die niedrigsten und höchsten Werte für jeden Tag weggelassen worden sind. Wir können deutlich erkennen, dass der Masseverlust des Grönländischen Eisschildes erst Anfang Juni beginnt und bereits in der 2. Augusthälfte endet, also auf etwa drei Monate im Jahr beschränkt ist und im Maximum auf den Juli fällt. Wenn sich dieser kurze Zeitraum der Schmelze in den höheren geographischen Breiten noch weiter einschränken würde, bliebe dort dann von Jahr zu Jahr etwas mehr Schnee und Eis liegen und es würde immer mehr Sonnenstrahlung reflektiert und trüge nicht mehr zur terrestrischen Temperaturgenese bei. Wir erinnern uns an den Unterschied zwischen der spezifischen Strahlungsleistung und der übertragenen Wärmemenge:

Abbildung 5: Zum Unterschied zwischen Leistung und Arbeit der solaren Einstrahlung. Links: Gemittelte 24h-tagesdurchschnittlich zurückgerechnete Strahlungsleistung der Sonne in Abhängigkeit von der Jahreszeit und der geographischen Breite über ein Jahr (Abbildung 22 b aus Kramm et al. (2017): … (b) solar radiation reaching the Earth’s surface; … as predicted for one year starting with TDB=2,455,197.5 (January 1, 2010, 00:00 UT1) – Creative Commons License CC BY 4.0)´. Rechts: Die maximale spezifische solare (Strahlungs-)LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel (nicht flächengetreu – weitere Erläuterungen sind hier zu finden)

In den höheren geographischen Breiten ist also die solare Arbeit im Sommerhalbjahr sogar noch größer als in den Tropen, die maximal mögliche S-B-Gleichgewichtstemperatur folgt allerdings immer dem höchsten Sonnenstand zwischen den beiden tropischen Wendekreisen des Krebses und des Steinbocks, wobei diese Temperatur aufgrund von Konvektion und Verdunstung nirgendwo erreicht wird. Einen möglichen Wirkmechanismus für ein natürliches Klimaforcing hatte ich hier auf KS beschrieben.

Es gibt auf unserer Erde keine Energiequelle, die den Wechsel zwischen Kalt- und Warmzeiten verursachen kann. Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Aber selbst die Schwankung der solaren Einstrahlung innerhalb dieser Zyklen reicht vom Betrag her als Erklärung für den Wechsel von klimatischen Kalt- und Warmzeiten nicht aus. Die Albedo unserer Erde ist die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann, und zwar, ganz generell nach Gleichung (3) betrachtet, zwischen den Extrema einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, entsprechend einer temperaturwirksamen spezifischen solaren Strahlungsleistung von 1.367W/m² respektive 0W/m².

Die Klimasensitivität der Sonnenstrahlung

Den „Antrieb X“ aus Gleichung (1), Zitat:Man sieht in der Tabelle, dass der Antrieb X um ca. 7 Watt/m2 wächst für jeweils 1 Grad Temperaturerhöhung“, hatte ich nicht übernommen. Stattdessen hatte ich in Gleichung (3) den variablen Term (+/- S0*DELTA ALBEDO) mit der Erd-Albedo eingeführt. Wie ich hier auf KS bereits einmal ausführlich dargestellt hatte, können die Schwankungen des natürlichen Paläo-Klimaantriebs als (+/-DELTA ALBEDO) durch ein Albedo-Forcing beschrieben werden, und zwar mit 13,67 [W/m²] pro Prozent Albedo und 9 [W/m²] pro Kelvin:

Douglas und Clader [2] geben die Klimasensitivität k der Sonneneinstrahlung aus eigenen Versuchen zu

Gleichung 4: Delta T/Delta F = k = 0,11 +/- 0,02  [°Celsius / Wm2]  an.

Damit ergibt sich für die Vostok-Temperaturproxys von 5,44°C bis 18,06°C um die sogenannte globale Durchschnittstemperatur (NST) von 14,8°C eine Schwankungsbreite der spezifischen solaren Strahlungsleistung von:

Gleichung 5: DELTA FV@NST = +29,36 [W/m²] und -85,36 [W/m²]

Dieser Betrag stimmt in etwa mit den Berechnungen von Lascar et al. [3] überein, die für 65°N / 120°E eine Schwankung der Sonneneinstrahlung von bis zu +/- 50 [W/m²] über orbitale Zyklen angeben. Aus der Solarkonstanten von 1.367 [W/m²] und der Albedo von Douglas und Clader [1] mit a = 0,3016 ergibt sich eine reflektierte/refraktierte Energiemenge von 412,29 [W/m²], die nicht zur Klimaentwicklung beiträgt. Daraus wiederum lässt sich ein Beitrag von 13,67 [W/m²] pro Prozent Albedo ermitteln und, umgerechnet auf die Extremwerte der absoluten Vostok-Temperaturproxys, eine Schwankungsbreite für die Albedo der Erde von:

Gleichung 6: F@amin =  412,29  – 29,36  [W/m²]  =   382,93 [W/m²]  mit dem Albedo  amin0,2801

Gleichung 7: F@amax =  412,29  + 85,36  [W/m²]  =  497,65 [W/m²]  mit dem  Albedo  amax = 0,3640

In der nachfolgenden Abbildung sind die Vostok-Temperaturproxys in Albedoschwankungen umgerechnet worden, und zwar beginnend mit einer Albedo von 0,3016 für die aktuelle „gemessene“ globale Durchschnittstemperatur (NST) von 14,8° Celsius:

Abbildung 6: Die Varianz der Erdalbedo über die Warm- und Kaltzeiten abgeleitet aus den Vostok Temperaturproxys [1]

Übrigens: Kaltzeiten dürften jeweils in einem Zeitabschnitt beginnen, in dem die Nordsommer auf das Abhel der elliptischen Erdbahn fallen, weil dort die Sommersonne schwächer ist als im Perihel; und genau in diesem Abhel befinden wir uns gerade. Und wenn Sie jetzt die Abbildung 6 auf Sich wirken lassen, würden Sie da auf die Idee kommen, die Albedo unserer Erde künstlich zu erhöhen?

Die Menschheit hat mit der Albedo unserer Erde möglicherweise erstmals einen echten „Kipp-Punkt“ für unser globales Klima zu fassen bekommen. Und im heiligen Klimawahn sollten wir jetzt nicht wie unwissende Kinder an dieser Stellschraube herumpfuschen und das Klimaparadies unserer Warmzeit zerstören.

Aber eine Stimme aus dem Off sagte, „Beruhige Dich, denn es könnte schlimmer kommen…“

Und natürlich kommt es noch schlimmer. In einem EIKE-Artikel erklärt Professor Valentina Zharkova, wie sich aus dem zyklischen Wechsel des Solardynamos zwischen einem poloidalem und einem toroidalem Magnetfeld durch deren Interferenz eine Schwebungsfunktion ergibt. Diese Schwebung verursacht Schwankungen der Gesamtabstrahlung unserer Sonne (Total Solar Irradiance =TSI), die wiederum zu Großen Solarzyklen von 350-400 Jahren führen sollen, wie die nachstehende Abbildung zeigt:

Abbildung 7: Rekonstruierte Kurve der Sonnenaktivität für 1200-3300 n. Chr. (aus einer Zusammenfassung auf EIKE, Daten von Zharkova et al. (2020).

Und das ist immer noch nicht alles. V.M. Velasco Herrera, W. Soon und D.R. Legates haben gerade einen neuen Artikel mit dem Titel, “Does Machine Learning reconstruct missing sunspots and forecast a new solar minimum?” veröffentlicht. In der Presseerklärung heißt es dazu u.a., Google-übersetztes Zitat:

Die drei Wissenschaftler haben einem Algorithmus für maschinelles Lernen beigebracht, wie man zugrunde liegende Muster und Zyklen in den Sonnenflecken der letzten 320 Jahre erkennt. Der Algorithmus entdeckte dann eine bisher unbemerkte Wechselwirkung zwischen den 5,5-jährigen Sonnenhalbzyklen (blau) und den 120-jährigen Gleissberg-Doppelzyklen […], die es ihm ermöglichte, die früheren Vorhersagen eines ruhigen halben Jahrhunderts zu bestätigen – Vorhersagen, die jetzt von Sonnenphysikern geteilt werden.“

Die nachfolgende Abbildung zeigt eines der Ergebnisse von Velasco Herrera et al.:

Abbildung 8: “The Sun may be quiet for half a century” aus der Presseerklärung von Velasco Herrera et al. (2021)

Auch nach diesen Ergebnissen einer KI-Signalanalyse der Sonnenflecken steht uns offenbar ein solares Minimum bevor. Und sogar die NASA rechnet für die kommenden Jahre mit einem neuen solaren Minimum, Zitat aus einem EIKE-Artikel:

Die neue Untersuchung wurde von Irina Kitiashvili geleitet, einer Forscherin des Bay Area Environmental Research Institute am Ames Research Center der NASA im kalifornischen Silicon Valley. Sie kombinierte Beobachtungen von zwei NASA-Weltraummissionen – dem Solar and Heliospheric Observatory und dem Solar Dynamics Observatory – mit Daten, die seit 1976 vom bodengestützten National Solar Observatory gesammelt wurden.“

Abbildung 9: Die Vorhersage der NASA für den Sonnenzyklus 25 zeigt, dass er der schwächste der letzten 200 Jahre sein wird. (Abbildung aus einem EIKE-Artikel)

Man macht sich also grundsätzliche Gedanken über eine Verminderung der Globaltemperatur durch eine künstliche geotechnische Verringerung der solaren Einstrahlung, und zwar ausgerechnet zu einem Zeitpunkt, wo

  • das gegenwärtige Interglazial in seinem letzten Drittel steht,
  • die Nordsommer auf das Aphel der elliptischen Erdbahn mit den größten Sonnenabstand fallen
  • und für die nächsten Jahrzehnte durch mehrere unabhängige Forschungsergebnisse ein solares Minimum vorausgesagt wird.

Das Orakel von Delphi würde uns an dieser Stelle vielleicht weissagen, dass wir den befürchteten menschengemachten Hitzekollaps unserer Erde sicher vermeiden werden, wenn wir es durch Klimaengineering schaffen sollten, dass im Sommer der höheren geographischen Breiten in aufeinander folgenden Jahren zunehmend mehr und mehr Schnee und Eis liegen bleiben. Allerdings war das Orakel von Delphi auch immer so höflich, sich über die Konsequenzen eines vermeintlichen Erfolges auszuschweigen…

Referenzen

[1] Vostok ice-core data [NOAA]: Petit, J.R., et al., 2001, Vostok Ice Core Data for 420,000 Years. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2001-076. NOAA/NGDC Paleoclimatology Program, Boulder CO

[2] Douglas and Clader (2002): Climate sensitivity of the Earth to solar irradiance. GEOPHYSICAL RESEARCH LETTERS, VOL. 29, NO. 16, 10.1029/2002GL015345, 2002

[3] Laskar et al.:  Orbital, precessional, and insolation from -20Myr to +10Myr. Astronomy & Astrophysics 270, 522-533 (1993) – Figure 5




Die Klimaschau von Sebastian Lüning: Wie neutral ist das Bundesverfassungsgericht? Klimaschutz-Urteil 2021