Meridionale Strömung, die fundamentalste aller Klima-Variablen

Andy May

Der atmosphärische Wärmetransport auf der Erde vom Äquator zu den Polen wird größtenteils von den Stürmen der mittleren Breiten durchgeführt. Es gibt jedoch keine zufriedenstellende Theorie zur Beschreibung dieses grundlegenden Merkmals des Erdklimas.“ – (Barry, Craig, & Thuburn, 2002)

Dies ist die Abschrift des Vortrags, den ich in Tom Nelsons Podcast-Interview hier gehalten habe.

Nachdem Leon Barry und seine Kollegen die obige Aussage in ihrem Nature-Artikel gemacht hatten, schreiben sie, dass die mittleren Breiten eine Zone mit starken Temperaturgradienten sind und diese Gradienten Stürme erzeugen, die schwerwiegend sein können. Je geringer der Temperaturgradient zwischen den Tropen und den Polen ist, desto weniger schwere Stürme sind erforderlich, um die Aufgabe zu erfüllen, überschüssige tropische Energie (oder Wärme) zu den Polen zu transportieren. Behalten Sie dieses Konzept im Hinterkopf, wenn ich den meridionalen (Nord-Süd-) Energietransport beschreibe.

Ein Großteil dieses Vortrags basiert auf Javier Vinós‘ neuem Buch Climate of the Past, Present, and Future, A Scientific Debate, 2nd Edition, Kapitel 10. Abbildung 1 aus dem Buch zeigt die globale Durchschnittstemperatur über ein durchschnittliches Jahr:

Abbildung 1. Globale und hemisphärische Temperatur- und Strahlungsveränderungen über ein mittleres Jahr.

Die gesamte Sonneneinstrahlung (in Abbildung 1 als TSI bezeichnet) macht über 99,9 % des Energieeintrags in das Klimasystem aus. Die von der Sonne empfangene Energie ändert sich im Laufe des Jahres um 6,9 %, was auf den sich ständig ändernden Abstand zwischen Erde und Sonne zurückzuführen ist. Die Erde ist der Sonne am 4. Januar am nächsten (Perihel) und am 4. Juli am weitesten entfernt (Aphel). Obwohl die Hälfte der Erde zu jeder Zeit von der Sonne bestrahlt wird, verursachen die Veränderungen in der Ausrichtung der Erdachse, die unregelmäßige Verteilung der Landmassen, Veränderungen in der Albedo (oder Reflektivität) und regionale Veränderungen in der Oberflächen- und Lufttemperatur erhebliche jahreszeitliche Veränderungen in der Menge der reflektierten Sonnenstrahlung (in Abbildung 1 als „RSR“ bezeichnet) und der ausgehenden langwelligen Strahlung (oder „OLR“). Infolgedessen ändert sich die Temperatur der Erde ständig, und der Planet befindet sich nie im thermischen Gleichgewicht.

Entgegen unserer Erwartung ist die Erde kurz nach der Juni-Sonnenwende am wärmsten, wenn sie am weitesten von der Sonne entfernt ist, und kurz nach der Dezember-Sonnenwende am kältesten, wenn sie 6,9 % mehr Energie von der Sonne erhält. Die durchschnittliche Temperatur der Erde beträgt etwa 14,5 °C, was nach geologischen Maßstäben kalt ist, aber im Laufe des Jahres erwärmt und kühlt sie sich um 3,8 °C, wie in Abbildung 1 dargestellt. Erwartungsgemäß gibt die Erde mehr Energie ab (TOR genannt, die rote gestrichelte Linie in Abbildung 1), wenn sie sich abkühlt, und weniger, wenn sie sich erwärmt, unabhängig davon, was sie zu diesem Zeitpunkt empfängt. Die Vorstellung eines Energiegleichgewichts an der Obergrenze der Atmosphäre ist eindeutig falsch. Die Erde weist von Jahr zu Jahr nur sehr geringe Temperaturschwankungen auf, aber es gibt keinen Grund zu der Annahme, dass wir die an der Temperaturstabilität der Erde beteiligten Prozesse richtig verstehen. Und natürlich ist die Vorstellung absurd, dass eine globale Erwärmung von zwei Grad gefährlich ist.

In Abbildung 1 ändert sich die globale Oberflächentemperatur des Planeten (die dicke schwarze Linie in Abbildung 1) vor allem deshalb so stark, weil die nördliche Hemisphäre (die dünne durchgezogene schwarze Linie) in einem mittleren Jahr um 12 °C schwankt. Der Planet hat zwei Spitzen des Energieverlusts an den Weltraum (oder TOR in Abbildung 1), nämlich dann, wenn jeder Pol dunkel ist und abkühlt. Der höchste Wert wird erreicht, wenn der Nordpol dunkel ist. Zwischen November und Januar gibt der Planet mehr Energie ab als zu jeder anderen Zeit. Die südliche Hemisphäre ist die gestrichelte schwarze Linie. Die Temperaturdaten für 1961-1990 stammen von Phil Jones vom Hadley Climatic Research Center. Die Strahlungsdaten stammen von Barbara Carlson und Kollegen.

Abbildung 1 zeigt, dass das Klimasystem zwar vollständig durch die Sonneneinstrahlung angetrieben wird, die Temperatur der Erde aber dadurch bestimmt wird, was das Klimasystem mit dieser Energie macht. Doch das Klimasystem ist äußerst komplex. Wie Leon Barry und seine Kollegen in dem Zitat am Anfang dieses Vortrags sagen, fehlt der modernen Klimatologie eine richtige Theorie darüber, wie sich die Energie im Klimasystem unseres Planeten bewegt. Es ist möglich, etwas zu modellieren, was nicht richtig verstanden wird, aber an ein solches Modell zu glauben, ist töricht. Abbildung 2 zeigt die grundlegenden Energie-Umverteilungsprozesse der Erde:

Abbildung 2. Eingehende und ausgehende Nettostrahlung der Erde sowie die grundlegenden Elemente der Umverteilung der Strahlung.

Die durchschnittliche absolute (oder Kelvin-) Temperatur der Erdoberfläche variiert nicht so stark mit dem Breitengrad, sie liegt zwischen 278 und 300 Kelvin zwischen 60°N-60°S. Die Strahlungsmenge, die die Erdoberfläche abgibt, ist eine Funktion dieser absoluten Temperatur, die Menge, die den Weltraum erreicht, ist hauptsächlich eine Funktion der Treibhausgas-Konzentration und der Wolkenbedeckung, die beide in den Tropen höher sind, wo die absoluten Temperaturen höher sind. Daher variiert die ausgehende langwellige Strahlung nicht so stark mit dem Breitengrad. Daraus ergibt sich, dass der Nettostrahlungsfluss an der Obergrenze der Atmosphäre (TOA) im Jahresdurchschnitt zwischen etwa 30°N-30°S positiv (mehr ein- als ausgehende Strahlung) und zwischen etwa 30° Nord oder Süd und den Polen negativ ist, wie in Abbildung 2 dargestellt. Der genaue Punkt, an dem die eingehende Nettostrahlung gleich der ausgehenden ist, hängt natürlich von der Hemisphäre, dem Monat des Jahres, anderen orbitalen Parametern und der Bewölkung ab, aber im Durchschnitt liegt er in der Nähe von 30° Nord oder Süd. Die Abkühlung, wenn man sich von den Tropen polwärts bewegt, ist hauptsächlich auf die geringere Sonneneinstrahlung zurückzuführen – die Menge an Sonnenenergie, die die Oberfläche erreicht. Die Verringerung der Sonneneinstrahlung in Richtung der Pole führt zu einem Nettoenergiedefizit und einem Temperaturgefälle in den Breitengraden. Durch den meridionalen Transport wird Energie von Breitengraden, in denen ein Netto-Energiegewinn besteht (der rote Bereich), zu Breitengraden transportiert, in denen ein Netto-Energieverlust in den Weltraum besteht (der blaue Bereich).

Durch den meridionalen Transport wird viel mehr Energie in Richtung des Winterpols transportiert. Der Winterpol strahlt viel mehr Energie in den Weltraum ab als er empfängt, da die Sonne unter dem Horizont steht. Praktisch die gesamte Energie, die der Winterpol abgibt, wird durch Winterstürme dorthin transportiert oder ist latente Wärme, die beim Gefrieren von Sommer-Schmelzwasser freigesetzt wird.

Ohne den meridionalen Transport würde die Temperatur der blauen Regionen – wo der Nettoenergiefluss in Richtung Weltraum negativ ist – kontinuierlich abnehmen, bis die ausgehende langwellige Strahlung so gering ist, dass sie der Sonneneinstrahlung entspricht. In der dunklen Polarnacht würde sich diese Temperatur dem absoluten Nullpunkt oder -273°C nähern. Durch den meridionalen Transport von Luft, Wasserdampf und Wasser in der Atmosphäre und in den Ozeanen bleibt die Temperatur am dunklen Pol jedoch viel höher.

Das Temperaturgefälle zwischen den Breitengraden der Erdoberfläche ist eine direkte Folge des Sonneneinstrahlungsgefälles in den Breitengraden. Thermische Energie fließt von wärmeren Regionen zu kälteren Regionen. Dies ist die physikalische Grundlage des meridionalen Transports, aber das Klimasystem ist komplex, so dass es sich keineswegs um einen passiven Prozess handelt, der nur von der Temperaturdifferenz zwischen den Tropen und den Polen abhängt. Vielmehr handelt es sich um einen komplexen Prozess, der sowohl von geografischen als auch von klimatischen Prozessen abhängt. Es ist möglich, mit einem geringeren Temperaturunterschied mehr Energie zu transportieren als mit einem größeren Temperaturunterschied. So hat beispielsweise der meridionale Transport in den ersten beiden Jahrzehnten des 21. Jahrhunderts zugenommen, trotz der Erwärmung der Arktis, die den Temperaturgradienten in Breitenrichtung verringert hat. Es ist nicht so einfach, wie Leon Barry und Kollegen in ihrem Artikel schreiben, aber vieles von dem, was er geschrieben hat, ist richtig.

Wir wissen, dass der Temperaturgradient in den Breitengraden der Erde im Laufe der geologischen Vergangenheit stark variiert hat. Wladimir Köppen, ein russisch-deutscher Wissenschaftler, untersuchte im 19. Jahrhundert den Einfluss der Sonne auf das Klima und erstellte ein Klimaklassifizierungssystem, das noch heute verwendet wird. Seine Klimazonen werden anhand von Temperatur, Niederschlag und ihrer jahreszeitlichen Verteilung definiert. Viele Pflanzen- und Tiergruppen sind auf einen engen Temperaturbereich beschränkt, ebenso wie bestimmte geologische Prozesse. Anhand dieser Informationen sowie gut datierter Fossilien und Gesteinsformationen aus der ganzen Welt hat Christopher Scotese im Rahmen seines Paleomap-Projekts die Klimageschichte der Vergangenheit kartiert. Anhand dieser Informationen konnte er die globalen Köppen-Klimazonen alle fünf Millionen Jahre kartieren, seit Beginn des Phanerozoikums vor 540 Millionen Jahren. Karten der Köppen-Gürtel, wie sie heute und vor 52 Millionen Jahren existieren, sind in Abbildung 3 dargestellt:

Abbildung 3. Verteilung der Köppen-Gürtel heute im Vergleich zu vor 52 Millionen Jahren und die sich daraus ergebenden durchschnittlichen Temperaturgradienten nach Breitengraden. Quelle: Vinós, 2022, Seite 158.

Jede Köppen-Gürtelkombination definiert einen Temperaturgradienten in der Breite. Auf diese Weise können Scotese und seine Kollegen die in der rechten Abbildung gezeigten Temperaturdiagramme erstellen. Anhand dieser Diagramme lässt sich eine ungefähre globale durchschnittliche Oberflächentemperatur für diesen Zeitraum abschätzen. Scotese und seine Kollegen haben also gezeigt, dass der Temperaturgradient in Breitengraden eine grundlegende Klimavariable ist, eine Annahme, die mit dem Zitat von Barry et al. zu Beginn dieses Vortrags übereinstimmt. Nach den Definitionen von Scotese wird der gegenwärtige (21. Jahrhundert) latitudinale Temperaturgradient als ein „strenges Eishaus“ betrachtet, wie in Abbildung 3 dargestellt. In der rechten Grafik vergleichen wir den derzeitigen starken Eishaus-Temperaturgradienten in Blau mit dem Treibhausgradienten des frühen Eozäns vor 52 Millionen Jahren. Zu beachten ist, dass Grönland und die Antarktis heute mit Eis bedeckt sind (blau auf der unteren Karte), während die Pole auf der oberen Karte eisfrei sind. Ein Eishausklima ist durch ganzjährige Eisschilde an den Polen gekennzeichnet.

Das Klima im Treibhaus des frühen Eozäns war für heutige Verhältnisse recht warm. Die durchschnittliche globale Temperatur war bis zu 10 °C höher als heute. Das Auftreten der ersten Säugetiere“ fiel in diese Zeit. Eines der Säugetiere, die im frühen Eozän erstmals auftraten, war der erste Primat, unser entfernter Vorfahre. Primaten verbreiteten sich schnell über die ganze Welt. Neben neuen Säugetieren entstanden und gediehen in dieser Zeit auch viele neue Gattungen von Schildkröten, Eidechsen und Pflanzen. Einige Tiefsee-Foraminiferen starben aus, aber den meisten Organismen ging es gut und sie verbreiteten sich weit.

Die Existenz sehr unterschiedlicher vergangener Klimazonen auf der Erde stellt ein unüberwindbares Problem für die moderne „Konsens“-Klimatologie dar. Während des letzten glazialen Maximums vor 20.000 Jahren war die von der Sonne empfangene Energie die gleiche wie heute. Und nicht nur das, auch die Milankovitch-Parameter der Erdumlaufbahn waren nahezu identisch. Die Verteilung der Sonnenenergie über der Erde war fast identisch mit der heutigen, doch das Klima war ganz anders. Der Energieeintrag in das Klimasystem muss geringer gewesen sein, weil die größeren Eisschilde mehr Sonnenenergie reflektierten und der Treibhauseffekt geringer war. Der geringere Treibhauseffekt war auf weniger CO2 in der Atmosphäre und weniger verfügbares Wasser zurückzuführen. Durch die niedrigeren Temperaturen war das CO2 in den Ozeanen besser löslich und wurde so der Luft entzogen. Die sehr großen kontinentalen Eisschilde während des letzten glazialen Maximums entzogen dem Klimasystem viel Wasser und Wasserdampf und speicherten es in Eis.

Ein geringerer Energieeintrag und ein größerer Nord-Süd-Temperaturgradient hätten den Tropen durch einen stärkeren meridionalen Transport Wärme entziehen müssen, was aber nicht der Fall war. Die tropischen Temperaturen während des letzten glazialen Maximums sind nach wie vor umstritten, aber es scheint, dass sie nur 1-2 °C niedriger lagen als heute. Dies steht im Einklang mit den von Chris Scotese und Kollegen vorgelegten Beweisen, dass sich die tropischen Temperaturen im Laufe der letzten 540 Millionen Jahre trotz enormer Veränderungen der Durchschnittstemperatur des Planeten (9-30 °C) nicht wesentlich verändert haben. Aus Abbildung 3 geht hervor, dass das sehr warme Treibhausklima des frühen Eozäns am Äquator eine ähnliche Temperatur aufweist wie heute, aber der Unterschied am Südpol beträgt 44 °C und am Nordpol 23 °C. Es ist offensichtlich, dass der größte Teil der Erwärmung in den höheren Breitengraden stattfindet.

Falls das letzte glaziale Maximum ein Problem für die Funktionsweise des meridionalen Transports während einer Eiszeit darstellt, führt das gleichmäßige Klima des frühen Eozäns zu einem Paradoxon, das die moderne Konsens-Klimatologie nicht lösen kann. Gegenwärtig befindet sich die Erde in einem strengen Eishausklima mit einem sehr steilen Temperaturgradienten in den Breitengraden, wie das rechte Diagramm in Abbildung 3 sehr deutlich zeigt. Gegenwärtig fällt die Temperatur vom Äquator bis zum Winterpol um 0,6-1°C/° Breitengrad. Eine derart kalte Umgebung war in den letzten 540 Millionen Jahren relativ selten und kam weniger als 10 % der Zeit vor. Im frühen Eozän herrschte auf der Erde eine geschätzte Durchschnittstemperatur von 24 bis 25 °C, die Scotese als Treibhausbedingungen bezeichnet. Das Temperaturgefälle in den Breitengraden des frühen Eozäns war mit 0,25 bis 0,45 °C/Breite sehr gering, wobei die Temperaturen am Nordpol das ganze Jahr über über dem Gefrierpunkt lagen, was durch das Vorhandensein von frosttoleranten Lebensformen belegt wird. Diese Gewächshausbedingungen sind noch seltener anzutreffen. Über 60 % des phanerozoischen Äons hatte die Erde eine Durchschnittstemperatur von 19 bis 20 °C. Die durchschnittliche globale Oberflächentemperatur des gesamten Phanerozoikums – der letzten 540 Millionen Jahre – liegt bei sehr angenehmen 18 °C, etwa 3,5 °C höher als heute.

Das Klima des frühen Eozäns wird als gleichmäßig definiert. Es ist durch eine warme Welt mit einem geringen Temperaturgefälle in den Breitengraden, einer geringen Saisonalität und weniger Stürmen in den mittleren und hohen Breitengraden als heute gekennzeichnet. Das Versagen der modernen Konsens-Klimatheorie bei der Erklärung dieser Perioden wird als „Problem des gleichmäßigen Klimas“ bezeichnet. Um die hohen kontinentalen Innentemperaturen des frühen Eozäns und die über dem Gefrierpunkt liegenden Winter in den Polarregionen zu reproduzieren, müssen die Modelle den CO2-Gehalt auf 4700 ppm erhöhen, eine unplausible Klimasensitivität für CO2 verwenden und zulassen, dass die tropischen Temperaturen 35°C überschreiten. Die besten CO2-Schätzungen für das Klimaoptimum im frühen Eozän gehen jedoch von einem wahrscheinlichen CO2-Gehalt von 500-1.000 ppm aus, und die höchsten Schätzungen liegen unter 2.000 ppm. Außerdem ist es unwahrscheinlich, dass in den Tropen Temperaturen über 30 °C möglich sind, da bei dieser Temperatur die Wärmeabfuhr durch Verdunstung und Tiefenkonvektion (Konvektion feuchter Luft in die obere Troposphäre) nicht mehr effizient ist. Außerdem können Säugetiere nicht über einer Feuchttemperatur von 35°C überleben, da sie dann keine Wärme mehr abgeben können. Fossilien zeigen uns jedoch, dass Säugetiere im frühen Eozän gut gediehen. Die höchste Feuchttemperatur auf der Erde liegt heute bei 30 °C, und es gibt keinen Grund zu der Annahme, dass sie zu irgendeinem Zeitpunkt in der Vergangenheit an Orten, an denen Fossilien von Säugetieren gefunden wurden, höher war.

Das Problem des gleichmäßigen Klimas ist eng mit dem Low-Gradient-Problem verbunden. Wir gehen davon aus, dass für warme Pole mehr Wärme dorthin transportiert werden muss, insbesondere im Winter, um das Defizit der Sonneneinstrahlung auszugleichen. Der meridionale Wärmetransport ist ein sehr wichtiger Teil des planetarischen Energiehaushalts, und ohne ihn wären die Pole viel kälter. Der meridionale Transport hängt jedoch vom Temperaturgradienten in der Breite ab, da ein Großteil des polwärts gerichteten Transports im gegenwärtigen Klima durch Stürme in den mittleren und hohen Breiten erfolgt, die aus der atmosphärischen Instabilität aufgrund steiler Temperaturgradienten resultieren. Das Paradoxon entsteht dadurch, dass die warmen Pole des frühen Eozäns zwar mehr Energietransport zu erfordern scheinen, der geringere Temperaturgradient in Breitenrichtung aber einen geringeren meridionalen Transport zur Folge hat. Es ist kein Wunder, dass die Klimamodelle mit diesem Rätsel zu kämpfen haben.

Abbildung 4. Schematische Darstellung der Strahlung, die an der Erdoberfläche ankommt und am winterlichen Nordpol austritt. Aus (Vinós, 2022, S. 171).

Die untere Atmosphäre ist ein dünner Gasfilm, der nur 1/600 des Erddurchmessers (oder etwa 10 km) beträgt. Diese dünne Atmosphäre hat die entscheidende Aufgabe, stets eine für komplexes Leben verträgliche Temperatur an der Landoberfläche aufrechtzuerhalten, was sie zumindest in den letzten 540 Millionen Jahren getan hat. Dazu muss sie die Temperaturunterschiede an der Oberfläche ausgleichen, die durch die unterschiedliche Sonneneinstrahlung entstehen. Zunächst muss sie den Unterschied zwischen Tag und Nacht ausgleichen. Dies geschieht vor allem durch den Treibhauseffekt und die Wolken, die die nächtliche Abkühlung verringern, indem sie die Strahlungsemissionen in den Weltraum verzögern, während die Wolken tagsüber die einfallende Sonnenstrahlung reflektieren. Darüber hinaus muss sie den Rückgang der Sonneneinstrahlung in den Breitengraden und die jahreszeitlichen Veränderungen aufgrund der Achsenneigung des Planeten ausgleichen. Dies geschieht durch den meridionalen Wärmetransport.

Die drei Faktoren, die für die thermische Stabilität der Erde verantwortlich sind, sind also der Treibhauseffekt, die Wolken und der meridionale Transport. Die moderne Klimatologie ignoriert die letzten beiden und konzentriert sich ausschließlich auf den ersten Faktor, indem sie die CO2-Klimahypothese entwickelt. Der Einfluss der Wolken und ihrer Variabilität auf den Klimawandel ist noch weitgehend unbekannt. Laut dem IPCC-Bericht AR6 (Seite 979) könnte die Rückkopplung der Wolken auf die Oberflächenerwärmung positiv oder negativ sein und stellt die größte Unsicherheitsquelle bei der Wirkung von Treibhausgasen auf das Klima dar.

Wie in Abbildung 4 zu sehen ist, findet der Energieaustausch zwischen dem Klimasystem und dem Weltraum nur über die Obergrenze der Atmosphäre statt. Dies bedeutet, dass der meridionale Transport einen Nettowert von Null hat, wenn er über den gesamten Planeten integriert wird, da die Verschiebung von Energie die Gesamtenergie innerhalb des Systems nicht verändert. Diese Tatsache hat viele Klimawissenschaftler zu der Annahme veranlasst, dass Veränderungen meridionaler Strömungen keinen Klimawandel verursachen können – wahrscheinlich der grundlegendste Fehler der modernen Konsens-Klimatologie.

Die Atmosphäre kann eine große Menge an Energie schnell und effizient über die gesamte Erdoberfläche transportieren. Der Großteil des meridionalen Transports wird hauptsächlich von der Atmosphäre bewirkt. Nur in den inneren Tropen (10°S-10°N) reicht die Atmosphäre für den notwendigen Energietransport nicht aus. Dies ist die Region, in der die meiste Sonnenenergie in das Klimasystem gelangt. In dieser Region muss der Ozean den größten Teil des Wärmetransports in den inneren Tropen übernehmen. Da der tropische Pazifik so groß ist – er umspannt fast die halbe Erde – gelingt es der El Niño/Southern Oscillation (ENSO), den tropischen Wärmeinhalt unter Kontrolle zu halten. El Niño ist die Art und Weise, wie die Erde in regelmäßigen Abständen überschüssige gespeicherte Wärme ausstößt, die durch normale meridionale Transportprozesse nicht abtransportiert werden konnte. ENSO ist ein wichtiger Teil des globalen meridionalen Transportsystems.

Polwärts von 10-20° Breite gibt der Ozean den größten Teil seiner Energie an die Atmosphäre ab, insbesondere in den Grenzströmungen der westlichen Ozeanbecken, wie dem Kuroshio-Strom im Pazifik und dem Golfstrom im Atlantik. Sobald die Meereiskante erreicht ist, wird der Transport im Wesentlichen ausschließlich von der Atmosphäre übernommen, da der Energiefluss durch das Meereis viel geringer ist als der von der flüssigen Ozeanoberfläche. Der primäre Mechanismus der Wärmeübertragung ist die Verdunstung, so dass die Meerestemperatur für den Energiefluss zwischen Ozean und Atmosphäre nicht so wichtig ist wie die Windgeschwindigkeit und die Luftfeuchtigkeit, da diese die Hauptfaktoren für die Verdunstung sind. Allerdings begrenzt die Verdunstung die maximale Meerestemperatur auf etwa 30 °C.

Wenn in den mittleren bis hohen Breiten West-Ost-Winde vorherrschen, nehmen die meridionalen oder Süd-Nord-Winde und der meridionale Energietransport ab, was zu einer globalen Erwärmung führt. Wenn die West-Ost-Winde (oder zonalen Winde) abnehmen, nimmt der meridionale Transport zu, mehr Energie erreicht den Pol, und der Planet kühlt sich ab.

Der Drehimpuls wird zwischen dem festen Erdozean und der Atmosphäre aufgrund von Änderungen der Windrichtung und -geschwindigkeit in den höheren Breitengraden ausgetauscht. Die Änderungen des Drehimpulses verändern die Rotationsgeschwindigkeit der Erde, die wir als Tageslänge messen. Die Tageslänge nimmt zu, was zu einem kürzeren Tag führt, wenn die durchschnittlichen zonalen (West-Ost-) Windgeschwindigkeiten zunehmen. Wenn die zonale Windgeschwindigkeit zunimmt, wird der Polarwirbel stärker, kalte Luft wird in der Arktis eingeschlossen, und der Planet erwärmt sich.

Die zonale Windzirkulation ist im Winter stärker, wenn aufgrund eines größeren Temperaturgefälles in der Breite mehr Drehimpuls in der Atmosphäre verbleibt, so dass sich die Erde im Januar und Juli schneller dreht und im April und Oktober langsamer, wenn die zonale Zirkulation schwächer ist. Es ist bekannt, dass der grundlegende 11-jährige Sonnenzyklus (der Schwabe-Zyklus) und der ENSO-Zyklus die zonalen und meridionalen Winde und damit die Geschwindigkeit der Erdrotation beeinflussen.

Doch während die Rolle von ENSO weithin bekannt ist und darüber berichtet wird, bleibt die Rolle der Sonne weitgehend unbeachtet. Wir haben festgestellt, dass die Sonne das Klima durch ihre Wirkung auf die atmosphärische Zirkulation beeinflusst, nicht durch Unterschiede in der gesamten Sonneneinstrahlung.

Abbildung 5. Die Hauptsturmbahnen der nördlichen Hemisphäre sind in rot dargestellt. Die Zugbahnen der Stürme auf der Südhalbkugel sind blau dargestellt, werden hier aber nicht behandelt. Aus (Vinós, 2022, S. 163).

Der Energietransport in der Atmosphäre ist mit dem Transport von Masse, Schwung, Feuchtigkeit und Wolken verbunden. Er findet hauptsächlich in der Troposphäre statt. Nördlich und südlich vom etwa 30° Breitengrad wird die Energie hauptsächlich durch Stürme auf bevorzugten Routen über Ozeanbecken transportiert. Die beiden wichtigsten Sturmzugbahnen der nördlichen Hemisphäre sind in Abbildung 5 in rot dargestellt.

Abbildung 6. Sonnenaktivität in rot und durchschnittlicher atmosphärischer Drehimpuls in schwarz.

Abbildung 6 zeigt die Korrelation zwischen der Sonnenaktivität (in rot) und dem durchschnittlichen atmosphärischen Drehimpuls. Die beiden korrelieren gut und positiv von 1920 bis heute, aber sie sind antikorreliert (negativer Korrelationskoeffizient) vor 1920. Viele Korrelationen zwischen Sonne und Klima kehrten sich um 1920 um, was zu großer Verwirrung unter den Sonnen- und Klimaforschern führte. Vor 1920 ging man davon aus, dass eine niedrige Sonnenfleckenzahl wärmeres Wetter verursacht, eine negative Korrelation. Nach 1920 kehrte sich diese Beziehung um, und die Sonnenflecken korrelierten positiv mit der Erwärmung.

Nach der Umkehrung im Jahr 1920 war die Vorstellung, dass es einen Zusammenhang zwischen der Sonne und dem Klima gibt, in Verruf geraten. Der Grund für diese Umkehrung ist unbekannt und wird es wahrscheinlich auch bleiben, bis sie wieder eintritt. Douglas Hoyt und Kenneth Schatten erklären, dass die Umkehrung offenbar alle 80-120 Jahre stattfindet, so dass 1600 bis 1720 eine negative Korrelation, 1720 bis 1800 eine positive Korrelation, 1800 bis 1920 eine negative Korrelation und 1920 bis heute eine positive Korrelation aufwiesen. In den nächsten Jahrzehnten könnte es zu einer weiteren Umkehrung kommen, was die Entdeckung eines Prozesses ermöglichen könnte.

Wenn wir wissen, wie die Wärme in die Arktis transportiert wird, können wir das Phänomen der arktischen Verstärkung untersuchen, d. h. die Vorstellung, dass bei einem globalen Temperaturanstieg die Temperaturen in der Arktis und Antarktis schneller steigen. Allgemeine Zirkulationsmodelle sagen dies voraus, seit die ersten Modelle von Syukuro Manabe und Kirk Bryan in den 1960er Jahren geschrieben wurden. In der modernen globalen Erwärmungsperiode wurde jedoch keine antarktische Verstärkung beobachtet. Bis 1995 wurde trotz der intensiven globalen Erwärmung in den vorangegangenen 20 Jahren so wenig Verstärkung in der Arktis beobachtet, dass Judith Curry sagte:

Das relative Fehlen einer beobachteten Erwärmung und der relativ geringe Eisrückgang könnten darauf hindeuten, dass die GCMs die Empfindlichkeit des Klimas gegenüber Prozessen in den hohen Breitengraden überbetonen.“ – Curry, et al., 1996

Abbildung 7. Arktische Sommer- (schwarz) und Wintertemperaturen (rot).

Das sollte sich in jenem Jahr ändern, als sich die arktische Verstärkung plötzlich beschleunigte, wie in Abbildung 7 dargestellt. Aber die Frage ist immer noch aktuell. Warum war die arktische Verstärkung vor 1996, als eine intensive globale Erwärmung stattfand, gering und nach 1996, als die globale Erwärmungsrate abnahm – die so genannte „Pause“ – groß? Die moderne Klimatologie hat darauf keine Antwort.

In Abbildung 7 ist die schwarze Kurve die mittlere Temperaturanomalie im Sommer (Juni-August) aus der Reanalyse-Datenbank des European Weather Center für die Region nördlich von 80°N. Die rote Kurve ist die entsprechende mittlere Wintertemperaturanomalie (Dezember-Februar) für dieselbe Region.

Die Arktis ist im Winter die größte Wärmesenke – der größte Energieverlust an den Weltraum – auf unserem Planeten. Die Niederschlagsmenge in der Arktis beträgt im Sommer etwa 15 mm, im Winter sinkt sie jedoch auf fast Null. Infolgedessen wird die Bewölkung im Winter geringer, was den Energieverlust erhöht. Bei geringerer Bewölkung, fast keinem Wasserdampf und keinem Albedo-Effekt gibt es in der Arktis im Winter im Wesentlichen keine Rückkopplungen auf den Treibhauseffekt durch CO2. Van Wijngaarden & Happer, stellen fest, dass

Die relativ warmen Treibhausgasmoleküle in der Atmosphäre über der kalten Oberfläche bewirken, dass die Erde mehr Wärme von den Polen in den Weltraum abstrahlt, als dies ohne Treibhausgase der Fall wäre.“ – Van Wijngaarden & Happer, 2020

Die Verstärkung der Arktis ist die Folge des verstärkten meridionalen Transports, nicht des Treibhauseffekts. Die Arktis hat ein negatives jährliches Energiebudget (d. h. einen Netto-Energiestrom in den Weltraum), und eine Verstärkung des Treibhauseffekts macht es nicht weniger negativ – das ist die Erwärmung. Die Erwärmung der Arktis, insbesondere im Winter, kann nur durch eine Zunahme des Wärmetransports aus niedrigeren Breiten entstehen. Der Anstieg des arktischen Wärmetransports, der nicht zurück in niedrigere Breiten exportiert wird, verteilt sich auf eine erhöhte Strahlung in den Weltraum und eine erhöhte langwellige Abwärtsstrahlung, die die Oberfläche erwärmt. Die verstärkte Abwärtsstrahlung erhöht zwar die Temperatur, aber aufgrund der geringen Wärmeleitfähigkeit des Eises und da der Wärmestrom im Winter immer vom wärmeren Ozean in die Atmosphäre fließt, kommt es häufig zu Temperaturinversionen, die oft von Feuchtigkeitsinversionen begleitet werden. So setzt sich die Abkühlung durch Strahlung von der Oberseite der Inversionsschicht oder der Oberseite der Wolken fort, bis der Wasserdampf gefriert und ausfällt, wodurch der ursprüngliche sehr kalte Zustand wiederhergestellt wird.

Der Wärmetransport im arktischen Winter wird zu Zeiten verstärkt, wenn über dem Pol hohe Druckverhältnisse herrschen, die zu einem schwachen oder gespaltenen Wirbel führen. Warme Luft dringt dann in die zentrale Arktis ein und verdrängt kalte Luft, die über die Kontinente der mittleren Breiten zieht und anomal niedrige Temperaturen und Schnee erzeugt. Seit Beginn der arktischen Verstärkung hat die Häufigkeit kalter Winter in den mittleren Breiten zugenommen, was die Modelle nicht erklären können. Etwas Ähnliches fand zwischen 1920-40 statt.

Zusammenfassung der Daten

Die globale durchschnittliche Temperatur der Erde schwankt jedes Jahr um 3,8 °C. Die Höchsttemperatur ist im Juli, die Tiefsttemperatur im Januar. Daher ist es schwierig, die Warnungen des IPCC vor einer Erwärmung um zwei Grad in den nächsten 100 Jahren ernst zu nehmen.

Die Tropen der Erde erhalten viel mehr Sonnenenergie, als sie in den Weltraum abstrahlen können. Dadurch werden viele ausgeklügelte natürliche Prozesse in Gang gesetzt, um die Energie in Richtung der Pole zu lenken, wo der Netto-Energiefluss in den Weltraum erfolgt. Veränderungen in diesem Energiefluss können zu Klimaveränderungen führen.

Geologen haben ein Verfahren entwickelt, die sich der Klimagürtel von Wladimir Köppen bedient, um die vergangenen globalen Durchschnittstemperaturen zu rekonstruieren. Die Rekonstruktionen haben eine sehr geringe zeitliche Auflösung und bestimmen nur eine globale durchschnittliche Temperatur alle fünf Millionen Jahre, aber das Verfahren ist vernünftig. Unser heutiges Klima ist in der Erdgeschichte ungewöhnlich kalt, kälter als 90 % der letzten 540 Millionen Jahre. Die Temperaturen in den Tropen schwanken nicht sehr stark, die globale Erwärmung oder Abkühlung findet hauptsächlich in den mittleren und hohen Breitengraden statt.

Die Stürme nehmen in Perioden mit einem größeren Temperaturgefälle in der Breite zu, da der größte Teil der überschüssigen tropischen Energie aus den Tropen in Stürmen transportiert wird. Da die globale Erwärmung den Gradienten verringert, sind weniger Stürme zu erwarten.

Die Sonnenaktivität beeinflusst das Klima der Erde, aber die Korrelation ändert sich mit der Zeit. Manchmal ist sie positiv, d. h. die Erde erwärmt sich mit zunehmender Sonnenaktivität, und manchmal kühlt sich die Erde mit zunehmender Sonnenaktivität ab. Die Wechsel scheinen alle 80-120 Jahre zu erfolgen. Die Änderungen der Klima/Solar-Korrelation deuten darauf hin, dass der solare Einfluss auf das Klima nicht direkt auf Änderungen der Sonneneinstrahlung zurückzuführen ist, wie der IPCC vorschlägt, sondern auf solarinduzierte Änderungen großer atmosphärischer Prozesse, die vernachlässigt werden.

Die Sommertemperaturen in der Arktis ändern sich kaum, wahrscheinlich weil jede Zunahme des meridionalen Transports einfach mehr Polareis zum Schmelzen bringt. Die Wintertemperaturen ändern sich, da zusätzliche Energie, die in die Arktis transportiert wird, die Oberfläche erwärmt. Wenn im Sommer aufgrund des verstärkten meridionalen Transports zusätzliches Eis schmilzt, führt das erneute Gefrieren des Eises im Winter dazu, dass die freigesetzte latente Wärme in den Weltraum gestrahlt wird.

Zusammenfassung der Probleme der Klimamodelle

Das erste ernstzunehmende Klimamodell, mit dem versucht wurde, Treibhausgase, insbesondere CO2, nachzuweisen, die die gesamte oder fast die gesamte moderne globale Erwärmung erklären könnten, wurde 1979 entwickelt und von der National Academy of Sciences veröffentlicht. Er wird gewöhnlich als Charney-Report bezeichnet. In den 43 Jahren, die seit der Veröffentlichung dieses Berichts vergangen sind, hat der IPCC 47 weitere Berichte veröffentlicht, die zu fast den gleichen Schlussfolgerungen über CO2 und Klima kommen. Doch auch nach dem Verfassen von Zehntausenden von Seiten und der Ausgabe von Milliarden von Dollar haben sie die Mehrheit der Menschen auf der Erde oder in den Vereinigten Staaten nicht davon überzeugt, dass der vom Menschen verursachte Klimawandel unser wichtigstes und ernstestes gesellschaftliches Problem ist. Andere gesellschaftliche Probleme werden immer als wichtiger und dringender angesehen. In einer Gallup-Umfrage von 2018 rangierte der Klimawandel auf Platz 18 von 19 wichtigen Themen, in einer ähnlichen Umfrage von 2014 rangierte der Klimawandel auf Platz 14 einer Prioritätenliste. Eine Umfrage des Pew Research Center aus dem Jahr 2022 ergab, dass der Klimawandel ebenfalls auf Platz 14 rangiert. Die Denkweise wird nicht verändert.

Diese Modelle können nicht erklären, warum die Häufigkeit der kalten Winter in den mittleren Breiten der nördlichen Hemisphäre zugenommen hat. Sie können die warmen Bedingungen des frühen Eozäns nicht simulieren, ohne unrealistische CO2-Werte und eine hohe CO2-Empfindlichkeit des Klimas zu verwenden.

Sie können nicht erklären, warum die Artenvielfalt, insbesondere die der Säugetiere, im frühen Eozän zunahm, als die globalen Temperaturen zehn Grad höher lagen. Sie können nicht erklären, warum es keine Erwärmung der Arktis gab, als die globale Erwärmung zwischen 1980 und 1997 ihren Höhepunkt erreichte, während sie nach 1997, als sich die Erwärmung verlangsamte, zunahm.

Außerdem wurde diese stark veraltete Hypothese vor der Entdeckung aller multidekadischen Ozeanschwankungen und ihrer Verbindungen zur Sonnenaktivität aufgestellt. Seit 1979 wurden beträchtliche Beweise dafür gefunden, dass der Klimawandel nicht einfach eine Funktion der sich ändernden Treibhausgas-Konzentrationen, sondern viel komplexer ist und einen großen Anteil an natürlichen Einflüssen hat.

Besonders besorgniserregend ist, dass die Erwärmung im frühen Eozän und die derzeitige Erwärmung der Arktis nicht mit der IPCC-Hypothese des Klimawandels durch Treibhausgase erklärt werden können. Allein diese Probleme reichen aus, um die Hypothese zu entkräften. Ich denke dabei an das Reiten eines toten Pferdes.

Download the meridional transport bibliography here.

The full Tom Nelson interview can be viewed here.

Link: https://andymaypetrophysicist.com/2022/10/24/meridional-transport-the-most-fundamental-climate-variable/

Übersetzt von Christian Freuer für das EIKE

 




Jetzt anmelden: Programm der 15. Internationale EIKE Klima- und Energiekonferenz, IKEK-15, in Braunsbedra (bei Halle/Merseburg)

Es ist wieder soweit – EIKE veranstaltet die jährliche Konferenz zu Energie- und Klimafragen!

Dieses Jahr in der Pfännerhall in Braunsbedra am Geiseltalsee, nahe Halle und Merseburg.

Adresse: Grubenweg 4, 06242 Braunsbedra. 

Die Region ist als Braunkohlenachfolgelandschaft und für die Himmelsscheibe von Nebra bekannt.

Anmeldung ausschließlich über den Dienstleister Eventbrite (Link)

For english speaking visitors: Please apply here

Was lange währt wird endlich gut, so hoffen wir es wenigstens.  Nun ist das Programm reif zur Veröffentlichung.

Programm

Freitag, 25. November

Ab 9.00 Uhr      Registrierung der Teilnehmer

10.00 Uhr  Begrüßung und Einführung:

                 Die Verteidigung von Diskurs und Wissenschaft

                 Dr. Holger Thuß

Präsident, Europäisches Institut für Klima und Energie (EIKE)

10.15 Uhr  Menschliche Gesellschaften waren immer energieabhängig

                 Warum wir uns so schwer mit der Energiewende tun

                 Dr. Dominique Görlitz

                 Vegetationsgeograph, Sachbuchautor, Filmemacher; Vegetationsgeograph, Initiator der ABORA-Expedionen in der Tradition von Thor Heyerdahl

11.00 Uhr  Net Zero Dogmatismus und die britische Energiekrise

                 Dr. Benny Peiser
Direktor von Net Zero Watch, der führenden realistischen Klima-Denkfabrik Großbritanniens

11.45 Uhr  Warum es keinen Klimanotstand gibt: Eine Analyse des IPCC AR6 Berichts

                 Marcel Crok
Wissenschaftsjournalist und Mitgründer von CLINTEL

12.30 Uhr  Klimaforschung bei EIKE und EIKE in der „Klimaforschung“  

                 Prof. Dr. Horst Lüdecke – via Video

                 Pressesprecher, Europäisches Institut für Klima und Energie (EIKE)

13.00 Uhr – 14.30 Uhr   Mittagspause gemeinsames Mittagessen

14.30 Uhr  Dekarbonisierung zwischen Wunsch und Wirklichkeit:
Machbarkeit, Kosten, Netzstabilität…

                  Prof. Dr. Helmut Alt

                  FH Aachen

15.30 Uhr  CMIP6-GCMs und globale Oberflächentemperaturen:

                   eine Diskussion über die Gleichgewichtsklimasensitivität ECS

                 Prof. Dr. Nicola Scafetta

                 Università di Napoli Federico II, Dipartimento di Scienze della Terra

16.30 Uhr – 17.00 Uhr Pause

17.00 Uhr

Was Sie schon immer über den Treibhauseffekt wissen wollten…

                 Teil II: Von der „Rundumsonne“ zum Grillhähnchen!

                 Dipl.-Ing. Michael Limburg

Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)

17.45 Uhr  Die Versuche zur Gestaltung der Energiewende auf drei verschiedenen Inseln

                 Peter Würdig

               Dipl.-Ing. (Physik)

19.00 Uhr  Gemeinsames Abendessen


Samstag, 26. November

9.00 Uhr    Kernkraft: Grenzwerte und Strahlenangst

Dr. Lutz Niemann
Physiker und ehemaliger Strahlenschutzbeauftragter

9.45 Uhr  Die große Angstmache – Sicherheitskonzepte der Kernenergie und der menschliche Einflussfaktor

                 Manfred Haferburg

                 Kernenergetiker und Publizist, ehemaliger Schichtleiter im KKW Greifswald

10.45 Uhr – 11.15 Uhr Pause

11.15 Uhr  Der verdrängte Energienotstand

                 Regulierte Preisbildung, Preisdeckel, zentraler EU-Einkauf:

                 Deutschland und die EU auf vertragssprengenden Pfaden

                 Prof. Dr. Markus Kerber

Technische Universität Berlin  

12.15 Uhr Energiewende in Deutschland – Folgen und Herausforderungen

                 Prof Dr. Wolfgang Merbach

Agrarwissenschaftler und ehemaliger Dekan der Landwirtschaftlichen Fakultät der MLU Halle-Wittenberg

13.00 Uhr – 14.30 Uhr Mittagspause – Gemeinsames Mittagessen

14.30 Uhr. Welche Rolle hat die Sonne im Klimawandel gespielt? Was bedeutet das für uns?

                 Prof. Dr. Henrik Svensmark

                 Centre for Sun-Climate Research des Danish National Space Centre

                 Prof. Dr. Nir Shaviv

                 Racah Institute of Physics – The Hebrew University of Jerusalem

16.15 Uhr – 16.45 Uhr Pause

16.45 Uhr  Die planetarische Theorie der Variabilität der Sonnenaktivität: Ein Überblick

Prof. Dr. Nicola Scafetta
Università di Napoli Federico II, Dipartimento di Scienze della Terra

17.30 Uhr  Kernenergie des 21. Jahrhunderts

                 Dr. Ing. Klaus-Dieter Humpich

Kerntechniker

18.15 Uhr  Nebenwirkungen des Weltuntergangs

                 Günter Ederer

Wirtschaftspublizist, Filmproduzent und Buchautor

18.45 Uhr  Schlusswort

                 Wolfgang Müller

                 Generalsekretär, Europäisches Institut für Klima und Energie (EIKE)

anschließend (18.50 Uhr) Sektempfang und Ende der Veranstaltung

In den Konferenzpausen ist ein kostenloser Besuch der Ausstellungen „Die Welt der Himmelscheiben“ und „Fundort Pfännerhall“ (beides zur Klimageschichte, Fossilienfunde u.a.) direkt neben der Veran-staltungsreihe möglich (weitere Informationen: https://www.pfaennerhall-geiseltal.de/index.php/ausstellungen).

Der Veranstalter behält sich das Recht auf kurzfristige Programmänderungen vor.
Die Konferenz wird in Teilen simultan Deutsch-Englisch / Englisch-Deutsch gedolmetscht.

Anmeldung ausschließlich über den Dienstleister Eventbrite (Link)

Bitte beachten Sie, dass Popup-Blocker Ihres Browsers den Kaufprozess Ihres Konferenztickets verhindern können. In diesem Fall hilft eine Änderung der Browsereinstellung.

Hinweise zur Anreise: Der Konferenzort liegt in unmittelbarer Nähe der Autobahn A38. Der ICE-Halt Halle (Saale) ist u.a. von München aus ohne Umsteigen zu erreichen. Von Ab Halle verkehren regelmäßig und sehr häufig Regionalbahnen nach Merseburg (Hbf.). Die Fahrtdauer Halle-Merseburg beträgt 10 Minuten. Der Bahnhof in Merseburg liegt 12 km vom Konferenzort entfernt. Den Konferenzbesuchern werden auf Anfrage diverse Hotels im Umkreis der Pfännerhall empfohlen. Ein Shuttle-Service ist in Planung (Details auf Anfrage).

EIKE ist das einzige deutsche Klima- und Energie-Institut, das vollständig privat finanziert wird. Bitte unterstützen Sie unsere Arbeit durch Ihre Spende! Vielen Dank!

Hier unser Spendenkonto:                      IBAN: DE34 8309 4454 0042 4292 01
Volksbank Gera Jena Rudolstadt BIC:      GENODEF1RUJ

 

Anmeldung hier




Pflugscharen zu Schwertern schmieden?

von Hans Hofmann-Reinecke

Könnte ein Land versuchen aus dem nuklearen Brennstoff seiner Kernkraftwerke Bomben zu bauen? Aber wer sollte heute auf eine solch mörderische Idee kommen! Nun, vielleicht ein Land, das glaubt, dieser Schritt sei die einzige Chance, um sich gegen einen übermächtigen Angreifer zu verteidigen.

Bislang hatten bei uns drei vermeintlich existenzielle Risiken den Schrecken der Kernkraft ausgemacht: Unfall, Endlagerung und Bomben. Jetzt aber treten diese Ängste in den Hintergrund, denn ihr Nutzen wird überdeutlich: Kernkraft bietet zuverlässige, preiswerte und saubere Energie, und das zu jeder Jahreszeit.

78% der Deutschen wünschen derzeit den Weiterbetrieb der verbliebenen Kraftwerke bis Sommer 2023, 67% bis 2026. Den Bau neuer Kraftwerken befürworten immerhin 41%. Zu kaum einem anderen politischen Thema gibt es in der Bevölkerung heute eine solch klare Haltung. Es wird für die Grünen Politiker immer schwieriger werden, sich dieser Mehrheit der Vernünftigen zu widersetzen und gleichzeitig noch einen Anschein von Demokratie und Logik zu wahren.

Die apokalyptischen Reiter verlieren ihren Schrecken.

Das drohende Gespenst eines Unfalls wurde durch Fukushima letztendlich entschärft, nachdem nicht mehr verheimlicht werden konnte, dass durch das Reaktorunglück niemand zu Tode gekommen war, während Tausende in durchaus konventionellen Strukturen ihr Leben verloren: in Eisenbahnen, in ihren Häuser und auf den Straßen.

Auch die langfristige Lagerung verbrauchter Brennelemente scheint gelöst, nachdem in Europa demnächst das erste Endlager in Betrieb genommen wird.

Bleibt noch das dritte Risiko, dass aus dem nuklearen Brennstoff eines Kernkraftwerks Bomben gebaut werden könnten. Aber wer sollte so etwas wollen? Nun, eine Nation, die glaubt, sich nur so gegen einen übermächtigen Angreifer verteidigen zu können. Auf jeden Fall bräuchte so eine Nation dann aber eigene Kernkraftwerke.

In der Ukraine steht Europas größtes Kernkraftwerk mit sechs Druckwasser-Reaktoren und einer elektrischen Gesamtleistung von 5.700 Megawatt.

Lassen wir dahingestellt, ob dieses Land auch nur im Geringsten die Absicht haben könnte Bomben zu bauen, und ob die russischen Besatzer Zugang zu den Anlagen überhaupt erlauben würden. Aber lassen Sie uns dennoch, unabhängig von der aktuellen militärischen Realität, in Gedanken durchspielen, ob aus dem nuklearen Brennstoff von Reaktoren Bomben gebaut werden könnten. Könnte man, um das Bibelwort umzudrehen, aus nuklearen Pflugscharen nukleare Schwerter schmieden?

Die kritische Masse

Es gibt zwei Typen von Spalt-Atombomben: solche aus Uran und solche aus Plutonium (für eine Fusions-Wasserstoffbombe braucht man eine vorgeschaltete Fissions-/Spalt-Bombe). In einem ausreichend großen Klumpen vom jeweiligen Stoff läuft spontan eine nukleare Kettenreaktion ab, bei der Neutronen die Atomkerne spalten, wobei weitere freie Neutronen entstehen, die den Vorgang fortsetzen. Das geschieht mit sehr hoher Geschwindigkeit und es werden im Vergleich zu konventionellen Explosionen die millionenfachen Energien freigesetzt.

Die ausreichend große Menge dafür, genannt kritische Masse, liegt bei ca. 25 kg Uran. Dabei kann man aber nicht den Stoff nutzen, so wie er in der Natur vorkommt. Wie so viele andere Elemente kommt auch Uran in verschiedenen Sorten, verschiedenen „Isotopen“ vor, die im Aussehen und den chemischen Eigenschaften völlig identisch sind, deren Atomkerne aber eine leicht unterschiedliche Masse haben. Für „unsere“ Zwecke taugt nur das Uran mit Masse 235 Gramm pro Mol, welches gerade mal 0,7% des natürlichen Stoffs ausmacht, der Rest ist U-238.

Für die meisten Reaktortypen muss der Anteil von 0,7% auf ca. 4% „angereichert“ werden, für Bomben auf über 90%. Das ist schwierig. Während man Gold und Silber durch Säure trennen kann – Silber löst sich auf, Gold nicht – gibt es zur Trennung der Isotope kein chemisches Verfahren, denn für die Chemie sind die verschiedenen Isotope identisch. Stattdessen verwandelt man das Uran in eine gasförmige chemische Verbindung und schickt dieses Gas durch Zentrifugen, in denen die etwas schwereren U238 Moleküle nach außen driften. In unendlich komplizierten Anlagen mit Hunderten von Zentrifugen, wird so sehr mühsam eine Anreicherung erzielt.

Die Hersteller von Brennstoff für unsere Kernkraftwerke betreiben solche Anlagen. Wir könnten dann die von ihnen gelieferten, fabrikneuen Brennstäbe zerlegen und das auf 4% angereicherte Uran für eine Bombe beiseiteschaffen.

Das müsste jetzt noch weiter auf 90% angereichert werden, um „waffenfähiges“ Uran zu bekommen. Das aber geht nicht ohne die erwähnten Zentrifugen, und solch eine Anlage kann man nicht kurzfristig in einer Garage aufbauen, es wäre ein gigantisches Projekt. Der Iran arbeitet seit vielen Jahren genau daran und macht in dem Zusammenhang immer wieder Schlagzeilen.

Mit anderen Worten: der rasche Bau einer Uran-Atombombe auf der Basis unbenutzter Brennstäbe ist ausgeschlossen.

Und was ist mit Plutonium?

Wie steht es um eine Bombe aus Plutonium? Dieser Stoff kommt nicht in der Natur vor, er entsteht allerdings während des Betriebs eines Reaktors in den Brennstäben. Man bräuchte etwa vier Kilogramm davon für eine Bombe. Die könnte man aus ausgedienten Brennstäbe gewinnen, indem man das Plutonium chemisch von den anderen Bestandteilen, etwa vom Uran, trennt. Da es sich um unterschiedliche Elemente handelt kann man sie so ähnlich trennen wie Silber und Gold.

Aber solch ein Vorgehen ist dennoch unmöglich, denn die Brennstäbe sind nach dem Einsatz im Reaktor dermaßen radioaktiv, dass ihre Handhabung nach wenigen Minuten eine tödliche Strahlungsdosis mit sich brächte. Die Abtrennung vom Plutonium aus benutzen Brennstäben – der PUREX -Prozess – wird in industriellem Maßstab in Wiederaufbereitungsanlagen durchgeführt, allerdings erst nach einer Wartezeit von fünf bis zehn Jahren, in der die Brennstäbe Teile ihrer Radioaktivität verloren haben. Aber auch dann noch werden alle Arbeiten hinter dicken, strahlungssicheren Glasscheiben mit Robotern durchgeführt.

Mit anderen Worten: auch die Plutonium-Bombe kann nicht ad hoc aus Reaktor-Material hergestellt werden. Zudem wäre der Bau der Bombe selbst, auch wenn das Material vorhanden wäre, eine große Herausforderung. Man vermutet, dass Nordkorea zwar über ausreichend Plutonium verfügte, dass die ersten Tests aber gezeigt hätten, dass das Knowhow für die Konstruktion einer „effizienten“ Bombe fehlte.

Die IAEA

Auch wenn friedliche und kriegerische Anwendung von Kerntechnik auf den ersten Blick nahe bei einander zu liegen scheinen, so ist der praktische Weg vom Reaktor zur Bombe in Form eines kurz- oder mittelfristigen Projekts unmöglich. Der Betrieb von Kernkraftwerken ist für ein Land weder eine notwendige, noch eine hinreichende Bedingung um Bomben zu bauen. Weder Israel noch Nordkorea haben Kernkraftwerke, aber Bomben haben sie.

Dazu kommt, dass es eine Organisation gibt, die eigens zur Verhinderung derartiger Aktivitäten geschaffen wurde: Die Internationale Atom-Behörde IAEA mit ihrer Safeguards-Division. Sie hat die Aufgabe, über jedes Gramm Plutonium oder Uran-235 Buch zu führen und den Betreibern der Kraftwerke über die Schulter zu schauen, um Mißbrauch für kriegerische Zwecke zu verhindern.

Dieser dritte Vorbehalt gegen Atomkraft, nämlich die Gefahr eines Bombenbaus, ist also offensichtlich haltlos. Deutschlands Weg zurück zur Kernenergie sollte also nichts mehr im Wege stehen, denn der Frieden lässt sich nicht dadurch sichern, dass Technologien verboten werden. Es wäre dagegen zielführend, dass Intelligenz und logische Disziplin, so wie sie bei deren Entwicklung zum Einsatz kommen, auch bei politischen Entscheidungen Anwendung fänden.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Europa steht vor dem Winter und vor einer Klippe

Brenda Shaffer via Cornwall Alliance.

Angesichts der schlimmsten Energiekrise seit dem Zweiten Weltkrieg und des Beginns der Heizperiode zaudert Europa weiter. Die Präsidentin der Europäischen Kommission Ursula von der Leyen hat eine Reihe neuer energiepolitischer Maßnahmen der Europäischen Union vorgestellt, darunter geplante Preisobergrenzen, zusätzliche Steuern für Energieerzeuger, die Einrichtung einer neuen europäischen Wasserstoffbank und neue Unterstützung für Elektrofahrzeuge. Die Mitgliedstaaten der Europäischen Union verstaatlichen unterdessen Energieversorger, legen Strompreise fest und subventionieren die Verbraucher. Diese EU-Politik stellt keine wesentliche Abkehr von der Politik dar, die den Kontinent überhaupt erst in das Energie-Chaos geführt hat.

Das grundsätzliche Problem ist, dass sich Europa immer noch nicht mit den Ursachen seiner Energiesicherheitskrise auseinandersetzt, sondern es vorzieht, äußere Kräfte für seine derzeitige missliche Lage verantwortlich zu machen. Von der Leyen und andere europäische Politiker machen Russland und seinen Krieg gegen die Ukraine für Europas Energiesorgen verantwortlich. Dass der russische Präsident Wladimir Putin die Gashähne zugedreht hat, hat die Lage zweifellos verschlimmert, aber dies wird bereits der dritte Winter sein, in dem Europa eine Energiekrise erlebt. Bereits in den Wintern 2020-2021 und 2021-2022 kam es in Europa zu erheblichen Preissteigerungen bei Strom und Erdgas sowie zu einer Gasverknappung, die zu einem verstärkten Einsatz von Kohle und Heizöl führte. Die europäischen Politiker haben dies entweder nicht zur Kenntnis genommen oder es vorgezogen, den Kurs nicht zu ändern.

Solange so viele Menschen in Europa und anderswo glauben, dass die energiepolitische Misere des Kontinents nur auf Putin zurückzuführen ist, ist es hilfreich, sich über die Politik, die Europa in diese Krise geführt hat, im Klaren zu sein. Zu wissen, was das Problem verursacht hat, ist der erste Schritt zur Lösung des Problems.

Die Krise in Europa hat sich über zwei Jahrzehnte entwickelt. Mit dem Ziel, einen schnellen Übergang von fossilen Brennstoffen und Kernenergie zu erneuerbaren Energiequellen zu schaffen, erzwangen die europäischen Politiker tiefgreifende Veränderungen in der Energieversorgung. Gleichzeitig ignorierten sie die Prognosen für die anhaltende Nachfrage nach Erdöl und Erdgas sowie den Bedarf an einer zuverlässigen Grundlast-Brennstoffquelle zur Unterstützung der intermittierenden Sonnen- und Windenergie. Viele EU-Mitgliedstaaten fuhren die heimische Produktion fossiler Brennstoffe zurück und schränkten die Importe ein, mit der bemerkenswerten Ausnahme von Gas aus Russland. Deutschland, das selbst über beträchtliche Gasvorkommen verfügt, verbot das Fracking, ebenso wie Frankreich und andere Länder. In den letzten zehn Jahren hat sich die einheimische Erdgasproduktion in Europa halbiert, und heute machen Importe 83 Prozent des europäischen Gasverbrauchs aus.

Unter dem Druck von Aktivisten und grünen Parteien haben sich Deutschland und mehrere andere Länder ebenfalls für den Ausstieg aus der Kohlenstoff-freien Kernenergie entschieden, obwohl die Sicherheitsbilanz tadellos ist. Die heute von Europa vorgeschlagenen Obergrenzen für Gas- und Strompreise sowie neue Abgaben für Energieerzeuger werden die Versorgung weiter einschränken und gleichzeitig die Verbraucher vor hohen Preisen schützen, die sie dazu veranlassen könnten, den Thermostat zu senken und das Licht auszuschalten.

Die europäische Politik der Blockierung von Gaslieferungen hat zu Engpässen geführt, die vor zwei Wintern erste Preisspitzen verursachten. In dem Glauben, bald ohne Gas auskommen zu können, hat Europa auch langfristige Verträge für Importe blockiert, mit dem Ergebnis, dass Europa an Gasmangel leidet, obwohl es von einigen der größten Gasreserven der Welt umgeben ist – nicht nur in Russland, sondern auch in Nordafrika, Zentralasien und anderen Regionen. Die EU hätte sich leicht den Zugang zu zuverlässigen Gaslieferungen zu erschwinglichen Preisen sichern können, ist aber nun stattdessen vom teuren Spotmarkt abhängig. Selbst heute, da europäische Beamte weltweit nach neuen Gasmengen suchen, weigern sie sich, langfristige Verträge mit den umworbenen Produzenten zu unterzeichnen. Die letzte Woche war ein typisches Beispiel dafür: Zwei Jahre nach Europas Energiekrise und sieben Monate nach Russlands Krieg in der Ukraine kehrte der deutsche Bundeskanzler Olaf Scholz von einer Reise nach Katar und in die Vereinigten Arabischen Emirate mit einer Vereinbarung über nur eine einzige Tankerladung Flüssiggas zurück, statt der langfristigen Lieferungen, die das Land dringend benötigt, um seine Bürger warm und die Fabriken am Laufen zu halten.

Europa hat sich noch immer nicht mit den Folgen seiner vor zehn Jahren getroffenen Entscheidung für den Ausstieg aus dem Erdgas auseinandergesetzt. In den 1990er und 2000er Jahren war [der Verbrauch von] Erdgas der am schnellsten wachsende Brennstoff in Europa und weltweit. Gas war aufgrund seiner relativ geringen Emissionen und seines bis vor kurzem wettbewerbsfähigen Preises sehr gefragt. Die Umstellung von Kohle auf Erdgas war auch der schnellste und billigste Weg zur Senkung der Kohlenstoff-Emissionen: Infolge der Schiefergas-Revolution konnten die Vereinigten Staaten ihre Kohlenstoff-Emissionen ohne staatliche Eingriffe rasch senken. Vor etwa einem Jahrzehnt jedoch verstärkten die Gegner fossiler Brennstoffe ihre Kampagnen gegen Erdgas. Das Ergebnis war: Europa stieg aus langfristigen Gasverträgen aus.

In der europäischen Energiepolitik übertrumpft die Ideologie die mathematischen Grundlagen. Wenn man aus der Kernenergie und der Kohle aussteigt und das Erdgas ausbremst, aber weniger Energie aus erneuerbaren Energieträgern hinzufügt, als man abzieht, kommt es zu einer Verknappung. Hinzu kommt, dass bei allen Versuchen, einen schnelleren Übergang zu Wind- und Solarenergie zu erzwingen, wichtige Ressourcen- und Technologiebeschränkungen ignoriert werden: Diese Energiequellen erfordern einen enormen Flächenverbrauch, kritische Materialien und Hardware (auch aus China) sowie entweder Reservestrom oder nicht vorhandene Speicher. Und schließlich ignorieren die politischen Entscheidungsträger bei ihrer erzwungenen Umstellung die Prognosen über die anhaltende Nachfrage nach fossilen Brennstoffen, u. a. für den Verkehr, die Industrie, das Heizen und die Reservestromversorgung für unvorhersagbare Wind- und Sonnenenergie.

Trotz der Berechnungen, der Daten und einer zwei Jahre alten Energiekrise, die sich seit dem Einmarsch Russlands in die Ukraine im Februar drastisch verschärft hat, folgen die europäischen Politiker einander weiterhin wie Schafe. Als ob die Energiekrise nicht schon da wäre, kündigten die Niederlande diese Woche an, dass sie die Gasproduktion im riesigen Groningen-Feld weiter reduzieren werden. Deutschland hält an seinem Fracking-Verbot und dem Ausstieg aus der Kernenergie fest, während Belgien letzte Woche ein Kernkraftwerk abgeschaltet hat, das einen erheblichen Teil des Strombedarfs des Landes deckt – und das, obwohl die Belgier auf der Straße gegen die explodierenden Energiepreise protestieren. Diese Länder könnten sich stattdessen ein Beispiel an Liz Truss, der neuen britischen Premierministerin, nehmen: Eine ihrer ersten Ankündigungen nach ihrem Amtsantritt war eine neue Energiepolitik, die eine Wiederaufnahme der Offshore-Öl- und Gasexploration und eine Aufhebung des Fracking-Verbots in ihrem Land vorsieht.

Anstatt den Kurs zu ändern, haben die europäischen Politiker ihre Investitionen in Solar- und Windenergie sowie in Elektrofahrzeuge verdoppelt. „Die erneuerbaren Energien sind billig, sie sind einheimisch, sie machen uns unabhängig“, sagte von der Leyen in ihrer Rede zur Lage der Europäischen Union Anfang des Monats. Dies ist ein klarer Widerspruch zu den Tatsachen: Europa muss erst noch dafür sorgen, dass erneuerbare Energien ohne Subventionen und fossile Reservestromquellen funktionieren, sie erfordern Ressourcen-intensive globale Lieferketten und sie bringen ihre eigenen geopolitischen Herausforderungen und Abhängigkeiten mit sich, genau wie fossile Treibstoffe.

[Hervorhebungen vom Übersetzer]

Die europäischen Staats- und Regierungschefs sind sich bewusst, dass ihre Energiemarktkonzepte nicht funktionieren. Die nationalen Regierungen retten kollabierende Versorgungsunternehmen oder verstaatlichen sie ganz. Die meisten legen jetzt die Strom- und Gaspreise für die Kunden fest. Darüber hinaus haben die hohen Kohlenstoffkosten in Europa die Versorgungsunternehmen nicht davon abgehalten, stillgelegte Kohlekraftwerke wieder zu befeuern und die Strom- und Wärmeversorgung von Gas auf Heizöl umzustellen. Von der Leyen wies in ihrer Rede zu Recht darauf hin, dass sich die europäischen Gaspreise heute an den hohen Kosten für LNG und nicht an den niedrigen Kosten für Pipeline-Gas orientieren und dass das Benchmark-System reformiert werden muss. Europa muss sich noch mit den wirtschaftlichen Auswirkungen der Umstellung des Marktes auf höhere LNG-Preise befassen.

Anstatt sich mit Dringlichkeit und Laserschärfe auf diese Fragen zu konzentrieren – und Fehlentscheidungen wie den Ausstieg verschiedener Länder aus der Kernenergie rückgängig zu machen -, treiben die europäischen Staats- und Regierungschefs weiterhin neue Projekte voran, die nicht erprobt und weit davon entfernt sind, wirtschaftlich tragfähig zu sein. Ihre derzeitige Lieblingstechnologie ist Wasserstoff: Von der Leyen kündigte kürzlich weitere EU-Fördermittel und die Einrichtung einer Europäischen Wasserstoffbank an. Wasserstoff ist jedoch noch nicht kommerziell nutzbar, es bestehen ernsthafte Sicherheitsbedenken hinsichtlich seiner Verwendung und seines Transports, und seine Produktion und die unvermeidlichen Leckagen könnten erhebliche Auswirkungen auf das Klima und die Umwelt haben.

Wären die europäischen Politiker ehrlicher, wenn es um die hausgemachten Ursachen ihrer Energiekrise ginge, wäre die richtige Politik klar. Erstens muss die EU ihren Energieabnehmern erlauben und sie sogar dazu ermutigen, langfristige Gasimportverträge zu unterzeichnen, die in der Regel mehr als ein Jahrzehnt laufen. Dies würde es den Erzeugern ermöglichen, in die Produktion und den Transport von speziellen Gasmengen für Europa zu investieren. Der Ausstieg aus der Kernenergie sollte, wo immer möglich, rückgängig gemacht werden. Als nächstes sollte Europa bei der Entwicklung erneuerbarer und kohlenstoffarmer Energiequellen technologieneutral vorgehen, anstatt umfangreiche Subventionen für bestimmte, von Politikern und Bürokraten ausgewählte Technologien bereitzustellen.

Darüber hinaus sollten Brüssel und die europäischen Regierungen dem Erdgas einen neuen Stellenwert einräumen, einschließlich einheimischer Quellen, wie es Großbritannien jetzt tut. Moderne Erdgasprojekte setzen kein Methan frei wie frühere Generationen, und die Umstellung von Kohle auf Gas ist immer noch der schnellste und effizienteste Weg, um sowohl die Umweltverschmutzung als auch die Kohlenstoff-Emissionen zu senken. Darüber hinaus braucht die europäische Politik einen langfristigen Plan für Grundlast-Treibstoffe zur Stromerzeugung in Verbindung mit Sonnen- und Windenergie. Da sie keine konstante und vorhersehbare Strommenge erzeugen, können Solar- und Windenergie niemals grundlastfähige Energieträger wie Kernkraft und Erdgas ersetzen. Diese Quellen müssen Hand in Hand gehen.

Europa braucht einen völlig neuen Ansatz für das Energiemarktdesign. Vor allem muss es dringend die Ideologie durch die Praxis ersetzen. Andernfalls werden die Europäer noch viele weitere Krisenwinter erleben – egal, was Putin tut.

This piece originally appeared at ForeignPolicy.com and has been republished here with permission.

Brenda Shaffer is a faculty member at the U.S. Naval Postgraduate School, a senior advisor for energy at the Foundation for Defense of Democracies, and a senior fellow at the Atlantic Council’s Global Energy Center.

Link: https://cornwallalliance.org/2022/10/with-winter-coming-europe-is-walking-off-a-cliff/

Übersetzt von Christian Freuer für das EIKE

 




Der Mythos der ökologischen „Sauberkeit“

von Daniel Greenfield

„Sauber“ ist ebenso wie „intelligent“ zur Voraussetzung für jede Technologie geworden. Beides ist ein Mythos.

Intelligente Technologie ist Überwachungstechnologie. Sie ist nicht aufgrund ihrer inhärenten Qualitäten intelligenter, sondern weil sie Daten sendet und empfängt, die es ihr ermöglichen, bei der Manipulation der Nutzer „intelligenter“ zu sein. Der intelligente Teil der intelligenten Technologie kommt von den Menschen. Das gilt auch für den dummen Teil, wenn Menschen ihre Privatsphäre und Unabhängigkeit für die Vorteile der ihnen angepaßten Technologie opfern.

Saubere Energie ist noch mehr ein Mythos. Mit dem Inflationserhöhungsgesetz fließen weitere Milliarden in die ineffizienten Formen der Energieerzeugung, die der Staat seit über 50 Jahren subventioniert, weil eine Werbeagentur der Madison Avenue sie als „sauber“ bezeichnet hat.
Energie ist von Natur aus sauber und schmutzig. Um die dem Universum innewohnenden Kräfte nutzbar zu machen, muss man Metall abbauen, Bäume fällen und fossile Brennstoffe in Plastik umwandeln, um daraus Maschinen zu bauen. Sobald diese Maschinen in Betrieb sind, geben sie Wärme ab, denn ob „sauber“ oder „schmutzig“, so funktioniert der zweite Hauptsatz der Thermodynamik. Nicht einmal Al Gore kann sich der Entropie entziehen, und nicht einmal das glänzendste Solarpanel, die eleganteste Windturbine oder der sanft brummende Tesla können verhindern, dass Energie verschwendet wird, wenn sie auf lokaler oder nationaler Ebene übertragen, gespeichert oder für die eine oder andere Sache verwendet wird.
Die einzige wirklich energieeffiziente Energie stammt von biolumineszenten Lebewesen wie Glühwürmchen. Wir haben sie nicht erschaffen, und trotz aller Prahlerei der Technokraten können wir sie nicht nachbauen.

Saubere Energie hängt von riesigen Minen für seltene Erden ab, die vom kommunistischen China betrieben werden und alles in ihrer Umgebung vergiften. Für Windturbinen werden riesige Mengen an Balsaholz benötigt, für die der Amazonas abgeholzt wird. Weder Turbinen noch Solarzellen werden recycelt, wenn sie kaputt gehen. Sie landen auf Mülldeponien und werden zu Giftmüll. Das Einatmen von Glasfasern aus abgetrennten Windturbinen oder das Trinken von schwermetallbelastetem Wasser aus Solarpaneelen stellt ein ernsthaftes Gesundheitsrisiko dar.

Ein Großteil des sauberen Mülls, den wir „Recycling“ nennen, landet ebenfalls auf Mülldeponien. Der Unterschied zwischen schmutzigem und sauberem Müll besteht darin, daß wir einen Teil des sauberen Mülls nach China oder in Länder der Dritten Welt schicken, wo er unter primitiven Bedingungen recycelt und dann zu uns zurückgeschickt wird. Das heißt, bis China gegen die giftigen Gefahren der Recyclingindustrie vorging und begann, einen Großteil unseres sauberen Mülls abzulehnen, der nun in ebenso sauberen Mülldeponien landet.
Es war nicht umweltgerecht, Pizzakartons oder Colaflaschen um die halbe Welt zu schicken. In einem Artikel wurde eine chinesische Stadt, in der Plastik rezyklisiert wurde, als „tote Zone“ beschrieben, in der es „nichts Grünes“ gibt, in der „Wellpappkartons, alte Plastikfässer und riesige getrocknete Plastikpfützen“ zerkleinert, „in Metallwannen voller ätzender Reinigungsflüssigkeit gegossen“ und dann der „überschüssige Müll und die Reinigungsflüssigkeit“ „in eine Abfallgrube am Rande der Stadt geworfen“ werden.
Das ist die schmutzige Realität hinter dem Recycling-Dreieck und den Werbespots mit Cartoon-Wegwerfartikeln, die darauf warten, auf Geheiß von willigen Kindern zu neuen Produkten recycelt zu werden.
Der saubere Teil der sauberen Energie oder des Mülls liegt nicht darin, wie er hergestellt wird, sondern darin, wie wir ihn wahrnehmen.
Ein Solarmodul wirkt ästhetisch sauberer als ein Kohlekraftwerk. Ein Elektroauto gibt ein künstliches Raumschiffsbrummen von sich, wenn es die Straße entlang gleitet. Ein Windrad glänzt weiß. Solche trivialen Oberflächeneindrücke, die die Architektur mit dem Prozeß verwechseln, sind ein Milliarden-Dollar-Betrug.

Solar- und Windenergiesysteme werden als natürlicher als jede andere Energieform dargestellt, weil die Assoziation mit Sonne und Wind sie irgendwie von den schmutzigen Realitäten der Thermodynamik isoliert. Das Design und die Marken-PR von Solarmodulen und Windturbinen verbreiten den Mythos, daß es sich um saubere Schnittstellen für den Empfang dieser magischen Gaben des Himmels handelt.
Die Neoromantik der 1960er Jahre lehnte die industrielle Revolution ab. Als die Blumenkinder zu bürgerlichen Vorstädtern heranwuchsen, die in Werbeagenturen und gemeinnützigen Organisationen arbeiteten, wollten sie eine Technologie, die die gleiche Illusion philosophischer Konsistenz aufrechterhalten würde. Anstatt ihren Prinzipien treu zu bleiben, gaben sie der industriellen Revolution einen neuen Namen, um sie viel teurer, weniger effizient und für die dreckige Arbeiterklasse unzugänglich zu machen. Die neue Technologie wäre, wie ihr Leben in den Vorstädten, moralisch und ästhetisch sauber. Wie der Müll, der in China recycelt und in einer glänzenden Flasche mit gereinigtem Leitungswasser zurückgegeben wird, würde sie den Schmutz wieder sauber machen.
Idealisten glauben, daß es im Leben nur Schwarz und Weiß gibt, schmutzig oder sauber, und daß man beides absolut voneinander trennen kann. Das Universum läßt sich nicht in solch saubere Kategorien einteilen. Dennoch hat die Linke zwei Jahrhunderte damit verbracht, die Gesellschaft auf der Suche nach einer sauberen Utopie zu zerlegen. Dreck, Bergarbeiter, Fabriken und Menschen, die für ihren Lebensunterhalt arbeiten, stinken nach Unterdrückung. Als der Klassenkampf der grünen Neoromantik wich, wurde die Arbeiterklasse zugunsten einer sauberen postindustriellen, computerisierten Zukunft aufgegeben. Die schmutzigen Jobs wurden nach China verlagert, während die Arbeiterklasse mit dem Rust Belt und Meth-Amphetamin (Pervitin) zurückgelassen wurde. Amerika sollte eine saubere Nation werden, in der alle um einen Apple-Laptop herum sitzen, bevor sie in ihre Elektroautos steigen und einen Ausflug machen. Rauchen war nicht erlaubt.

Aber was ist überhaupt sauber? Die alte Linke hat immer beklagt, daß physische und moralische Sauberkeit miteinander verwechselt werden, und die neue Linke ist diesem Irrtum ohnehin verfallen. Die neue Meisterklasse rät Kohlebergleuten, das Programmieren zu lernen oder Solaranlagen zu installieren. Wie bei den alten Eliten ist ihr wahrer Einwand, daß sie schmutzig sind. Die unsinnigen Lehren des Umweltschutzes sind die ästhetischen Fetische der Oberschicht. Sie stehen für eine kulturelle Sensibilität, nicht für eine wissenschaftliche. Ihr Vokabular riecht nach Flucht vor den Realitäten des Lebens, nach intelligenter Technologie, sauberer Energie und in der „Cloud“ gespeicherten Informationen.
Technologie ist keine Magie. Die einzige Intelligenz ist menschlich, die einzige Energie ist schmutzig, und die Cloud ist ein Haufen von Servern, die einem Weltkonzern gehören und von Kohlekraftwerken betrieben werden, deren ständiger Lärm so laut ist, daß die Mitarbeiter Gehörschäden erleiden können.
Der Mythos der Sauberkeit wird durch die Flucht vor der Realität genährt. Diese Realitätsflucht hat einen hohen Preis, nicht nur in Form von Milliardenverlusten und zerstörten Leben durch umweltpolitische Spielereien, sondern in der gesamten blutigen Geschichte der Linken, die eine einzige lange Flucht vor der Realität in die Tyrannei der Philosophenkönige ist.
Die Energie der Linken und ihr Müll sind nicht sauberer als ihre Ideologie und ihre Geschichte. Und es sind diejenigen, die im Inneren am schmutzigsten sind, die das größte pathologische Bedürfnis haben, nach außen hin sauber zu sein.

Daniel Greenfield ist ein Shillman Journalism Fellow am David Horowitz Freedom Center. Dieser Artikel erschien zuerst im  Center’s Front Page Magazine,außerdem auf Gatestone.