Windenergie ist unbezahlbarer Wahnsinn!

Unsere Vorfahren hatten bis zum Ende des 18. Jahrhunderts für ihre Energieversorgung nur die Wahl Holz, oder Dung, oder Kohle aus Holz zu verbrennen. Der EROI betrug dabei 3 bis 5. Mit der Einführung von Kohle änderte sich das und der EROI stieg auf 20. Das bedeutet das Ende der Adelsherrschaft, bei denen 1 % der Bevölkerung reich und der Rest arm bis bitterarm war.

Plötzlich gab es eine Bürgergesellschaft.

Mit der Einführung von Gas und Öl stieg dieser EROI sogar auf 30 an. Was für viel, viel mehr Menschen mehr Wohlstand bedeutete, aber immer unter der Gesellschaftsordnung des Kapitalismus. Mit der Einführung der Kernenergie stieg dieser EROI auf 50 bis 100. Mithin eine der Energieversorgung, die das Energieproblem dieses Jahrhunderts mithelfen kann zu lösen.

Mit der Solar- und Windkraft hingehen befinden wir uns wieder bei 3-5. Ein unendlicher Rückschritt, hin zur Verarmung der Bevölkerung. Der folgend Beitrag des Physikers Dieter Böhme schreibt in einer Stellungnahme zum zum Entwurf des 2. Sachlichen Teilplans Windenergie – Mittelthüringen an das Thüringer Landesverwaltungsamt Referat 300 Regionale Planungsstelle Mittelthüringen, und erklärt darin, warum das so ist

Von Dieter Böhme

Thüringer Landesverwaltungsamt

Referat 300 Regionale Planungsstelle Mittelthüringen

Jorge- Semprún-Platz 4

99423 Weimar

Per Mail an: teilplan.wind@tlvwa.thueringen.de

 

Stellungnahme zum Entwurf des 2. Sachlichen Teilplans Windenergie – Mittelthüringen

Sehr geehrte Damen und Herren,

es gibt viele gute Gründe den weiteren Ausbau der Windkraft abzulehnen. Einerseits sind dies die exorbitanten Schäden an der Umwelt und für die Gesundheit der Menschen durch die Windkraft sowie andererseits die Naturgesetze der Physik, nach denen ein Industrieland wie Deutschland nicht mit Strom und Primärenergie (Strom, Verkehr, Heizwärme, Industriewärme) aus volatilen Stromerzeugern versorgt werden kann. Und auch nicht aus einem „Mix“ der sogenannten Erneuerbaren Energien. Dies ist übrigens ein Euphemismus, denn Energie ist nicht „erneuerbar“, sie kann nur von einer Form in eine andere Form überführt werden. Und dies immer unter spezifischen Wirkungsgrad-Verlusten.

Mit Bezug auf die Flächenplanung für Windkraft zeigen sich krassen Differenzen des 2,2 % – Zieles und staatlicher Studien mit Leistungsdichten von 20 – 30 W/m2 die im Gegensatz zur ermittelten Realität von etwa 2 – 0,5 W/m2 stehen (S. 4: MDR, MPI). Dies sollten Fachleute für Flächenplanung klären, bevor man beginnt, bislang unberührte Natur für Windkraft zu verplanen. Bis zur Klärung wird ein Moratorium für jegliche Planung und Realisierung von Windkraft vorgeschlagen.

Abstract – die unbequeme Wahrheit zusammengefasst

Mit Windkraft kann pro Quadratmeter Rotorfläche etwa eine Glühbirne (ca. 40 Watt) rund um die Uhr betrieben werden, falls man den Strom denn speichern könnte, was angesichts der schieren Dimension nicht geht. Denn ein Tag Stromerzeugung entspricht etwa der Kapazität von 200 Pumpspeichern Goldisthal oder 17 Mio. E-Autos mit großem 100-kWhAkku. Dunkelflauten (ohne Sonnenschein und Wind) können Wochen dauern. Dies ist umso gravierender, als die gesicherte Leistung der Windkraft nahe NULL ist. Die WasserstoffTechnologie zur Speicherung von Strom ist eine Illusion. Sie wandelt wertvollen, universell einsetzbaren Strom in minderwertigere chemische Bindungsenergie (des H2-Moleküls), die im großtechnischen Maßstab über Wärmekraftmaschinen mit niedrigem Wirkungsgrad wieder in elektrische Energie gewandelt werden muss. Dies verteuert den „gespeicherten“ Strom unter großen Verlusten mindestens um den Faktor 5. Die Ursache für die geringe

Leistung der Windkraft pro Quadratmeter Rotorfläche ist die geringe Dichte der Luft. Die Ursache für die hohe Volatilität ist die Abhängigkeit der Windleistung von der dritten Potenz der Windgeschwindigkeit. Die durchschnittliche Leistungsdichte der Windkraft, quer über die Verteilung der Windgeschwindigkeiten liegt in der Größenordnung etwa 40 W/m2

Rotorfläche. Dies bedingt etwa 1 Mrd. Quadratmeter Rotorfläche, für 40 GW Leistung (etwas über die Hälfte der max. Stromlast) oder ca. 5 Mrd. Quadratmeter Rotorfläche für die Hälfte einer Energiewende, da Strom nur etwa 20 % der Primärenergie ausmacht. Diese geringe Leistungsdichte verursacht den gigantischen Flächenbedarf der Windkraft in der Landschaft, und macht unsere Kulturlandschaft zu einem Elektrizitätswerk. Daran ändern auch immer größere Windräder nichts, denn sie brauchen nicht nur größere Abstände, sondern sie „klauen sich“ auch in immer größeren Höhen gegenseitig den Wind. Windkraft kannibalisiert sich mit zunehmendem Ausbau quasi selbst. Denn die Limitierung für den großflächigen Ausbau der Windkraft ist die, der Atmosphäre max. entnehmbare Leistung und diese tendiert von 2 W/m2 zu 0,5 W/m2 Landschaftsfläche. Bereits heute wird der Atmosphäre über Deutschland durch Windkraft eine Energie entnommen, die dem Äquivalent von etwa 7.900 Hiroshima-Bomben entspricht. Dies führt zu einer Beeinflussung des Mikroklimas und zu einer Austrocknung und Erwärmung der Landschaft im Lee von Windparks. Da der physikalische Wirkungsgrad von Windrädern (0,48 für Dreiflügler) de facto (bei der jeweils häufigsten Windgeschwindigkeit) erreicht ist, erübrigt sich eine Diskussion zum angeblich großen Entwicklungspotential von Windrädern. Diese können nur noch größer werden, was aber kaum etwas an der Leitungsdichte ändert. All dies ist physikalisch bestimmt und kann durch keine ingenieurtechnische Leistung überboten werden. Das Perpetuum Mobile kann durch keinen Koalitionsvertag, keinen Parlamentsbeschluss und keinen Gerichtsentscheid herbeigeführt werden. Wohl aber ein riesiges wirtschaftliches und gesellschaftliches Desaster, wenn eklatant gegen Naturgesetze verstoßen wird. Dabei spielt es keine Rolle, ob dies mit gutem Vorsatz, aus Unkenntnis oder aus Absicht geschieht. Keiner der Verantwortlichen möge sagen „Wenn ich das nur gewusst hätte“. Hier steht es nachvollziehbar zur Diskussion gestellt.

 

Windkraft ist ein Kampf gegen die Physik – die Herleitung des „Unsagbaren“ Die elektrische Leistung eines Windrades pro Quadratmeter Rotorfläche (Leistungsdichte) wird durch die Dichte der Luft und die dritte Potenz der Windgeschwindigkeit bestimmt sowie durch den max. physikalischen Wirkungsgrad begrenzt.

Die Formel lautet: Pd = ½ ρ v3 h

(Pd – Leistungsdichte, ρ – Dichte der Luft, v – Windgeschwindigkeit, h – Wirkungsgrad) Der max. physikalische Wirkungsgrad h beträgt 0,48 für Dreiflügler. Physik der Windturbine – Uni Leipzig, Physikalisches Institut https://home.uni-leipzig.de/energy/energie-grundlagen/15.html

Die geringe Dichte der Luft (ρ =1.225 kg/m3 bei 15 C in Meereshöhe) stellt die grundsätzliche physikalische Limitierung der Windkraft dar. Sie ist 816-fach geringer als die Dichte von Wasser, wobei der max. Wirkungsgrad der Windkraft etwa nur halb so groß ist, wie der einer Wasserturbine. Die geringe Dichte der Luft ist der Grund für die riesige Anzahl von Windrädern, was in der Konsequenz Milliarden Quadratmeter Rotorfläche bedingt.

Die praktischen Konsequenzen dieser einfachen physikalischen Zusammenhänge sind: Bei einer üblichen Nennwindgeschwindigkeit von 11 m/s (Beginn Windstärke 6) für Schwachwindanlagen (für das Binnenland) beträgt die auf den Rotor pro Quadratmeter aufgebrachte Windleistung 815 W/m2. Davon können (bei Wirkungsgrad 0,48) max. 391 W/m2 in elektrische Leistung umgesetzt werden. Dies ist bei Schwachwindanlagen aber nicht der Fall, da deren max. Wirkungsgrad nicht bei 11 m/s, sondern bei der lokal häufigsten Windgeschwindigkeit liegt. Eine Herstellerangabe für die Leistungsdichte einer Schwachwindanlage bei Nennwindgeschwindigkeit von 11 m/s lautet zum Beispiel 199 W/m2.

Datenblatt Siemens SWT-3.15-142 

Der max. Wirkungsgrad ist bei Schwachwindanlagen konstruktiv auf die lokal häufigsten Windgeschwindigkeiten (5 bis 8 m/s) festgelegt. Hierbei können max. elektrische Leistungen zwischen 37 bis 151 W/m2 generiert werden. Dies ist unabhängig von der Größe des Windrades. Weitere Informationen – Windkraft erklärt auf einem Bierdeckel

In Thüringen wird zur Festlegung regionaler Teilflächenziele eine durchschnittliche Mindestwindgeschwindigkeit von ≥ 6,5 m/s in einer Höhe von 150 m über Grund angenommen. Bei dieser Windgeschwindigkeit können bestenfalls 77 W/m2 elektrische Leistung generiert werden. Quelle: Herleitung der regionalen Teilflächenziele zur Umsetzung des

Flächenbeitragswerts gemäß dem Wind-an-Land-Gesetz in Thüringen)

Diese Zahlen machen deutlich, dass, entgegen den möglichen Erwartungen, die Windkraft nur über ein geringes Potential zur Stromversorgung verfügt. Es sind allein die schiere Größe und Anzahl der Windräder sowie die damit einhergehende Nennleistung von Megawatt, die beeindrucken. Die Wenigsten wissen wohl, dass diese nur bei Windstärke sechs aufwärts erreicht wird, und dass bei halbem Wind jeweils nur noch 1/8 der ursprünglichen Windleistung dem Rotor zur Verfügung steht. Damit ist es nicht verfehlt, die Windkraft mit einer Herde dürrer Kühe zu vergleichen, der mittels verbesserter Melkmaschinen immer mehr Milch abgepresst werden soll. Bei verstärktem Ausbau sinkt zudem die Leistungsdichte der Windkraft von 2 bis auf 0,5 W/m2 Landschaftsfläche. Quelle:

MDR: NEUE STUDIE AUS JENA: DAS POTENZIAL UND DIE GRENZEN DER WINDKRAFT 

Fachartikel: Physical limits of wind energy within the atmosphere and its use as renewable energy: From the theoretical basis to practical implications 

Eine Bespielrechnung verdeutlicht die Größenordnung der Konsequenzen. Bei 1 W/m2 wäre auf der gesamten Fläche von Deutschland (ca. 360.000 km2) eine mittlere elektrische Leistung von 360 GW durch Windkraft generierbar. Dies wäre in etwa die Größenordnung für eine Energiewende (mit dem Fünffachen einer Stromlast von 72 GW. Und zwar ohne den Strom speichern zu können. Mit der Wasserstoff-Technologie gingen, aufgrund des geringen Wirkungsgrades, von angenommenen 100 GW mindestens 80 GW in Form von „Abwärme“ verloren. Quelle: Leibnitz-Institut, Dr. Ulf Bosselt Wasserstoff löst keine Energieprobleme 

Bei einer Leistungsdichte von 0,5 W/m2 wären 180 GW generierbar, für eine „halbe“

Energiewende. Damit wäre die Atmosphäre „abgemolken“ und Deutschland stünde voller Windräder. Wohlgemerkt bei einer gesicherten Leistung nahe NULL. Eine andere Rechnung, unter der Annahme einer mittleren Leistungsdichte von 40 W/m2 Rotorfläche, was 1 Mrd. Quadratmeter Rotorfläche für ca. die Hälfte Strom (ca. 40 GW) und 5 Mrd. Quadratmeter Rotorfläche für die Hälfte einer Energiewende bedingt, zeigt das Folgende. Unter der Annahme von Windrädern mit einem Rotordurchmesser von aktuell 170 m (22.700 m2 Rotorfläche, Gesamthöhe ca. 250 m) wären 220.000 Windräder notwendig. Dies wären auf ganz Deutschland verteilt 1,6 km2 pro Windrad oder alle 1,2 km ein Windrad.

Oder unter der Annahme von Windrädern mit einem Rotordurchmesser von 200 m (31.400 m2 Rotorfläche, Gesamthöhe ca. 300 m) wären 160.000 Windräder notwendig. Dies wären auf ganz Deutschland verteilt 2,25 km2 pro Windrad oder alle 1,5 km ein Windrad. Man kann einwenden, dass größere Windräder höhere Windgeschwindigkeiten in größeren Höhen nutzen können und damit die Leistungsdichte pro Quadratmeter Rotorfläche steigt. Dies mag für ein einzelnes Windrad zutreffen, jedoch nicht für den Ausbau der Windkraft, da sich immer größere Windräder in immer größeren Höhen den Wind „klauen“, wie o.g. der MDR gemäß MPI-Jena festgestellt hat. Die Grenzen der Windkraft bestimmt nicht Wunschdenken, sondern die Physik. Bereits jetzt wird der Atmosphäre über Deutschland eine Energie entzogen, die dem Äquivalent von etwa 7.900 Hiroshima-Bomben entspricht. Die Rechnung findet sich hier auf S. 11) Woher kommt der Strom – die Grenzen der Erneuerbaren 

Die gigantische Entnahme kinetischer Energie des Windes bleibt nicht ohne Folgen für die jeweiligen Mikroklimata (und nur solche existieren real). Im Lee von Windparks gibt es eine Austrocknung und Erwärmung der Landschaft, infolge der Verwirbelung von, nachts in Bodennähe befindlichen, kühlen und feuchten Luftschichten. Dies haben Studien der Harvard University unter Beteiligung des MPI für Bio-Geochemie Jena, mittels Messungen durch Satelliten an großen Windparks im Mittleren Westen der USA ergeben. Die Autoren sind übrigens glühende Verfechter der Windkraft. Climatic Impacts of Wind Power 

Windräder können nur Strom erzeugen, wenn sie der strömenden Luft kinetische Energie entziehen, was zu einer Verringerung der Windgeschwindigkeit führt. Physik der Windturbine 

Der beobachte weltweite Effekt der Verringerung der Windgeschwindigkeit wird als „Global terrestrial stilling“ bezeichnet, wobei polit-medial vermieden wird, auch die Windkraft als Ursache zu nennen. Physikalisch ist klar, dass eine Verringerung der Windgeschwindigkeit zu einer Verringerung des Haltedrucks in der Atmosphäre und damit zur Regenbildung führt. Hier meine Berechnungen (s. S. 10) Woher kommt der Strom – die Grenzen der Erneuerbaren 

Das Abregnen der Wolken aus Hauptwindrichtung erfolgt bereits im Lee der Windparks auf See oder an der Küste, der Regen fehlt dann im Binnenland, so dass dort die Landschaft austrocknet. Da dies dem polit-medialen Narrativ vom „Klimaschutz“ entgegensteht, wird Forschung zu diesem Thema nicht gerade wohlwollend mit staatlichem Fördergeld bedacht, um es diplomatisch auszudrücken. Stattdessen ist der Ruf nach dem weiteren Ausbau der

Windkraft zwecks „Klimaschutz“ zu vernehmen, einem Multi-Milliarden-Geschäftsmodell

(ca. ab 59:00) Energie Wende oder Energie Ende

Zusammenfassung zum 2,2 % Ausbauziel

Die genannten Beispiele stehen im krassen Widerspruch zum Ausbauziel von 2,2 % der Landesfläche. Auf die „wundersamen Rechnungen“ des Erfurter Energieministeriums mit Nennleistung hatte ich bereits in meiner Stellungnahme vor einem Jahr hingewiesen. Man kommt in Erfurt mit der Rechnung: 970 WEA * 5 MW = 4.850 MW = 4,85 GW auf eine Leistung, ohne diese in Relation zum realen Nutzungsgrad (Volllaststunden) zu setzten (S. 4). Stellungnahme zur Änderung des Landesentwicklungsprogramms Thüringen Abschnitt 5.2 Energie 

Betrachte man die zugrunde liegenden Studien, so findet man Angaben zu den Leistungsdichten in Bezug auf die Landschaft zwischen 20 – 30 W/m2 (20 – 30 MW/km2). Dies ist, verglichen mit den o.g. neuesten Erkenntnissen des Max-Planck-Instituts für Bio- Geochemie in Jena zusammen mit der Harvard University, resultierend aus Studien an großen Windparks in den USA, etwa um den Faktor 10 bis 60 zu hoch, verglichen mit den durch Studien in den USA ermittelten 2 – 0,5 W/m2. Damit sind die politisch ausgewiesenen Flächenziele um mindestes eine Größenordnung (> Faktor 10) zu niedrig angesetzt. Wer sagt den Bürgern, dass die 2,2 % erst der Anfang sind, nach deren Realisierung man feststellen wird, dass dies alles in keiner Weise ausreicht? Vom Speicherproblem ganz abgesehen.

Es scheint, als ob sich gewisse optimistische Grundannahmen durch sämtliche Studien ziehen, auch weil man sich immer wieder auf eine Studie des Bundesverbandes WindEnergie beruft. Bundesverband Windenergie: Potenzial der Windenergienutzung an Land, Kurzfassung  In dieser Studie wird mit 240.562 Windrädern für 722 GW auf einer Fläche von 28.116 km2 gerechnet, was 8 % der Fläche von Deutschland entspricht und bedeutet, dass auf diesen 28.116 km2 rein rechnerisch alle 340 m ein Windrad steht und sich eine Leistungsdichte von 25,7 W/m2 (25,7 MW/km2) ergibt. Für mich stellt sich dies so dar, als dass der Begriff „installierbare Leistung“ (Nennleistung) mit der real durch ein Windrad generierbaren (mittleren) Leistung gleichgesetzt wird. Doch die reale mittlere Leistung beträgt bei 1.750 Volllaststunden (von 8.760 Jahresstunden) nur 20 % der Nennleistung (installierbaren Leistung). Auch das Erfurter Energieministerium rechnet mit einer Leistungsdichte von 300 kW/ha (30 W/m2 = MW/km2), wie der Antwort auf eine kleine Anfrage von Nadine Hoffmann (AfD-Fraktion) zu entnehmen ist. Damals noch für 1 % der Landesfläche. Aktueller Stand von Windkraftanlagen, Repowering und Windvorranggebieten in Thüringen 

Eine Studie im Auftrag des Thüringer Ministerium für Umwelt, Energie und Naturschutz kommt auf eine Leistungsdichte von 23,4 W/m2.

Leipziger Institut für Energie, Metastudie: Potenziale Vorranggebiete Wind 

Mit Bezug auf die Flächenplanung für Windkraft zeigen sich krassen Differenzen des 2,2 % – Zieles und staatlicher Studien mit Leistungsdichten von 20 – 30 W/m2 die im Gegensatz zur ermittelten Realität von etwa 2 – 0,5 W/m2 stehen (s. o. MDR, MPI). Dies sollten Fachleute für Flächenplanung klären, bevor man beginnt, bislang unberührte Natur für Windkraft zu verplanen. Bis zur Klärung wird ein Moratorium für jegliche Planung und Realisierung von Windkraft vorgeschlagen.

Strom – das sind keine Äpfel oder Einkellerungskartoffeln

Oft hört man aus Politik und Presse, Strom solle regional erzeugt und verbraucht werden und die „Erneuerbaren“ würden schon so und soviel Prozent der Stromversorgung ausmachen. Solche Vorstellungen von Elektrizität scheinen, mit Verlaub, aus der Landwirtschaft oder dem Obstbau zu stammen? Dies ist nicht verwunderlich, da in Sachen Stromversorgung jeder, gemäß seinen Wunschvorstellungen, mitreden darf, unabhängig davon, ob dafür eine hinreichende Qualifikation nachgewiesen werden kann. Dies steht übrigens im krassen Gegensatz zum Meisterbrief, der für die Ausübung eines Handwerks erforderlich ist. Dieser Umstand sei deshalb erwähnt, da unsere Stromversorgung nichts Geringeres ist, als der Lebensnerv der Wirtschaft und des Landes. Eine Woche ohne Strom stürzt eine Gesellschaft ins Chaos und zwei Wochen ohne Strom ins Mittelalter. Aber jeder darf mitreden.

Insofern sollte nicht unerwähnt bleiben, dass, die durch „Erneuerbare“ erzeugte Energie kein Maßstab sein kann. Erstens haben diese Vorfahrt durch Vorrangeinspeisung und zweites ist es egal, ob gestern viel Windstrom erzeugt wurde und morgen viel Solarstrom erzeugt wird, wenn heute weder der Wind weht noch die Sonne scheint. Dann ist die Leistung dieser beiden gleich NULL und die erzeugte Energie auch (Energie = Leistung * Zeit). Auch sollte man sich von der offenbar faszinierenden Vorstellung verabschieden, man könne den Strom von einem bestimmten regionalen Erzeuger zu einem bestimmten Verbraucher liefern. Strom, dies sind elektromagnetische Felder welche Elektronen im Draht bewegen, die einer Potentialdifferenz (Spannung) folgen und nicht dem Wunsch von Kaufleuten. Dies sei nur deshalb erwähnt, um deutlich zu machen, dass es andere, viel wichtigere Kriterien gibt, über die nicht geredet wird, und bei denen gefragt werden muss, inwiefern Windkraft diese überhaupt erfüllen kann. Da wäre zunächst die Schwarzstartfähigkeit, zu welcher Windräder nach einem Blackout nicht in der Lage sind, da jedes von ihnen Strom aus dem Netz ziehen, oder mit Notstrom versorgt werden muss, um Elektrik und Mechanik für die Verstellung der Rotorblätter zu versorgen. Außerdem brauchen deren Wechselrichter einen Taktgeber zur synchronen Einspeisung in das Netz. Dies sind die konventionellen, synchron laufenden Kraftwerke die durch Windkraft ersetzt werden sollen. Weiter seinen nur Stichworte genannt, um aufzuzeigen, dass Stromversorgung komplexer ist als über den Anteil von Energie zu reden. Dies wären, Frequenzhaltung (50 +/- 0,2 Hz), phasensynchrone Einspeisung, positive und negative Regelleistung, Blindleistung und Sekundenreserve. Als letztere dienen die Turbinensätze und Generatoren welche die Netzfrequenz dank ihrer schweren rotierenden Massen bei abrupten Lastwechseln im Netz für Sekunden in Grenzen hält, bis weitere Regelmaßnahmen greifen. All diese Systemdienste können nicht oder nur eingeschränkt von Windrädern ausgeführt werden. Auch daran sollte einen Gedanken verschwenden, wer über Windkraft redet. Vieles davon trifft übrigens auch auf Photovoltaik zu.

Die zunehmende Destabilisierung des Stromnetzes erkennt man an der Anzahl und den Kosten für ungeplante Regeleingriffe (Redispatch). Diese beliefen sich 2022 auf 2.69 Mrd. EUR. Dies ist eine Steigerung um 2.345 % (in Worten Zweitausend-DreihundertFünfundvierzig Prozent) gegenüber 2013. Steigende Kosten durch Redispatch  Zu weiteren Informationen über die Grenzen der Physik auch der anderen „Erneuerbaren“ dient mein Fachartikel. Woher kommt der Strom – die Grenzen der Erneuerbaren 

Infraschall – die unhörbare Gefahr

Mit Infraschall von Windrädern macht es sich die Politik ganz einfach. Das Vorsorgeprinzip (GG Artikel 2/2) wird ausgehebelt, indem erklärt wird a) es gäbe keine Studien, die eine Gefahr belegen würden und b) es gäbe auch Infraschall aus anderen Quellen, wie Verkehrslärm und Blätterrauschen. Zitiert wird dabei gern eine Studie der LUBW aus 2016. Darin wurden Schalldruckpegel im Bereich 1 – 80 Hz bis ca. 75 dB gemessen und mit anderen Schallquellen verglichen, und daraus geschlossen, dass (Zitat) „Auswirkungen durch Infraschall von Windkraftanlagen nach den vorliegenden Erkenntnissen nicht zu erwarten sind.“  Doch heißt, dem Stand der damaligen Messtechnik und Bewertungskriterien (also nach den vorliegenden Erkenntnissen) entsprechen etwas nicht zu „erwarten“ gerade nicht, dass dies „auszuschließen“ ist. Damit wird dem Vorsorgeprinzip nicht Genüge getan. Auch wurden keine weiteren Studien an größeren Windrädern nach „neuesten“ Erkenntnissen durchgeführt. Man ging von einer „Wahrnehmungsschwelle“ aus. Für akustischen Schall (20 Hz -20 kHz) ist das menschliche Ohr der „Empfänger“. Doch Infraschall (etwa < 20 Hz) kann das menschliche Ohr nicht hören. Folgt man der Argumentation, „wenn man etwas nicht hören kann, kann es nicht gefährlich sein“, so müsste man auch Radioaktivität als ungefährlich betrachten, weil man sie mit keinem Sinnesorgan wahrnehmen kann. Dies würde jeder als absurd bezeichnen, nur beim Infraschall wird „Wahrnehmung“ mit „Hören“ gleichgesetzt. Dabei ist der Begriff „Wahrnehmung“ nicht auf die bekannten menschlichen Sinnesorgane beschränkt und auch nicht auf die von Tieren. Denn „Wahrnehmung bezeichnet jenen Aspekt des psychischen Geschehens und Erlebens, der sich auf die Kopplung des Organismus an funktional relevante Aspekte der physikalischen Umwelt bezieht. Hierzu gehören nicht nur die haptische, visuelle, auditive, ……Wahrnehmung.“  Man macht es sich mit dem Thema Infraschall sehr einfach, wenn es um Windräder geht, die einem politischen Narrativ folgen und für die es milliardenschwere Geschäftsmodelle gibt.

Doch was sind die neuesten Erkenntnisse, nach denen man Studien ausrichten sollte? Zum einen sind es Windräder mit größeren Rotoren, die größere Druckstöße bei niedrigeren Umdrehungszahlen und damit niedrigeren Frequenzen bei 1 Hz und darunter verursachen. Zum anderen ist es die spitze Form der Druckimpulse (hier im Frequenzbereich < 20 Hz), die zwangsläufig Oberwellen (vielfache Harmonische der Grundfrequenz) erzeugen. Diese bestimmen das Klangbild welches nicht mit simplen Druckmessgeräten erfasst werden kann, weil dazu neben Frequenzfiltern zur Unterdrückung von Hintergrundrauschen auch eine Fourier-Analyse des Messsignals notwendig ist. Jeder Elektrotechniker kennt dies von Impulsformen, die keine Sinusfunktionen sind.

Allein aus gesundem Menschenverstand ergibt sich die Frage, ob der Schalldruck (in dB) das alleinige Kriterium, sein kann? Wirkt nicht eine quietschende Tür oder ein tropfender Wasserhahn trotz niedrigerem Schallpegel weitaus störender, als ein Blätterrauschen? Wäre es nicht angemessen, außer dem Schalldruck auch das „Klangbild“ (Frequenzspektrum) des Infraschalls zu prüfen? Man kann bei offenem Fenster und Meeresrauschen gut schlafen, nicht aber bei einem tropfenden Wasserhahn, obwohl der Schallpegel hier viel geringer ist. Verkehrslärm, Blätterrauschen und Meeresrauschen erzeugen diffusen Infraschall, während Windräder periodischen Infraschall inkl. Oberwellen erzeugen, dies ist der wesentliche Unterschied.

Es gibt aktuell ein weiteres beliebtes Argument, welches den Windkraft-Gegnern medial entgegenschlägt. Dies ist ein Rechenfehler in einer Studie der BGR (Bundesanstalt für Geowissenschaften und Rohstoffe Hannover). Nur ging es in dieser Studie mit keinem Wort um Gesundheitsschutz vor Infraschall, sondern um den Schutz von Geräten zur Detektion von Kernwaffentests, für welche die BGR in ein weltweites Messnetz eingebunden ist. Der Rechenfehler wirkte sich so aus, dass er keine Auswirkungen auf den Mindestabstand von Windrädern zu den Messstationen der BGR hatte. Doch wird dieser Fehler nun den GegenWind BI vorgehalten. Dies leider auch vom ÖR-Rundfunk, was dessen Auftrag zur allseitigen Berichterstattung widerspricht. Dabei wird sich ausschließlich auf Messungen des Schalldruckes bezogen. Windkraft-Gegner haben keine Lobby, schon gar nicht beim ÖRR.

Fazit: Dem Freistaat Thüring wird vorgeschlagen, Studien unter den o. g. Aspekten in Auftrag zu geben, um seine Bürger und die gesamte Umwelt vor Infraschall zu schützen. Denn auch Flora und Fauna sind Infraschall ausgesetzt. Und um diese Folgen hat sich wohl noch niemand gekümmert? Zumindest einen Hinweis könnten die Probleme mit getöteten Pelztieren in der Nähme von Windrädern Dänemark geben.  Das Vorsorgeprinzip gilt für Mensch und Natur.

Windkraft – ein ökologisches Desaster

Wurden bisher die Gesundheitsgefahren durch Windkraft für Menschen allein in Bezug auf hörbaren Schall bewertet und Tiere hatten (so zynisch es klingt) noch einen gewissen „Vorrang“, so fährt nun, eine von der Gesetzgebung in Gang gesetzte, „Dampfwalze“ über die Landschaft. Nichts scheint mehr „heilig“, nichts ist unmöglich, um die Windkraft mit Brachialgewalt an jeden Ort, einschließlich in den Wald zu bringen. Getötete Flugtiere, ca. 1000 Tonnen an den Rotoren klebende Insekten (gem. Studie DLR), von den Fundamenten durchstoßene Grundwasserschichten, die Rodung ganzer Waldflächen einschließlich Berggipfeln, Tausende Tonnen Stahlbetonfundament je Windrad, Schall und Infraschall im Wald ohne Rücksicht auf Flora und Fauna, wohl in Unkenntnis der komplexen ökologischen Zusammenhänge und deren Folgen. Tausende Tonnen Abrieb von Mikro- und Nanoplastik von den Rotoren mit anhaftender „Ewigkeitschemikalie“ BPA (Bisphenol A) und die Verwendung der „Ewigkeitschemikalie“ SF6 (Schwefelhexafluorid) in den elektrischen Schaltanlagen. Ungeklärte Fragen zu Rückbau und Entsorgung, wie der Fundamente oder der Rotorblätter. Massive Entnahme von kinetischer Windenergie aus der Atmosphäre, Austrocknung und Erwärmung der Landschaft – und dies alles unter dem Marketing-Begriff „Erneuerbare Energie“ für „Ökostrom“.

Windkraft braucht keinen Vergleich zu scheuen, wenn es um die ökonomische Zerstörung einer Volkswirtschaft und um die umfassende ökologische Zerstörung der Natur und Kulturlandschaft geht.

All dies ist nur mit gebetsmühlenartiger Propaganda (= einseitige Information) Pro Windkraft möglich. Das ganz große Narrativ ist die Rettung vor der vorgeblichen Klima-Katastrophe durch Verringerung von CO2-Emissionen mittels einem ominösen 1,5-Grad-Ziel. Dabei reicht ein Blick in das Pariser-Klimaabkommen, um den ganzen Schwindel zu begreifen. Denn dieses unterscheidet entwickelte Länder (wie Deutschland) und Entwicklungsländer (wie lt. UN, China und Indien). Das Pariser-Klima-Abkommen

Artikel 4/4: “Developed country parties should continue taking the lead by undertaking economy-wide absolute emission reduction targets. Developing country Par2es should continue enhancing their mitigation efforts, and are encouraged to move over time towards economy-wide emission reduction or limitation targets in the light of different national circumstances.”

Zunächst wird hier zwischen Industrieländern (Developed country parties) und Entwicklungsländern (Developing country parties) unterschieden. Industrieländer (wie Deutschland) sollen Ziele formulieren, um ihre Emissionen (in absoluten Zahlen) zu senken. Entwicklungsländer (China, Indien, usw.) werden „ermutigt“, ihre Anstrengungen zu erhöhen, um entspr. ihren „nationalen Umständen“ und „mit der Zeit“, ihre Emissionsziele zu senken. Dafür erhalten sie übrigens aus einem 100-de Mrd. Fond Geld, in den Industrieländer (wie Deutschland) einzahlen. Mit anderen Worten, Deutschland betreibt „Klimaschutz“ wegen einer angeblich drohenden „Klimakatastrophe“ und senkt seine CO2-Emissionen (von ca. 0,7 Gt/a), während China seine CO2-Emissionen von ca. 11 Gt/a erst mal erhöhen kann. Um dann mit der Zeit und entspr. der Umstände seine Ziele zu senken. Und so kann China fast jede Woche ein neues Kohlekraftwerk in Betrieb nehmen und 300 Kohlekraftwerke auf dem Globus bauen, wozu die selbsternannten „Klimaschützer“ schweigen. So unmittelbar ist also die Bedrohung durch eine vorgebliche Klima-Katstrophe, dass weltweit Maßstäbe angelegt und Maßnahmen durchgeführt werden sollen, die im Vergleich absurder nicht sein könnten. China baut 300 neue KohlekraJwerke auf dem Globus – und die Klimaschützer schweigen 

In Deutschland klebt sich der grüne Nachwuchs in der Vorstellung, die „Letzte Generazon“ zu sein, an die Straße. Gern gesponsert auch on Aileen Ge|y, der Erbin des Getty-Öl-Imperiums. Amerikanische Öl-Milliardärin finanziert Klimaradikale in Deutschland

Währenddessen baut China nicht nur Kohlekraftwerke, sondern auch Kernkraftwerke und kann, wenn die Kohlekraftwerke in Jahrzehnten abgeschrieben sind, damit ggf. seine CO2Emissionen in aller Ruhe senken. China approves construcNon of six new reactors  Auf diese Weise profitiert China von der „Klima-Katastrophe“, indem es (unter hohen CO2 Emissionen) Roheisen und Stahl für deutsche Windräder produziert, die dann in Deutschland die „CO2-Bilanz“ viel besser „gestalten“. Denn der Stahl wird woanders produziert, und man kann deshalb verkünden, „wir müssen Vorbild“ sein für China und die Welt. So jedenfalls lauteten die Antworten von Politikern, die ich darauf angesprochen habe. Sehenden Auges wird unser Land ruiniert. In China weiß man natürlich, dass CO2 das Lebensgas für die Photosynthese ist, ohne das Leben auf der Erde nicht möglich wäre, da C3-Pflanzen unterhalb von 150 ppm (0,015 %) die Photosynthese einstellen. Man weiß dort auch, dass (lt. IPCC) etwa 97 % der CO2-Emissionen natürlichen Ursprungs sind (Vulkanismus, Verwitterung, etc.) und nur ca. 3 % anthropogen (menschengemacht) sind. Wovon auf die „Entwicklungsländer“ China und Indien etwa die Hälfte davon entfällt und auf Deutschland weniger als 2 %. Mit anderen Worten, Deutschland betreibt „Klimaschutz“ mit Windrädern, um seinen Anteil an den gesamten CO2-Emissionen von 0,06 % (= 3*2/100) auf NULL zu senken. Wer bis Drei zählen kann, erkennt das Geschäftsmodell. Es stimmt, China hat mehr Windräder als Deutschland. China hat aber auch ca. das Dreifache der Stromversorgung etwa der EU. Dies relativiert die Sichtweise.

Zum Schluss ein Schwank – aus dem Klima-Tollhaus

Dr. John Clauser, Physik-Nobelpreisträger 2022, hatte in einer Arbeit die Unzulänglichkeit der Klima-Modelle des UN-Weltklimarates IPCC thematisierte „How much can we trust IPPC climate predictions“ (Wie weit können wir den Klima-Vorhersagen der IPPC vertrauen)? Daraufhin wurde von einem Vortrag vom IMF (International Monetary Fund) ausgeladen, denn er hatte gesagt: „Ich glaube nicht, dass es eine Klima-Krise gibt“ (I don’t believe there is a climate crisis). Nobel Laureate Silenced  Erkennt man daran nicht, wie „der Hase läuft“? Ein Physik-Nobel-Preisträger, der zur Wissenschaft zur Interpretation der „Klima-Krise“ durch Verbesserung der Klima-Modelle betragen könnte, wird von Bankern von einem Vortrag ausgeladen, weil er „das Falsche“ gesagt hat. Hier erübrigt sich wohl jeder Kommentar.

Fazit von Dr. John Clauser:

„Das populäre Narrativ über den Klimawandel spiegelt eine gefährliche Korruption der  Wissenschaft wider, die die Weltwirtschaft und das Wohlergehen von Milliarden von Menschen bedroht. Die fehlgeleitete Klimawissenschaft hat sich zu einer massiven schockjournalistischen Pseudowissenschaft ausgeweitet. Diese Pseudowissenschaft wiederum ist zum Sündenbock für eine Vielzahl anderer, nicht damit zusammenhängender Missstände geworden.“ Dr. John Clauser – Es gibt keinen Klimanotstand  Original-Website: Nobel Physics Laureate 2022 Slams ‘Climate Emergency’ Narrative as “Dangerous Corruption of Science”  Dr. John Clauser ist nun Mitglied bei der CO2Coalition in den USA. https://co2coalition.org/ Dieser gehören auch andere Physiker an, wie Prof. Dr. Richard Lindzen, der zusammen mit 300 namentlich und mit Qualifikation genannten Wissenschaftlern die Petition an Donald Trump gerichtet hatte, das Pariser Klima-Abkommen zu verlassen. Unseren Leit-Medien haben darüber nicht berichtet. Petition von Dr. Richard Lindzen an Präsident Trump: „Ziehen Sie sich aus der UN Convention on Climate Change zurück!“ Mit Link zum englischen Original inkl. Liste der Unterzeichner. Doch Petitionen von Physikern oder gar noch Nobelpreisträgern gefallen der UN (und ihrem IPCC) gar nicht, denn „Uns gehört die Wissenschaft“ (we own the science) beansprucht die Leiterin für Globale Kommunikation der UN. Muss man noch mehr wissen, zur KlimaKatastrophe, dem Green New Deal der EU und zu Windrädern? Und zum Ort des Vortrages? “We own the science” – UN Under-Secretary for Global Communication, Melissa Flemming at WEF-Davos (02:00)  Bestätigt wurde dies von Susan Diane Wojcicki, CEO von Youtube, ebenfalls beim WEF-Davos. Desinformation werde durch Algorithmen ganz nach hinten geschoben. Besonders genannt wurde dabei auch das Thema Klimawandel. WEF – YOUTUBE CEO SUSAN WOJCICKI PROUDLY  ADMITS TO CENSORING INFORMATION ON COVID AND DEMONETIZING  So wird durch Zensur sichergestellt, dass wir zum Thema Klimawandel durch BigTech-Media nur das erfahren, was uns die UN, der angeblich die Wissenschaft gehört, sagen möchte, aber keinesfalls das, was ein Physik-Nobelpreisträger, der die Klima-Modelle der UN-IPCC kritisiert, zu sagen hat. Darum muss sich schon jeder selbst kümmern. Denn wie sagte doch Immanuel Kant, dessen 300. Geburtstag am 22.04.2024 begangen wird

„Habe Mut dich deines eigenen Versandes zu bedienen.“

 

 

Mit freundlichem Gruß

Dieter Böhme Dipl.-Phys.

 

 

 

Disclaimer:

Sollte ein Link nicht öffnen, diesen bitte kopieren und direkt über den Internet-Browser aufrufen. Der Autor hat keinen Einfluss auf verlinkte Dokumente und kann deshalb für deren Inhalte keine Haftung übernehmen.

 

 

 




Treibhauseffekt: Ja oder Nein?

von Dr. Eike Roth

Vorbemerkung:

Bei EIKE ist ein detaillierter zweiteiliger Bericht erschienen mit dem erklärten Anspruch, einen experimentellen Nachweis der Existenz des „Treibhauseffektes“ (THE) erbracht zu haben [1], [2]. Die Reaktionen waren vielfältig, zum Teil aber auch so, wie es wohl zu befürchten war: Wenn ein gerne eingesetztes Argument in Gefahr gerät, sich als falsch zu erweisen, dann regt das nicht zum nochmaligen Nachdenken an, sondern eher zum verstärkten Einsatz des Argumentes und zum pauschalen Verwerfen aller Vorbringungen, die die Berechtigung des Argumentes in Frage stellen könnten. Im konkreten Fall ist das durch den genannten Bericht gefährdete Argument die Aussage: „Der Treibhauseffekt kann gar nicht existieren, weil er experimentell nicht beweisbar ist“. Das ist zwar unlogisch, wird aber immer wieder vorgebracht, weil es nützlich erscheint, wahrscheinlich auch tatsächlich geglaubt wird. Unlogisch ist es, weil die Nicht-Existenz eines Effektes prinzipiell nicht experimentell bewiesen werden kann! Vielleicht hat man ja nur noch nicht das richtige Experiment versucht? Oder es war einfach die Nachweisgrenze nicht niedrig genug? Könnte das diesmal vielleicht anders sein? Aber so etwas wird von manchen gar nicht erst in Erwägung gezogen. Vielleicht auch deswegen nicht, weil dabei ja auch etwas herauskommen könnte, das nicht herauskommen darf. Da lieber einfach mit sehr oberflächlicher Begründung schwerste Geschütze gegen das Experiment selbst und gegen das damit verfolgte Ziel, die prinzipielle Existenz des THE außer Frage zu stellen, einsetzen. Auch wenn das vielleicht niemanden überzeugt, die Glaubwürdigkeit der „gefährlichen Schrift“ könnte es wohl doch untergraben und wenigstens das muss unbedingt erreicht werden! Dann entfällt auch der Zwang zum nochmaligen Nachdenken.

Auf die einzelnen Wortmeldungen zum Experiment (wie gesagt, ein sehr breites Spektrum) einzugehen, fehlt mir erstens die Zeit, es wäre zweitens auch sehr unübersichtlich, weil die Diskussion unkoordiniert, an vielen verschiedenen Stellen und mit schlecht erkenntlicher Zuordnung zu vorherigen Wortmeldungen abläuft, es würde drittens wohl auch nur wenig Erfolg haben, weil ganz offensichtlich Experimente nur wenig Überzeugungskraft besitzen, wenn man sich nicht überzeugen lassen will, und es würde auch die zulässige Länge von Kommentaren weit überschreiten. Ich will es daher nochmals mit einer in sich einigermaßen geschlossenen Abhandlung versuchen, einer Abhandlung generell zum Thema „THE: Ja oder Nein“, auch wenn sich da Überschneidungen mit den Aussagen in [1] und [2] und auch in anderen Beiträgen ergeben. Aber wenigstens versuchen will ich es, Klarheit (auch über die prinzipielle Existenz des THE) kann nur durch Diskussionen geschaffen werden. Das hier ist eine Aufforderung zu solchen!

Die Aufgabe:

Worum geht es denn überhaupt? Landläufig ist der „Treibhauseffekt“ (der nun einmal so heißt, auch wenn der Name vielleicht nicht so ganz passt) die (angebliche oder tatsächliche) Erwärmung der Erde durch die Anwesenheit von CO2 (und anderer „Treibhausgase“) in der Atmosphäre. Ist so eine Erwärmung überhaupt möglich, wenn die Atmosphäre kälter ist als die Erde? Für manche verbietet das der 2. HS der Thermodynamik, nach dem Wärme „von selbst“ immer nur von warm nach kalt gehen kann. Andere sehen das anders, die Differenzen scheinen unüberwindbar zu sein.

Im Versuch, in dem Streit Klarheit zu erreichen, sei zunächst zusammengestellt, in welchen Stufen der (angebliche oder tatsächliche) THE abläuft bzw. beschrieben werden kann, und dann sei diskutiert, ob bzw. wann diese Stufen in der realen Situation von Erde + Atmosphäre tatsächlich so ablaufen können. Vorab sei aber gleich darauf hingewiesen, dass dies auch im Ja-Fall noch nichts über die tatsächliche Größe des THE aussagt, die ist ein ganz anderes Thema (dazu später noch etwas mehr)!

Stufen des THE:

  1. Erde + Atmosphäre erhalten nur von der Sonne Energie, das aber konstant. Dadurch erwärmen sie sich und nehmen die Temperatur an, bzw. die Temperaturverteilung an, bei der sie insgesamt gerade gleich viel Energie in den Weltraum abstrahlen, wie von der Sonne zugestrahlt wird. Dann herrscht Gleichgewicht.
  2. In dieses Gleichgewicht ist auch die Erdoberfläche eingebunden. Wenn sie bei sonst gleichen Randbedingungen aber zusätzliche Strahlung erhält, woher auch immer, dann erwärmt sie sich über den Ausgangswert hinaus. Solange, bis sich ein neues Gleichgewicht einstellt.
  3. Diese zusätzliche Strahlung kann auch „Gegenstrahlung“ sein. Als solche bezeichnet man jegliche Strahlung, die als Folge der von der Erdoberfläche abgegebenen Energie durch irgendeinen Prozess wieder zur Erdoberfläche zurück geführt wird. Anmerkung: Etwas erweitert kann man als „Gegenstrahlung“ auch jede Strahlung zur Erdoberfläche bezeichnen, die nicht direkt von unserer Sonne stammt. Dann würde z. B. auch eine zweite Sonne „gegenstrahlen“. Hier wird die eingeschränktere Version zugrunde gelegt.

Daraus lässt sich auch eine Definition des THE ableiten: „Der THE ist die (angebliche oder tatsächliche) Erwärmung der Erdoberfläche über das Niveau hinaus, dass sie ohne Gegenstrahlung hätte (bei sonst gleichen Randbedingungen)“. Anders ausgedrückt: „Der THE ist die (angebliche oder tatsächliche) Erwärmung der Erdoberfläche durch Gegenstrahlung, auch wenn diese Gegenstrahlung von einem Körper ausgesandt wird, der kälter ist als die Erdoberfläche.“ Man kann das auf zwei Grundfragen herunterbrechen: Gibt es so eine Gegenstrahlung, und wenn ja, kann sie die Erdoberfläche erwärmen? Ein Nein macht den THE unmöglich. Wird jedoch beides mit ja beantwortet, dann gibt es den THE, unabweislich. Ob der THE gleichzeitig durch andere Effekte abgeschwächt oder gar überkompensiert wird, ist eine völlig andere Frage. Leider wird das nicht immer sauber auseinandergehalten.

Diskussion der realen Situation für Erde + Atmosphäre:

  1. Stufe I gilt nicht exakt, weil die Sonnenstrahlung nicht exakt konstant ist (und weil es auch minimalen massebehafteten Energieaustausch gibt, z. B. durch gelegentliche Meteoriteneinschläge, oder durch kontinuierlich aus der Atmosphäre entweichende Moleküle). Für die Diskussion über die prinzipielle Existenz des THE können diese Effekte aber sicher vernachlässigt werden.

Das sich gem. Stufe I einstellende Gleichgewicht ist nur schwer durch einfache Zahlen zu beschreiben, weil sowohl auf der Erdoberfläche als auch in der Atmosphäre große Temperaturunterschiede bestehen und die Strahlungsintensität von der vierten Potenz der Temperatur abhängt. Außerdem ist das Gleichgewicht von periodischen Schwankungen überlagert (tägliche, saisonale, jährliche, mehrjährige Schwankungen). Für die genaue Größe eines möglichen THE sind das wichtige Einflussfaktoren, für die Frage nach der grundsätzlichen Existenz des THE spielen sie aber keine Rolle. Stufe I kann also als erfüllt angesehen werden. Jedes System, dem Energie zugeführt wird, nimmt die Temperatur (die Temperaturverteilung) an, bei der gleich viel Energie ab- wie zugeführt wird.

Die Erwärmung gem. Stufe II gilt streng genommen nur, wenn die Erdoberfläche zumindest einen Teil der zusätzlichen Strahlung auch absorbiert. Aber abgesehen von höchstens extrem seltenen Fällen ausschließlicher Totalreflexion tut sie das immer. Und da die Absorption zusätzlicher Strahlung immer zusätzliche Energiezufuhr bedeutet, bedeutet sie bei sonst gleichen Randbedingungen immer auch Erwärmung! Das fordert einfach der 1. HS. Das gilt völlig unabhängig davon, woher diese zusätzliche Strahlung kommt und bei welcher Temperatur sie ausgesandt wird. Energie kann einfach nicht verschwinden.

Man kann zwar aus der Wellenlänge der Strahlung auf die Temperatur des aussendenden Körpers schließen, und es ist auch der Anteil von dieser Strahlung, der von der Erde absorbiert wird, frequenzabhängig, aber Strahlungsabsorption ist immer Energiezufuhr, siehe oben, 1. HS! An dem kommt man genauso wenig vorbei wie am 2. HS. Stufe II ist also auch immer erfüllt. THE: Ja oder Nein hängt daher von der Stufe III ab.

Gem. Stufe III ist „Gegenstrahlung“, wenn es sie denn überhaupt gibt, immer eine Folge von Energieabfuhr von der Erdoberfläche. Sie erfordert daher immer einen Prozess, der zumindest einen Teil des Energieflusses umlenkt, wieder zurück zur Erde. Möglichkeiten hierfür sind z. B.:

  • Im Weltraum angebrachte Spiegel, die die Abstrahlung der Erdoberfläche zurückwerfen (wobei wir unterstellen, dass diese Spiegel keine zusätzliche Sonnenstrahlung zur Erde reflektieren). Welche Temperatur die Spiegel dabei haben, spielt keine Rolle, sie reflektieren ja nur. Statt der Spiegel könnten es theoretisch auch umlenkende Prismen sein. Auch diesfalls käme es auf deren Temperatur nicht an.
  • Oder im Weltraum vorhandene Körper, die durch die Abstrahlung von der Erde erwärmt werden und dann als Folge davon ihrerseits Wärme (in alle Richtungen) abstrahlen (hier tritt also Absorption und Re-Emission an die Stelle von Spiegelung oder Umlenkung im ersten Spiegelpunkt). Wir nehmen dabei an, dass diese Körper irgendwie so von der Sonne abgeschirmt sind, dass sie von dieser keine Strahlung ehrhalten, sie werden daher nur von der Abstrahlung der Erde erwärmt. Auf die genaue Temperatur dieser Körper kommt es dabei nicht an, sie muss nur höher sein als der Weltraumhintergrund (was immer der Fall ist, wenn diese Körper Abstrahlung von der Erde absorbieren, das fordert wieder der 1. HS). Dann bewirkt die schiere Existenz dieser Körper im Weltraum Gegenstrahlung für die Erdoberfläche (jedenfalls, solange die dazwischen liegende Atmosphäre nicht völlig undurchlässig für diese Strahlung ist).

Einschub: „Undurchlässig“ ist nicht gegeben, wenn die Atmosphäre „dicker“ ist als die freie Weglänge der Strahlung in ihr. In der Atmosphäre wird Strahlung durch mehrfache Absorptions- und Emissionsprozesse schichtenweise weitergeleitet. Wir die Atmosphäre „dicker“, kommt auf der anderen Seite weniger Strahlung heraus, aber immer noch etwas.

  • Ein solcher Körper im Weltraum kann auch gasförmig sein, nur muss das Gas Wärmeabstrahlung von der Erde zumindest teilweise absorbieren. „Treibhausgase“ tun das definitionsgemäß (und können dann auch selbst strahlen).
  • Wie weit der die Rückstrahlung aussendende Körper von der Erdoberfläche entfernt ist, spielt dabei nur eine quantitative Rolle, aber keine grundsätzliche.
  • Der die Rückstrahlung aussendende Körper kann daher auch in der Atmosphäre der Erde sein (z. B. Treibhausgase oder Wolken).

Mit dem Aufzeigen möglicher Prozesse für die Rücklenkung ist bewiesen, dass „Gegenstrahlung“ prinzipiell möglich ist.

  1. Zur Klarstellung: Ob die Erdoberfläche zusätzliche Energie von z. B. einer zweiten Sonne zugestrahlt bekommt, oder als „Gegenstrahlung“ durch Rückführung eines Teils der von ihr selbst einmal abgegebenen Energie, das macht keinen Unterschied. Die Erdoberfläche kann diese beiden Strahlenarten gar nicht unterscheiden. Generell kann sie auf Strahlung nicht unterschiedlich in Abhängigkeit von deren Herkunft reagieren.
  2. Das obige gilt, wie gesagt, bei „sonst gleichen Randbedingungen“. Bleiben die tatsächlich gleich, dann führt CO2 (oder ein anderes Treibhausgas) irgendwo „oberhalb“ der Erdoberfläche immer via Gegenstrahlung zu einer Erwärmung der Erdoberfläche, immer! Das gilt unabhängig davon, ob dieses „oberhalb“ noch innerhalb der Atmosphäre ist, oder schon außerhalb von ihr (nur die Stärke hängt natürlich stark davon ab).
  3. Eine Ausnahme davon könnte es höchstens geben, wenn außerhalb der Atmosphäre viel CO2 gerade auf der Linie zwischen Sonne und Erde angeordnet ist. Dann könnte die Abschwächung der Sonnenstrahlung gegenüber der vom CO2 ausgesandten Gegenstrahlung überwiegen. Wenn das CO2 aber „irgendwo daneben“ angeordnet ist, dann schwächt es die Sonnenstrahlung zur Erde nicht ab (die „sonstigen Randbedingung“ bleiben daher gleich), es sendet aber zusätzliche Strahlung zur Erde, es erwärmt diese also auf jeden Fall!
  4. Ist das CO2 aber innerhalb der Atmosphäre, dann sind die „sonst gleichen Randbedingungen“ prinzipiell nicht mehr gewährleistet. Das CO2 schwächt dann ja auf jeden Fall auch die Sonneneinstrahlung auf die Erdoberfläche ab (nur wie viel, das ist umstritten). Dann müssen die beiden Effekte gegeneinander aufgerechnet werden (jedenfalls für genaue Rechnungen).
  5. Bei diesem Aufrechnen überwiegt – zumindest bei nicht allzu hohen Konzentrationen – offensichtlich der erwärmende Effekt. Mehr dazu in Kapitel 8.

Zusammenfassung

Die Temperatur(verteilung) im System „Erde + Atmosphäre“ stellt sich immer so ein, dass die von diesem System abgestrahlte Energie gleich groß ist wie die ihm zugestrahlte Energie (jeweils Gesamtsumme). Erhält die Erdoberfläche zusätzliche Strahlung, woher auch immer, dann erwärmt sie sich bei „sonst gleichen Randbedingungen“ zwangsweise, bis ein neues Gleichgewicht erreicht ist. Das fordert der 1. HS. Diese Erwärmung gilt unabhängig von der Quelle dieser zusätzlichen Strahlung und unabhängig von der Temperatur dieser Quelle (und unabhängig davon, wodurch diese Quelle ihre Temperatur erreicht). Eine (zusätzliche) Erwärmung der von der Sonne erwärmten Erdoberfläche durch zusätzliche Strahlung von einem kälteren Körper verstößt daher eindeutig nicht gegen den 2. HS. Auch dann nicht, wenn dieser kältere Körper seine Energie aus der Abstrahlung der Erde speist, es sich also um „Gegenstrahlung“ handelt. Das ist auch deswegen kein Verstoß gegen den 2. HS, weil dieser 2. HS erstens nur für abgeschlossene Systeme gilt, die Erdoberfläche aber kein abgeschlossenes System ist (auch nicht zusammen mit der Atmosphäre), sondern (laufend) Energiezufuhr von der Sonne erhält und (laufend) Energie in den Weltraum abgibt, und weil der 2. HS zweitens nur Netto-Wärmeströme regelt und zwei Körper sich immer gegenseitig bestrahlen, wobei die (gegengerichteten) Einzelströme immer nur von der Temperatur des aussendenden Körpers abhängen (der 2. HS regelt nur, welcher dieser beiden Ströme der größere ist!). Der 2. HS verbietet den THE auf der realen Erde daher gerade nicht! Beim THE geht immer und überall mehr Wärme von warm nach kalt als umgekehrt. Es verschiebt sich nur in manchen Bereichen das Temperaturniveau, auf dem dieser Übergang erfolgt, aber er geht, wie gesagt, immer von warm nach kalt.

Zwei ergänzende Gedankenexperimente:

  1. Betrachten wir den Wärmetransport durch vier aufeinandergestapelte (gleiche) Metallwürfel hindurch. Der oberste werde auf seiner Oberseite konstant sehr heiß gehalten (T1), der unterste auf seiner Unterseite konstant auf der viel niedrigeren Bodentemperatur T2. Im Mittelpunkt der Säule (Übergang vom zweitem zum dritten Würfel) herrscht die Mitteltemperatur (T1 + T2) x 1/2. Ersetzen wir nun den zweiten Würfel von unten durch einen ansonsten gleichen, die Wärme aber nur halb so gut leitenden Würfel. Dann herrscht nach kurzer Zeit am Mittelpunkt der Säule die Temperatur (T1 + T2) x 3/5. Der zweite Würfel von oben ist also eindeutig wärmer geworden, obwohl der neu hinzugefügte Würfel eindeutig kälter war und immer noch ist!
    Würden wir, statt T1 konstant zu halten, die Heizleistung für die Oberfläche des obersten Würfels konstant halten, würde der geschilderte Würfeltausch zu einem Ansteigen von T1 führen!
    Analog ist es auch, wenn wir im System Sonne/Erde/Atmosphäre/Weltraum die Atmosphäre durch eine neue Atmosphäre mit schlechterer Wärmeleitfähigkeit ersetzen. Und ob nun die Wärmeleitfähigkeit verschlechtert wird, oder ob ein Teil der durchgehenden Wärme auf irgendeinem Wege wieder zurückgeführt wird, das kommt aufs Gleiche heraus. Treibhausgase stellen eine solchen Weg zur Verfügung.
  2. Betrachten wir zunächst nur Erde und Sonne frei im Weltraum. Auf der Erde stellt sich wie oben eine bestimmte Temperatur(verteilung) ein. Nun bringen wir auf der von der Sonne abgewandten Seite der Erde etwas außerhalb der Atmosphäre eine Platte ein, die so groß ist, dass sie gerade noch voll in den Kernschatten der Erde passt. Diese Platte wird nur durch die Abstrahlung der Erde erwärmt. Sie sendet aber ihrerseits Gegenstrahlung zur Erde. Die Erde muss sich daher erwärmen!

Dieses Gedankenexperiment hat den Vorteil, dass der THE, der definitionsgemäß immer in reiner Strahlungseffekt ist, nicht durch andere Effekte wie Leitung und Konvektion überlagert wird.

Noch ein Detailpunkt, abgeleitet aus den Diskussionen bei EIKE:

Ein konstant beheizter Körper erwärmt sich bis zu einer bestimmten Gleichgewichtstemperatur, die sowohl von der Heizleistung als auch von der Umgebungstemperatur abhängt (andere Einflussgrößen als konstant angenommen). Nach Ausschalten der Heizung kühlt er sich mit einer bestimmten Abkühlrate bis zur Umgebungstemperatur ab. Nun wird immer wieder gesagt, dass CO2 mit seiner Gegenstrahlung zwar die Abkühlung des nicht mehr beheizten Körpers verlangsamen könne, nicht aber die Gleichgewichtstemperatur des weiterhin beheizten Körpers erhöhen könne. Damit wäre alles über den THE gesagt, es gibt ihn nicht!

Da erhebt sich aber sofort die Frage, ob denn der Körper weiß, wann er auf die Gegenstrahlung reagieren soll und wann nicht, oder ob vielleicht eher die Gegenstrahlung weiß, wann sie auf den Körper einwirken soll und wann nicht?

Natürlich weiß es keiner und es muss immer gleich sein: Entweder wirkt die Gegenstrahlung in beiden Fällen, beheizt und unbeheizt, oder sie wirkt in beiden Fällen nicht. Wirkt sie nicht, dann gibt es trivialerweise auch keinen THE, doch kann das nach dem 1. HS nur dann sein, wenn der Körper nichts von dieser Gegenstrahlung absorbiert! Wirkt sie aber, dann spricht das klar für den THE!

Weitere wichtige Überlegungen:

Alle Voraussetzungen für die Existenz des THE sind wohl eindeutig erfüllt. Es gibt ihn also. Das sagt aber

  • Erstens nichts über seine Höhe aus. Es ist m. E. ganz wichtig, diesen Unterschied zu beachten. In vielen Diskussionen werden immer wieder Argumente gegen die Existenz des THE vorgebracht, die bei genauerem Hinsehen nur gegen einen großen Einfluss von CO2 sprechen (siehe auch den nächsten Spiegelpunkt und Kapitel 9).
  • Zweitens sagt die Existenz des THE nichts darüber aus, ob das CO2 (und die anderen Treibhausgase) nicht auch zusätzliche Prozesse auslösen, die dem THE entgegen wirken, ihn abmildern, ihn vielleicht sogar überkompensieren können (dann würde CO2 in Summe sogar kühlen! Aber nicht, weil es keinen THE gibt, sondern weil der von einem stärkeren Effekt überlagert wird!). Ein möglicher solcher Effekt wurde schon genannt: Die Abschwächung der Einstrahlung von der Sonne durch Absorption in den Treibhausgasen. Nur überwiegt diese Abschwächung normalerweise nicht, sodass CO2 immer noch erwärmt, sie muss aber bei genaueren Rechnungen berücksichtigt werden.

Ein weiterer möglicher solcher zusätzlicher Effekt besteht z. B. darin, dass mit Treibhausgasen in der Atmosphäre auch Wärme, die durch Leitung, Konvektion und insbesondere als latente Wärme von der Erdoberfläche in die Atmosphäre eingebracht wird, nun aus dieser auch in den Weltraum abgeben werden kann (per Strahlung aus dem oberen Bereich!). Ohne Treibhausgase könnte diese Wärme nur als massengebundener Transport zurück zur Erdoberfläche gelangen, mit Treibhausgasen geht ein Teil auch in den Weltraum. Diese (nur durch die Treibhausgase und ihren Umgang mit Strahlung bewerkstelligte!) Wärmeabfuhr aus der oberen Atmosphäre in den Weltraum ist auch die Ursache für die „verkehrte“ Temperaturschichtung in der Atmosphäre: oben kälter als unten (obwohl warme Luft eigentlich aufsteigen sollt)! Ohne Treibhausgase wäre es daher nicht nur kälter auf der Erde (kein THE), sondern wir hätten auch eine völlig andere Atmosphäre mit einer völlig andren Temperaturschichtung und mit einem völlig anderen Klima, vielleicht würde es uns gar nicht geben. Die real vorhandene Schichtung in der Atmosphäre ist m. E. ein klarer Beweis für die Existenz des THE!

In [3] habe ich die hier nur kurz aufgezeigte mögliche Kühlwirkung von CO2 (und anderer Treibhausgase) näher beschrieben und nach ihrem höchstwahrscheinlich größten Anteil „Latentwärmeabfuhreffekt“ (LWE) genannt. Dabei habe ich gefordert, dass THE und LWE immer gegengerechnet werden müssen und ich habe dargelegt, dass und warum bei niedrigen Konzentrationen vermutlich der THE überwiegt, bei höheren Konzentrationen vermutlich aber der LWE. Tragfähige Argumente gegen diese Argumentation habe ich keine gehört. Untersuchungen, ab welcher Konzentration der LWE überwiegen könnte, kenne ich nicht.

  • Drittens sagt die Existenz des THE auch nichts darüber aus, was die starke Zunahme der CO2-Konzenetration in der Atmosphäre verursacht hat. Die fast ausschließlich vertretene Annahme, dies sei auf anthropogene Tätigkeiten zurückzuführen, insbesondere auf die Verbrennung fossiler Energieträger, ist höchstwahrscheinlich falsch, siehe [4], [5], [6] und dort angegebene weiterführende Literatur. Wenn das stimmt, dann kommt es weder auf die prinzipielle Existenz noch auf die genaue Größe des THE an, es entfällt auf jeden Fall die Notwendigkeit, unsere CO2-Freisetzungen zu reduzieren! Das zu überprüfen, sollte daher die oberste Priorität haben.

Schlussbetrachtung

Die häufig erhobene Forderung, die anthropogenen CO2-Freisetzungen dringend drastisch zu reduzieren, praktisch um jeden Preis, weil sonst die Erde „verbrennt“, ist m. E. unauflöslich an drei Voraussetzungen gebunden:

  1. Der THE muss existieren.
  2. Er muss stark sein.
  3. Das viele CO2 in der Atmosphäre muss „manmade“ sein.

Die erste Voraussetzung ist nach den oben gemachten Ausführungen m. E. eindeutig erfüllt, durch die Experimente von Harde und Schnell bewiesen und durch grundsätzliche Überlegungen untermauert. Die prinzipielle Existenz des THE wird ganz einfach von der Physik gefordert. Natürlich muss jede Aussage nochmals überprüft werden, aber ich sehe da wenig Chancen auf Änderung.

Die zweite Voraussetzung ist eine sehr komplexe Fragestellung, in die sehr viele Einflussfaktoren hineinwirken und die beim heutigen Stand der Wissenschaften wahrscheinlich niemand wirklich zuverlässig beantworten kann. Nach meiner persönlichen Einschätzung ist diese Voraussetzung aber viel eher nicht erfüllt als erfüllt. Hier dürfte es sich lohnen, weitere Mühe zur Abklärung hineinzustecken, wer sich dafür hinreichend kompetent fühlt. Ich habe dabei nur die Bitte, die Frage nach der Größe streng von der nach der prinzipiellen Existenz zu trennen.

Die dritte Voraussetzung ist viel einfacher zu beantworten und nach meiner persönlichen Einschätzung sehr klar nicht erfüllt, siehe die angeführte Literatur. Leider kommt sie aber in der Diskussion meist viel zu kurz. Da scheint mir mit relativ geringem Aufwand ein deutlicher Fortschritt erreichbar zu sein. Wer hat tragfähige Gegenargumente? Dass IPCC das anders sieht, ist in meinen Augen kein solches. Ich rufe nochmals zur Diskussion auf!

Literatur:

[1] Michael Schnell, Hermann Harde: „Gibt es einen Atmosphärischen Treibhauseffekt? – Teil 1“, EIKE, 30.03.2024.

[2] Hermann Harde, Michael Schnell: „Gibt es einen Atmosphärischen Treibhauseffekt? – Teil 2“, EIKE, 31.03.2024.

[3] Roth, E. (2019): „Probleme beim Klimaproblem – Ein Mythos zerbricht.“ BoD-Verlag Norderstedt 2019, ISBN 978-3-7481-8275-7, E-Book 978-3-7494-0328-8.

[4] Roth, E. (2022): „Das große Klimarätsel: Woher kommt das viele CO2?“ BoD-Verlag Norderstedt 2022, ISBN 978-3-7562-2033-5, E-Book 978-3-7562-5347-0.

[5] Roth, E. (2023): “Climate: Man or Nature? A Contribution to the Discussion.” Science of Climate Change, Vol. 3.5 (2023), pp. 521-542, https://doi.org/10.53234/scc202310/40.

[6] Roth, E. (2024): “The Physics of the Carbon Cycle: About the Origin of CO2 in the Atmosphere”, DOI: 10.22541/au.171053031.12464953/v1.




Wer steht hinter Habeck´s Klimaagenda?

In einem Aufsehen erregenden Video hat vom Mai vergangenen Jahre die AfD Bundestagsabgeordente Beatrix von Storch die Hintermänner von Habeck´s Klimaagenda beim Namen genannt.

Da das Video seit dieser Zeit online steht und noch von keiner dagegen juristisch in irgendeiner Weise etwas unternommen hat, muss die Öffentlichkeit davon ausgehen, bis zum Beweis des Gegenteiles, dass die Ausführungen von Frau von Storch ganz oder zum größten Teil wahr sind. Treffen sie also zu, dann sind die Auswirkungen davon enorm. Es ist nicht nur der unglaubliche Geldeinsatz über den diese Leute zu verfügen scheinen, sondern es ist auch ihr fast ungehinderte Einflussnahme auf die Politik. Sowohl hierzulande, als auch in anderen westlichen Staaten, insbesondere die USA.

Gern werden wir darüber berichten, sofern man behauptet, dass diese diese Aussagen falsch sein sollten. Die müssten dann natürlich auch bewiesen werden,




BACK TO EARTH: Stand des hemisphärischen S-B-Modells als Wegweiser durch meine EIKE-Artikel

von Uli Weber

Noch in seinem geowissenschaftlich geprägten Buch „Klimahysterie…“ (Farbe / S-W) hatte der Autor den vorgeblich durch eine „atmosphärische Gegenstrahlung“ angetriebenen „natürlichen atmosphärischen Treibhauseffekt“ als Stand der Klimawissen­schaft beschrieben. Und in seinem letzten EIKE-Artikel hatte er eine anthropogene Nutzung dieser „atmosphärischen Gegenstrahlung“ einmal über den 2. Hauptsatz der Thermodynamik hinweg zu Ende gedacht. Sein hemisphärisches Stefan-Boltzmann-Modell für die Temperaturgenese auf unserer Erde ist zwar ebenfalls längst zu Ende gedacht, aber auf mehr als 40 EIKE-Artikeln verteilt. Daher dürfte inzwischen selbst ein gutwilliger Kommentator den Überblick verloren haben, und es ist höchste Zeit, den aktuellen Stand dieses Hemisphärenmodells einmal zusammenfassend darzustellen.

Der hemisphärische Stefan-Boltzmann-Ansatz geht auf eine Veröffentlichung von 2016 in den „Roten Blättern“ der Deutschen Geophysikalischen Gesellschaft zurück und beschreibt die Temperaturgenese auf unserer realen Erde ohne einen „natürlichen atmosphärischen Treibhauseffekt“. Ein populärwissen­schaftlicher Artikel darüber erschien Anfang 2017 auf Tichys Einblick und wurde von EIKE übernommen. Seither konnte dieses Hemisphärenmodell in mehr als 40 EIKE-Artikeln an diversen Klimaphänomenen erprobt und kontinuierlich weiterentwickelt werden, wofür ich mich bei der EIKE-Redaktion, insbesondere bei Herrn Dipl.-Ing. Michael Limburg, ganz herzlich bedanke.

Die nachfolgende Zusammenfassung des hemisphärischen S-B-Modells wird diesmal nicht mit physikalischen Beweisen oder im Abgleich mit dem konkurrierenden THE-Paradigma erfolgen. Vielmehr wird mit Zahlen in eckigen Klammern jeweils auf den/die im Anhang verlinkten weiterführenden EIKE-Artikel mit der entsprechenden Beweisführung hingewiesen. Für den interessierten Laien wird hier zur Problemübersicht auf meine EIKE-Trilogie „Eine Analyse der Thesen/Antithesen für einen ‚natürlichen atmosphärischen Treibhauseffekt‘“ mit Teil 1 „Gegenüberstellung der Thesen/Antithesen“ [1], Teil 2 „Diskussion der Thesen/Antithesen“ [2] und Teil 3 „Erkenntnisse zu den Thesen/Antithesen und das Ergebnis dieser Analyse“ [3] hingewiesen. Auch das Stefan-Boltzmann-Gesetz wird hier nicht erneut beschrieben [4], genauso wenig wie der physikalisch entscheidende Unterschied zwischen Leistung und Energie [5]. Und auch der Abgleich des hemisphärischen Stefan-Boltzmann-Modells mit echten Temperatur­messungen vom Mond [6] und [7] als real existierendes Modell für eine Erde ohne Atmosphäre ist nicht Teil dieser Zusammenfassung. Nachfolgend sind alle entsprechenden EIKE-Artikel mit einer ausführlichen Beweisführung unter den jeweils in eckigen Klammern angegebenen Zahlen im Anhang verlinkt.

Das hemisphärische Stefan-Boltzmann-Modell betrachtet das System Erde vom makroskopischen Standpunkt der Klimadefinition als Durchschnitt von 30 Jahren Wetter. Daraus versucht der Autor dann die primären Wirkmechanismen der terrestrischen Temperaturgenese auf unserer realen Erde qualitativ abzuleiten. Im Prinzip handelt es sich dabei also um ein hybrides Modell, das auf Berechnungen (Tagseite) und terrestrischen Wärmespeichern (Nachtseite) aufbaut. Die Berechnun­gen für die Tagseite beruhen auf dem S-B-Temperatur­äquivalent aus einer Inversion der hemisphä­risch eingestrahlten spezifischen Strahlungsleistung der Sonne. Der Beitrag der terrestri­schen Wärme­speicher Atmosphäre und Ozeane, die mit ihrem Energieinhalt auf die individuellen Ortslagen der Nachthälfte einwirken, lassen sich über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes herleiten. Die Ausgangssituation für die terrestrische Temperaturgenese ist geometrisch eigentlich ganz einfach und zwingend, aber offenbar steckt schon hier der Teufel im Detail:

Abbildung 1: Die geometrischen Flächenverhältnisse bei der terrestrischen Temperaturgenese

Einstrahlung: Hochfrequente (HF) Sonneneinstrahlung, die auf einer Kreisfläche mit dem Erdradius (@PiR²) auf die Erde fällt, erwärmt die Materie von deren Tagseite (@2PiR).

Abstrahlung: Die erwärmte Materie strahlt Infrarot(IR)-Strahlung über die gesamte Erdoberfläche (@4PiR²) ab.

Wir betrachten jetzt einmal die häufig als Indikator für globale Klimaveränderungen verwendete sogenannte „Near Surface Temperature“ (NST) in Form der gemessenen und global gemittelten Durchschnittstemperatur. Diese NST bleibt trotz Tag und Nacht, Jahreszeiten und deren gegensätz­lichen Verläufen auf Nord- und Südhalbkugel über aufeinander folgende Jahresmittel relativ stabil. Daraus ist wiederum abzuleiten, dass sich das Klimasystem unserer Erde in einem gesättigt eingeschwungenen Zustand befindet, in dem die eingestrahlten und abgestrahlten Energiemengen sich im langjährigen Mittel ausgleichen. Um diese quasi-stabile Gleichgewichts­situation zu verstehen, nähern wir uns unserer Erde jetzt einmal aus dem Blickwinkel eines 1:1-Eisballmodells [8]:

Wir verbringen also zu einem Zeitpunkt “0” ein Duplikat unserer Erde aus einem Dunkelkammer-Weltraumlabor an den aktuellen Standort unserer Erde. Dieses Duplikat soll eine voll funktionsfähige Erde in einem „tiefgefrorenen“ Zustand mit einer Eigentemperatur von minus 240 Grad Celsius aus einem eigenen terrestrischen Wärmefluss von 60 Milliwatt darstellen. Vom Zeitpunkt “0” an ist unsere neue Schneeball-Erde nun der Sonnenstrahlung mit der Solarkonstanten So=1.367 W/m² ausgesetzt. Die Sonneneinstrahlung trifft grundsätzlich nur die Tagseite der Erde. Die Polkappen sind etwas schwerer zu beschreiben, weil Polartag und Polarnacht jeweils ein halbes Jahr dauern [9]. Wir beschränken uns daher bei der folgenden Betrachtung auf die Äquinoktien, also die Tag und Nacht Gleiche am Frühlings- und Herbstpunkt, wenn die Sonne direkt über dem Äquator steht [10]:

Abbildung 2: Eine Summierung der vom mittäglichen Zenitwinkel abhängigen maximalen solaren Einstrahlung über 1°-Kugelsegmente und deren S-B-Temperaturäquivalent im Äquinoktium

Es muss an dieser Stelle ausdrücklich hervorgehoben werden, dass hier die Berechnung des S-B-Temperaturäquivalentes mit einer Anfangstemperatur von 0 Kelvin erfolgt ist, die auf unserer realen Erde überhaupt nicht vorkommt. Vielmehr dient diese Berechnung dem Nachweis, welche Durchschnittstemperatur die Sonne auf der Tageshemisphäre unserer Erde nach dem S-B-Gesetz maximal zu erzielen in der Lage ist. Der hemisphärische Mittelwert der solaren Einstrahlung über eine Summation von 1°-Kugelsegmente ergibt eine Durchschnittstemperatur von 14°Celsius, die hemisphärisch korrigierte Integrallösung [10] von Gerlich und Tscheuschner (2009) kumuliert bei einer Temperatur von 15°C, die der gemessenen global gemittelten NST entspricht und in der weiteren Betrachtung verwendet wird. Jetzt dreht sich also das tiefgefrorene Abbild unserer Erde wie ein Grillhähnchen unter der hemisphärischen Sonneneinstrahlung [11] und wärmt sich langsam auf. Während dieser Erwärmung steigt dann auch die terrestrische IR-Abstrahlung von 60 Milliwatt ganz langsam auf den Betrag der solaren Einstrahlung an. Während dieses Temperaturanstieges taut der Permafrost in niederen und mittleren Breiten auf, bilden sich die atmosphärischen Zirkulationszellen und ihre Windfelder und natürlich auch die thermohaline Zirkulation in den Ozeanen, die etwa zu 2/3 die Oberfläche unseres Wasserplaneten bilden.

Mit welchen Zeiträumen und Energiemengen müssen wir bei diesem Prozess rechnen?

Ein konservativer Vergleich des Wärmeinhalts der Ozeane mit der täglichen und jährlich global eingestrahlten Sonnenenergie zeigt, dass deren Einfluss auf die 24h-tägliche globale Temperaturgenese nicht vernachlässigt werden darf [12]. Allein die aktuell in den Ozeanen gespeicherte Energie (=Arbeit=Leistung*Zeit) [5] entspricht ohne Berücksichtigung der Albedo in grober Abschätzung einer solaren Einstrahlung von etwa 120 Jahren:

Solare Einstrahlung auf der Erde an einem 24h-Tag: 1,05*10^22 Joule

Solare Einstrahlung auf der Erde über ein Jahr: 3,85*10^24 Joule

Gespeicherte Wärmemenge in den Ozeanen: 4,59*10^26 Joule

Nachdem wir eine Vorstellung von den terrestrisch gespeicherten Wärmemengen ermittelt haben, müssen wir uns jetzt Gedanken um die Zeiträume machen, die ein solches Auftauen erfordern würde. Nehmen wir dazu einmal den längsten aktiven Klimaprozess auf unserer Erde als Maßstab, die thermohaline Zirkulation mit etwa 1.000 Jahren für einen kompletten Umlauf. Sicherlich würde ein einziger thermohaliner Umlauf nicht ausreichen, um die gefrorene Tiefsee und möglicherweise auch den Permafrost aufzutauen. Wenn wir jetzt einmal den Faktor 10 zusetzen, kommen wir mit 10.000 Jahren in etwa ans Ende der letzten Kaltzeit. Da seither die Permafrostböden der verglet­scherten mittleren Breiten bis auf alpine Reste verschwunden sind, können wir diese 10.000 Jahre zumindest grob für die aufzuheizenden Landflächen ansetzen. Die tiefgefrorenen Ozeane mit ihrem Permafrostboden dürften eher noch einen weiteren Faktor 10 vertragen. Aber das soll uns hier jetzt nicht weiter interessieren, denn eine Abkühlung würde vergleichbare Zeiträume dauern und es geht bei all diesen Überlegungen lediglich um das Verhalten der Nachttemperaturen auf unserer Erde.

Und da können wir bezüglich der Nachtabsenkung der Temperaturen auf unserer realen Erde feststellen, dass es auf Grundlage der in diesem eingeschwungenen System vorhandenen Energiemengen völlig ausgeschlossen ist, dass irgendwo auf der Nachtseite unserer Erde auch nur ansatzweise der absolute Nullpunkt erreicht wird.

https://eike-klima-energie.eu/wp-content/uploads/2023/08/word-image-106414-6.jpeg Umgekehrt heißt das wiederum, dass die hemisphärisch einfallende Sonneneinstrahlung auf der Tagseite unserer Erde lediglich die über den 24h-Tag abgestrahlte Energiemenge ersetzen muss:

Abbildung 3: Die Beziehung zwischen Temperatur und spezifischer Strahlungsleistung im Stefan-Boltzmann-Gesetz am Beispiel des Leistungsbedarfs einer mittleren Oberflächentemperatur von 15°C mit einer Tag-Nacht-Schwankungsbreite von +/-10°C

Sowohl die Temperatur auf der Tagseite der Erde als auch die Temperatur auf deren Nachseite setzen auf der Temperatur der globalen Wärmespeicher auf, die im Wesentlichen von der Durchschnittstemperatur der Ozeane (ca. 20°C) bestimmt wird. Wasser ist der hauptsächliche Träger dieser Energie, sei es in flüssiger Form in den Ozeanen oder gasförmig in der Atmosphäre. Die örtliche Nachttemperatur der kontinentalen Landflächen wird also letztendlich über die Umgebungstemperatur ziehender Tiefdruckgebiete oder lokaler Land- Seewind Systeme bestimmt und gehorcht damit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes [13]. Je weiter also eine Örtlichkeit vom Meer entfernt ist und umso weniger Wasserdampf die örtliche Atmosphäre enthält, umso größer sind dort die Temperaturschwankungen zwischen Tag und Nacht. Die kontinentalen Wüstengebiete unserer Erde sind dafür ein ganz hervorragendes Beispiel. Seit jeher haben die Ozeane mit einem Zeitverzug von Jahrhunderten jede Klimaänderung „mitgemacht“ und gleichzeitig die jeweiligen individuellen Ortstemperaturen oder meinetwegen auch eine sogenannte „globale Durchschnittstemperatur“ auf der Nachthemisphäre nach unten abgesichert:

Die Erwärmung von 0 Kelvin auf die jeweilige Ortstemperatur muss also nicht erst durch die aktuelle solare Einstrahlung erzeugt werden, denn diese Ortstemperatur mit ihren Schwankungen zwischen Tag und Nacht ist in diesem „eingeschwungenen“ System Erde ja bereits vorhanden.

https://eike-klima-energie.eu/wp-content/uploads/2020/02/weber_2-640x346.png Die Abbildung 2 stellt eine Momentaufnahme der maximalen spezifischen solaren Strahlungsleistung und das entsprechende S-B-Temperaturäquivalent aus einer Stefan-Boltzmann-Inversion [14] für die terrestrische Temperaturgenese dar. Die Zeit ist von einer solchen Betrachtung mit dem Stefan-Boltzmann-Gesetz ausgeschlossen. Für eine 24-Stunden-Betrachtung müssen wir also das örtliche Maximum der solaren Strahlungsleistung bzw. dessen S-B-Temperaturäquivalent aus den konzentrischen 1°-Kugelsegmenten einmal über den 24h-Tag für die gesamte Erdoberfläche fortschreiben [15], wie die nachfolgende Abbildung auf Grundlage einer Mollweide Projektion zeigt:

Abbildung 4: Die maximale breitenabhängige temperaturwirksame solare Strahlungsleistung (Skala links) und das resultierende S-B-Temperaturäquivalent (Skala rechts) über einen 24-Stunden-Tag im Äquinoktium mit farblich unterlegter Mollweide-Projektion (© L. Rohwedder – Lizenz CC BY-SA 3.0)

Linke Skala: MAX (Si) @24h-Tag mit (Si = 1.367W/m²* (1-ALBEDO) * cos PHIi)
und (PHIi = örtlicher Zenitwinkel)

Rechte Skala: Maximales örtliches S-B-Temperazuräquivalent( SBTi) von MAX (Si)

Aus dieser Abbildung wird sofort deutlich, dass die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne im Tagesverlauf des Äquinoktiums bei gleicher geographischer Breite immer denselben Maximalwert und damit auch immer dasselbe maximale örtliche S-B-Temperauräquivalent ergibt. Im Tagesverlauf wird also zwischen 75 Grad N und S (mit jeweils 243 W/m²) und dem Äquator (mit 940 W/m²) die global gemittelte temperaturwirksame spezifische Strahlungsleistung von 235 W/m² (≅ -18°C) nach dem THE-Paradigma weit übertroffen.

Anmerkung: Der Autor hat in seinem hemisphärischen S-B-Modell ganz bewusst die maximale solare Einstrahlung betrachtet, denn nur so lässt sich der Tag-und-Nacht-Wechsel physikalisch sinnvoll darstellen. Jede Rückrechnung aus irgendeiner Energiemenge über die Zeit auf eine Durchschnitts­leistung [5] entfernt sich dagegen physikalisch unwiderruflich vom Stefan-Boltzmann-Gesetz.

https://www.eike-klima-energie.eu/wp-content/uploads/2021/05/up_05.jpg Weiterhin verfügt unsere Erde auf zwei Dritteln ihrer Oberfläche über eine Warmwasser-Fußbodenheizung mit einer Vorlauftemperatur zwischen 0°C und 30°C bis etwa 70° nördlicher und südlicher geographischer Breite und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt wird mit 20°C angegeben und dürfte etwas über der NST von 15°C kumulieren. Damit ist bewiesen, dass die täglich durch Sonneneinstrahlung überall auf der Erde zwischen 75°N und 75°S erzeugten Temperaturen keinerlei zusätzlichen „natürlichen atmosphärischen Treibhauseffekt“ benötigen, um die gemessenen Ortstemperatur zu erklären. Die Ozean-Temperaturen repräsentieren wiederum zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Wie wir bereits erfahren haben, wird das maximale rechnerische S-B-Temperaturäquivalent des hemisphärischen S-B-Modells aufgrund von örtlicher Konvektion und Verdunstung in der Realität aber nirgendwo auf unserer Erde erreicht [16]. Andererseits sinkt die Temperatur in mittleren und höheren Breiten der Winterhemisphäre, insbesondere in der Polarnacht, niemals auf das rechnerische S-B-Temperaturäquivalent der geringen/fehlenden solaren Einstrahlung ab. Die nachfolgende Abbildung zum globalen breitenabhängigen Wärmetransport [17] gibt Aufschluss über die Gründe dafür:

Abbildung 5: Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite. QUELLE: HÄCKEL, Meteorologie, Verlag Eugen Ulmer, Stuttgart 1990 – Hinweis: In dieser Grafik ist die horizontale Achse der Breitenkreise vom Äquator ausgehend polwärts gestaucht dargestellt

Aus dieser Abbildung 5 „Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten“ ergibt sich für die

Strahlungsbilanz: In den Tropen ist die Strahlungsbilanz positiv und geht dann knapp jenseits von 40°N und 40°S in den negativen Bereich. Wenn Sie’s mal mit dem 0°C-Durchgang des S-B-Temperatur­äquivalents aus der maximalen solaren Einstrahlung bei etwa 70° geografischer Breite im Äquinoktium in der Abbildung 2 vergleichen, dann ist im Jahresdurchschnitt ein energetischer Nulldurchgang bei 40° Breite durchaus plausibel.

Latente Energie: Die latente Energie ist um den Äquator positiv, geht dann um ca. 10°N&S ins Negative, steigt nach ca. 40°N&S noch einmal an und geht dann zu den Polen auf null.

Advektion durch Luft: Um den Äquator werden erhebliche Wärmemengen abgezogen. Der weitere Verlauf auf den beiden Hemisphären ist, offenbar aufgrund der Land-Meer-Verteilung, recht unterschiedlich, aber jenseits von ca. 50°N&S wird zu den Polregionen ein erheblicher Zustrom vom Wärme dokumentiert.

Advektion durch Ozean: In den Tropen wird Wärme abgezogen, etwa von den beiden Wendekreisen an ergibt sich dann ein Zufluss von Wärme zu höheren geographischen Breiten, der sich zum jeweiligen Pol hin auf null reduziert.

Anmerkung: Der Zeitversatz zwischen den Jahreszeiten auf der Nord- und Südhalbkugel ist der Mittelung für den durchschnittlichen Jahresverlauf zum Opfer gefallen.

Die Sonneneinstrahlung in den Tropen und den mittleren Breiten der Sommerhemisphäre erwärmt die globalen Energiespeicher und treibt damit den Klimamotor auf unserer Erde an [13] [18]. Alle Energie­ströme summieren sich bei Häckel im mehrjährigen Mittel über alle Ortslagen einer festen geographischen Breite gerade auf null, wobei sich deren durchschnittliche individuelle Beiträge und Ortstemperaturen in der Realität je nach meridionaler Land-Meer-Verteilung durchaus unterscheiden können. Wir können hier also erkennen, dass sich die Überschüsse und Defizite gegenüber dem örtlich berechneten hemisphärischen S-B-Temperaturäquivalent durch den lateralen Transport von Energie gerade global ausgleichen und damit das hemisphärische S-B-Modell voll bestätigen. Dieser Punkt ist offenbar der am wenigsten verstandene im hemisphärischen S-B-Modell. Dabei wurden die globalen Wärmespeicher unserer Erde und deren Temperaturwirkung über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes bereits in diversen Artikeln thematisiert und mehrfach mit der Grafik von Häckel (Abbildung 5) veranschaulicht. Der terrestrische Wärmetransport bedarf daher offenbar erneut einer ausführlicheren Erklärung:

Primär = Sonneneinstrahlung auf der Tageshemisphäre: Die HF-Einstrahlung der Sonne bewirkt die terrestrische Temperaturgenese. Die Temperatur einer individuellen Ortslage ist abhängig von dem örtlichen solaren Zenitwinkel , der terrestrischen Albedo und dem von der Tageszeit abhängigen Azimut. Die örtlich maximal mögliche Temperatur aus der solaren Einstrahlung ergibt sich dann aus [So x (1-Albedo) x COS(Zenitwinkel)] durch eine Inversion des Stefan-Boltzmann-Gesetzes [19]. Dieser theoretische Wert wird aber nirgendwo auf der Erde erreicht, weil während der gesamten Sonnenscheindauer Energie in die globalen Energiespeicher von Atmosphäre und Ozeanen abfließt.

Sekundär = Abstrahlung der Erde: Die sekundäre IR-Abstrahlung der Erde aus erwärmter Materie erreicht aufgrund des örtlichen Abflusses von Energie durch Konvektion und Verdunstung nicht den Gesamtbetrag der solaren Einstrahlung.

Tertiär = Speicherung von Energie durch Konvektion und Verdunstung: Beim primären terrestrischen Erwärmungsprozess wird Energie in Form von Verdunstung und Konvektion aus diesem Prozess herausgelöst, in Atmosphäre und Ozeanen gespeichert und durch die globalen Strömungssysteme aus der jeweiligen Ortslage abgeführt.

Quartär = Abgabe von Energie durch Advektion und Kondensation: Da es sich beim Energieinhalt der Wärmespeicher unserer Erde um ein eingeschwungenes Klimasystem handelt, wird im langjährigen Mittel gleichzeitig genauso viel Energie von den globalen Strömungssystemen abgegeben, wie dort zeitgleich aus der primären HF-Sonneneinstrahlung „eingelagert“ wird. Die Zeiträume solcher individuellen Speicherzyklen betragen Stunden, Tage, Wochen, Monate, Jahre, Jahrzehnte oder gar Jahrhunderte.

Im langjährigen Klimamittel über 30 Jahre gilt demnach auf unserer Erde für das energetische Gleichgewicht (IN=OUT=1,15*10^26 Joule in 30 Jahren) oder:

HF-Primär [J] = IR-Sekundär [J] + IR-Quartär [J] ≅ 3,85*10^24 Joule im Jahresdurchschnitt

mit ((Tertiär = HF IN @Energiespeicher [J]) ≈ (Quartär = IR OUT @Energiespeicher [J]))

https://eike-klima-energie.eu/wp-content/uploads/2023/03/word-image-101726-6.jpeg Und die Summe der örtlichen Abweichungen zu diesem Jahresmittel nennt man dann „Wetter“. Dabei ist noch zu beachten, dass üblicherweise Energie aus den niederen Breiten und mittleren Breiten der Sommerhemisphäre abgeführt und den mittleren und hohen Breiten der Winterhemisphäre zugeführt wird. Das hemisphärische Stefan-Boltzmann-Modell ist also in der Lage, die Temperaturgenese auf unserer Erde qualitativ zu beschreiben, ohne dazu irgendwelche physikalischen Hilfskonstruktionen wie einen „natürlichen atmosphärischen Treibhauseffekt“ zu benötigen. Darüber hinaus schließt dieses Modell weitere Faktoren der terrestrischen Klimagenese ein, beispielsweise die Umkehr der vektoriellen Richtung zwischen Einstrahlung und Abstrahlung [20]. Weiterhin bildet dieses Modell die Breitenabhängigkeit der solaren Einstrahlung ab [21], erklärt die Jahreszeiten [22] und widerlegt den äquatorialen Hotspot in der Atmosphäre [23] sowie die „atmosphärische Gegenstrahlung“ [24]. Und schließlich ist in einem Faktencheck [25] mein hemisphärisches Modell das einzige von drei Modellen für die Temperaturgenese auf unserer Erde, das den Verlauf der terrestrischen Beleuchtungs­klimazonen nachzuzeichnen vermag:

Abbildung 6: Vergleich hemisphärisches S-B-Modell mit den Beleuchtungsklimazonen der Erde

Links: Das hemisphärische S-B-Modell aus einem Modellvergleich von Dr. G. Kramm (persönliche Mitteilung 2021 mit freundlicher Genehmigung) – Originale Bildunterschrift:

Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

Rechts: Beleuchtungsklimazonen der Erde (N-S gestreckt)
Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Wie es die wissenschaftliche Beweisführung der Physik befiehlt, ergibt sich am Ende dieser Betrachtung also eine widerspruchsfreie semi-quantitative Übereinstimmung in Raum und Zeit zwischen Theorie und praktischem Versuchsaufbau, nämlich zwischen meinem hemisphärischen Stefan-Boltzmann-Modell und der Temperaturgenese und -verteilung auf unserer realen Erde im langjährigen Durchschnitt. Die Erklärung dieser, für viele Betrachter eher unerwarteten Übereinstimmung ist ziemlich einfach, denn wärmer als das Mittel aus den örtlichen S-B-Temperatur­äquivalenten der maximalen örtlichen HF-Solareinstrahlung [= So x (1-Albedo) x COS(max. Zenitwinkel)] kann es auf unserer Erde nun einmal nicht werden [10].

ANHANG: Wegweiser durch meine EIKE-Artikel mit den im Text bezeichneten Verweisen

[1] Eine Analyse der Thesen/Antithesen für einen „natürlichen atmosphärischen Treibhauseffekt“ – Teil 1: Gegenüberstellung der Thesen/Antithesen

[2] Eine Analyse der Thesen/Antithesen für einen „natürlichen atmosphärischen Treibhauseffekt“ – Teil 2: Diskussion der Thesen/Antithesen

[3] Eine Analyse der Thesen/Antithesen für einen „natürlichen atmosphärischen Treibhauseffekt“ – Teil 3: Erkenntnisse zu den Thesen/Antithesen und das Ergebnis dieser Analyse

[4] Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an

[5] Der physikalische Unterschied zwischen Energie und Leistung in der politischen Klimawissenschaft

[6] Beweist die Temperatur des Mondes den hemisphärischen Stefan-Boltzmann Ansatz?

[7] Neues von Willis Eschenbach

[8] Machen wir mal ein Gedankenexperiment: Es gibt gar keine Erde!

[9] Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur

[10] Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz

[11] Das Hähnchengrill-Paradoxon

[12] Der hemisphärische Stefan-Boltzmann-Ansatz ist kein reines Strahlungsmodell – Teil 2

[13] Safety First: Zum besseren Verständnis meiner hemisphärischen Energiebilanz

[14] Handreichung zum besseren Verständnis der Stefan-Boltzmann-Inversion

[15] Anmerkungen zur Bestimmung der hemisphärischen solaren Einstrahlung auf „Mittelerde“

[16] Die dunkle Seite unserer Erde und der meridionale Energietransport

[17] Die sogenannte „gemessene globale Durchschnittstemperatur“ wird von den Ozeanen bestimmt

[18] Die dunkle Seite unserer Erde und der meridionale Energietransport

[19] Handreichung zum besseren Verständnis der Stefan-Boltzmann-Inversion

[20] Zeigt der Poynting-Vektor auf „Mittelerde“ oder auf die sogenannte „Abstrahlungshöhe“?

[21] Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur

[22] Niemand hat die Absicht, eine Ökodiktatur zu errichten

[23] Der Wechsel von Tag und Nacht erklärt das Fehlen eines äquatorialen Hotspots in der Atmosphäre

[24] Anmerkungen zum Gegenstrahlungs-Paradoxon aus einem hemisphärischen Blickwinkel

[25] Faktencheck: Drei Modelle für die Temperaturgenese auf unserer Erde

 




„Ruinator“ Habeck – ein Jahr Atomausstieg

Gestern vor einem Jahr wurden die letzten drei gut funktionierenden Kernkraftwerke Deutschlands abgeschaltet. Zuletzt liefen noch drei Kernkraftwerke, die zu den sichersten und erfolgreichsten Anlagen der Welt gehörten. 

Von Holger Douglas

«Da kommen jetzt die Männer mit den Brennjägern, den Eisensägen und den Wasserstrahlschneidern und fangen an, die Rohre auseinander zu schneiden«, so beschreibt Kernkraftwerksspezialist Manfred Haferburg im TE-Wecker am vergangenen Sonntag die Arbeiten in den letzten drei Kraftwerken. »Sie nehmen die perfekt funktionierenden und gepflegten, extrem teuren Pumpen auseinander, um sie zu verschrotten. Sie bauen die schönen, dichtschließenden und wunderbar gepflegten Armaturen aus und das Ganze wird dann klein geschnitten, dekontaminiert und in Schrott verwandelt.«

Es werde alles in Schrott umgewandelt, der Rückbau sei eigentlich nichts weiter als ein intensives Verfahren der Mülltrennung. Neben der ungeheuren Vernichtung von Volksvermögen der milliardenteuren Anlagen wird zusammen mit dem Abschaltwahn der Kohlekraftwerke die Versorgung Deutschlands mit Energie abgewürgt.
Robert Habeck, derzeit Wirtschaft- und »Klima«-Minister, verteidigte wieder und wieder die Entscheidung zur Abschaltung der Kernkraftwerke. SPD, FDP und natürlich Grüne stehen fest hinter »dem Ausstieg«. Sie bejubeln das, was sonst ein richtiger Feind macht, wenn er ein anderes Land angreift: Die Energieversorgung zerstören.

Angezettelt haben – daran muss wieder erinnert werden – den »Atomausstieg« Gerhard »Gas-Gerd« Schröder und der grüne Joseph Fischer bereits ab 2000. Dazu gehörte auch der Grüne Jürgen Trittin, dessen einziges Lebenswerk im Vorantreiben des »Atomausstiegs« und einer »Energiewende« bestand.

Habeck verwies jetzt auf angeblich fallende Strompreise, verriet jedoch nicht, wo er die sieht. Die Preise allerdings kennen nur eine Richtung: nach oben. Die Bilanz für Verbraucher sieht grausam aus. Das Portal Verivox analysiert:
»Doch die steigenden Kosten für den Betrieb der Stromverteilnetze geben der Strompreisentwicklung neuen Auftrieb – zum Jahreswechsel 2023/2024 sind die Stromnetzgebühren im bundesweiten Durchschnitt um rund 25 Prozent angestiegen. Viele Stromversorger werden diese Kosten an ihre Kunden weiterreichen und das Strompreisniveau bleibt nach wie vor hoch.Im Januar 2024 liegt der durchschnittliche Preis für eine Kilowattstunde (kWh) Strom bei rund 37,37 Cent/kWh und gehört damit zu den höchsten weltweit (Quelle: Verivox-Verbraucherpreisindex Strom). Im Jahr 2014 lag der durchschnittliche Preis für eine Kilowattstunde Strom noch bei rund 28 Cent/kWh. Innerhalb von zehn Jahren ist der Preis damit um über 32 Prozent angestiegen.«

Nach wie vor muss die energieintensive Industrie hohe Strompreise bezahlen, mit denen sie nicht wettbewerbsfähig ist. Deswegen legt sie Produktionsanlagen still und verlagert ihre Produktion in andere Länder, in denen die Energie deutlich billiger ist. So fährt Thyssen Krupp seine Stahlproduktion herunter und hat in der vergangenen Woche bereits einen Stellenabbau angekündigt.
Dieser werde auch nachgelagerte Weiterverarbeitungsstufen sowie die Verwaltungs- und Dienstleistungsbereiche betreffen. In der Sparte arbeiten derzeit rund 27.000 Menschen, davon 13.000 in Duisburg.
Als einen Grund für die Schwierigkeiten im Stahlbereich nannte ThyssenKrupp die »hohen und durch klimapolitische Zielsetzungen weiter steigenden Energiekosten in Deutschland«.

Die grüne Wirtschaftsministerin NRWs, Neubaur, sagte zu den Plänen von ThyssenKrupp: „Die Ankündigung der unternehmerischen Entscheidung Thyssen-Krupps, in Duisburg Überkapazitäten und damit wohl Arbeitsplätze abzubauen, ist eine enttäuschende Nachricht – für den Stahlstandort Deutschland und Nordrhein-Westfalen, in erster Linie aber für die vielen Beschäftigten.“ Dennoch müsse – so Neubaur – ThyssenKrupp die sogenannte klimaneutrale Transformation konsequent vorantreiben, um sich auf dem Weltmarkt zukunftsfähig aufzustellen. Neubaur hat nichts dazu gesagt, wie wesentlich teurer produzierter Stahl von ThyssenKrupp auf dem Weltmarkt bestehen soll.
Wenn die Stahlkocher abwandern und dichtmachen, können auch die Verarbeitungsbetriebe zum Beispiel im Siegerland schließen. Denn die sind auf die Lieferungen von Stahl angewiesen.

Nichtsdestotrotz bejubelt der grüne Umweltminister von Niedersachsen, Meyer, wie schnell es im Kernkraftwerk Emsland gelungen ist, verbrannte Erde zu hinterlassen. Der Primärkreislauf sei bereits auseinandergenommen, das Atomkraftwerk kriege auch CDU-Connemann nicht mehr an, so Meyer auf Twitter.

Nervosität zeigen Äußerungen der Bundesumweltministerin Lemke, die wieder einmal betonte, »wir brauchen Atomkraft schlichtweg nicht«. Sie beauftragte grüne Gefolgsleute, in einer »Studie« des Bundesamtes für die Sicherheit der nuklearen Entsorgung (BASE), auch neuen Reaktorkonzepten wie der »Generation IV« Unsicherheit zu bescheinigen. Zugleich eine gute Gelegenheit für Lemke, wieder 250.000 Euro Steuergelder an die »Ihrigen« zu überweisen.

»Ruinator« – so der neue Titel der Printausgabe von Tichys Einblick – Habeck fabuliert wild entschlossen in den Abgrund: »Wir sehen heute, dass die Stromversorgung weiter sicher ist, die Strompreise auch nach dem Atomausstieg gefallen sind und die CO2-Emissionen ebenfalls runtergehen.«
Die Wirklichkeit sieht deutlich anders aus: Lemke verantwortet mit Habeck eine der schlechtesten CO2-Bilanzen. Diese sogenannten CO2-Bilanzen Deutschlands sind auf fast 400 gCO2/kWh angestiegen. Zum Vergleich: Frankreich dagegen wird mit 43 g CO2/kWh angesetzt. Bedeutet: Lemke und Habeck, die das CO2-Argument ja beharrlich strapazieren, befeuern selbst nach Kräften den sogenannten »Klimawandel«, und Umwelt ist gleichgültig.

Alle Warnungen von Experten seien eingetreten, so Carsten Linnemann, Generalsekretär der CDU, Deutschland sei von Stromimporten abhängig geworden.
Deutschland steht mittlerweile auf dem Rang zwei in Sachen Import von Strom. Nur Italien importiert noch mehr. Frankreich ist mit seinen Kernkraftwerken Stromexportland Nummer 1.

Die Stromversorgung sei sicher, so Ruinator Habeck. Die Realität:
Lieferengpässe bei Strom hat jetzt die Stadt Oranienburg in Brandenburg erklärt. Ab sofort können dort keine neuen Stromanschlüsse mehr genehmigt werden. Dies betreffe sowohl neue Wärmepumpen als auch neue Ladesäulen für Elektroautos. Das vorhandene Umspannwerk könne die benötigte Leistung nicht mehr bereitstellen, heißt es in einer Pressemitteilung.

Danach haben die Stadtwerke Oranienburg in der vergangenen Woche die Bundesnetzagentur darüber informiert, dass im vorgelagerten Hochspannungsnetz keine ausreichende Leistung zur Verfügung gestellt werden können. Damit seien die Versorgungsmöglichkeiten in der Stadt Oranienburg ausgeschöpft, so der Geschäftsführer der Stadtwerke, Peter Grabowsky.

Bürgermeister Alexander Laesicke betonte, der Strombedarf habe sich enorm entwickelt, schneller, als es in der Vergangenheit vorausgesehen wurde.
Zum erhöhten Strombedarf habe der Zuzug von sogenannten Neubürgern sowie der verstärkte Einbau von Wärmepumpen geführt.

Sie träumen davon, etwas »Unumkehrbares« geschaffen, also endgültig verbrannte Erde hinterlassen zu haben. Doch natürlich ist auch der »Atomausstieg« umkehrbar. Allerdings muss Deutschland dann die Kraftwerke aus anderen Ländern kaufen ebenso wie die Bedienmannschaften.

Mehrheit der Deutschen hält Atomausstieg für falsch

58 Prozent halten den Ausstieg aus der Kernkraft für falsch, wie eine Umfrage des Meinungsforschungsinstituts Forsa für das „Trendbarometer“ der Sender RTL und ntv zeigt. Im Osten der Republik sind es sogar 78 Prozent.

Nur eine Minderheit der Bundesbürger (39 Prozent) meint, dass dies eine richtige Entscheidung gewesen sei. Mehrheitlich befürwortet wird die Abschaltung der letzten Atomkraftwerke lediglich von den unter 30-Jährigen (51 Prozent), denjenigen, die sich selbst im linken politischen Spektrum verorten (62 Prozent), den Anhängern der SPD (55 Prozent) und insbesondere den Anhängern der Grünen (83 Prozent).

Fast die Hälfte aller Bundesbürger (45 Prozent) ist der Meinung, dass man eines oder mehrere der abgeschalteten Atomkraftwerke in Deutschland wieder in Betrieb nehmen solle. Ein Viertel aller Bundesbürger (24 Prozent) und 42 Prozent derer, die den Ausstieg aus der Kernenergie für falsch halten, sind der Meinung, dass man in Deutschland auch neue Atomkraftwerke bauen solle. Unter den AfD-Anhängern sind 63 Prozent der Meinung, es braucht neue Atomkraftwerke. Bei den FDP-Anhängern sind es 38 Prozent.

37 Prozent der Bundesbürger glauben, dass durch die Abschaltung der letzten Atomkraftwerke die Stromversorgung in Deutschland gefährdet wird. 60 Prozent glauben das nicht.

Das Meinungsforschungsinstitut Forsa hat für RTL/ntv am 11. und 12. April 2024 1.001 Personen befragt.

Der Beitrag erschien zuerst bei TE hier