Karlsruher Klimaurteil: Ohne Schlüssel Im Panikroom!

Im Inneren verbergen sich Räume für sogenannte Adventuregames. Und die funktionieren so: Eine Gruppe von (meist jüngeren) Leuten wird in einem Raum eingeschlossen und muss anhand versteckter, in allerlei Rätsel verpackter Hinweise versuchen, wieder herauszukommen. Dabei wird die Gruppe von einem Spielleiter mittels einer Kamera beobachtet. Wenn etwas schief läuft oder die Gruppe nicht weiterkommt, greift der Spielleiter ein. Solche Spiele dienen häufig dem, neudeutsch, Teambuilding und werden von manchen Firmen als, neudeutsch, Incentives, sprich Ansporn, für ihre Mitarbeiter gebucht. Oder auch mal von einer Geburtstagsgesellschaft.

Solch ein Escape-Game hat nun das Bundesverfassungsgericht für die deutsche Bevölkerung ersonnen. Mit seinem jüngsten Urteil zum Klimaschutz, einem schon heute historischen Rechtsakt, haben die Richter des Ersten Senats unter Verfassungsgerichtspräsident Stephan Harbarth, einem langjährigen, treuen Gefolgsmann der Klimakanzlerin, alle Bürgerinnen und Bürger des Landes in einen Panic-Room eingesperrt, aus dem es kein Entrinnen mehr gibt. Denn den Schlüssel, wie man aus diesem Raum entkommen könnte, hat das Gericht weggeworfen. Und von außen ist keine Hilfe zu erwarten, denn der Europäische Gerichtshof, die einzige in Frage kommende Instanz, dürfte den Kollegen aus Karlsruhe kaum in die Parade fahren, selbst wenn es denn angerufen würde, von wem auch immer.

Der Beschluss, mit dem die Verfassungsrichter der von Klimaforschern, Umwelt-NGOs und FFF-Aktivisten entfachten Klimahysterie den Stempel höchstrichterlicher Wahrheit und Weisheit aufgedrückt haben, ist nicht nur in den Mainstreammedien gefeiert worden, sondern auch von der Politik. Markus Söder hat bereits angekündigt, aufgrund des Urteils die „Klimaziele“ in seinem Bayernland deutlich zu verschärfen. Und die Bundesregierung, die in dem betreffenden Verfahren zwar nicht rechtlich, wohl aber der Sache nach die Rolle der Beklagten zukam, freute sich in Gestalt von Wirtschaftsminister Peter Altmaier und Umweltministerin Svenja Schulze ebenfalls prächtig über die grüne Klatsche aus Karlsruhe.

„Spiel über Bande“

Das abgekartete Spiel läuft prächtig: Regierungen und Parlamente verabschieden Gesetze und Verordnungen, die, wie es in einer Demokratie üblich ist, einen Kompromiss darstellen. Sie werden dann von demokratisch nicht oder nur schwach legitimierten NGOs, die zum Teil sogar von der Regierung mitfinanziert werden, als zu lasch entlarvt und und via Klage von willigen Richtern verworfen, um dann ihre endgültige, weitaus schärfere Gestalt zu erhalten mit Zielen, die auf demokratisch-parlamentarischem Weg nicht zu erreichen waren. Politisch sind Regierende und Parteien bei diesem „Spiel über Bande“ aus dem Schneider, weil sie sich immer darauf berufen können, ja nur juristischem Ratschluss gefolgt zu sein. Ähnlich funktionierte lange auch der Trick, sich hinter Gutachten von „namhaften“ Unternehmensberatungen zu verschanzen. Doch deren Dienste sind teuer. NGOs erledigen das fast zum Nulltarif.

Wenn man den 110 Seiten lange Karlsruher Beschluss vom 24. März 2021 liest, kann man sich des Eindrucks nicht erwehren, dass sich die Richter des Ersten Senats, oder besser gesagt, ihr Stab wissenschaftlicher Mitarbeiter, großzügig aus den Schriftsätzen der Kläger, darunter Luisa Neubauer (Fridays for Future), der Energiewende-Professor Volker Quaschning sowie Josef Göppel, das einstige „Öko-Gewissen der CSU“, bedient haben. Selbst die erst in jüngster Zeit in die Welt gesetzte Panikvokabel der „Klimakrise“ (statt „Klimawandel) taucht mehrfach in dem Dokument auf.

Gerne würde man mittels einer Plagiatserkennungssoftware den höchstrichterlichen Spruch und die Schriftsätze der Kläger einmal miteinander vergleichen und prüfen, ob dieser in seinem nüchtern mit „Sachbericht“ über die „Tatsächlichen Grundlagen des Klimawandels“ überschriebenen Abschnitt einfach nur die Schriftsätze und deren Quellen übernommen oder sich eigenständig unter Berücksichtigung auch anderer Stimmen mit dem Phänomen globaler klimatischer Veränderungen auseinandergesetzt hat. Viele auch unter Klimaforschern zum Teil umstrittene Theorien wie Schellnhubers „Kippunkte“-Konstrukt fanden jedenfalls kritiklos Eingang in den Beschluss. Darauf wies bereits Fritz Vahrenholt in einem Achgut.com-Beitrag hin.

Nun sagt das Gericht zwar noch im Ausgangspunkt, „ob und auf welche Höhe die CO2-Konzentration in der Erdatmosphäre und der Temperaturanstieg zu begrenzen“ seien, sei eine „klimapolitische Frage“, die „nicht durch die Naturwissenschaften zu beantworten“ sei. Wer jetzt denkt, dass es ausreiche, wenn überhaupt nur weitere CO2 Einsparungen erreicht werden, was das Gericht noch vor wenigen Jahren lediglich als verfassungsrechtlich geboten betrachtet hat, wird jedoch überrascht: „Klimaneutralität“ hat nun zu sein, was das Grundgesetz als das einzig klimapolitisch legitime Ziel anerkennt. Hier ist man erstaunt deshalb, weil es den Begriff „Klimaneutralität“ im Jahre 1994 noch gar nicht gab, als der vom Gericht für seine Forderungen bemühte Artikel 20a überhaupt erst in die Verfassung eingefügt wurde. Hätte es ihn gegeben, wäre er jedoch mit Sicherheit nicht zum Ziel der Norm statuiert worden.

Künftige Regierungen klimapolitisch entmachtet

In der Gemeinsamen Verfassungskommission bestand damals Einigkeit, dass der „Schutz der natürlichen Lebensgrundlagen“ nicht anderen Verfassungsnormen und anderen Staatszielen übergeordnet wird, sondern „in Ausgleich mit anderen Verfassungsrechtsgütern und -prinzipien zu bringen“ ist. Von einem Schutz des „Klimas“ steht in dem besagten Artikel zudem übrigens nichts, und dass es zwischen Umwelt- und Klimaschutz schon gegenwärtig zu massiven Konflikten kommt, erwähnt das Gericht in seinem – ja nicht an mangelnder Ausführlichkeit leidendem – Urteil mit keinem Wort.

Der dem Gesetzgeber zugebilligte „erhebliche“ Entscheidungsspielraum besteht nun darin, das von den Klimaaktivisten geforderte, noch schärfere 1,5 Grad-Ziel zumindest aktuell nicht verfolgen zu müssen, sondern es „derzeit“ bei dem Paris-Ziel von „deutlich unter 2 Grad möglichst 1,5 Grad“ belassen zu dürfen. Da es aber das Paris-Ziel auf jeden Fall sein muss, ist einer künftigen Bundesregierung das Recht genommen, sich auch ein anderes, weniger „ambitioniertes“ Klima-Ziel zu setzen und dafür das Paris-Abkommen zu kündigen. Genauso ist es einer anderen parlamentarischen Mehrheit verwehrt, wenn die Bundesregierung das Paris-Abkommen aus irgendeinem Grund nicht kündigen will, das Heft des Handelns selbst in die Hand zu nehmen und das Abkommen mit einem gegenläufigen Gesetz einfach zu überschreiben.

Dabei wäre dies ein Vorgehen, Amerikaner sprechen plastisch von einem „treaty override“, einem Überfahren des Vertrages, das der Zweite Senat des Bundesverfassungsgerichts – zum Entsetzen der deutschen Völkerrechtler – jüngst in einem anderen Fall ausdrücklich als verfassungsrechtlich zulässig angesehen hat: Demokratie ist Macht auf Zeit, und ein neuer Bundestag ist so nicht an völkerrechtliche Verträge gebunden, denen ein anderer Bundestag zugestimmt hat. Mit seiner Erklärung des Paris-Ziels für verfassungsrechtlich zwingend hat Erste Senat diesen Ausweg versperrt.

Noch apokalyptischere Szenarien herbeimodellieren

Aber es geht weiter. In Ziffer 212 verpflichtet das Gericht den Gesetzgeber sogar mit einer Art Ewigkeitsklausel unter Bezugnahme auf seine Rechtsprechung zum Schutz der Bevölkerung vor Gefahren, die von Atomkaftwerken des Typs „Schneller Brüter“ ausgingen, das Umweltrecht immer auf dem neuesten Stand der Wissenschaft zu halten. „Neue hinreichend gesicherte Erkenntnisse über die Entwicklung der anthropogenen Erderwärmung oder deren Folgen und ihre Beherrschbarkeit könnten (…) eine andere Zielfestlegung (…) erforderlich machen.“

Dieser Satz kann als Aufforderung an die Klimaforschergilde verstanden werden, immer noch apokalyptischere Szenarien gewissermaßen herbei zu modellieren. Legt sie in einigen Jahren neue Klima-Modelle mit einem niedrigeren „Kipp-Punkt“ vor, hätte die Politik diese dann zeitnah und gewissenhaft umzusetzen. So würde der Druck im Panic-Room noch erhöht.

Das Gericht jedenfalls würde sein Plazet für auf solchen Szenarien basierende „erhebliche Freiheitseinbußen“ nicht verweigern. Dabei gehört der Generationen übergreifende Ansatz, wonach unter dem Gebot der Verhältnismäßigkeit „nicht einer Generation zugestanden werden darf, unter vergleichsweise milder Reduktionslast große Teile des CO2-Budgets zu verbrauchen, wenn damit zugleich den nachfolgenden Generationen eine radikale Reduktionslast überlassen und deren Leben schwerwiegenden Freiheitseinbußen ausgesetzt würde“, noch zu den – in sich – plausibleren Schussfolgerungen der Richter. Zumindest dann, wenn man den aktuellen und künftigen Horroszenarios von Klimaforschern und Umweltaktivisten folgt.

In der Debatte um die richtige Corona-Politik hat sich im Laufe der Zeit indes zunehmend die Erkenntnis durchgesetzt, dass die Politik die Modelle von Epidemiologen nicht einfach nur umzusetzen, sondern eine eigenständige Abwägung des Gesundheitsschutzes mit anderen Belangen vorzunehmen hat. So setzte ein Umdenken über das Verhältnis von Wissenschaft und Politik spätestens ein, Klimawissenschaftler würden von einem „Kipp-Punkt“ sprechen, als die Leopoldina in ihrer „Ad-Hoc-Stellungnahme zur Corona Pandemie“ im März dieses Jahres einen „harten Lockdown“ für „unbedingt notwendig“ erklärte und die Politik schlicht meinte, hieran nun gebunden zu sein.

Neue Abgaben, verharmlosend als „Bepreisung“ geframt

Wenn man jetzt denkt, der deutsche Staat könnte seine Klimaziele wenigstens auch dadurch erreichen, dass er CO2-Emissionen nicht reduziert, sondern etwa durch weitflächige Aufforstungen der Erdatmosphäre entzieht, wird man auch hier enttäuscht, denn das Gericht hat dem vorsorglich gleich im Eingangsteil seines Urteils eine Abfuhr erteilt. Es subsumiert den Umbau der Wälder genauso wie die Erhöhung von Deichen und den Hochwasserschutz unter „Anpassungsmaßnahmen“, die es nicht als „Strategie zur Begrenzung des Klimawandels“ anerkennt. Der seinerzeit von Trump vorgeschlagene Plan, Billionen von Bäumen zu pflanzen, um den Klimawandel aufzuhalten, kann folglich ebenso nicht beschritten werden. Es gibt kein Entkommen.

Damit bleibt dem Bundestag nur darüber zu entscheiden, „dass und welche Produkte, Dienstleistungen, Infrastruktur-, Verwaltungs- und Kultureinrichtungen, Konsumgewohnheiten oder sonstigen heute noch CO2-relevanten Strukturen schon bald erheblich umzugestalten sind“. Neben direkten Verboten und einer zu Lasten kommender Generationen gehenden Ausweitung der Staatsverschuldung wird es hier vor allem um die Erhöhung bestehender und die Einführung neuer Abgaben gehen, von den Akteuren verharmlosend als „Bepreisung“ geframt.

So wird als erster Schritt etwa eine Anhebung des Preises von einer Tonne CO2 von 25  auf 60 Euro gefordert, was bei einem Jahresverbrauch von 8,4 Tonnen pro Einwohner eine Mehrbelastung von 280 Euro für jeden bedeutet. Damit dürften bislang als völlig normal angesehene Handlungsmöglichkeiten für einen großen Teil der Bevölkerung über eher kurz als lang unerschwinglich werden. Wenn man sich hier einmal auf das Feld der Klima-Prognostiker begeben und eine Vorhersage abgeben darf, liegt so ein ganz anderer Temperaturanstieg nahe: Da nach der Logik des Gerichts auf die Akzeptanz von Grundrechtseingriffen zugunsten des Klimaschutzes keine Rücksicht mehr genommen werden kann, dürfte in einer Gesellschaft, in der nicht mehr nur bei Luxusgütern, sondern bereits im Alltäglichen „Freiheit nach Zahlungsfähigkeit“ vergeben ist, die Temperatur merklich steigen.

Die „Grenzen der Belastbarkeit“ werden dieses Mal also auf ganz andere Weise getestet. Das Gericht hat sich mit diesem Urteil erstmals in großer Deutlichkeit als politisches Gericht geoutet, dessen Mitglieder sich weniger dem Gebot richterlicher Zurückhaltung verpflichtet fühlen und so dem politischen Prozess Luft zum Atmen zu lassen, sondern einer Agenda folgen. Damit droht die lange Zeit zu Recht hoch angesehen Institution ihren Ruf zu verspielen …

 

Dieser Text entstand in Zusammenarbeit mit einem angesehenen Staatsrechtler, der an einer deutschen Universität lehrt und forscht. 

Der Beitrag erschien zuerst bei ACHGUT hier

 

 




Die Klimaschau von Sebastian Lüning: Fluß-Hochwässer haben in den letzten 50 Jahren global abgenommen




Warum „Grüne Energie“ keine „saubere Energie“ ist – und schon gar nicht fossile Treibstoffe ersetzen kann

Aber jetzt hat Präsident Biden seine eigene Version. Er kündigte im März seinen „Energy Efficiency and Clean Electricity Standard“ an. Die Washington Post berichtete, er würde „im Turbo-Gang den Übergang des Landes weg von fossilen Treibstoffen auf den Weg bringen, mit den enormen Ressourcen der US-Bundesregierung, um in Strommärkte eingreifen. Er würde den Ausbau von Wind und Solar fördern, ebenso wie technologische Durchbrüche in saubere Energie“.

Dies wird uns angeblich vor dem bewahren, was Biden die „existenzielle Bedrohung“ des Klimawandels nennt.

Wetten Sie nicht darauf. Bereits im Januar sagte Bidens eigener „Sonderbeauftragter des Präsidenten für das Klima“, der ehemalige Senator John Kerry: „Wir könnten morgen auf Null [Kohlendioxid-Emissionen] gehen und das Problem ist nicht gelöst.“ Ende April sagte er das Gleiche – nur noch mehr: „Wenn China morgen zusammen mit den Vereinigten Staaten auf Null gehen würde, hätten wir immer noch ein Problem.“

Lassen wir einmal beiseite, ob der Klimawandel eine existenzielle Bedrohung ist. Lassen Sie uns einfach diese Frage beantworten: Ist die „saubere Energie“, die Bidens Plan fördert, wirklich sauber? Ist sie besser für Mensch und Umwelt als die Energie, die sie ersetzen soll?

Um das zu beantworten, müssen wir zunächst definieren, was in dieser Diskussion mit „sauber“ gemeint ist, und dann müssen wir fragen, wie gut „grüne Energie“ diese Definition erfüllt.

„Saubere Energie“ bedeutete früher Energie, deren Produktion unsere Luft und unser Wasser nicht mit giftigen Dämpfen, giftigen Flüssigkeiten und Ruß füllte. Vom späten 19. bis zur Mitte des 20. Jahrhunderts waren solche Emissionen, vor allem aus Kohlekraftwerken, ein ernsthaftes Problem – obwohl der Schaden, den sie der Gesundheit der Amerikaner zufügten, durch die Vorteile, die die Energie für den Rest unserer Wirtschaft brachte, mehr als ausgeglichen wurde, wie unsere stetig steigende Lebenserwartung beweist.

Seitdem haben bessere Verfahren diese Emissionen so weit reduziert, dass sie kaum noch ein Risiko für unsere Gesundheit darstellen. Man würde es aus den Medienberichten über die amerikanische Luftqualität nicht vermuten, aber sie hat sich seit über fünfzig Jahren verbessert.

Vor dreißig Jahren konnte ich in meinem Buch Prospects for Growth: A Biblical View of Population, Resources, and the Future schreiben:

„Von 1976 bis 1986 sanken die durchschnittlichen Kohlenmonoxidwerte an den Messstationen um 36 Prozent, die Ozonwerte um 20 Prozent, die Schwefeldioxidwerte um 40 Prozent, die Gesamt-Schwebstaubwerte um 24 Prozent, die Stickstoffdioxidwerte um 11 Prozent und die Bleiwerte um 80 Prozent.“

Diese Trends haben sich fortgesetzt. Die EPA berichtete letztes Jahr: „Zwischen 1970 und 2019 sind die kombinierten Emissionen von Kriterien und Vorläuferschadstoffen um 77 Prozent gesunken, während die US-Wirtschaft um 285 Prozent gewachsen ist.“

Nun, Bidens Plan konzentriert sich in erster Linie nicht auf solche traditionell verstandenen Schadstoffe, sondern auf Kohlendioxid, weil es angeblich eine katastrophale globale Erwärmung verursacht. Energiequellen, die das angeblich eindämmen, sind „sauber“. Diejenigen, die das nicht tun, sind es nicht.

Das bedeutet, Kohlendioxid als Schadstoff zu behandeln. Ist es aber nicht. Es ist ein geruchloses, farbloses Gas, ungiftig bei über 20-facher Konzentration in der Erdatmosphäre und essentiell für die Photosynthese und damit für alles Leben.

Trotzdem will Biden Energiequellen, die weniger Kohlendioxid (CO2) in die Atmosphäre abgeben, als „sauber“ bezeichnen. Für alle praktischen Zwecke sind das Windturbinen und Sonnenkollektoren. Wie „sauber“ sind diese also – nach der alten oder der neuen Definition? Und werden sie wirklich einen signifikanten Unterschied in der globalen Erwärmung machen?

Nein. Warum?

Der erste Grund ist einfach. Erinnern Sie sich daran, was Kerry sagte: Sie könnten morgen alle amerikanischen und chinesischen CO2-Emissionen eliminieren und das Problem wäre nicht gelöst. Wenn wir in Amerika fossile Brennstoffe durch Wind- und Solarenergie ersetzen würden, würde das nicht alle unsere Emissionen eliminieren.

Also wird es das Problem nicht lösen.

Aber wir sollten hier nicht aufhören. Die Herstellung von Windturbinen und Solarmodulen erfordert große Mengen an Bergbau, Transport und Verarbeitung von Mineralien und deren Verarbeitung zu Endprodukten – und fast alles davon muss mit Energie aus fossilen Brennstoffen erfolgen.

In Mines, Minerals, and „Green“ Energy: A Reality Check erklärt Mark P. Mills, warum Wind- und Solarenergie einfach nicht so „grün“ oder „sauber“ sind, wie ihre Befürworter denken.
Und warum? Dafür gibt es mehrere Gründe.

Erstens erfordert die Herstellung von Windturbinen und Solaranlagen sowie der Batterien, die benötigt werden, um den Strom für Elektrofahrzeuge zu speichern, oder wenn der Wind nicht weht und die Sonne nicht scheint, den Abbau, die Bewegung und die Veredelung riesiger Mengen an Erde – weit mehr als für die Gewinnung der gleichen Energiemenge aus Kohle, Öl und Erdgas erforderlich ist.

Mills zeigt:

„Der Bau von Windturbinen und Sonnenkollektoren zur Stromerzeugung sowie von Batterien für Elektrofahrzeuge erfordert im Durchschnitt mehr als die zehnfache Menge an Materialien im Vergleich zum Bau von Maschinen, die Kohlenwasserstoffe [fossile Brennstoffe] verwenden, um die gleiche Energiemenge an die Gesellschaft zu liefern. … eine einzige Elektroauto-Batterie mit einem Gewicht von 1.000 Pfund erfordert die Gewinnung und Verarbeitung von etwa 500.000 Pfund an Materialien.“

Das sind 5 Pfund Erde für jede Meile, die das Auto in seinem Leben zurücklegt – etwa 25 Mal so viel wie für einen Verbrennungsmotor benötigt wird.

Er weist auch darauf hin, dass „Erdöl, Erdgas und Kohle benötigt werden, um den Beton, den Stahl, die Kunststoffe und die gereinigten Mineralien herzustellen, die für den Bau grüner Maschinen verwendet werden. Das Energie-Äquivalent von 100 Barrel Öl wird in den Prozessen zur Herstellung einer einzigen Batterie verwendet, die das Äquivalent von einem Barrel Öl speichern kann.“

Hinzu kommt, dass die meisten der benötigten Geräte – die riesigen Bagger, Lastwagen und andere gigantische Maschinen – mit Diesel laufen müssen, der aus Erdöl hergestellt wird. Sie sind einfach zu groß und schwer, um effizient von Batterien angetrieben zu werden.

Zweitens wird die überwiegende Mehrheit der Seltenen Erden, die in Windturbinen und Solarpanels verwendet werden, in zwei Ländern abgebaut und veredelt: China und der Demokratischen Republik Kongo. Dort sind Frauen und Kinder, die in Sklavenarbeit arbeiten, tödlichen Gefahren ausgesetzt, und die Prozesse führen zu großen Emissionen giftiger Chemikalien, die sowohl die Umwelt als auch die umliegende Bevölkerung schädigen.

Hinzu kommt, wie Robert A. Hefner V. von Hefner.Energy erklärt, das nationale Sicherheitsrisiko, das die Vereinigten Staaten in Bezug auf immer größere Mengen an Energie vom kommunistischen China abhängig macht. Inwiefern?

1. Five of the world’s top-10 wind turbine manufacturers are Chinese-owned or operated.

2. Nine of the world’s top-10 solar panel manufacturers are Chinese-owned or operated.

3. More than two-thirds of the world’s solar panels and one-half of wind turbines are produced in China.

4. In 1954, the United States was 100% dependent on imports for eight minerals listed in the Strategic Minerals Act of 1939; today, the United States is 100% reliant for 17 strategic minerals and depends on imports for over 50% of 28 widely used minerals. China is a significant source for half of those 28 minerals.

5. China is responsible for 37% of passenger electric vehicles and 99% of e-buses sold globally since 2011.

6. China controls 90% of the battery industry’s cobalt supply chain.

Drittens ist da das Entsorgungsproblem. Ausgediente Windturbinen, Solarpaneele und Batterien enden als enorme Mengen an nicht recycelbarem Abfall, von denen viele giftig sind. „Bis 2050“, schreibt Mills, „… wird die Menge an ausgedienten Solarmodulen … die doppelte Menge des gesamten heutigen globalen Plastikmülls ausmachen, zusammen mit über 3 Millionen Tonnen nicht recycelbaren Kunststoffen aus ausgedienten Windturbinenflügeln pro Jahr. Bis 2030 werden mehr als 10 Millionen Tonnen pro Jahr an Batterien zu Müll werden.“

Es gibt ein weiteres Problem mit Wind- und Solarenergie. Da sie von vergleichsweise geringen Energiequellen ausgehen (fossile Brennstoffe enthalten hundertmal mehr Energie pro Volumen als Wind und Sonnenlicht) und unstetig sind (sie erfordern ein Backup durch fossile oder nukleare Brennstoffe, wenn der Wind nicht weht oder die Sonne nicht scheint), erhöhen sie die Kosten für Energie. Da wir für alles, was wir nutzen, Energie benötigen, erhöht dies die Lebenshaltungskosten für alle, was vor allem den Armen schadet. Als Deutschland eine intensive Politik verfolgte, um fossile Brennstoffe durch Wind- und Solarenergie zu ersetzen, haben sich seine Stromkosten mehr als verdoppelt. Diese Erfahrung ist typisch.

Das ist an sich schon schlimm genug, aber es ist nicht unser Schwerpunkt. Unser Schwerpunkt liegt darauf, ob „grüne Energie“ „saubere Energie“ ist. Aber dieser wirtschaftliche Effekt hat Auswirkungen darauf.

Inwiefern? Eine saubere, gesunde, schöne Umwelt ist ein kostspieliges Gut. Wohlhabendere Menschen können sich teurere Güter leisten als ärmere Menschen. Wenn wir die Energiepreise erhöhen, verlangsamen, stoppen oder kehren wir den Aufstieg aus der Armut für die 2 Milliarden oder mehr Menschen auf der Welt, die noch darunter leiden, um. Wir schränken auch ein, wie viel Menschen in bereits entwickelten Ländern es sich leisten können, für andere Dinge als Energie auszugeben. Zusammengenommen bedeutet dies, dass wir die Sauberkeit der Umwelt weniger erschwinglich machen – und folglich weniger verbreitet.

Ein letztes Problem mit Wind und Sonne als Hauptenergiequellen? Man kann aus ihnen keine flüssigen Transportkraftstoffe herstellen. Sie können nur Strom erzeugen. Um die gesamte Elektrizität zu ersetzen, die wir heute aus fossilen Brennstoffen beziehen, müssten wir die gesamten Vereinigten Staaten östlich des Mississippi mit Windturbinen bedecken. Wenn wir unsere Fahrzeuge mit Elektrofahrzeugen umrüsten würden, bräuchten wir so viel mehr Strom, dass Windturbinen das gesamte restliche Land vom Mississippi bis zum Pazifik abdecken müssten. Ähnlich sieht es bei der Solarenergie aus. Das wäre sowohl ökologisch als auch ökonomisch verheerend. Kurz gesagt, Wind- und Solarenergie sind weder „grün“ (gut für die Umwelt) noch „sauber“ (effektiv, um die globale Erwärmung einzudämmen – als ob das wirklich notwendig wäre – oder traditionelle Schadstoffe zu reduzieren).

Link: https://cornwallalliance.org/2021/05/why-green-energy-isnt-clean-energy-or-a-good-substitute-for-fossil-fuels/

Übersetzt von Chris Frey EIKE

 




Die Treibhaushypo­these der Klima­wissenschaft, der Strahlungs­verteilungsfaktor ½ und Speicher­wirkung vom Tag in die Nacht

Die Treibhaushypothese:

Um den Strahlungshaushalt der Erde zu erklären, entwickelte Bruce Barkstorm eine aus Satellitenmesswerten abgeleitete Modellhypothese 1 einer atmosphärischen Gegenstrahlung von 327 W/m². Diese Strahlung, auch als Backradiation bezeichnet, soll in seiner Vorstellung aus der Atmosphäre in Richtung Erdoberfläche wirken. Sie wäre damit der langwelligen Abstrahlung der Erdoberfläche entgegen gerichtet. B. Barkstorm war in den 1980ger Jahren der Chefingenieur beim Bau des Satelliten ERBS, ein Teil des NASA ERBE-Programms. Die Wissenschaftler J. K. Kiehl und K. E. Trenberth übernahmen von Barkstorm 1997 in ihrer Studie „Earth’s Annual Global Mean Energy Budget“ 2 sowohl die Strahlungsverteilung als auch die Treibhaushypothese der Gegenstrahlung. In KT97 beträgt die Gegenstrahlung 3W/m² weniger und damit 324 W/m². Im Unterschied zu Barkstorm verfeinerten Kiehl und Trenberth ihr Erklärungsmuster in der Modellierung um die Zuordnung des Treibhaus- „Effektes“ der Gegenstrahlung auf einzelne unsymmetrische, atmosphärische Gase.

In der Modellhypothese KT97 verbleiben aus der gesamten, direkten Sonnenwirkung von 1367W/m2 (TSI) im rechnerischen Mittel lediglich 66 W/m² als wärmewirksamer, langwelliger Abstrahlungsanteil (LW) für die Erde übrig. Die Summe von erwärmender Sonnenwirkung als langwellige Abstrahlung von 66 W/m² (17%) und atmosphärische Gegenstrahlung 324 W/m² (83%) sollen so gemeinsam die durchschnittliche mittlere Globaltemperatur der Erde von ca. 15 °C mit 390 W/m² (100%) bei dieser Hypothese bilden, FIG.7. rechts. 83% entsprechen einer erwärmenden Wirkung von < 1% der im Molekülaufbau unsymmetrischen, atmosphärischen Gase (Wasserdampf, Kohlendioxid, Methan, Distickstoffoxid, Ozon,..). Die solare Einstrahlung von 1367 W/m² auf die Kreisfläche (r² π) projiziert, mit r = Erdradius, entspricht dem Durchschnittswert einer Abstrahlung von rund 342 W/m² (1367 W/m² / 4) auf der gesamten Erdkugeloberfläche (4 π r²).

Die von der Erdoberfläche in FIG.7 absorbierte Strahlung im Mittel errechnet sich somit zu 168 W/m².

Von der vom Boden absorbierten Strahlung gehen in die Atmosphäre nach Abzug von Latent Heat (verborgene Wärme oder Umwandlungsenthalpie) und Sensible Heat (Konvektion) als langwellige Strahlung 66W/m² (LW).

Diese 66 W/m² sind explizit in der Studie KT97 in TABLE 1 3 erfasst. In der Zeichnung FIG. 7 sind die 66 W/m² grafisch nicht dargestellt. Sie ergeben sich gleichzeitig aus der Subtraktion der Leistungen in W/m² in FIG. 7 „Absorbed by Surface – Back Radiation“ der rechten Bildhälfte oder 390W/m² – 324 W/m² oder:

Damit entsteht der Gegenstrahlungs- „fluss“ immer aus Null, aus dem „Nichts“. Er ist für die energetische „Bilanzierung“ mathematisch „neutral“. Man kann den Rechenvorgang mit einer „Buchung“ assoziieren. Oder für (1) anders ausgedrückt, die Gegenstrahlung kann mathematisch jeden beliebigen Werten annehmen, beliebig variabel oder „fiat flux“.

Extremwert- oder Grenzwertbetrachtung: Der im Modell KT97 mathematisch zulässige Leistungswert der Gegenstrahlung nimmt einen sehr, sehr hohen, einen extremen Wert an. Seine physikalische Bedeutung bleibt.

Die mathematische Zulässigkeit der Modellierung – die Zahlenwerte der Gegenstrahlungshypothese als Leistung in W/m² dürfen beliebig groß werden – hat folgende physikalische Auswirkung: In letzter Konsequenz darf die Modelloberfläche KT97 durch Gegenstrahlung so heiß werden wie die Sonnenoberfläche mit ca. 6000 °C und gleichzeitig strahlt die Modellatmosphäre dennoch mit -19 °C in frostigem Zustand. Dies ist, wie man sofort erkennt, unmöglich, ein interner Widerspruch und deshalb ein schwerer Modellierungsfehler. Wenn die Modellierung einerseits alle Zahlen zulässt, aber für große Zahlen so eindeutig falsch ist, dann muss der gesamte Modellmechanismus KT97 aus Gründen der Logik auch für kleine Zahlen falsch sein. Der physikalische Grund für die falsch ausgeführte Modellierung liegt darin, dass die Energie, als Gegenstrahlungsleistung in W/m² mal Strahlzeit T, im Modell aus dem Nichts kommt und beliebig groß werden kann. Diese Modellierung verstößt auf das Massivste gegen den 1.Hauptsatz der Thermodynamik und ist deshalb nach Ansicht des Autors falsch. Es ist eine der Beliebigkeit unterworfene Hypothese.

Durch ihre „Bilanzneutralität“ und ihre Beliebigkeit war es möglich, die Gegenstrahlung im Nachhinein 2009 nun auf 333 W/m² abzuändern, FIG.I. Trenberth, Fassulo, Kiehl 4. Eine weitere nachträgliche Abänderung erfolgte 2012 bei Norman Loeb 5. Die Gegenstrahlung erreicht jetzt den Wert von 342 W/m². Dies entspricht dem mathematischen Rechenwert der Sonneneinstrahlung bzw. TSI von 1368 auf die Erde in der ¼ Verteilung der Modellhypothese von KT97. Oder anders formuliert die Gegenstrahlung (oder weniger als 1% des atmosphärischen Gasgemisches) strahlt exakt wie eine zweite Sonne im Modell. „Fiat lux“. Ohne „Gegenstrahlungssonne“ kann die mittlere Globaltemperatur nicht erklärt werden.6

Kann man mit die mittlere Globaltemperatur mit einem anderen Modell erklären? Dies ist nach Meinung des Autors möglich durch: 1) Genauere Betrachtung des Strahlungsverteilungsfaktors, der nach „settled theory“ mit ¼ modelliert wird.

Der Strahlungsverteilungsfaktor

Der Strahlungsverteilungsfaktor ist die maßgebliche, die zentrale Steuerungsgröße bei der Modellierung der Leistungsbilanzierung im Energiehaushalt eines Klimamodells. Er bildet die durchschnittliche Einstrahlung ab. Aus Gründen der Logik gilt allgemein: Besteht ein kontinuierlicher Betrachtungshorizont in einem physikalischen Ablauf, wie z.B. bei einem bewegten Objekt über eine Strecke oder über eine Zeitspanne, aus Σ i Intervallen, muss der Durchschnittswert über den Betrachtungshorizont – da es das mathematische Wesensmerkmal oder hervorstechende Kriterium eines Durchschnittswertes ist – in all seinen i Intervallabschnitten oder über alle i gegen unendlich gültig sein. (Trivial Kriterium).

Für ein Klimamodell folgt: Der modellierte Durchschnitt der Einstrahlung aus der Leistung der Sonne in W/m² muss nicht nur in einem Jahr, einem Monat oder an einem Tag gelten, er muss mathematisch auch für jedes T gegen Null gelten. Wir kehren zurück zur Modellierung von B. Barkstorm, Kiehl und Trenberth. Ihre Leistungsbilanz des Strahlungshaushaltes steht stellvertretend für einen Durchschnittsquadratmeter oder eine homogene Modellkugel mit Radius R. Diese hat nur die Durchschnittswerte mit der Erde gemein. Jeder Ortspunkt (Xi,Yi) auf der Modellkugeloberfläche hat identische Eigenschaften. Damit ist in KT97 die Albedo a an jeder Stelle (Xi,Yi) konstant oder a = 0.3129. Für die Stelle des Radius R wird der Erdradius gesetzt:

Die Erdoberfläche beträgt 510.1 Mio. km². Die durchschnittliche Abstrahlung als Leistungseinheit in W/m² auf ihrer gesamten Oberfläche im Betrachtungshorizont jährlich „annual global mean“, im Intervall eines Monats oder im Intervall von 24 Stunden setzt sich zusammen aus: 107 W/m2 (Reflected Solar Radiation) und 235 W/m² (Outgoing Longwave Radiation) = 342W/m², siehe FIG.7.

Die Energie E aus Durchschnittleistung in W/m² der modellierten Einstrahlung eines Jahres, Monats und eines 24 Stunden Erd-Tags wird bei Gleichsetzung der Abstrahlung mit der Einstrahlung die Energie weiterhin im Modell richtig errechnet, aber mathematisch wird die Einstrahlung über den „niedrigenDurchschnitt auf die dunkle Nachtseite mit einbezogen. Hierin liegt die Tücke dieser Modellvorstellung. In den nächsten Intervallstufen, Sekunde und in T gegen Null ist es in auf der Nacht-Hemisphäre der fiktiven, homogenen Modellkugel mathematisch taghell.

Beim Übergang des einzelnen, zeitlichen i- Intervalls von Jahr, Monat, Tag, Sekunde und weiter zu N Intervallen, der Einstrahlung im Augenblick (T gegen Null oder Zeit / N), mit einer Folge von N Intervallen und damit N gegen unendlich für einen 24 Stunden Erdtag als Betrachtungshorizont, kann aber stattdessen formuliert werden:

Für eine stets nur halbseitig beleuchtete Kugel, bezogen auf die doppelt gekrümmte Kugeloberfläche berechnet mit der Integration über Polarkoordinaten, siehe auch Kap. 5.1.2 9. Der Übergang von der nicht rotierenden zur rotierenden Kugel, siehe Anhang 19, führt wieder zu einer Einstrahlung von 684 W/m² (2). Auch diese Modellierungsvariante errechnet die Energie E richtig. Sie entspricht aber jetzt so modelliert der echten Sonneneinstrahlung in T gegen Null, also unserer Beobachtung. Deshalb beträgt die Einstrahlung auf der Hemisphäre einer stets nur halbseitig beleuchteten Kugel im rechnerischen Durchschnitt im Modell 684 W/m². Für den Strahlungsverteilungsfaktor der Einstrahlung bedeutet dies:

Für das infinitesimal kleine Stück der rotierenden Mantelflächenlinie um die Rotationsachse x gilt:

Energie E aus durchschnittlicher, flächenbezogener Leistung, die die Mantelfläche des Rotationskörpers in T(sec) erhält, mit x = 0 als Mittelpunkt. Die Energie in T errechnet sich über Integration entlang der x-Achse über Δx von x = -R bis x = 0, wenn in T stets nur eine halbe Kugel als Rotationskörper um x und Beleuchtung in x-Richtung erhält.

Mit einem Erdradius R von 6.378 Km dreht sich in jeder Sekunde die Erde um 1/86400 eines 24-h-Tages ein Stück weiter. Oder 86.400 Energieportionen einer Sekunde erhält die Erde in 24 Stunden oder:

E = 684 W/m² 2 x (6.378.124 m)² π 86400 sec = 1.51 1022 Wsec = 1.51 1022 J = 1368 W/m²π in 24 h

Die Integration über die Formulierung kartesischer Koordinaten zeigt die Parallelität der Einstrahlungsleistung L von 684 W/m² zur globalen x-Richtung und der stets nur halbseitig beleuchteten Mantelfläche der Kugel als Rotationskörper um die globale x-Richtung. Die Formulierung in Polarkoordinaten, die das identische Ergebnis liefern muss, zeigt dagegen das Wirken von 684 W/m² Einstrahlleistung auf eine stets doppelt gekrümmte Oberfläche, S.83 und S.176 -177. 9 Beide Rechenwege liefern das identische Ergebnis von 1.51 1022 J Energie aus Sonne unter stets halbseitiger Beleuchtung der in 24 h einmal rotierenden Erde liefern. Damit ist der Strahlungsverteilungsfaktor ¼ falsch und ½ richtig. Was es bedeuten kann, einen falschen Verteilungsfaktor in einer Netzmodellierung zu benutzen, siehe Kap. 5.17 9.

2) Genauere Betrachtung der Satellitenmesswerte: In der Rezeption von KT97 werden die Werte wattgenau benutzt. KT97 bezieht sich in S.199 auf die ERBE Datensätze „ …, we use the ERBE outgoing longwave flux of 235 W/m²…“ [Hervorhebungen hinzugefügt]. Es wird darauf hingewiesen, dass dieser olf für die einzelnen Satelliten ERBS, NOAA-9, NOAA-10 (ERBE) vorsichtig formuliert nicht 235 W/m² beträgt. Der Unterschied zwischen dem ERBE-Datensatz 1985-1989 z.B. (ERBS min. 242.3 – max. 243.5 W/m² nach CEDA) und der in KT97 modellierten Strahlungsgröße olf macht hier bereits 7 W/m² aus, weitere Abweichungen siehe auch Kap 4.1.1.bis 4.1.6 9. In KT97 wird auf S.206 erklärt: „The purpose of this paper is not so much to present definite values,…“. Die Qualität der Datensätze ist beim Satelliten ERBS am höchsten (Begründung: Kap. 2.3 bis 2.6 9). Mit diesen kann ein neues Modell formuliert werden (Kap 5 9). Bei den Datensätzen des ERBS Satelliten gibt es spezielle Net– Werte (siehe die weiter hinten im Text grün abgebildete Werte mit Verweis auf GLOBAL MEAN OF nach CEDA, Centre for Environmental Data Analysis, Oxford, England). Das folgende Beispiel eines Datensatzes der Quelle CEDA 7, gemeint ist die Zahlenkolonne nach Mean1987, verdeutlicht dies in a) bis c) als ein Beispiel zur Interpretation der Net– Strahlungen:

a) Net-Strahlungen unter Berücksichtigung des negativen Vorzeichens, gemäß der Datenübermittlung von ERBS:

Net Cloud Forcing -20.25 + Net Radiation 20.19 = 0 Clear-Sky Net Radiation (40.44). Es gibt keine Übereinstimmung. Alternativ ohne Berücksichtigung des Vorzeichens und damit als mathematischer Betrag:

Net Cloud Forcing |-20.25 | + Net Radiation |20.19| = 40.44 = Clear-Sky Net Radiation (40.44). Es gibt eine Übereinstimmung. Wenn man die drei Net-Strahlungen berücksichtigt, erscheint es sinnvoll, sie als mathematische Beträge von Leistungen zu interpretieren.

b) Unabhängig von einer Datenübermittlung mit Vorzeichen oder ohne Vorzeichen als Betrag ist:

Clear-Sky Net Radiation |40.44 | + Clear Sky Shortwave Radiation |52.52 | = 92.96 Shortwave Radiation 97.21. Dies ist halbwegs eine Übereinstimmung von mathematischer Summe zum Messwert und bei Betrachtung der Datensätze eher selten.

c) TSI/4 – (shortwave rad.) – (longwave rad.) = (net rad.) 20.19 oder 1368/4 – |97.21 | -|245.13 | = – 0.34

– 0.34 ungleich 20.19 (net rad.). Es gibt keine Übereinstimmung der mathematischen Differenz zum Net-Messwert. Wäre die Net-Radiation lediglich eine Strahlungsdifferenz und kein eigener Messwert, müsste der Messwert hier ebenfalls 0 sein. Das ist nicht der Fall. Damit ist diese Net-Radiation ein eigener Messwert. Wenn sie ein eigener Messwert ist, sind aus Gründen der Logik, alle drei Typen der übermittelten Net– Radiations Messwerte (weitere Beispiele und Begründungen, siehe Kap. 5.4.2 bis 5.4.5, 5.12 und S.187 -190 9 ).

Unabhängig von dieser Begründung wurden für die Modellierung trotzdem beide Varianten untersucht. Die Net- Werte wurden zu Null gesetzt und unberücksichtigt gelassen und im anderen Fall als gemessene Strahlung verstanden. In der jeweiligen Modellierung unterscheiden sich dann lediglich die Größen von SH, LH und Satm (Kap. 5.4.2 9). Die Wärme des Tages wirkt in beiden Varianten über Speichereffekte in die Nacht (Kap. 5.4.3 9). Die ERBS Messwerte zeigen für beide Fälle, es bildet sich eine mittlere Globaltemperatur mit rund 15 °C ohne Treibhaushypothese durch unsymmetrische atmosphärische Moleküle aus. Fasst man die NetWerte als Messwerte auf, lässt sich ein Modell 5 formulieren, welches alle Messreihen widerspruchsfrei abbildet. Die Modellabweichung dieses Modell ist < = 2 W/m² zu der vom Satelliten erst einzeln gemessenen, danach gemittelten Strahlung oder macht weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung aus (4.8 = 2.0 W/m²/414.5 x 1.000). Exakte Ableitung des Gegenmodels (Modell 5) zu KT97 (siehe Kap. 5.3f 9 ).

Die durchschnittliche, mittlere stets halbseitige Einstrahlungsleitung des Modell 5 (siehe cloudy sky und clear sky), jährlich (annual), monatlich, in 24 h oder in T gegen Null betrug über Integration über Polarkoordinaten, wie die kartesische Berechnung 684 W/m². 684 W/m² sind auf die gekrümmte Oberfläche bezogen (siehe Kap. 5.1.2, S.83 9). 1368 sind auf den ebenen Einstrahlkreis bezogen. Messwerte des ERBS Satelliten 1985 bis 1989 im 5- jährigen Mittel nach CEDA:

Die römischen Zahlen entsprechen den horizontalen Ebenen der Atmosphäre in Bild 2 und bilden eine stehende halbseitig beleuchtete Hemisphäre ab. Für den Übergang zur rotierenden halbseitig beleuchteten Kugel (siehe Kap. 5.4.2, S.92 – 93 9).

Aus der Erdkrümmung folgt eine Strahlungsabschwächung für die Messebene des Satelliten ERBS auf knapp 600 km mittlere Höhe in Ebene I´ (siehe Anhang 7 9). Wird eine Abschwächung von 17.2% berücksichtigt, folgt:

500 W/m² x 0.828 = 414 W/m² oder = Summe der Messwerte in W/m² = Σ 101 +19 +20 +243 +31 = 414 W/m².

Ebene I´ ist die Messebene des Satelliten und Ebene VII die Ebene der Erdoberfläche mit einer durchschnittlichen Globaltemperatur aus Tag- und Nachtmittel von rund 15 °C. In Analogie zu KT 97 mit 62 % durchschnittlicher Wolkenbedeckung für die Erde (nach KT97, S.206) aber mit atmosphärischem Fenster von 87 W/m² (Begründung Kap 4.1.8 9). Es wird so sichtbar, (500 W/m²) werden vom Tag in die Nacht hinein gespeichert.

Die Atmosphärenebene I bis VII aus Tag + Nacht erfüllen in 24 h gemeinsam das horizontale Gleichgewicht der Leistungsbilanzierung. Die Einstrahlung stets in T gegen Null auf der halben Kugel und Abstrahlung auf der Vollkugel, durch | getrennt, erfüllen das vertikale Bilanzgleichgewicht. 368/1368 = 0.269 = Albedo von ERBS oder als Tag und Nachtmessung durch ERBS:

II Σ +183 +0 +185 -185 -0 -1183 + 86 +86 +2 [Tag- und Nachtmessung] x (+101 +19 +20 +243 +31) = 0 q.e.d.

Eine der Beliebigkeit unterworfene Gegenstrahlung, ein fiat flux“, kaschierte die falsche Strahlungsverteilung. Es existiert kein Treibhauseffekt von 33 K zur Bildung einer globalen mittleren Oberflächentemperatur von rund 15 °C. Die gemessenen Daten des ERBS Satelliten, mit allen Reihen beweisen dies. In der Leistungsbilanz über Ebene I´ bis VII wird sichtbar, wie die Tagestemperatur über Speicherwirkung in die Nacht hineinwirkt. Bei Kiehl- und Trenberth im Modell KT97 gibt es keine Wärmespeicherung. Von der direkten Wirkung der Sonne blieben nur 66 W/m² übrig. Deshalb musste in KT97 die Sonne mit 342 W/m² nachts rechnerisch in jedem T gegen Null die nicht beleuchtete Hemisphäre „nachheizen“.

Eine generelle Strahlungsbehinderung in der Abstrahlung durch eine hohe Gegenstrahlung von 300 W/m² existiert nicht. Die Nacht reicht aus, um die von der Sonne empfangene Wärme des 24 Stunden Tages über SH, LH, Satm, Reflektion und Strahlung ungehindert auf der Vollkugel abzustrahlen. Für den betrachteten Gleichgewichtszustand in der Leistungsbilanz Einstrahlung/Abstrahlung in W/m² stellt sich so Oberflächentemperatur von rund 15 °C ohne Treibhauseffekt ein. Durch Wolken und durch die Wärmeleiteigenschaften der Luft mag es zeitliche Verzögerungen in der Wärmeabgabe geben, ebenso durch langfristige Effekte von Änderungen in den Wärmespeichern der Erde. Man kann zeigen, dass statt der Gegenstrahlung die Änderung der Albedo in der Modulierung der Globaltemperatur eine sehr wichtige Rolle spielt Kap 5.13 9). Ein Experiment mit CO2 unter direktem Sonnenlicht, Anhang 4 9, bestätigt ebenfalls, dass es einen atmosphärischen Treibhauseffekt aus einer Gegenstrahlungshypothese nicht gibt. Für eine verstärkte Einbindung der Wolken in die Modellierung über den Messwert des Longwave Cloud Forcing wird auf Kap. 5.7 9 verwiesen.

Zusammenfassung des Artikels:

Die Gegenstrahlung ist eine reine Modellhypothese aber Basis der aktuellen Klimamodelle. Der Strahlenverteilungsfaktor ¼ ist zur Berechnung der Einstrahlung im Klimamodell falsch und stattdessen ½ richtig. Mit ¼ wird die mittlere Einstrahlung in der Modellierung viel zu gering errechnet. Diesen Fehler musste die Gegenstrahlungshypothese in der Treibhaushypothese bereits bei B. Barkstorm ausgleichen. Mit dem richtigen, über ½ errechneten Einstrahlungsdurchschnitt entfällt sofort ihre Grundlage. Bei Verwendung aller Messreihen der fünfjährigen gemittelten Datensätzen des ERBS Satelliten lässt sich in Anschluss ohne Gegenstrahlung bei stets halbseitiger Beleuchtung der Erde – die unserer Beobachtung entspricht – die Speicherwirkung der Erdoberfläche vom Tag in die Nacht hinein darstellen Die Abweichung zwischen Messwert und Rechenwert oder Modellgüte des neuen Modells beträgt dann weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung oder ist kleiner gleich 2W/m².

9 A. Agerius, 2021, Kritische Analyse zur globalen Klimatheorie, Erweiterung-Vertiefung-Prognose, 2. Auflage, tredition, Hamburg

1Barkstorm, Ramanathan and Harrison, 1989, CLIMATE AND THE EARTH’S RADIATION BUDGET, in PHYSICS TODAY, American Institute of Physics.

2J. Kiehl, K.E. Trenberth, 1997, Bulletin of the American Meteorological Society, Vol. 78, No. 2, February 1997, S. 197-208. Im Folgenden wird diese Studie als KT97 bezeichnet.

3KT97, Table 1. Summary of the earth energy budget estimates…, S. 199. [Hervorhebung hinzugefügt]

4Trenberth, Fasullo and Kiehl, 2009, EARTH’s GLOBAL ENERGY BUDGET, American Meteorological Society, BAMS S. 1-13, DOI:10.1175/2008BAMS2634.I.

5Loeb, Dutton, Wild et altera, 2012, The global energy balance from a surface perspective, Clim Dyn (2013) 40:3107-3134, Springer-Verlag, Doi 10.1007/s00382-012-1569-8.

6Für die Messung einer solchen Gegenstrahlungssonne mit Messgeräten wird auf 9, Kap. 4.24, 75 f. verwiesen.

7CEDA, Oxford, England, ERBS Datensätze 1985 – 1989, mit Stand vom 19.11.2020, beispielsweise für die Messreihe mean1987: http://data.ceda.ac.uk/badc/CDs/erbe/erbedata/erbs/mean1987/ und hierin die Datei data.txt aufrufen. Der Datenaufruf im ERBS Datensatz muss für die Jahre, Strahlungstypen/Albedo, spezielle Messreihen, Durchschnitte, Darstellungen, etc. entsprechend angepasst werden.




Kältester April in Deutschland seit 1977 (Minimum des Sonnenzyklus‘ 20), und selbst NASA-Forscher räumen einen sich abkühlenden Planeten ein

Europa ist die Region, die nachweislich am stärksten unter früheren Grand Solar Minima (Dalton/Maunder) gelitten hat, was angesichts der Nähe zum Pol und der großen Bevölkerungszahl auch Sinn macht.

Der Beginn dieses nächsten GSM zeigt, dass das auch diesmal der Fall ist, selbst in diesem frühen Stadium…

Wie Anfang der Woche berichtet, hat der europäische Kontinent gerade einen historisch kalten April erlebt, der nun bis in den Mai hinein anhält.

[Einschub: Dazu passt die Meldung der auf der alarmistischen Seite stehenden Plattform wetteronline.de, wonach sich heute früh (7. Mai) in den Niederlanden (!) verbreitet kurzzeitig eine dünne Schneedecke gebildet hatte {Link}. Ende Einschub]

Mit einer Durchschnittstemperatur von nur 6C war der April 2021 in Deutschland der kälteste vierte Monat des Jahres seit 1977 (solares Minimum des Zyklus 20). Dieser Durchschnittswert liegt etwa 3C unter der klimatologischen Norm von 1991-2020 und 2,3C unter dem bisherigen 30-jährigen Mittel von 1981-2010.

Der Monat war auch etwas trockener als im Durchschnitt, berichtet der DWD Klima und Umwelt auf Twitter:

Man beachte den starken Temperaturrückgang in dieser Graphik.

Unter der Lupe sieht man den Absturz vom April 1920 auf den April 2021 noch deutlicher:

Dies ist ein Hinweis darauf, wie schnell sich das Klima abkühlen kann, wenn die Bedingungen es zulassen, Bedingungen wie geringe Sonnenaktivität und La Ninas.

Entscheidend ist hier auch, dass die Zeitspanne zwischen geringer Sonnenaktivität und terrestrischer Abkühlung nun vorbei zu sein scheint.

Der „Abkühlungstrend“, den die NASA in den letzten Jahren in der „oberen“ Atmosphäre registriert hat, ist nun endlich in die unteren Atmosphärenschichten und in die globale „untere“ Atmosphäre und damit in den Lebensraum von uns Menschen durchgedrungen.

„Hoch über der Erdoberfläche, nahe dem Rand des Weltraums, verliert unsere Atmosphäre Wärmeenergie“, sagte Martin Mlynczak von der NASA, Associate Principal Investigator für das SABER-Instrument an Bord des TIMED-Satelliten der NASA, bereits im Jahre 2018. „Wenn sich die aktuellen Trends fortsetzen, könnte es bald einen Kälterekord für das Weltraumzeitalter geben“ – was Ende 2018 der Fall war.

Der TIMED-Satellit der NASA:


Die Aufgabe von SABER ist es, die Infrarot-Emissionen von Kohlendioxid (CO2) und Stickstoffmonoxid (NO) zu überwachen – durch die Messung des Infrarot-Glühens dieser Moleküle kann SABER den thermischen Zustand des Gases ganz oben in der Atmosphäre beurteilen: eine Schicht, die die Forscher „Thermosphäre“ nennen.

„Die Thermosphäre kühlt immer während des solaren Minimums ab“, so Mlynczak weiter. „Das ist eine der wichtigsten Arten, wie der Sonnenzyklus unseren Planeten beeinflusst.“

Um zu verfolgen, was in der Thermosphäre passiert, haben Mlynczak und Kollegen kürzlich den „Thermosphären-Klima-Index“ (TCI) eingeführt – eine in Watt ausgedrückte Zahl, die angibt, wie viel Wärme die NO-Moleküle in den Weltraum abstrahlen. Während des Sonnenmaximums ist der TCI hoch („heiß“), während des Sonnenminimums ist er niedrig („kalt“).

Und obwohl SABER seit zwei Jahrzehnten im Orbit ist, konnten Mlynczak und Kollegen den TCI bis in die 1940er Jahre zurück berechnen: „SABER hat uns das gelehrt, indem es uns gezeigt hat, wie TCI von anderen Variablen wie der geomagnetischen Aktivität und der Leistung der Sonne abhängt – Dinge, die seit Jahrzehnten gemessen werden“, erklärt er.

Eine historische Aufzeichnung des Thermosphären-Klima-Index‘.

Mlynczak und Kollegen haben kürzlich eine Arbeit über den TCI veröffentlicht, die zeigt, dass der Zustand der Thermosphäre mit einer Reihe von fünf Begriffen in einfacher Sprache beschrieben werden kann: Kalt, Kühl, Neutral, Warm und Heiß.

Betrachtet man Mlynczaks obiges Diagramm – und genauer gesagt seine Darstellung der letzten 6 Sonnenzyklen, die direkt mit dem Thermosphären-Klima-Index von SABER übereinstimmen – so zeigt sich, dass diese jüngste und historische Runde niedriger Sonnenleistung erst mit dem Minimum von Zyklus 23 (wohl 2008) begann.

Und da die Auswirkungen des rekordstarken El Nino von 2016-17 nun vollständig verblasst sind und die Auswirkungen des moderaten Ereignisses von 2019-20 sich ebenfalls verflüchtigt haben (beides deutlich sichtbar in der untenstehenden Grafik), wirkt sich die kumulative Verringerung der Aktivität durch die Zyklen 23 und 24 schließlich auf unsere „globalen“ Temperaturdaten aus, und nicht nur auf die regionalen – wie oben erwähnt, hat sich die Rekordabkühlung der Thermosphäre nun bis in die Troposphäre vorgearbeitet [Hervorhebung im Original]:

Um noch einmal kurz auf die regionalen Daten zurückzukommen, denn ich denke, es ist wichtig, dass wir uns der Auswirkungen vor Ort bewusst sind, damit wir uns richtig vorbereiten können: Deutschland war eine der Nationen, die während des vorangegangenen Großen Sonnenminimums, dem gemäßigteren Dalton-Minimum (1790-1830), eine schnelle und intensive terrestrische Abkühlung verzeichneten.

Die Oberlacher Wetterstation beispielsweise verzeichnete Anfang des 19. Jahrhunderts einen Temperaturrückgang von 2°C innerhalb von nur 20 Jahren – diese rapide Abkühlung zerstörte die Nahrungsmittelproduktion des Landes und trug dazu bei, dass Millionen und Abermillionen von Menschen in ganz Eurasien hungern mussten. Es räumt auch mit der Behauptung auf, dass solch starke Veränderungen des Klimas Jahrhunderte brauchen, um sich zu manifestieren – dies ist nicht wahr, historische Dokumente – ganz zu schweigen von Proxydaten – zeigen uns, dass eiszeitliche Bedingungen innerhalb von nur wenigen Jahren eintreten können.

Der starke Temperaturrückgang in Deutschland von April 2020 auf April 2021 ist ein weiterer Beleg dafür.

Link: https://electroverse.net/germanys-coldest-april-since-1977-as-even-nasa-notes-a-cooling-planet/

Übersetzt von Chris Frey EIKE