Nine Mile Point produziert Wasserstoff

Die erste Demonstrationsanlage der 1-MW-Klasse einer Proton exchange Membrane (PEM) Elektrolyse zur Herstellung von „Violettem Wasserstoff“ aus Kernenergie, hat im Kernkraftwerk Nine Mile Point ihren Betrieb aufgenommen.

Von Dr. Humpich

Nine Mile Point

Das KKW besteht aus zwei Siedewasserreaktoren mit 620 MWel bzw. 1369 MWel. Block 1 (BWR/2) wurde erstmalig 1969 kritisch und Block 2 (BWR/5) 1987. Die verlängerte Betriebsgenehmigung läuft für Block 1 voraussichtlich bis August 2029 und für Block 2 voraussichtlich bis Oktober 2046. Das Kraftwerk wird mit Wasser aus dem Lake Ontario gekühlt. Es liegt in Oswego, im Bundesstaat New York und ist im Besitz von Constellation.

Eigentlich ist die Installation einer Elektrolyse in einem KKW nichts besonderes: Es steht ausreichend elektrische Energie zur Verfügung, es gibt eine Wasseraufbereitung und es ist Fachpersonal und Infrastruktur vorhanden. Sollte es tatsächlich einen Ansturm auf Wasserstoff geben, stehen die KKW der Welt bereit. Betrachtet man z. B. Frankreich, stehen sie als „Tankstellen“ im ganzen Land zur Verfügung – anders, als irgendwelche Anlagen im Meer, für die erstmal eine Transportkette aufgebaut werden muß. Für die Betreiber von KKW ist es einfach nur eine zusätzliche Einnahmequelle – letztendlich reduziert auf die Frage: Was bringt mehr Gewinn, Strom oder Wasserstoff? Betrachtet man Nine Mile Point, gibt es auch sicherheitstechnisch kein Problem. Der Elektrolyser besteht aus handelsüblichen Containern am Rande des Kraftwerksgeländes. Realisierung in wenigen Monaten möglich.

Es verwundert deshalb nicht, daß Constellation bis 2025 900 Millionen USD in die Wasserstoffproduktion durch Kernenergie stecken will. Constellation (ehemals Exelon Generation) ist Eigentümer und Betreiber der größten Flotte kommerzieller Kernreaktoren in Amerika. Das Unternehmen besitzt und betreibt 21 Kernreaktoren. In Zusammenarbeit mit verschiedenen öffentlichen und privaten Einrichtungen will man regionale Produktions- und Verteilzentren für Wasserstoff aufbauen.

Weitere Projekte

Energy Harbor wird noch in diesem Jahr in seinem Kernkraftwerk Davis-Besse in Ohio mit der Herstellung von Wasserstoff beginnen. Man hat dafür die „Great Lakes Clean Hydrogen Partnership“ gegründet (Energy Harbor, Linde, University of Toledo and GE Aerospace). Diese Region im Mittleren Westen wurde ausgewählt, weil es ein Verkehrsknoten ist und ein Industriestandort mit mehrere Werften etc. – sprich, hier gibt es potentielle Nachfrage. Das Energieministerium plant mit seinem H2Hubs (DOE’s Regional Clean Hydrogen Hubs programme, or H2Hubs) 6 bis 10 solcher Zentren für „sauberen Wasserstoff“ in den USA anzuschieben. Es nimmt dafür rund 8 Milliarden USD in die Hand.

Der vielleicht nächste Schritt, ist bereits im Kraftwerk Prairie Island von Xcel Energy in Bau. Dort wird ein Elektrolyseur auf Feststoffbasis von Bloom Energy errichtet. Bei diesem Verfahren wird im Gegensatz zu Polymer-Elektrolyt-Membranen oder Alkali mit heißem Dampf gearbeitet. Dadurch kann ein Teil der notwendigen (wertvollen) elektrischen Energie durch (minderwertige) Abwärme ersetzt werden – beides ist in jedem Kernkraftwerk in großen Mengen vorhanden.

Noch einen Schritt weiter geht man im Kernkraftwerk Palo Verde. Dort will man nicht nur Wasserstoff herstellen, sondern auch durch verfeuern in einer Gasturbine bzw. in Brennstoffzellen zur Abdeckung von Spitzenlast einsetzen. Im Sonnengürtel der USA inzwischen eine zwingende Notwendigkeit.

In GB wurde das Bay Hydrogen Hub Projekt gestartet. Es soll die britische Asphalt- und Zementindustrie „dekarbonisieren“. Zu diesem Zweck soll im Kernkraftwerk Heysham 2 eine SOEC (solid oxide electrolysis) Anlage errichtet werden. Sie soll Wärme und elektrische Energie des Advanced Gas-cooled Reactor verwenden.

Lassen wir die Zahlen sprechen

Dank Nine Mile Point liegen jetzt Zahlen auf dem Tisch: Die Anlage produziert aus 1,25 MWel Strom 560 kg Wasserstoff pro Tag. Wasserstoff hat einen Heizwert Hi von 33,3 kWh/kg und einen Brennwert Hs von 39,4 kWh/kg. Technisch kann man nur den Heizwert Hi nutzen, da die Kondensationswärme des gebildeten Wasserdampfs mit dem Abgas durch den Schornstein geht. Eine einfache Umrechnung zeigt nun, daß man aus den 1250 kW lediglich maximal 777 kW (Hi) bzw. 919 kW (aber nur in einem sehr guten Brennwertkessel, da Hs) zurückgewinnen kann. Das ergibt einen Energetischen-Wirkungsgrad von 62% bzw. 74% als theoretische Obergrenze. Damit haben wir schon den ersten Taschenspielertrick der „alternativen Energetiker*Innen“ erkannt: Will man elektrische Energie großtechnisch aus dem erzeugten Wasserstoff zurück gewinnen, sind an dieser Stelle schon 38% unwiederbringlich weg. Will man zeitweise (Dunkelflaute) Strom erzeugen, kommen noch der Wirkungsgrad der Gasturbine (≈40%), eines Großdiesels (≈50%) etc. hinzu. Technisch kann man kaum mehr als 1/4 der eingesetzten elektrischen Energie wieder zurück gewinnen. Setzt man Wasserstoff als Ersatz für Erdgas in der Heizung ein, könnte man wenigstens 2/3 zurück gewinnen. Alles ohne Transport und Speicherung wohl gemerkt.

Aber der Wind schickt doch keine Rechnung

Sicher nicht, aber die Uranader übrigens auch nicht. Beide Energieformen sind so lange völlig wertlos, bis man sie durch Technik nutzbar macht und dazu sind Investitionen nötig. Dieser Kapitaleinsatz muß über das Produkt wieder eingefahren werden. Viel Produkt führt dabei automatisch zu kleinem Stückpreis – und hier wird die verzweifelte Lage der Schlangenölverkäufer der Wind- und Sonnenindustrie überdeutlich. Nehmen wir dieses Beispiel mal als Grundlage. Die Anlage hat allein eine Förderung von 5,8 Millionen USD erhalten. Über 5000 USD/kW für eine Elektrolyse ist sicher ein stolzer Preis. Wahrscheinlich wird es da noch eine steile Lernkurve geben. Aber nur mal so am Rande, dafür kann man auch gleich ein ganzes Kraftwerk bauen und erhält nicht nur den Energieträger. Wasserstoff ist halt eine Grundchemikalie und kein Brennstoff – und wird vielleicht auch nie einer werden.

Völlig absurd ist aber der Plan, man produziert Wasserstoff, wenn der Wind mal weht oder die Sonne scheint und lagert und transportiert ihn, um daraus bei Dunkelflaute wieder Strom zu machen. Sollte man tatsächlich die Chemikalie Wasserstoff, die heute fast ausschließlich aus Erdgas hergestellt wird (auch mit CO2 Abscheidung) ersetzen müssen, dann aber mit Sicherheit nicht durch „Grünen Wasserstoff“. Die dafür notwendigen Subventionen kann keine Volkswirtschaft in großem Maßstab dauerhaft aufbringen. Sehen wir uns die folgende Tabelle näher an:

Kategorien Volllaststunden [h/a]  Jahresproduktion
Wasserstoff [kg] 
Faktor für Investition 
Kernkraftwerk (z. B. Nine Mile Point) 8760 204 370 1,00
einzelner Reaktor 7884 183 934 1,11
Wind offshore 4000 93 320 2,19
Wind onshore 1651 38 518 5,31
Photovoltaik 850 19 831 10,0

Das Jahr hat 8760 Stunden. In einem Kernkraftwerk könnte der Elektrolyseur theoretisch (keine Wartung oder Reparatur notwendig) stets in Betrieb sein, da immer Strom zur Verfügung steht. Bei einem einzelnen Reaktor verkürzt sich die theoretische Betriebszeit auf 90% (Brennstoffwechsel etc.). Bei Windmühlen auf dem Meer wird mit 4000 Volllaststunden gerechnet, bei Windmühlen auf dem Land mit 1651 Volllaststunden (gemessen nach Fraunhofer-Institut). Bei Photovoltaik mit nur noch 850 Volllaststunden (ebenfalls nach Fraunhofer). Das sind alles Werte aus Deutschland. Es soll nicht verschwiegen werden, daß diese Werte in den USA auf Grund der besseren geographischen Bedingungen zumindest bei der Sonneneinstrahlung (Texas liegt etwa auf der Breite der Sahara) erheblich besser sein können. Entscheidend ist nun die letzte Spalte der Tabelle: Definiert man die Investition in einem Kernkraftwerk mit 1,00, ergeben sich die Multiplikatoren für die notwendigen Investitionen bei Wind- und Sonne.

Bevor nun alle Schlangenölverkäufer gleich Schnappatmung bekommen:

  • Natürlich weht der Wind auch öfters mal schwach. Das ändert aber nichts an der erzeugten Energiemenge. Der Flatterstrom ist eher schädlich für jeden Elektrolyseur. Man denkt deshalb bereits über zusätzliche Batterien (weitere Kosten) nach, um die Produktion überhaupt stabil zu bekommen.
  • Ein Windpark hilft da gar nichts. Kein Wind – kein Strom. Wenn es auch für manche ideologisch kaum erträglich ist, 100 mal Null ist und bleibt Null.
  • Der vermeintliche Vorteil der Hohen See (mehr Wind) kehrt sich schnell zu einem Nachteil um: Es ist eine zusätzliche Meerwasserentsalzung nötig (frißt selbst sehr viel elektrische Energie) und eine Speicherung und ein Transport (Verdichtung oder Verflüssigung bei -252°C) sind zusätzlich erforderlich. Alles sehr kapitalintensiv und verursacht hohe zusätzliche Betriebskosten.

Eine Prognose gefällig? Wenn wir tatsächlich „Grünen Wasserstoff“ in Deutschland produzieren wollen, wird dieser mächtig schwarz werden (Kohlestrom, da keine KE und kein Erdgas politisch gewollt sind), damit wenigstens die Elektrolyse-Anlagen laufen können. Die Preise werden astronomisch hoch werden, sodaß sie für die Industrie subventioniert werden müssen, damit diese überhaupt auf dem Weltmarkt konkurrieren kann – Wasserstoff statt Rente? Man kann höchstens dem Michel solchen Wasserstoff für seine Heizung oder sein Auto aufs Auge drücken. Der soll ja sowieso den Gürtel enger schnallen.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Klimalatein für Laien 4

Fühlen Sie sich hilflos, wenn Sie versuchen, den Wahrheitsgehalt der Behauptungen über den drohenden Weltuntergang zu beurteilen, mit denen wir ständig bombardiert werden? Für normale Bürger, die nicht mindestens einen Doktortitel in Atmosphärenphysik oder vergleichbaren klimarelevanten Wissenschaften erworben haben, scheint es fast unmöglich zu sein, bei der Bewertung solcher Behauptungen richtig von falsch zu unterscheiden. „Reflektieren“ die so genannten Treibhausgase wirklich so viel Infrarotenergie auf die Erde zurück, dass sich dies auf die Temperatur der Erde auswirkt? Geben Sie nicht auf, die relevanten Grundlagen zu verstehen, es gibt einen recht einfachen Weg, sich ein Bild davon zu machen, worum es hier geht. Auch ohne einen wissenschaftlichen Hintergrund haben die meisten Menschen zumindest einen gesunden Menschenverstand. Und das ist alles, was man braucht, um zu verstehen, wie Energie zwischen der Erdoberfläche und dem Himmel hin und her fließt.

Von Fred F. Mueller

Teil 4

Vorangegangene Kapitel siehe Teil 11), Teil 22), Teil 33) .

In diesem Kapitel befassen wir uns damit, wie stark Wolken die Energiebilanz der Erde über längere Zeiträume hinweg beeinflussen, und mit den „Ewigkeits“-Behauptungen in Bezug auf die Verweildauer von CO2 in der Atmosphäre.

Längerfristige Auswirkungen von Wolken

Der Deutsche Wetterdienst (DWD)4) hält sich bekanntlich strikt an die IPPC-Dogmen zum Klimawandel. Zur Wirkung von Wolken auf den Strahlungshaushalt teilt er mit, dass „Wolken….eine kühlende Wirkung im kurzwelligen (SW, Shortwave) bzw. eine wärmende Wirkung im langwelligen (LW, Longwave) Bereich“ haben. Der resultierende Nettoeffekt von Wolken auf die Strahlungsbilanz wird mit etwa -20 Wm-2 angegeben, gemittelt über den gesamten Globus. Demnach verringert eine Zunahme der Wolkenbildung derzeit den Energieeintrag an der Erdoberfläche, d.h. dass Wolken für eine Abkühlung des Klimas sorgen.

Nahezu identische Bewertungen kommen von der US National Oceanic and Atmospheric Administration (NOAA). Auch deren Spezialisten überwachen die Strahlungseffekte von Wolken5) (CRE, Cloud Radiative Effect), indem sie die Strahlung in bewölkten und unbewölkten Regionen vergleichen. Sie kommen zu dem Schluss, dass Wolken eine globale jährliche kurzwellige CRE von etwa -50 W/m2 ausüben, während ihre langwellige CRE ~30 W/m2 beträgt. Der resultierende globale mittlere CRE ist somit etwa -20 W/m2. Anders ausgedrückt bedeutet dies, dass die kühlende Wirkung mehr als sechsmal höher liegt als die +3,222 W/m2, die den „echten Treibhausgasen“ zugeschrieben werden. Diesbezüglich deckt sich die NOAA-Beurteilung mit derjenigen des DWD.

Allerdings weist der NOAA-Text einige bemerkenswerte rhetorische Besonderheiten auf, denn nach dieser nüchternen Feststellung geht der Beitrag plötzlich zu eher nebulösen Aussagen über. Möglicherweise ist es den Verfassern peinlich, dass ihre Fakten mit dem offiziellen Klima-Mantra kollidieren, das ihre Organisation im Einklang mit der IPCC-Doktrin verbreitet. In sorgfältig formulierten Sätzen warnen sie davor, dass aufgrund der großen Größenordnung dieser SW- und LW-CRE-Effekte das Vorzeichen der Wolkenrückkopplung auf den Klimawandel nicht aus den Ergebnissen aktueller Klimamessungen bestimmt werden könne. Dieses Vorzeichen hänge davon ab, wie variabel (verwendet wird das Wort „sensitive“) die Eigenschaften sind, welche den LW- und SW-CRE bestimmen. Letztlich relativieren sie damit ihre eigenen Ergebnisse. Abschließend stellen sie fest, dass Schätzungen der Wolkenrückkopplung „ein Verständnis auf Prozessebene und eine Modellierung der nicht trivialen Faktoren, von denen die Wolken abhängen, erfordern“. Krönender Abschluss dieser Verschleierungsübung ist dann: „Da Wolken die allgemeine Zirkulation und den Wasserkreislauf durch ihre Wechselwirkungen mit der Atmosphäre, dem Ozean und dem Land verändern, werden umfassende globale Klimamodelle als ein entscheidendes Instrument in unserem Streben nach einem angemessenen Verständnis der Wechselwirkungen zwischen Wolken und Klima angesehen“. Mit anderen Worten: Die Leser werden aufgefordert, den derzeit vorgestellten wissenschaftlichen Erkenntnissen zu misstrauen und stattdessen auf neue Klimasimulationssoftware zu warten. Eine Bescheidenheit, die so manchen der ständig lautstark „Klimakatastrophe“ schreienden Vorkämpfern ihrer Zunft gut anstehen würde.

Wolken realistisch modellieren?

Auch wenn manche Klimawissenschaftler vollmundig behaupten, man könne Wolken heutzutage realistisch in Klimamodellen berücksichtigen, bleibt dies ein Bereich, in dem die Wissenschaft noch längst nicht „settled“ ist, sondern noch hoher Bedarf an Forschungsanstrengungen 6) besteht. Insofern hat sie vielleicht etwas mit der Entwicklung der Kernfusion gemeinsam: Der Zeitrahmen bis zum Erreichen des Ziels ist dynamisch an das aktuelle Datum gekoppelt, welches sich jedes Mal, wenn danach gefragt wird, erneut verschiebt. In Wirklichkeit steckt die Modellierung der Wolkenentstehung und -entwicklung noch in den Kinderschuhen, und das wird nach Ansicht vieler Fachleute wohl auch noch eine ganze Weile so bleiben. Neben dem Vorhandensein von übersättigtem Wasserdampf ist ein weiterer entscheidender Faktor für die Wolkenbildung die Art und räumliche Dichte von Aerosolpartikeln, die als Keimzellen für die Bildung von Wassertröpfchen benötigt werden. Unter oberflächennahen Bedingungen finden Wassertröpfchen z.B. auf Oberflächen genügend Keime, um bei Unterkühlungen von nur wenigen °C unter dem Taupunkt Wassertröpfchen oder Eiskristalle zu bilden. In großer Höhe kann die erforderliche Unterkühlung jedoch leicht unter -10 °C oder sogar unterhalb von -30 bis -40 °C liegen. Dies lässt sich beobachten, wenn Flugzeuge in großer Höhe Kondensstreifen erzeugen: Die winzigen Rußpartikel ihrer Abgase dienen als Keimzellen für Wasserdampfmoleküle, welche die Gelegenheit ergreifen, um sie herum Eispartikel zu bilden, siehe Abb. 2.

Abb. 2. Ein Passagierflugzeug in großer Höhe. Die winzigen Rußpartikel aus den Turbinen werden vom übersättigten Wasserdampf der Umgebungsluft gerne als Kondensationskerne angenommen. Die daraus resultierenden Kondensstreifen bestehen aus winzigen Eispartikeln

Eine realistische Bewertung der Dichte und der Eigenschaften der Aerosole, die für die Entstehung von Wolken in den Höhen erforderlich sind, in denen Wolken existieren, würde Instrumente von einer Qualität und in einer Zahl erfordern, die nach dem derzeitigen Stand der Wissenschaft kaum zu erreichen sind. Selbst dann gäbe es noch keine historischen Aufzeichnungen.

Wolken stellen somit eine noch ungelöste Herausforderung für die Klimamodellierung dar. Sie leisten einen eigenen und zudem besonders starken Beitrag zur Energiebilanz der Erdoberfläche. Dieser Beitrag addiert sich eigenständig zu demjenigen, der den „Treibhausgasen“ – inklusive des Wasserdampfs – zuzuschreiben ist.

Die auf Sand gebaute These vom „CO2 als einzigem Stellknopf des Klimageschehens“

Wenn wir über Wolken sprechen, müssen wir auch über Regen sprechen. Es liegt auf der Hand, dass höhere Temperaturen auch zu mehr Verdunstung und Transpiration führen sollten. Allerdings liegt die Verweildauer eines Wassermoleküls in der Atmosphäre7) im Mittel bei nur etwa 10 Tagen. Deswegen behaupten IPCC-Klimawissenschaftler wie der prominente Klimatologe Andrew Lacis8), dass temperaturbedingte Veränderungen des Wasserdampfgehalts in der Luft zwar vorübergehend große Auswirkungen haben. Ihre längerfristigen Auswirkungen seien jedoch durch die Tatsache begrenzt, dass die zusätzlich in der Luft befindliche Menge an Wasserdampf lediglich dem durch die Temperaturerhöhung geänderten Gleichgewichtszustand entspricht. Bei einer angenommenen Temperaturerhöhung der Atmosphäre seit 1750 um mehr als 1 °C (siehe auch Abb. 3.) entspräche dies einer Zunahme ihres Wassergehalts um lediglich etwa 8-9 %.

Abb. 3. Darstellung der von verschiedenen Institutionen des globalen Westens veröffentlichten Verläufe des Temperaturanstiegs der Atmosphäre. Wie üblich werden weder für die Anfangs- noch für die Endtemperatur absolute Werte angegeben, was der IPCC-Klimawissenschaft „Interpretationsspielraum“ verschafft (Grafik: RCraig09 9), CC4.0)

Im Vergleich zu den 8-9 % beim Wasserdampf stieg der CO2-Gehalt dagegen um rund 50 %. Die prozentuale Steigerung des CO2 liegt somit um gut eine halbe Größenordnung höher. Zudem ist nach Ansicht der Klimawandel-Apologeten mit einer weiteren erheblichen Zunahme des CO2-Gehalts der Atmosphäre bei weiterer Verbrennung fossiler Rohstoffe zu rechnen. Dieses Missverhältnis gehört zu den Argumenten, welche das Dogma stützen, dass Wasserdampf im Klimageschehen nur die Rolle einer „passiven Hilfskraft“ zukomme.

Lacis ist einer der führenden Protagonisten der heute dominierenden Klimalehre, der zusammen mit Co-Autoren wie Hansen und Trenberth die aktuellen IPPC-Klimadogmen geprägt hat. Sie argumentieren, dass „Wasserdampf und Wolken nur eine bereits vorhandene Störung des Energiebudgets verstärken können, aber nicht von sich aus einen anhaltenden Erwärmungs- oder Abkühlungstrend des globalen Klimas herbeiführen oder erzwingen können“. Dies gelte auch dann, wenn sie möglicherweise stärker zur gesamten atmosphärischen Strahlungsstruktur beitragen als die strahlungsfördernden Treibhausgase, die den globalen Temperaturtrend tatsächlich antreiben und kontrollieren. Für diese These wird kein Beweis erbracht. Begründet wird dies lediglich mit ihrer im Vergleich zu Wassermolekülen sehr viel längeren Verweildauer in der Atmosphäre: „CO2 und die anderen Treibhausgase verbleiben…., sobald sie einmal in die Atmosphäre gelangt sind, dort faktisch auf unbestimmte Zeit, weil sie bei den vorherrschenden atmosphärischen Temperaturen nicht kondensieren oder ausgefällt werden, während sie weiterhin ihren Strahlungsantrieb ausüben“. Doch ist der Begriff „unbegrenzt“ wirklich glaubhaft?

Das atmosphärische CO2 hängt von mehr Parametern ab als nur von den menschlichen Emissionen

Nüchtern betrachtet ist die Aussage von A. Lacis eine erstaunlich eklatante Leugnung wichtiger Erkenntnisse der modernen Naturwissenschaften. Selbst das IPCC räumt ein, dass es neben den anthropogenen CO2 -Emissionsquellen auch riesige natürliche Senken wie die Ozeane sowie Landsenken gibt, siehe Abb. 4. Hervorzuheben sind dort insbesondere die enormen Schwankungen der schwarzen Abgrenzungslinie zwischen dem grünen und dem hellblauen Feld im Vergleich mit der viel ruhiger verlaufenden oberen schwarzen Linie, welche die Emissionen nach oben begrenzt. Das wilde Gezappel der Grenzlinie zwischen Grün und Hellblau ist ein klarer Hinweis darauf, dass in dem hier gezeigten Diagramm etwas nichtstimmig ist.

Abb. 4. Die wichtigsten Quellen und Senken für die anthropogenen CO2-Emissionen nach dem IPCC (Grafik: WG1AR5 10)

Vor allem mit Blick auf die Ozeane ignorieren A. Lacis ebenso wie seine Glaubensgenossen ein wichtiges Gesetz der physikalischen Chemie. Dies ist das Henry’sche Gesetz11), das den Ausgleich von Gaspartialdrücken zwischen Wasser und Atmosphäre beschreibt. Ein überschüssiger Partialdruck auf einer Seite der Grenzfläche zwischen Wasser und Luft führt dazu, dass das entsprechende Gas die Wasseroberfläche durchquert, bis das Gleichgewicht zwischen den beiden Partialdrücken wiederhergestellt ist 12), siehe Abb. 5.

Abb. 5. Nach dem Henry’schen Gesetz gleichen sich die Partialdrücke eines in einer Flüssigkeit löslichen Gases mit dem Partialdruck desselben Gases in der Atmosphäre aus, indem die Gasmoleküle die Oberfläche solange bevorzugt in einer Richtung passieren, bis das Gleichgewicht erreicht ist. Die absoluten Mengen des Gases, die schließlich beidseits der Oberfläche verbleiben, hängen deshalb stark vom Massenverhältnis von Atmosphäre und Wasser ab. Angesichts der enormen Wassermassen in den Ozeanen im Vergleich zur viel kleineren Masse der Atmosphäre werden die Ozeane der Erde früher oder später 98 % jeglicher zusätzlich in die Atmosphäre eingeleiteter Mengen an CO2 aufnehmen. Dieses allgemein gültige Gesetz der Physikalischen Chemie führt das „Ewigkeits“-Gerede von Klimapropheten wie Prof. Schellnhuber mit seinem Buch über „Selbstverbrennung der Menschheit“ ad Absurdum.

Für die Ozeane bedeutet dies, dass 98 % des gesamten CO2, das z. B. durch menschliche Aktivitäten in die Atmosphäre gelangt, über kurz oder lang dort landen, da der Kohlenstoffspeicher der Meere mit ~ 38.000 Gigatonnen (1 Gt = 1 Milliarde Tonnen) 49 Mal größer ist als derjenige der Atmosphäre, die nur 800 Gt Kohlenstoff in Form von CO2 enthält. Die NOAA gibt an, dass es nur ein Jahr13) dauert, bis sich der Oberflächenozean mit dem zusätzlichen CO2 ausgeglichen hat, das der Atmosphäre zugeführt wurde. Auch zahlreiche weitere Wissenschaftler wie Harde14), der von vier Jahren ausgeht, vertreten den Standpunkt, dass die tatsächliche Verweilzeit des zusätzlich in die Atmosphäre eingebrachten CO2 doch recht deutlich unter der von Lacis behaupteten „Ewigkeit“ liegt.

Und es gibt noch einen zweiten Aspekt des Henry’schen Gesetzes, der bei Lacis‘ Standpunkt zur Langlebigkeit der CO2 Zugabe in die Atmosphäre ignoriert wird: Der Austausch von CO2 zwischen den Ozeanen und der Atmosphäre hängt nicht nur von den Partialdrücken in beiden Medien ab, sondern auch von der Temperatur des Wassers. Wie jeder weiß, verringert die Erwärmung von Wasser seine Löslichkeit für Gase. Dies gilt auch für CO2. Aus diesem Grund werden Sprudelgetränke stets kalt serviert, siehe Abb. 6.

Abb. 6. Sprudelgetränke sind aufgrund ihres CO2 Gehalts erfrischend. Deshalb werden sie kalt serviert, weil das CO2 bei Erwärmung ausgast und das Getränk deshalb schal wird

Und da die Klimawissenschaft behauptet, dass der Mensch die Erde seit 1750 um mehr als 1 °C erwärmt hat, müsste sich dies auch auf die Ozeane und ihren enormen CO2 Gehalt auswirken. Das IPCC bleibt in Bezug auf diesen Aspekt erstaunlich zurückhaltend. Es scheint, dass der von Klimakatastrophen-Vertretern so viel gepriesene „CO2 -Knopf“ doch noch von etlichen weiteren Parametern abhängt als nur von der Verbrennung fossiler Brennstoffe…

Das rätselhafte Regenparadoxon

Eine Erwärmung des Planeten hätte normalerweise zur Folge, dass mehr Wasser in die Atmosphäre verdunstet (oder von Pflanzen transpiriert wird). Schließlich beträgt die mittlere Verweildauer von Wasserdampf-Molekülen in der Atmosphäre bis zur Rückkehr als Regen, wie bereits oben ausgeführt 6), nur etwa 8-10 Tage. Als Folge wären nicht nur mehr Wolken, sondern vor allem auch mehr Regen zu erwarten. Dies ist jedoch nicht in der zu erwartenden Größenordnung der Fall. Für die weltweiten Niederschläge an Land wird ein lediglich leicht positiver Trend durch Veröffentlichungen der NASA15) und von OurWorldInData 16) bestätigt, siehe Abb. 7.

Abb. 7. Grafik der globalen Niederschlagshöhe an Land mit einer gleitenden 5-Jahres-Durchschnitts. (Daten von NASA15) und OurWorldInData 16)

Zur Abb. 7. ist anzumerken, dass es immer schwieriger wird, entsprechende Daten zu erhalten. Die Erfassung von Niederschlägen wurde von den klassischen Methoden der Meteorologie (Verwendung von Sammelgefäßen) zunehmend auf elektronische Verfahren und zusätzlich auf satellitengestützte Erfassung umgestellt. Diese Umstellung führte jedoch auch dazu, dass die Informationen heute statt in leicht fasslicher tabellarischer Form bevorzugt als überwältigende Flut von schreiend bunten Niederschlagsbildern daherkommen. Auch wird dabei zunehmend mit sogenannten Anomalien gearbeitet, d.h. mit relativen Abweichungen von einem Mittelwert, der oft nicht benannt wird. Dies macht es schwer, Zahlen zu finden, die einen unmittelbaren Vergleich mit historischen Aufzeichnungen ermöglichen. Um eine geschlossene Zeitreihe erstellen zu können, wurde daher eine von 1901 bis 2000 reichende Zeitreihe der NASA mit einer Anomalie-Zeitreihe für das 21. Jahrhundert von Our World In Data komplettiert.

Der gleitende 5-Jahresdurchschnitt in Abb. 7 bestätigt, dass wir im 20. Jahrhundert bei den weltweit an Land gemessenen Niederschlagsmengen zunächst einen leicht negativen Trend hatten. Nach etwa 1945 ging der Trend wieder nach oben und wurde zugleich deutlich unstetiger, wie die starken Ausschläge der schwarzen Linie für das gleitende 5-Jahres-Mittel belegen. Insgesamt hat die weltweite Regenmenge in den 120 Jahren seit 1901 um rund 30 mm bzw. ~ 3 % zugenommen. Dies liegt deutlich unter den rund 8-9 %, die aufgrund der weltweiten Temperaturerhöhung von etwa 1,1 bis 1,3 °C (siehe Abb. 3.) zu erwarten wären.

Abweichend vom globalen Niederschlagstrend gibt es jedoch regional teils stark unterschiedliche Verläufe, so beispielsweise bei der Niederschlagsstatistik für Deutschland für die Jahre 1881 bis 2022, Abb. 8.

Abb. 8. Nationale Niederschlagsstatistik Deutschlands für die Jahre 1881 – 2022 mit einer 5-jährigen gleitenden Durchschnittstrendlinie. Grafik erstellt mit Daten des Daten des Deutschen Wetterdienstes DWD 17)

Vergleicht man die beiden Diagramme, so fällt ins Auge, dass in beiden Fällen die Regenmengen im 20. Jahrhundert zunächst einen positiven Trend aufweisen. Für Deutschland ist der Anstieg bis zum Jahr 2000 deutlich gleichmäßiger und zudem steiler als weltweit. Im Unterschied zum weltweiten Mittel ist jedoch in Deutschland seit dem Jahr 2000 ein deutliches Abknicken der Niederschlagsmengen nach unten erkennbar. Auf diesen Punkt wird in den nächsten Folgen noch näher eingegangen.

Trotz Temperaturanstiegs nicht mehr Regen

Für das Regengeschehen über den Ozeanen ist die Datenverfügbarkeit erheblich schlechter als für Niederschläge an Land. Das liegt daran, dass es auf den Ozeanen kaum meteorologische Messstationen gibt. Deshalb gab es früher keine Möglichkeit, die erforderlichen Daten mit ausreichender Dichte und Genauigkeit zu erfassen. Flächendeckende Aufzeichnungen wurden erst mit dem Aufkommen geeigneter Satellitentechnologien möglich.

Abb. 9. Auf Satellitendaten gestützte Aufzeichnung der globalen Entwicklung von Temperaturen (oben) und Niederschlägen (unten) sowohl über Land als auch über den Ozeanen im Zeitraum zwischen 1979 -2014 (Grafik: R. Adler et al. 18))

Interessanterweise zeigen die von R. Adler et al. Mithilfe der Satellitentechnologie gesammelten Daten über Temperatur- und Niederschlagswerte sowohl an Land als auch auf dem Meer, dass im Untersuchungszeitraum zwar die Temperaturen, nicht jedoch die Niederschlagsmengen nach oben gegangen sind. Dies widerspricht in eklatanter Weise dem eigentlich naturgesetzlich zu erwartenden Anstieg.

In diesem Zusammenhang stellt sich natürlich auch die Frage, ob bezüglich einer der beiden Messgrößen ein systematischer Fehler vorliegen könnte. Einen Hinweis darauf, dass die Ergebnisse der Abb. 9. bezüglich der Verdunstung über den Ozeanen zutreffend sein könnten, liefert die Analyse der Häufigkeit und Intensität tropischer Wirbelstürme bzw. Hurrikane von R. Maue 19), Abb. 10.

Abb. 10. Weltweite Häufigkeit des Auftretens von Hurrikanen, 12monatliche gleitende Werte. Die obere Kurve beinhaltet alle Hurrikane (Kennzeichen: höchste auftretende Windgeschwindigkeit > 64 Knoten), während die unter Kurve nur solche berücksichtigt, welche der höchsten Stufe (Windgeschwindigkeiten > 96 Knoten) zuzuordnen waren (Grafik: Adaptiert von Maue (2011) GRL) 19)

Diese Übereinstimmung ist umso bemerkenswerter, da Hurrikane nur bei hohen Temperaturen der Meeresoberfläche auftreten können und ihre Energie direkt aus der Verdunstungsenergie des Meerwassers beziehen. Sie beziehen ihren „Treibstoff“ somit direkt aus im Meerwasser gespeicherter solarer Strahlungsenergie und damit aus der gleichen Quelle, die auch zu Regen führt.

Mehr zu den Triebkräften unseres Klimas im nächsten Kapitel. Bleiben Sie neugierig.

Quellen

https://eike-klima-energie.eu/2023/02/13/klimalatein-fuer-laien/

https://eike-klima-energie.eu/2023/02/21/klimalatein-fuer-laien-2/

https://eike-klima-energie.eu/2023/03/04/klimalatein-fuer-laien-3/

https://www.dwd.de/EN/research/observing_atmosphere/lindenberg_column/radiation/wolkenbeobachtung.html

  1. https://www.gfdl.noaa.gov/cloud-radiative-effect/

https://www.ukri.org/what-we-offer/browse-our-areas-of-investment-and-support/uncertainty-in-climate-sensitivity-due-to-clouds/

https://www.britannica.com/science/hydrosphere/The-water-cycle

https://pubs.giss.nasa.gov/abs/la00500y.html

https://commons.wikimedia.org/wiki/File:20200324_Global_average_temperature_-_NASA-GISS_HadCrut_NOAA_Japan_BerkeleyE.svg

https://www.ipcc.ch/site/assets/uploads/2018/02/WG1AR5_TS_FINAL.pdf

https://en.wikipedia.org/wiki/Henry%27s_law

https://eike-klima-energie.eu/2021/06/29/karlsruhe-contra-freiheit-der-wissenschaft/

https://www.pmel.noaa.gov/co2/story/Ocean+Kohlenstoff+Aufnahme#:~:text=Es%20dauert%20etwa%20ein%20Jahr%20zur%20Ausgleichung%20des%20CO,der%20Ozeane%20durch%20die%20Biologie%20und%20die%20Ozeanzirkulation

  1. https://www.sciencedirect.com/science/article/abs/pii/S0921818116304787
  2. https://data.giss.nasa.gov/precip_cru/graphs/

https://ourworldindata.org/search?q=global+precipitation+

https://www.dwd.de/DE/leistungen/zeitreihen/zeitreihen.html#buehneTop

  1. https://link.springer.com/article/10.1007/s10712-017-9416-4

https://climatlas.com/tropical/

 




Das EU-Parlament will die Zwangssanierung für Millionen Wohnhäuser

Das Europäische Parlament will Hausbesitzer zu Sanierungen zwingen, um bis 2030 die Energieeffizienzklasse „E“ zu erreichen. Wenn die nationalen Regierungen mitmachen, kommen auf Millionen Immobilienbesitzer horrende Kosten zu. Für viele wäre es de facto eine Enteignung. Die KfW schätzt die Kosten auf 254 Milliarden €

Von Holger Douglas

Das EU-Parlament hat mit einer Mehrheit von 343 zu 216 Stimmen eine Zwangssanierung sämtlicher Häuser beschlossen. Danach sollen bis zum Jahre 2050 alle Gebäude klimaneutral sein – und zwar europaweit. Bereits ab 2028 sollen nur noch Gebäude gebaut werden dürfen, die als „emissionsfrei“ gelten. Vorhandene Gebäude müssen saniert werden, wenn sie als schlecht eingestuft werden.

Wohngebäude in Deutschland sollen bis 2030 mindestens eine Energieeffizienzklasse „E“ erreichen. Gebäude der schlechteren Klassen sollen saniert werden – zwangsweise. Zu diesem Zweck sollen für Wohngebäude europaweit harmonisierte Energieeffizienzklassen mit einer Skala von A bis G eingeführt werden, von der schlechtesten A zur besten G. Alle Neubauten sollen ab 2028 mit Solaranlagen ausgestattet sein, „sofern dies technisch möglich und wirtschaftlich vertretbar ist“ – wie es einschränkend heißt.

Über die Einzelheiten der Ausgestaltung will das EU-Parlament jetzt mit den Mitgliedstaaten verhandeln. Danach muss Deutschland die Richtlinie in deutsches Recht übertragen.

Verbessert werden müssen Dämmung oder Heizung, wenn Gebäude verkauft oder in größerem Maßstab renoviert werden oder wenn ein neuer Mietvertrag unterzeichnet wird. Wie genau diese Vorgaben in Deutschland umgesetzt werden sollen, muss dann in einem sogenannten nationalen Sanierungsplan festgelegt werden.

Der soll auch Förderprogramme enthalten, die Zuschüsse und Finanzierung möglich machen. Die EU will, so hieß es aus Straßburg, 150 Milliarden Euro zur Verfügung stellen. Davon profitieren dürften vor allem Gutachter, Klima-NGOs und die (meist chinesischen) Hersteller von Solarmodulen.

Das Ganze läuft weiter unter dem Paket des sogenannten Green Deal, den die derzeitige Kommissionspräsidentin Ursula von der Leyen vorangetrieben hat mit dem Ziel der „Klimaneutralität“ der Europäischen Union bis 2050.

Vertreter der Immobilienbranche weisen diese Vorhaben als absurde Vorschläge zurück und rechnen vor, dass sich allein in Deutschland die Ausgaben für Sanierungen von Millionen von Häusern auf 182 Milliarden Euro pro Jahr belaufen würden. Woher die Materialien und Handwerker kommen sollen, hat das EU-Parlament nicht beschließen können. Der Berichterstatter für diese Richtlinie, der irische Grünen-Abgeordnete Ciarán Cuffe, wird in der Pressemitteilung mit den fast zynisch scheinenden Worten zitiert: „Die Verbesserung der Leistung der Gebäude in Europa wird unsere Rechnungen und unsere Abhängigkeit von Energieimporten verringern. Wir wollen, dass die Richtlinie die Energiearmut verringert, die Emissionen senkt und ein besseres Innenraumklima für die Gesundheit der Menschen schafft. Dies ist eine Wachstumsstrategie für Europa, die Hunderttausende von hochwertigen, lokalen Arbeitsplätzen im Baugewerbe, in der Renovierungsbranche und im Bereich der erneuerbaren Energien schaffen und gleichzeitig das Wohlbefinden von Millionen von Menschen in Europa verbessern wird.“

Für viele Hausbesitzer bedeutet diese „Wachstumsstrategie“ allerdings möglicherweise eine Enteignung, wenn sie die zur Sanierung notwendigen Summen nicht mehr bezahlen können. In der Pressemitteilung des Europäischen Parlaments ist nur von „Förderprogrammen“ die Rede, die die nationalen Renovierungspläne enthalten sollen, und von kostenneutralen „Renovierungsprogrammen“. Das heißt, Immobilienbesitzer müssen auf staatliche Hilfen hoffen, um sich nicht finanziell zu ruinieren.

Fachleute schätzen, dass allein in Deutschland rund 6 Millionen Häuser neue Dächer und eine Dämmung mit brennbarem Schaumstoffen erhalten müssen. Der KfW zufolge könnten Summen bis zu 254 Milliarden Euro zusammenkommen.

Der Beitrag erschien zuerst bei TE hier

 




Berliner Klima-Volksentscheid: Millionen aus New York und der Solarszene!

Die Initiatoren der Berliner Klima-Volksabstimmung haben mal eben die schlanke Summe von 1,2 Millionen an Spendenunterstützung aus obskuren Quellen bekommen. Das Beste, was man dagegen tun kann, ist nein sagen, das heißt, der Abstimmung einfach fernzubleiben.

Von Vera Lengsfeld

Haben Sie auch ständig das Gefühl, dass das Klima-Thema in Deutschland massiv gepusht wird? Dass der öffentliche Diskurs massiv beeinflusst wird? Sie bilden es sich nicht nur ein. Die Corona-Propaganda ist nahtlos von der Klimapropaganda abgelöst worden.

Das aktuelle Beispiel schlägt dem sprichwörtlichen Fass den Boden aus. Am 26. März findet in Berlin ein „Klima“-Volksentscheid statt. Und die Initiatoren haben mal eben die schlanke Summe von 1,2 Millionen Euro an Spendenunterstützung bekommen.

Ist es auch Wahnsinn, so hat es doch Methode: Berlin ist seit über sechs Jahren durch von rot-grün-links verantworteter kollektiver Verantwortungslosigkeit geprägt (die alle eh schon schlimmen Zustände massiv verstärkt hat). Berlin hat eine linke Regierung, mit knallharter Ideologie, insbesondere vonseiten der Grünen (z.B. systematische Bremsung von Wohnungsneubau in der Stadt, ständige Schikanen gegen Pendler und Autoverkehr). Das kam bei den Berlinern zum Schluss nicht gut an. Kürzlich hatte die deutsche Hauptstadt die Wiederholungswahl, bei der rot-grün-links politisch abgewählt wurde.

Kein gutes Zeichen für den Volksentscheid „Berlin klimaneutral bis 2030“. Ein Anliegen, das unter dem Mantel Weltrettung neben der absoluten Nichtumsetzbarkeit der offiziellen Ziele (95 Prozent CO2-Reduktion in Berlin bis 2030) jede Menge Schikanen für die noch verbliebenen Normalbürger vorsieht (weniger Parkplätze, teurerer Strom, Schikanierung von Pendlern, Wohnungs- und Hausbesitzern etc.), dafür aber weitere Umerziehungsbildungsprogramme als Arbeitsbeschaffung für die grün-linke Innenstadtkernklientel vorsieht. Also eigentlich das reine Horrorprogramm für eine Stadt, die unter massiver Wohnungsnot, Inflation, Sicherheits- und Integrationsproblemen ächzt, vom Zustand der Schulen und der Verwaltung ganz zu schweigen.

Das Momentum ist nicht mehr auf ihrer Seite

Nun ist die strukturelle linke-grüne Innenstadtmehrheit, unterstützt durch die leider immer noch mobilisierbaren Altgenossen von der PDS, immer für eine böse Überraschung gut: Trotzdem oder gerade deshalb scheint die versammelte Klimaszene eine Pleite zu wittern. Das Momentum ist nicht mehr auf ihrer Seite – seit immer mehr Leute verstanden haben, dass hinter der so genannten Klimarettung ein knallhartes Programm steckt: Deindustrialisierung, Wohlstandsabbau, dreisteste Klientelsubvention und schlimmste Bevormundung der Bürger. Der Berliner Volksentscheid soll unbedingt gewonnen werden, damit man weiterhin dieses Programm auch nach einem Machtwechsel durchziehen kann. Was an Überzeugungskraft fehlt, soll durch massive Propaganda wettgemacht werden.

Geld haben diese Leute offenbar: Man merkt dem unten verlinkten rbb-Bericht förmlich das Unbehagen an: Die obskure Klima-Combo hat unfassbare 1,2 Millionen Euro Kampagnengelder bekommen – laut rbb mehr, als alle Parteien in der Wiederholungswahl zusammengenommen zur Verfügung hatten! Auf jeden Fall sehr viel mehr als sachgerecht oder vertretbar – eine große Summe kam dabei aus New York von einem reichen Ehepaar und eine weitere, wenn auch nicht ganz so große Summe, aus dem Umfeld der deutschen Solarindustrie. Wobei man sich fragt, wieso ein amerikanisches Ehepaar so massiv in eine politische Entscheidung eingreift, die auch in Deutschland lediglich lokale Bedeutung hat

Für mich drängen sich da mehrere Schlüsse auf: Zunächst und an erster Stelle: Alle heimlichen Unterstützer eines liberal-konservativen Kurses der wirtschaftlichen und sozialen Vernunft müssen jetzt endlich mal aufwachen und den Kampf öffentlich annehmen. Die sich bis dato in Industrie- und Vermögendenkreisen geleistete vornehme Zurückhaltung muss ein Ende haben! Die unabhängige Wissenschaft muss unterstützt werden, denn sie liefert handfeste Argumente gegen die Klimapropaganda. Die notwendige politisch-mediale Auseinandersetzung ernährt sich nicht von Luft und Liebe oder Aufmunterungen in der Hinterstube.

Schlicht zuhause bleiben

Es muss verstanden werden, dass wir hier einer hochprofessionellen und zunehmend ruch- und rücksichtslos agierenden Maschinerie gegenüberstehen. Die Zeit der selbstquälenden „Wir-sind-ja-auch-für-die-Rettung-der-Welt“-Haltung muss ein Ende haben! Der momentan in Deutschland und Berlin praktizierte CO2-Planwirtschafts-Realsozialismus rettet keine Welt, schützt kein Klima, schadet der Umwelt massiv und entfaltet lediglich eine unfassbare destruktive freiheits- und wohlstandsvernichtende Kraft. Deutschlands Deindustrialisierung besorgen längst auch unsere europäischen Nachbarn. Was wird aus der EU, wenn Deutschland wegen dieser irren Selbstverstümmelungskapriolen als Hauptzahler ausfällt?

Mit Berliner oder deutscher Klima„neutralität“ wird keine Welt gerettet, sondern nur noch weitere tausende Windmühlen und Solarpaneele in Land und Stadt verbaut, bis unser Geld alle ist und das Stromnetz zusammenbricht.

Das dürfen wir nicht zulassen: Am 26. März reicht in Berlin ein Nichtabstimmen: Das 25-Prozent-Ja-Quorum ist gleichzeitig die absolute Mehrheit und die haben die linken Truppen auch in Berlin eigentlich nicht, wenn die noch schweigende Mehrheit endlich ihre Stimme erhebt, oder in diesem Fall, ihre Stimme verweigert und schlicht zuhause bleibt.

Der Bericht auf rbb24 hier.

Der Beitrag erschien zuerst bei ACHGUT hier

 

 




Faktencheck: Drei Modelle für die Temperaturgenese auf unserer Erde

von Uli Weber

Als Modell gilt in der Wissenschaft eine mehr oder minder umfangreiche Abbildung der Wirklichkeit (Zitat Wikipedia). Wenn wir diese Definition einmal umkehren, dann kann ein Etwas, das nicht irgendwie in der Wirklichkeit verankert ist, kein Modell der selbigen sein, sondern beispielsweise Science Fiction. Nun hatte sich in der Kommentarfunktion zu dem EIKE-Artikel „Neue Studie: Ein ‚Denkmodell‘, das von einem ‚natürlichen Treibhauseffekt‘ von 33 K ausgeht, ist eine ‚wertlose‘ Behauptung“ der Lead-Autor selbiger Studie bitterlich über meinen Modellvergleich „Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur“ auf EIKE (nachfolgend = Weber 2020) beklagt, Zitat Kramm am 5. Januar 2023 um 21:13 Uhr:

Wenn Sie glauben, nach dem Motto „Calumniare audacter, semper aliquid haeret“ eine Vielzahl von frei erfundenen Behauptungen  und Falschaussagen zu den  Arbeiten verbreiten zu koennen, die ich zusammen mit Fachkollegen angefertigt habe, um Zweifel an meiner Kompetenz zu schueren, dann nehme ich das nicht hin.“
(Alle Kramm-Zitate in diesem Artikel aus der Kommentarfunktion von „Neue Studie: …“)

Um zunächst einmal der Freiheit von Meinung und Information Genüge zu tun, finden Sie meinen knapp 8-seitigen EIKE-Artikel „Weber (2020)“ unter dem obigen Link und Kramms 35-seitige Entgegnung hier.

Dem Angebot des EIKE-Admins vom 5. Januar 2023 um 22:08 Uhr, eine Widerlegung meiner Ergebnisse auf diesem Blog zu veröffentlichen, ist Kramm bisher nicht nachgekommen. Vielmehr hatte Kramm diesen Vorschlag bereits am 6. Januar 2023 um 12:45 Uhr mit einem Kommentar @Admin zurückgewiesen. Daher stelle ich mich jetzt umgekehrt Kramms Kritik und werde nachfolgend die Richtigkeit meines Modells und meiner Analysen gegenüber dessen Zitaten nachweisen. Zur Diskussion stehen damit folgende Modelle:

  1. Das herkömmliche globale Faktor4-Tag=Nacht-THE-Modell mit seinem globalen [-18°C]-Ansatz aus einer physikalischen Fehlanwendung des Stefan-Boltzmann-Gesetzes.
  2. Das breitenabhängige Temperaturmodell von Kramm et al. (2017), in dem sich Kramm mit einem Faktor4-Tag=Nacht-Ansatz für eine „Erde ohne Atmosphäre“ auf die Arbeiten von hochrangigen Physik-Koryphäen aus dem 19. und 20. Jahr­hundert stützt.
  3. Mein hemisphärisches Stefan-Boltzmann-Modell für die Temperaturgenese auf unserer realen Erde, bei dem ich mich auf die zwingende Gleichzeitigkeit von Temperatur und Strahlung im Stefan-Boltzmann-Gesetz sowie die jahrtausendealten Kenntnisse der Landbevölker­ung über die Existenz von Tag und Nacht berufe.

Modell (A): Am 5. Januar 2023 um 21:13 Uhr behauptet Gerhard Kramm unter Punkt 1, Zitat mit Hervorhebungen:

Es ist also in der Fachliteratur ueblich, entweder die ortsabhanegige taegliche solare Einstrahlung oder die ortsabhaengige mittlere taegliche solare Einstrahlung zu veranschaulichen. In den beiden obigen Diagramm sind jeweis die geographische und jahreszeitliche Verteilung der mittleren taeglichen solaren Einstrahlung dargestellt. Die zugehoerige taegliche solare Einstrahlung liefert das gleiche Muster der Verteilung, denn alle Werte der mittleren taeglichen solaren Einstrahlung muessen nur mit 86400 s. multipliziert werden. Sie streiten diese Verteilung der taeglichen solaren Einstrahlung ab.

Die globale Mittelung ueber diese geographische und jahreszeitliche Verteilung der solaren Einstrahlung liefert das seit Meech (1857) und Wiener (1877, 1879) bekannte Ergebnis, dass das globale Mittel der solaren Einstrahlung dem vierten Teil der Solarkonstanten entspricht. Die numerischen Simulationen von Kramm et al. (2017) lieferten fuer das Jahr 2010 ein globales Mittel von 340,2 W/m². Die verwendete Solarkonstante betrug 1361 W/m². Der Quotient 340,2/1361 betraegt 0.24996.“

Ich kann mich zwar nicht auf Meech (1857) und Wiener (1877, 1879) -(sowie Milanković (1920, 1941) bei Kramm et al. (2022))- berufen, habe aber den herkömmlichen Faktor4-Ansatz mit einer globalen Durch­schnittstemperatur von [-18°C] zuletzt in meinem EIKE-Beitrag „Schwarzschild und die Lösung der Strahlungstransfer­gleichung – ein physikalischer Hütchentrick?“ ausführlich widerlegt.

Die Situation beim herkömmlichen Faktor4-Ansatz stellt sich folgendermaßen dar:

Der Faktor4-Ansatz benötigt einen sogenannten „natürlichen atmos­phärischen Treibhauseffekt“, um die sogenannte „gemessene globale Durchschnittstemperatur“ zu erklären. Dazu ist wiederum eine sogenannte „atmosphärische Gegenstrahlung“ erforderlich, zu deren Entstehung sie selber beitra­gen muss. Dieser Mechanismus ist vergleichbar mit dem Chuck-Norris-Paradoxon, der in einem Blockhaus geboren worden sein soll, das er selber erbaut hatte. Denn selbst die THE-Anhänger wissen es besser, was die nachstehende Abbildung beweist:

Abbildung 3.34 von Seite 51 aus „Physik der Atmosphäre“ von Niklaus Kämpfer

Zwischen der „einfallenden Sonnenstrahlung“ und der „ausgehenden Infrarot-Strahlung“ liegt nämlich die terrestrische Temperaturgenese. Denn ein Vektor ändert nicht freiwillig seine Richtung. Es wird hier ganz deutlich, dass sich das Strahlenbündel der einfallenden Solarstrahlung auf eine Kreisfläche (PiR²) mit dem Erdradius R beschränkt. Die Abstrahlung erfolgt dann über die gesamte Erdoberfläche (4PiR²). Aber die Temperaturgenese, bei der sich die Richtung des Poynting-Vektors vom solaren Einfall zur terrestrischen Abstrahlung umkehrt, findet ausschließlich auf der Taghemisphäre (2PiR²) unserer Erde statt. Die Abbildung 3.34 entspricht also prinzipiell meinem hemisphärischen Stefan-Boltzmann-Modell.

Ergebnis für Modell (A): Selbstverständlich bestreite ich, dass die Sonne hier auf der Erde Tag und Nacht mit gemittelter halber Strahlstärke scheint. Denn für das, was am Ende nach Anwendung der Strahlungstransfergleichung ‘rauskommt (Abstrahlung) ist entscheidend, was da vorher auf der Tagseite als Eingangsgröße überhaupt an Sonnenstrahlung ‘reingegangen (Einstrahlung) ist. Und da ist der globale Faktor4-Ansatz halt ungenü­gend, denn wenn nur die Hälfte ‘reingeht (Faktor4 anstatt Faktor2), kann dabei auch nur die Hälfte ‘rauskommen (235W/m² anstatt 470W/m²).

Anmerkung: Auch hier wird wieder mit den in der Klimawissenschaft offenbar üblichen Durchschnittswerten argumentiert, was bei einer T-hoch-4-Funktion physikalisch nicht korrekt ist. Für detaillierte Angaben sei auf meinen Artikel „Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz“ verwiesen.

Modell (B): Weiter geht es nun mit Kramm et al. (2017), die einem verfeinerten Faktor4-Ansatz folgen (Quotient = 0,24996 anstelle von 0,25), aus dem sich eine breitenabhängige Temperaturverteilung mit den Maxima am Pol der jeweiligen Sommerhemisphäre herleitet. In seiner E-Mail vom 29.01.2021 um 09:58 Uhr* an mich und den üblichen Skeptiker-Email-Verteiler hatte Dr. Gerhard Kramm ein PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ (in der Folge „Kramm (2021)“) mit einem direkten Temperaturvergleich zwischen meinem hemisphärischen S-B-Modell und seiner „Erde ohne Atmosphaere“ verschickt. Wie erwartet spiegeln die Beleuchtungsklimazonen (Definition) unserer Erde den Verlauf der maximalen örtlichen solaren Strahlungsleistung und zeigen keinerlei Hotspot am Pol der Sommerhemisphäre. Diese Beleuchtungsklimazonen sind in der nachfolgenden Abbildung (hier finden Sie die Originaldarstellung) als Overlay über die beiden genannten Modelle projiziert worden:

https://eike-klima-energie.eu/wp-content/uploads/2022/07/word-image-94764-6.jpegAbbildungen a* und b* aus Kramm (2021): Der Modellvergleich aus dem PDF-Dokument von Kramm (2021)* mit jeweils einem Overlay der Beleuchtungsklimazonen (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

(a [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

(b [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5)

Anmerkung: Die Overlays der Beleuchtungsklimazonen sind gegenüber den Modellen a und b nicht flächentreu

Vorläufiges Ergebnis: Bekanntermaßen ist die temperaturbestimmende spezifische solare Strahlungsleistung in den Tropen nun einmal am höchsten (Abbildung a*) und fällt dann zu den Polarregionen kontinuierlich ab, wie es auch die Overlays der Beleuchtungsklimazonen in den Abbildungen a* und b* prinzipiell zeigen. Es ist demnach unschwer zu erkennen, welche Grafik ein physikalisches Modell unserer Erde darstellt (mein hemisphärisches S-B-Modell) und welche Grafik mit einem Wärmepol auf der Sommerhemisphäre (Kramm et al. 2017) reine Science-Fiction ist.

Komplikation: Kramm hält der Analyse in meinem Artikel „Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur“ (Weber 2020) nun entgegen, Zitat aus seinem Kommentar vom 6. Januar 2023 um 17:53 Uhr mit Hervorhebungen:

Zur Bewertung der geographischen und jahreszeitlichen Verteilung der „slab“-Temperatur im Falle einer Erde ohne Atmosphaere nach Abbildung 22 (a) vonKramm et al. (2017) war nicht die Verteilung der solaren Einstrahlung nach Abbildung 22 (b) erforderlich, auf die Sie sich berufen haben, sondern die entsprechende Verteilung der absorbierten solaren Strahlung in Abbildung 22 (c), die Sie durch Vertuemmeln der Abbildung 22 weggelassen haben. Da Sie auch die Bildunterschrift verstuemmelt haben, darf man wohl vorsaetzliches Faelschen unterstellen. Und nun wollen Sie sich damit rausreden, dass Sie ja gar nicht die Abbildungen 22 (c) – (e) erwaehnt haetten. Fuer wie dumm halten Sie eigentlich die Foristen?

Naja, zumindest die MEISTEN halte ich für schlau genug, um nicht JEDEM ALLES zu glauben: Sehr erstaunlich ist nämlich, dass die Abbildung 22 (a) bis (e) von Kramm et al. (2017) jetzt von Kramm et al. (2022) als Abb. 2 (a) und (b) „verstuemmelt“ wiederverwendet wurde, und zwar ohne die konkreten Aussagen des verantwortlichen Lead-Autors in der oben zitierten Kommentierung bezüglich der Verbindung zwischen den Abb. 22 (a) und 22 (c) berücksichtigt zu haben. Im Gegenteil wird dort ohne eine dahingehend erforderliche Erklärung die Abb. 22 (a) direkt und eindeutig der Abb. 22 (b) gegenübergestellt:

“Copyright ⓒ 2022 by author(s) and Scientific Research Publishing Inc.
This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).”

Anmerkung: Diese Abbildung 2 aus Kramm et al. (2022) zeigt, bis auf eine etwas ausführlichere Bildunterschrift, exakt die von Kramm kritisierte Abbildung 22 (a) und 22 (b) aus Weber (2020), die ebenfalls aus Kramm et al. (2017) stammt.

In meinem Artikel „Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur“ (Weber 2020) hatte ich mich folgendermaßen über die Abbildungen [22 (a) und (b) von Kramm et al. (2017) = 2 (a) und (b) von Kramm et al. (2022)] geäußert, Zitat:

In der Abbildung 22a von Kramm et al. (2017) weist die rote Farbgebung nun eine Maximaltemperatur zwischen 280K und 300K für den jeweiligen Pol der Sommerhemisphäre aus. Diese Temperaturspanne entspricht jedoch nicht der entsprechenden spezifischen Strahlungsleistung aus Abbildung 22b mit mehr als 500W/m² (Nordpol) respektive mehr als 550W/m² (Südpol). Denn damit müssten die Ortstemperaturen an den Polen der Sommerhemisphäre in Abbildung 22a deutlich mehr als 300K betragen. Daher können die Temperaturen in Abbildung 22a eindeutig nicht aus den Strahlungswerten von Abbildung 22b hergeleitet worden sein. Sicherlich wird der verantwortliche Lead-Autor diesen Widerspruch mit dem ihm eigenen Charme durch eine plausible physikalische Erklärung auflösen können, die seinen hohen wissenschaftlichen Ansprüchen gerecht wird. Bis dahin bleibt nur der hinreichende Verdacht, dass beim Datensatz für die Strahlungsleistung in Abbildung 22b eine Verwechslung mit den Grunddaten @TOA vorliegen muss.“

Die Temperatur in Abb. 22 (a) hat ihr Maximum um den jeweiligen Sommerpol, genauso wie die solare Einstrahlung in Abbildung 22 (b), während die Grafik 22 (c) ihre Maxima auf der Nordhemisphäre zwischen ca. 30°N und 50°N hat. Im Sommer der Südhemisphäre reicht das Maxima der Grafik 22 (c) sogar vom Südpol bis in die Tropen. Die nachfolgende Abbildung 22 (a) bis (c) mit einem Overlay der Temperatur-Grafik 22 (a) verdeutlicht diese Situation:

Kramm et al. (2017): “Figure 22. Daily mean values of (a) slab temperature; (b) solar radiation reaching the Earth’s surface; (c) absorbed solar radiation, where the local solar albedo has been predicted by Equation (6.3); as predicted for one year starting with TDB = 2,455,197.5 (January 1, 2010, 00:00 UT1)
Grafiken (b), und (c) mit einem Overlay von Grafik 22(a) mit dem Faktor4-Temperaturmodell

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

Das Maximum der Absorption (c) verschiebt sich also vom polaren Maximum der mittleren täglichen solaren Einstrahlung (b) weg in Richtung auf die Tropen. Bei der Berechnung der Temperatur (a) wäre nach Kramms Kommentar also ein zu (c) kongruentes Temperaturmuster zu erwarten. Stattdessen soll dann bei der Temperaturberechnung ausgerechnet eine gegensinnige Rückverschiebung der entsprechenden Temperaturmaxima aus (c) kongruent zu (b) in Richtung auf die Pole erfolgt sein? – Ja, wer glaubt denn sowas! Der vom verantwortlichen Lead-Autor vorgegebene Zusammenhang zwischen der spezifischen Strahlungsleistung der absorbierten Strahlung und der Temperatur [(c) => (a)] in der Abbildung 22 von Kramm et al. (2017) kann also nicht sinnhaft nachvollzogen werden.

Der Schluss, dass die Grafik 2 (a) aus der tagesdurchschnittlichen solaren Strahlungsleistung 2 (b) abgeleitet worden sein muss, ist jetzt also durch das Fehlen der 2017er-Grafik 22 (c) bei Kramm et al. (2022) zwingend geworden.

Jedenfalls lassen die Autoren diesen klaren Eindruck für den Betrachter so stehen, obwohl die Temperaturen in Abb. 2 (a) und die zugehörigen Strahlungsleistungen in Abb. 2 (b) vom Betrag her einfach nicht zueinander passen. Trotzdem bestätigen Kramm et al. (2022) eine Ableitung der Temperaturen 2 (a) aus der tagesdurchschnittlichen Einstrahlung 2 (b) ausdrücklich, indem sie zu ihren Abbildungen 1 bis 3 angeben, Zitat von Seite 388 (unten) mit Hervorhebungen:

As illustrated in Figures 1-3, the distribution of the surface temperature on a planet or a natural satellite (like Earth’s Moon or Jupiter’s Galilean moon Io) in the absence of an atmosphere is non-uniform. As outlined by von Hann, this distribution of the surface temperature is mainly governed by the solar insolation defined as the flux of solar radiation per unit of horizontal area for a given location [8].”

Dieser klaren Aussage aus Kramm et al. (2022) widerspricht nun Kramm selbst in seinem aktuellen Kommentar diametral. Zur Erinnerung noch einmal Kramms Zitat aus seinem Kommentar vom 6. Januar 2023 um 17:53 Uhr mit Hervorhebungen:

Zur Bewertung der geographischen und jahreszeitlichen Verteilung der „slab“-Temperatur im Falle einer Erde ohne Atmosphaere nach Abbildung 22 (a) vonKramm et al. (2017) war nicht die Verteilung der solaren Einstrahlung nach Abbildung 22 (b) erforderlich, auf die Sie sich berufen haben, sondern die entsprechende Verteilung der absorbierten solaren Strahlung in Abbildung 22 (c), die Sie durch Vertuemmeln der Abbildung 22 weggelassen haben.

Es liegen von Kramm et al. (2022) und Kramm selbst also diametral gegenteilige Erklärungen darüber vor, wie und aus welchen Strahlungswerten die in Abbildung 22 (a) / 2 (a) dargestellten Temperaturen tatsächlich berechnet worden sind. Offenbar sind aber beide Aussagen falsch, weil die Temperaturwerte in Abb. 22 (a) / 2 (a) nach der hier dargelegten Indizienlage aus dem Datensatz der Abb. 22 (b) / 2 (b) durch Reduzierung um eine konstante Albedo entstanden sein müssen.

Wenn also bisher noch kein Korrigendum für die Abbildung 22 aus Kramm et al. (2017) erfolgt sein sollte, dann ist es jetzt mit der Abbildung 2 aus Kramm et al. (2022) aber wirklich allerhöchste Zeit. Die Indizienlage gegen das Temperaturmodell von Kramm et al. (2017) ist erdrückend, aber trotzdem gilt selbstverständlich weiterhin die Unschuldsvermutung dahingehend, dass die Aussagen des verantwortlichen Lead-Autors bezüglich der Temperaturberechnung [22 (c) => 22 (a)] aus Kramm et al. (2017) trotz des Widerspruchs [2 (b) => 2 (a)] aus Kramm et al. (2022) beweisbar sein könnten. Dieser möge daher die vorliegenden Indizien einfach durch einen qualifizierten Kommentar zu dem Widerspruch

[22(c)=>22(a)@Kramm] # [2(b)=>2(a)@Kramm et al. (2022)] = beides falsch (Weber)

ausräumen – aber bitte höflich, sachlich, allgemeinverständlich und nicht überschäumend länglich.

Ergebnis für Modell (B): Die Klimarealisten sollten aufpassen, mit welchen Temperaturmodellen sie in der Diskussion um unsere industrielle Zukunft auftreten. Das Kramm’sche Modell ist dafür gänzlich ungeeignet, weil es eine inverse Welt darstellt. Abgesehen davon ist mir bisher keine bestätigende breitenabhängige Temperaturverteilung mit einem Hotspot auf dem jeweiligen Sommerpol bekannt geworden. Und dieses Modell von Kramm et al. (2017) wird dadurch auch nicht besser, dass man es immer wieder neu veröffentlicht.

Modell (C): Von den konkurrierenden theoretischen Temperaturmodellen für unsere reale Erde wird der natürliche Verlauf der Beleuchtungsklimazonen also lediglich von meinem hemisphärischen S-B-Modell (Abb. a*) sinnstiftend abgebildet:

Abbildung: Vergleich des hemisphärischen S-B-Modells mit den Beleuchtungsklimazonen der Erde

Links: Das hemisphärische S-B-Modell aus dem Modellvergleich von Kramm (2021)*
Text: Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

Rechts: Beleuchtungsklimazonen der Erde (N-S gestreckt)
Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Ergebnis für Modell (C): Allein mein hemisphärisches Stefan-Boltzmann-Modell ist in der Lage, die terrestrische Temperaturgenese räumlich und zeitlich korrekt abzubilden, und zwar ohne auf einen sogenannten „natürlichen atmosphärischen Treibhauseffekt“ zurückgreifen zu müssen. Dieses Modell kann sowohl die „gemessene“ globale Temperatur auf der Tagseite unserer Erde über eine korrekte S-B-Berechnung erklären, als auch die Nachttemperatur über die S-B-Umgebungsgleichung und den Wärmeinhalt der globalen Zirkulationen.

Fazit dieses Faktenchecks: Der Faktor4-Ansatz für die Sonneneinstrahlung auf unserer Erde ist falsch, denn darauf beruht die Sage vom „natürlichen atmosphärischen Treibhauseffekt“. Mein hemisphärisches S-B-Modell ersetzt als realistisches Modell unserer Erde ohne THE sowohl den konventionellen Faktor4-Tag=Nacht -Ansatz der real existierenden Klimawissenschaft mit einem fehlerhaft konstruierten globalen „natürlichen atmosphärischen Treibhauseffekt“ von konstant 33°C, als auch das Modell einer jahreszeitlich variablen breitenabhängigen Durchschnittstemperatur von Kramm et al. (2017) / Kramm et al. (2022) mit seinem polar beheizten inversen Temperaturmodell für unsere Erde, wie die nachfolgende Tabelle beweist:

C:\Users\Uli\Documents\Ablage & Archiv\Veröffentlichungen\2020\2020-11-13 Lüdecke\Data\Tabelle Inversionen-rev4B&W.jpgTabelle: Vergleich zwischen meinem hemisphärischen S-B-Modell und dem herkömmlichen Faktor4-Tag=Nacht-THE-Ansatz, womit sich Letzterer erledigt hat. Eine Diskussion dieser und weiterer Ansätze ist in „Eine Analyse der Thesen/Antithesen für einen ‚natürlichen atmosphärischen Treibhauseffekt‘“ – Teil-1Teil-2Teil-3 – nachzulesen.

 


*) Erklärung: 
Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Adressat der o. g. E-Mail vom 29. Januar 2021 um 09:58 Uhr mit Kramms PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ und den dort enthaltenen Abbildungen 15 a und b (hier Abbildungen a und b aus Kramm (2021)) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein. Ich beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung dieser Graphiken, Zitat:

“CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, die Inhalte der besagten E-Mail Kramm vom 29. Januar 2021 um 09:58 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.“

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.