Deutschland: Die Kosten der Energiewende verstecken

In der Schweiz blickt man immer mit einem gewissen Interesse nach Deutschland. Die sogenannte Energiewende, die dort läuft, gleicht in Vielem den Plänen, die auch unser Land umsetzen will. Deutschland plant, bis Ende nächstes Jahr die verbliebenen sechs Atomkraftwerke abzustellen und bis 2038 auch aus der Kohleverstromung auszusteigen. Die so entstehende riesige Stromlücke soll durch Alternativenergie gestopft werden, im Wesentlichen durch Sonnen- und Windstrom. Der Umbau ist schon in vollem Gang.

In der Schweiz soll nach dem beschlossenen Ausstieg aus der Atomkraft der Strom ebenfalls zu grossen Teilen von Solar- und Windkraft-Anlagen kommen. Die Schweizer Energiewende geht allerdings weit langsamer voran, sodass die deutsche Energiewende – je nach Standpunkt – als Vorbild oder abschreckendes Beispiel dient.

Weder Wind- noch Sonnenstrom sind derzeit marktfähig. Deshalb muss ihre Produktion mit viel Geld subventioniert werden. Die Betreiber von Windrädern und Solaranlagen bekommen während 20 Jahren nach der Erstellung einer Anlage einen festen Preis für den Strom, den sie ins Netz einspeisen. In Deutschland ist das im Erneuerbare-Energien-Gesetz (EEG) geregelt. Um die Subventionen zu finanzieren, bezahlen die Stromkunden pro Kilowattstunde (kWh) einen Zuschlag, die EEG-Umlage.

Der teuerste Strom Europas

Die Subventionierung von Alternativstrom hat in Deutschland in den letzten Jahren mit jährlich rund 30 Milliarden Euro schwindelerregende Höhen erreicht. Entsprechend ist die EEG-Umlage immer weiter gestiegen und betrug zwischenzeitlich fast 7 Eurocents pro Kilowattstunde. Damit macht die EEG-Umlage etwa einen Viertel des Strompreises aus. Auch wegen weiteren Zuschlägen ist der Strom in Deutschland so teuer geworden wie sonst nirgends in der Europäischen Union. Der Strompreis liegt 43 Prozent über dem Schnitt der EU-Länder.

Das bringt viele Privatleute mit kleinem Portemonnaie in finanzielle Nöte. Eine Familie mit einem Durchschnittsverbrauch von 4000 Kilowattstunden bezahlt mittlerweile über 300 Euro pro Jahr für die EEG-Umlage. Zudem gerät auch die Konkurrenzfähigkeit der deutschen Wirtschaft mehr und mehr in Gefahr. Erst kürzlich hat der Bundesrechnungshof die hohen Strompreise kritisiert. Diese würden die gesellschaftliche Akzeptanz der Energiewende aufs Spiel setzen, warnte er in einem Bericht. (siehe hier)

Die Koalitionsregierung aus CDU/CSU und SPD ist also unter Druck. Sie will den Ausbau von Wind- und Solaranlagen auf jeden Fall vorantreiben, muss aber die Stromkonsumenten dringend finanziell entlasten. Also bedient sie sich beim allgemeinen Bundeshaushalt.

EEG-Umlage soll abgeschafft werden

Schon für dieses und nächstes Jahr wendet die Koalition Milliardenbeträge aus dem Bundeshaushalt auf, um die EEG-Umlage zu senken. Diese beträgt 2021 noch 6,5 Eurocents pro kWh und 2022 noch 6 Eurocents pro kWh. Vor wenigen Tagen hat die Koalition nun beschlossen, dass in den beiden darauf folgenden Jahren die Steuerzahler noch stärker zur Finanzierung des Ökostrom-Subventionen herangezogen werden sollen. 2023 und 2024 wird die EEG-Umlage so auf unter 5 Eurocents pro kWh sinken.

MIttelfristig soll die EEG-Umlage gar vollständig abgeschafft werden, wie es schon im Februar aus dem Wirtschaftsministerium von Peter Altmaier (CDU) hiess. Die milliardenschwere Subventionierung wird künftig ganz aus allgemeinen Mitteln bestritten werden. Das hat für die Koalitionsregierung den Vorteil, dass viel weniger sichtbar ist, wie viel Geld die Energiewende kostet.

So lässt sich das Geld wieder viel lockerer ausgeben: Die Koalition hat mit der Absenkung der EEG-Umlage für 2023 und 2024 gleich auch beschlossen, die für 2022 vorgesehene Ausschreibungsmenge für Wind- und Sonnenstrom kurzfristig «deutlich» zu erhöhen. Diese wird für Wind an Land von 2,9 Gigawatt auf 4,0 Gigawatt Zubau angehoben, für Fotovoltaik gar von 1,9 Gigawatt auf 6,0 Gigawatt.

Die Einspeisevergütung soll auslaufen

In der Schweiz drückt das Pendant zur EEG-Abgabe, die Abgabe für die Kostendeckende Einspeisevergütung (KEV), noch nicht so stark aufs Portemonnaie wie in Deutschland. Mit der KEV werden die Produzenten von Alternativstrom ebenfalls mit festen Tarifen während 20 Jahren nach dem Bau einer Anlage abgegolten. Mit dem Energiegesetz, das das Volk 2017 angenommen hat, stieg die KEV-Abgabe auf 2,3 Rappen pro kWh.

Vorgesehen ist, dass die KEV 2023 ausläuft – das heisst, dass aber dann keine weiteren Anlagen mehr in die Finanzierung aufgenommen werden. Die KEV soll dann durch Einmalvergütungen für Anlagen über wettbewerbliche Ausschreibungen abgelöst werden. Ob es wirklich so kommt, bleibt abzuwarten – denn Subventionen haben allgemein die Tendenz, sich zu verewigen.

Der Beitrag erschien zuerst im Schweizer Nebelspalter hier




Ein Kommentar zu dem Artikel in der WELT am Sonntag vom 25.April 2021 „ Goliaths fürs Klima“

Schon die Gründung des Club of Rome vor einem halben Jahrhundert war ein handverlesener Club der Goliaths, der Mächtigen, der Reichen und des Adels. Seine Botschaft war, dass die Grenzen des Wachstums nun erreicht seien, weil eine Industrialisierung anderer Kontinente mit dem Rohstoffhunger der westlichen Industriestaaten nicht zu vereinbaren sei. Der Gründung des Clubs folgte am 10. Dezember 1974 das berüchtigte Strategiepapier NSSM 200 ( National Security Study Memorandum 200) mit dem Titel: „ Memorandum 200 zur nationalen Sicherheit: Implikationen des weltweiten Bevölkerungswachstums für die Sicherheitsinteressen der USA in Übersee.“, unterzeichnet vom damaligen Außenminister Kissinger.

Zitat aus dem umfangreichen Text, Kapitel III:

Der größte Faktor, der die Nachfrage nach nichtlandwirtschaftlichen Rohstoffen beeinflußt, ist das Niveau der industriellen Aktivität, regional und global. So konsumieren z.B. die USA mit 6% der Weltbevölkerung etwa ein Drittel der Ressourcen. Die Nachfrage nach Rohstoffen, im Unterschied zu den Nahrungsmitteln, ist nicht direkt vom Bevölkerungswachstum abhängig. Die gegenwärtige Verknappung und die hohen Preise für die meisten dieser Rohstoffe ist im Wesentlichen ein Resultat des Aufschwunges in allen Industrieregionen in den Jahren 1972 und 73.“ (hier)

Dieses Papier und etliche weitere unterlagen bis 1990 strenger Geheimhaltung, denn wer wollte schon offen zugeben, dass die Politik darauf abzielte, eine erfolgreiche Industrialisierung der Entwicklungsländer zu verhindern?

Die Idee von den Grenzen des Wachstums wurde deshalb in Tücher des Umweltschutzes verpackt und dem Club in den Schoß gelegt, der sich in den folgenden Jahrzehnten an verschiedensten Themen wie schwindende Ozonschicht, neue drohende Eiszeit, Waldsterben usw. versuchte. Shließlich fand man, dass der Klimawandel von allen Themen das geeignetste sein könnte. Betrachten wir die Welt nicht vom deutschen Standpunkt, sondern als Ganzes, muß man allerdings zu dem Schluß kommen: Ein Erfolgskonzept war der Klimawandel nicht, trotz jahrzehntelanger Propaganda. Auch deswegen gehen die Goliaths jetzt aufs Ganze.

Mission Possible Partnership

Die Hysterie, die man seit dem jüngsten Weltwirtschaftsforum im Januar beobachten kann, legt selbst naiven Beobachtern nahe, dass es nicht im entferntesten um den Planeten geht, sondern um die Rettung mächtiger Ansprüche seitens der „Mission Possible Partnership“, die 2019 gegründet und am 27. Januar 2021 bei der fünftägigen WEF-Konferenz von deren maßgebenden Vertretern Klaus Schwab, Prinz Charles und Mark Carney vorgestellt wurde. Die Mission Possible Partnership fordert jetzt den Turbo-Gang für die Dekarbonisierung aller Wirtschaftsbereiche in den nächsten 10 Jahren. Die Forderung nach 100 prozentiger Dekarbonisierung bis 2050 bedeutet nichts weniger als die schon öfters geäußerte politische Absicht, die gesamte Zivilisation um mindestens 250 Jahre zurückzuwerfen.

Sie fordert die radikale Dekarbonisierung aller Wirtschaftsbereiche, besonders auch der energieintensiven wie Zement-, Stahl-, Aluminium- und Chemieindustrie, sowie Schiffs- und Flugverkehr, Lastwagen, kurz, aller Transportmittel. Aber auch die Nahrungsmittelproduktion und das Gesundheitssystem stehen im Fokus. In der Zusammenfassung für Führungskräfte wird beklagt, dass der Gesundheitssektor (weltweit gerechnet) als Planetenverschmutzer an 5. Stelle steht und dass die USA alleine für 57 mal so viel Emissionen im Vergleich zu Indien verantwortlich sind. Die Antreiber dieser Zerstörungswut sind wieder altbekannte Institutionen: Das WEF   mit seinem exekutiven Arm, der Energy Transmission Commission, geleitet von Lord Adair Turner of Ecchinswell, mit 50 „Beauftragten“ aus den größten Finanzinstituten und multinationalen Konzernen der westlichen Gesellschaft, dann das Rocky Mountain Institute, gegründet 1982 und 2014 fusioniert mit Richard Bransons Carbon War Room und die Koalition globalierter Unternehmen We Mean Business. Dazu zählen einige der größten Banken weltweit wie Wells Fargo, Goldman Sachs, Bank of Amerika und JP Morgan. Es dürfte jedem auffallen, dass der Finanzsektor bei dieser Turbo-Strategie seit der Pariser Klimakonferenz im Mittelpunkt steht. Paul Bodnar, Vorsitzender des Center for Climate-Aligned Finance und Geschäftsführer des Rocky Mountain Institute gibt freimütig zu, dass es nicht ganz einfach ist ,die Industrie auf Linie zu bringen:

“Die Klimaausrichtung festigt sich als Goldstandard für den Finanzsektor, aber wir müssen anerkennen, wie schwierig es ist, die Weichen der Weltwirtschaft auf Netto-Null zu stellen. Das Center ( Center for climate aligned finance, AA) wird mitprägen, wie ehrgeizige Verpflichtungen tatsächlich zu nachhaltigen Auswirkungen umgesetzt werden können”.

Ein Rückfall in die Barbarei

Das Mercator-Research-Institute on Global Commons and Climate-Change in Berlin hat eine Studie gemacht, die selbst Schulkindern den Wahnsinn dieser Politik ganz einfach verdeutlichen kann. Die Studie trägt die Überschrift: 140000-quadratkilometer-solarzellen-fuer-co2-freien-flugverkehr im Jahr 2050.

Untersucht wurde in verschiedenen Szenarien die mögliche Dekarbonisierung des künftigen Flugverkehrs für den Passagierbereich. Wollte man Kerosin durch strombasierte Treibstoffe für 15,9 Billionen Passagierkilometer ersetzen, bräuchte man für deren Produktion eine entsprechende Anzahl von Solarpanelen, was 40 % der Fläche Deutschlands in Anspruch nehmen würde. Das Institut schlägt daher aus offensichtlichen Gründen vor, dass Wüstenregionen vorzugsweise dafür in Frage kämmen. Wie oben beschrieben, haben wir es nun nicht allein mit dem Passagierflugsektor zu tun. Dazu kommen die Stahl-, Aluminium- ,Zement-, Kühlmittel-Industrie, der gesamte Verkehrs-, Nahrungsmittel-, und Gesundheitssektor und das ist noch längst nicht alles.

Es drängen sich folgende Fragen auf:

  1. Erheben diese Leute Anspruch auf Fächen anderer Länder oder gar Kontinente?
  2. Erwarten diese Leute, dass Entwicklungsländer ihre Kohlekraftwerke dichtmachen, um Platz für Wind- und Solartechnik zu bekommen?
  3. Volk ohne Raum? Die Widerkehr der braunen Gespenster?

Da nicht zu erwarten ist, dass die ganze Welt sich diesem Wahnsinn beugt, ist wohl eher damit zu rechnen, dass in den Ländern, die den Irrsinn mitmachen wie z.B. Deutschland, die Industrie verschwindet, die Transformation sich Bahn bricht oder dass es gar zum Bürgerkrieg kommt.

Race to Zero

Die Schrecklichkeit dieser malthusianischen Verirrungen findet sich in allen Einzelheiten und alle Bereiche einbeziehend auf der Kampagnenseite für den nächsten Klimagipfel COP26 in Glasgow:

In einem Interview, das der „UN High Level Champion for Climate Action“ Nigel Topping mit dem „UN Special Envoy on Climate Action and Finance“ Mark Carney am 21. April führte, stellen sie ihr neues Projekt für das Verschieben von Trillionen in die Dekarbonisierung vor: GFANZ ( Glasgow Financial Alliance for Net Zero). Die Koalition, unter Vorsitz von Mark Carney, (von 2013 bis 2020 Governor der Bank of England), wird mit 160 Firmen aufwarten, die ein Kapital von insgesamt 70 Billionen US$ managen und zusätzlich 40 Banken, die zu den Gründern der Net Zero Banking Alliance (NZBA) gehören (hier).

Die Botschaft ist eindeutig und auch so gewollt: Wir sind die Goliaths. Wenn eure Regierungen und Parlamente zu lahm sind, dann machen wir Druck. Mark Carney: „Der Wettlauf für Klima-Neutralität bedeutet unter anderem folgendes: Es heißt, dass bestimmte Aktivitäten und Geschäftsfelder nicht mehr profitabel sind und nicht mehr in die Wirtschaft gehören, und das ist auch gut so. Sie waren überhaupt nie profitabel, weil sie nie die Kosten des Klimawandels beinhalteten.

Was ist also die Absicht?

1.) Investitionen ausschließlich in Technik niedrigster Energiedichte zu kanalisieren

2) Industrialisierung besonders in Entwicklungsländern zu behindern oder zu ersticken

3) Investitionen in ESG-konforme Kunstprodukte zu lenken, die sich vorwiegend für spekulative Zwecke eignen und von denen nur eine kleine Schicht große Profite macht.

Es geht um Systemwechsel, um eine große Transformation.

Aus allem läßt sich nur ein Schluß ziehen: Wir brauchen einen David!

 




„Pandemie-Effekt“: Bremste Lockdown die Schneeschmelze im Industal?

Spektrum berichtet, daß eine Forschergruppe der Universität von Kalifornien in Santa Barbara (UCSB) es für sehr wahrscheinlich halte, daß Lockdown-bedingt 30 % weniger Industrie-Feinstaub wie Kohlepartikel ausgestoßen worden seinen, die sich sonst auf den Schneeflächen rund ums Industal in Pakistan ablagern. Da der Schnee somit „weißer“ ist, strahlt er mehr Wellenlängen des Sonnenlichts zurück ins All oder die Atmosphäre, die dann nicht in Wärme umgewandelt werden und den Schnee aufheizen. Der Laie kennt den Effekt der Schnee-Albedo von der berüchtigten Schneeblindheit: Die Augen bekommen die volle Sonnenstrahlung ins Auge, bis die Netzhaut vorübergehend abschaltet.

2020 sei daher deutlich weniger Schnee geschmolzen, als im Jahresmittel vorher. Gemessen habe man das mit Fernerkundungsdaten; Proben wurden noch keine genommen. Erst damit könne man die Hypothese überprüfen (Warum veröffentlichen die dann jetzt schon?).

Wir haben eine Alternativhypothese anzubieten: Es wird zumindest auf der Nordhalbkugel Solarzyklus-bedingt immer kühler, wie man überall seit Dezember beim Anblick von Blizzards selbst erleben konnte. Logisches Ergebnis ist natürlich ein verringertes Abschmelzen von Schneemassen auf Bergen.

Könnte es sein, daß die Schnell-Veröffentlichung, deren Titel übrigens gar nicht so konjunktivlastig ist, interessensmotiviert ist? Könnte es sein, daß die „Pandemie“- und die Klimaerzählung verschmolzen werden, um bestimmte, davon unabhängige Ziele zu erreichen; und Wissenschaftler als Verbreiter und Verteidiger des Narrativs dienen? Entscheiden Sie selbst:

COVID-19-Quarantänen zeigen eine verringerte Verschmutzung von Schnee und Eis im Indus-Einzugsgebiet




Wer die Physik nicht kennt: Wie Windmühlen zur politischen Falle wurden

Deutschland war ein Musterland industrieller Entwicklung und Erfindungsgeistes. Deutschland war auch ein Beispiel dafür, dass der über Generationen erkämpfte Wohlstand in keinem Widerspruch zum Umweltschutz stand. Die Wissenschaftstradition, die das ermöglichte, geht zurück bis ins 17. Jahrhundert und länger. Wie konnte es passieren, dass das Land von Albert Einstein und Max Planck der ganzen Welt demonstriert, dass es jeden physikalischen Verstand verloren hat? Wir schafften den Transrapid ab, wir schaffen die Kernenergie ab, die Automobilproduktion ….wo soll dieser Selbstzerstörungsprozess enden? Neuerdings erheben wir selbst Anspruch auf Landmasse im Ausland, um dort „grünen Wasserstoff“ produzieren zu können. Der  klinische Ausdruck für das, was die politische Klasse als „ Große Transformation“ plant, muß erst noch erfunden werden, weil die Geschichte kein Beispiel für diesen gigantischen Unsinn hat.

Als Albert Einstein im Jahr 1905 seine berühmte Formel (E=mc2) veröffentlichte, verstanden die klügsten Köpfe der Welt sofort,  was das für die zukünftige Entwicklung der Energietechnik bedeuten würde. Die sich anschließenden revolutionären Entdeckungen eröffneten ein gewaltiges Potential, das über Dampfmaschine und Verbrennungsmotor weit hinausging. Die fundamentale Äquivalenz von Materie und Energie, wie sie in den Bereichen der Kernspaltung, der Kernfusion und der Materie-Antimaterie-Reaktionen zum Ausdruck gelangt, eröffnet in der Tat unbegrenzte Möglichkeiten. Jeder Industriemanager wußte früher, dass die Beherrschung immer höherer Energieflußdichten im Produktionsbereich ein unverzichtbares Maß für die steigende Produktivität einer Volkswirtschaft und den wachsenden Lebensstandard seiner Bevölkerung ist. Und jetzt?

Im 21. Jahrhundert erklärt man in Deutschland, dass Dampfmaschine, Verbrennungsmotor und Kernspaltung (noch dazu aus ganz verschiedenen Gründen!) zu gefährlich seien und geht zurück zu Energiedichten des Mittelalters! Es soll hier nicht bezweifelt werden, dass Windmühlen in irgendwelchen abgelegenen Gegenden zeitweise vorteilhaft sein können. Auch der Nutzen einer begrenzten Anzahl von Solarpaneelen in abgelegenen Dörfern oder auf irgendwelchen Dächern kann nicht schädlich sein. Die Politik der deutschen Energiewende jedoch verfolgt das extreme Ziel, auf die wirtschaftliche Anwendung und Beherrschung von Techniken höherer Energiedichte zu verzichten – und rennt damit  aus Dummheit in den Ruin.

Die Gegner der Industriepolitik haben seit  mindestens 50 Jahren auf diese physikalische Falle gesetzt. Sie scheinen – im Gegensatz zu der Mehrheit naiver Industrievertreter  und einer  naturwissenschaftlich weitgehend ungebildeten Bevölkerung  – ziemlich genau zu wissen, wie man die Unwissenden Schritt für Schritt dazu bringt, sich selbst zu zerstören. Es folgen drei Beispiele, die zeigen, wie bewußt diese Strategie eingesetzt wird.

Beispiel 1: Die  „flächenfressende Energiestrategie“ der Agora

Die von finanzstarken Geldgebern getragene Institution mit dem Namen „Agora“ 1beschreibt freimütig, in  welche Falle das Projekt  „Energiewende“ führt.  Man kann das in einem Strategiepapier aus dem Jahr 2017 mit dem Titel „ Energiewende und Dezentralität“ nachlesen. Die Autoren lassen den Leser darin wissen, daß die „physikalischen Gegebenheiten“ sogenannter erneuerbarer Technik, sobald man sie als tragende Technik akzeptiert hat, für eine entwickelte Industriewirtschaft wie Sand im Getriebe sind und zwangsläufig das ganze System verändern werden.

Der erste wesentliche Treiber ist die Physik, da der massive Ausbau von Wind- und Solaranlagen aufgrund der Physik der Wind- und Solarressourcen zu einer verteilteren Erzeugungsstruktur führt…..“ (Energy from space. Wegen der geringen Leistungsdichte von Wind und Sonne muß der Strom auf den dafür notwendigen Flächen umständlich eingesammelt werden.)

Der zweite wesentliche Treiber ist die daraus resultierende Entwicklung der Akteursstruktur, da eine verteiltere Erzeugungsstruktur auch mit sich bringt, dass die Zahl der Stromproduzenten um ein Vielfaches steigt und bereits gestiegen ist. Während es noch in den 1990gern lediglich eine dreistellige Anzahl von Kraftwerken gab, die ganz Deutschland mit Strom beliefert haben, gibt es heute bereits mehr als 1,5 Millionen Stromerzeuger.

Der dritte wesentliche Treiber in Richtung Dezentralität sind technologische Entwicklungen auf der Stromnachfrageseite (Stromspeicher Elektromobilität, Wärmepumpen) sowie die digitale Revolution…..die eine Vernetzung und Einbindung dezentraler Anlagen………. ermöglichen.

…..Diese Treiber sind weitestgehend unabhängig von politischer Regulierung und verschwinden insofern nicht mehr – sie werden vielmehr zwangsläufig dafür sorgen, dass Dezentralität dauerhaft ein neues Strukturmerkmal der Stromwirtschaft bleibt. „Mit der Transformation des von fossilen und nuklearen Energieträgern beherrschten Energiesystems hin zu einem regenerativen wird ein in vielen Dimensionen fundamentaler struktureller Wandel ausgelöst.

Diejenigen, denen die Zusammenhänge zwischen Physik und Wirtschaft nicht bekannt sind, werden jetzt naiv fragen: na und? Darüber reden doch alle, was ist daran so schlecht? Es ist der ungeheure wirtschaftliche Aufwand, der durch die genannten „Treiber“ zwangsläufig entstehen muß, und der mit wachsendem Ausbau der flächenfressenden, wetterabhängigen Technik zur unerträglichen Belastung und Verteuerung des gesamten wirtschaftlichen Prozesses führt. Das permanente Gerede von Effektivität dient lediglich der Täuschung, denn in Wirklichkeit wird eine über Jahrhunderte entstandene Produktivität auf diese Weise systematisch zerstört.

Wetterabhängige Technik, digitale Vernetzung immer kleinteiligerer Strukturen und ein zunehmend chaotischer Marktmechanismus benötigen außerdem ein krebsartig anwachsendes Management, das mit dem Ausdruck „Sand im Getriebe“ nur unzureichend charakterisiert ist. Im Vergleich mit dem vorher vorhandenen, bestens organisierten Energie-System, welches wetterunabhängig für sichere, bezahlbare und umweltfreundliche Stromproduktion sorgte, ist es nicht übertrieben, diese Methode als eine Waffe gegen die Industriegesellschaft zu bezeichnen.

Der erschreckendste Aspekt wird gerade in der von CDU-Wirtschaftsminister Altmaier beschrittenen Wasserstoff-Strategie deutlich: Deutschland hat nicht genug Fläche, um den Bedarf an sogenanntem grünen Wasserstoff überhaupt zu produzierenSollen wir dadurch abermals zu einer Politik der territorialen Expansion  getrieben werden?

Beispiel 2: 1970er Jahre – Amery  Lovins &  Co.

Der hier beschriebene fundamentale Strukturwandel wurde seit den Anfängen des Club of Rome, also in den 70er Jahren  geplant. Es gibt dazu ein sehr lesenswertes Dokument von Dr.Penczynski (gestorben 2017) aus dem Jahr 1978, das im Auftrag der Siemens AG entstand. Das kleine Buch trägt die Überschrift: „Welche Energiestrategie können wir wählen“ und beschreibt eine Diskussion, die im Jahr 1977 am IIASA-Institut stattfand (Internationales Institut für Angewandte Systemanalyse in Laxenburg bei Wien).

Daran nahmen neben Dr. Penczynski teil:  Prof. Häfele, der damalige Vizechef des IIASA, ehemals Leiter des Projekts „Schneller Brüter“ in Kalkar von 1960 bis 1972; der bekannte Dennis Meadows, Mitautor der Club of Rome- Studie „Limits to Growth“  („Grenzen des Wachstums“) und Amery Lovins, bis heute einer der  radikalsten Ökologen. Lovins gründete 1982 das Rocky Mountain Institute und spielte später auch eine Rolle beim Wuppertal-Institut für Klima, Umwelt und Technologie. Die Diskussionsrunde wurde inszeniert, um den bereits weit fortgeschrittenen Weg zur modernen Kerntechnologie abzusperren und zu zerstören.

Das Thema lautete: Welche Energiestrategie sollen wir wählen?

  1. Den Weg der „soften“ Energie (sogenannte erneuerbare Techniken) oder
  2. Den Weg der „harten“ Energie (fossile Brennstoffe und Kerntechnik)?

Penczynski erkannte in aller Klarheit die wirkliche Absicht hinter dieser als wissenschaftlich verbrämten Debatte. Er verstand die  Absicht der Leute des Club of Rome, besonders die von Lovins, die sogenannten Erneuerbaren als politische Waffe mit dem Ziel des Systemwechsels einzusetzen.

Dr. Penczynski schrieb völlig klarsichtig: „Das Gedankengut des Soft-Energieweges entspringt dem soziopolitischen Bereich. Die Einbeziehung des Energiesektors als wichtigen Teil unserer Gesellschaft soll diesen Weg des sozialen Wandels technologisch vorbereiten und gangbar machen helfen. Der Bewertungsschwerpunkt der Energietechnologien liegt deshalb bei nicht-wirtschaftlichen Faktoren. Die Stoßrichtung ist eindeutig gegen die Kernenergie als den Inbegriff einer zentralisierten Energie-,Wirtschafts-, Bevölkerungs- und Machtstruktur gerichtet……..“

Unter technisch-wirtschaftlichen Aspekten erscheint das Konzept des soft energy path nicht lebensfähig. Das technische Potential der Soft– Technologien ist nicht in der Lage, mit der quantitativen und qualitativen Entwicklung der Menschheit Schritt zu halten und den voraussehbaren Energiebedarf bei einer katastrophenfreien Entwicklung zu decken. Hier muß erst der von den Soft-Exponenten angestrebte tiefgreifende soziale Wandel stattfinden, so dass drastische Änderungen von Wertvorstellungen angestrebt werden. Dazu müssen der Übergang zu ländlichen Siedlungsstrukturen, starke Reduktion des Bevölkerungswachstums und Einbußen im materiellen Wohlstand von dem Großteil der Bevölkerung freiwillig akzeptiert werden.

Die Soft-Technologien sind die kapitalintensivsten aller Alternativen zu Öl und Gas. Der Soft– Pfad fordert für die Industrienationen so schnell wie möglich ein energetisches Nullwachstum.

Wie von Dr. Penczinsky in aller Klarheit überliefert, hatten diese Leute schon damals die Gesellschaftsveränderung im Sinne der „Großen Transformation“ anvisiert und den Marsch durch die Institutionen angetreten.

Beispiel 3: Die radikalen Grünen vom DAVOS FORUM

Es ist durchaus bemerkenswert, dass in dem kürzlich erschienenen Buch „Covid 19. The Great Reset“ von K Schwab und T. Malleret diese systemverändernde Wirkung mittelalterlicher Energiedichte erneut  ganz unverhohlen betont wird. Die Finanz-Oligarchie, die sich seit Neuestem in aller Öffentlichkeit als die eigentlichen Initiatoren fanatischer Dekarbonisierung zu erkennen gibt, war seit den Gründungstagen des Club of Rome der wirkliche Nutznießer grüner Ideologie. Denn nicht erst seit heute bevorzugen ihre Vertreter eine Gesellschaft, in welcher eine kleine Schicht reicher Priester regiert, die Masse der Menschen aber dumm bleibt, Verzicht übt und zahlenmäßig wieder abnehmen soll. Deswegen wundert das folgende Zitat auf Seite 142 (englische Ausgabe) keineswegs:

Selbst beispiellose und drakonische Lockdowns, bei denen 1/3 der Weltbevölkerung mehr als einen Monat lang in ihren Häusern eingeschlossen war, erwiesen sich in keinster Weise als brauchbare Dekarbonisierungsstrategie, da die Weltwirtschaft dennoch weiterhin große Mengen an Kohlendioxid emittierte. Wie könnte eine solche Strategie also aussehen? Die enorme Größe und Tragweite der Herausforderung kann nur durch eine Kombination aus zwei Faktoren bewältigt werden: Eine radikale und tiefgreifende Systemveränderung der Art und Weise, wie wir die Energie erzeugen, die wir zum Leben benötigen, und zweitens: Strukturelle Veränderungen in unserem Konsumverhalten.

Wollen wir wirklich weiterhin  diesen völlig irren Gegnern  der Industriegesellschaft und unseres Wohlstandes die Zerstörung unserer Zukunft widerstandslos überlassen? Kehren wir lieber zurück zur Vernunft, werfen wir die von außen verpassten ideologischen Scheuklappen ab, lassen die Naturgesetze (Physik) walten und schicken die Ökoverrückten aufs Altenteil!

Die Zukunft gehört dem Fortschritt, d.h. neben den effektiven fossilen Brennstoffen der Kernenergie und in fernerer Zukunft vielleicht auch der Kernfusion! 

 

Mehr zum Thema:

https://www.bueso.de/stoppt-gruenen-feudalismus

https://www.bueso.de/deutschlands-rolle-beim-aufbau-weltwirtschaft

https://www.bueso.de/raumfahrt

  • AGORA, 2012 gegründet, bezeichnet sich als Denkfabrik und ist mit den verschiedensten deutschen Institutionen verbunden. Sie wird finanziert von der Mercator Stiftung und der von internationalen Geldgebern getragenen European Climate Foundation. Die ECF finanzierte nach eigenen Angaben in der Vergangenheit auch Aktionen von BUND, KlimaAllianz, Deutsche Umwelthilfe und Campact eV. gegen konventionelle Kohlekraftwerke in Deutschland. Bezüglich des Engagements heißt es: „In der Strategie der ECF spielt Deutschland als größtes und wirtschaftlich stärkstes EU-Land eine zentrale Rolle.“
  • Peter Penczynski, „Welche Energiestrategie können wir wählen?“, 2. überarbeitete Auflage 1978; erschienen bei Siemens-Aktiengesellschaft, Abteilung Verlag
  • Covid 19: The Great Reset. Klaus Schwab, Thierry Malleret. World Economic Forum 2020, Genf

 




Die sogenannte „gemessene globale Durchschnitts­temperatur“ wird von den Ozeanen bestimmt

Insbesondere erblicken wir in dem System der fossilen Klimazeugen keinen empirischen Anhalt für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe. Desgleichen fehlt es an Tatsachen, welche durch Änderung der Durchstrahlbarkeit der Atmosphäre (Arrhenius) oder des Weltalls (Nölke) zu erklären wären; …“

Daran hat sich bis heute nichts geändert, denn die Klimawissenschaft ist seit nunmehr knapp 100 Jahren mit einem eindeutigen Beweis für diesen vorgeblichen „natürlichen atmosphärischen Treibhauseffekt“ nicht vom Fleck gekommen. Vielmehr basiert das Bild der Klimawissenschaft von unserer Erde noch immer auf einer „Erde ohne Atmosphäre“, wie sie Julius von Hann im Jahre 1897 beschrieben hatte, Sekundärzitat mit Dank an Dr. Gerhard Kramm (Fairbanks, Alaska):

«Denken wir uns die Erdoberfläche ganz vom Fest-land eingenommen und ohne Atmosphäre, also etwa in dem Zustande, in dem sich der Mond befin-det, so würde die Wärmeverteilung auf derselben überall nur von der jedem Orte zukommenden Quantität der Sonnenwärme und dem Betrage der Wärmeausstrahlung daselbst abhängig sein. Da nun diese beiden Faktoren für alle Orte auf demsel-ben Parallel- oder Breitekreise dieselben sein müß-ten, so würden die Erdgürtel gleicher Wärme mit den Breitekreisen zusammenfallen. Selbst die Exis-tenz einer wasserdampffreien Atmosphäre würde an dieser Wärmeverteilung wenig ändern, bloß die absoluten Quantitäten der Wärme-Einstrahlung und -Ausstrahlung an der Erdoberfläche würden dadurch beeinflußt

Und um jetzt den Unterschied zwischen einer „Erde ohne Atmosphäre [und Ozeanen]“ einerseits und andererseits den Messwerten von einer realen Erde zu erklären, hatte man schließlich den ominösen „natürlichen atmosphärischen Treibhauseffekt“ erfunden. Dieser Effekt soll auf einer sogenannten „atmosphärischen Gegenstrahlung“ beruhen, die wiederum dem 2. HS der Thermodynamik widerspricht.

Es stehen hier also zwei konkurrierende Modelle für unsere reale Erde zur Diskussion:

Das Faktor4-Tag=Nacht-THE-Flacherdemodell mit einem „natürlichen atmosphärischen Treibhauseffekt“ (THE) der etablierten Klimawissenschaft auf dem Stand des 19. Jh.:

Reale Erde = „Erde ohne Atmosphäre“ + THE

Der Ketzer Weber behauptet im 21. Jh. dagegen, es gäbe gar keinen THE:

Reale Erde = Hemisphärisches S-B-Modell ohne THE

Wir setzen jetzt die beiden Modelle für die „reale Erde“ gleich und erhalten die Alternativen:

Erde ohne Atmosphäre“ plus THE = Hemisphärisches S-B-Modell ohne THE

Und welches von beiden Modellen ist nun wohl richtig?

Das Dilemma der exakten Atmosphärenwissenschaft sind Tag und Nacht, die von der Jahreszeit bestimmte breitenabhängige Tageslänge sowie die physikalischen Einheiten für Leistung und Arbeit. Die üblichen klimawissenschaftlichen Darstellungen der solaren Einstrahlung auf unserer Erde umfassen seit mehr als einem Jahrhundert lediglich die taggenaue örtliche Gesamtstrahlungsmenge der Sonne über die gesamte Erdoberfläche, sogar inklusive der Elliptizität der Erdbahn; einige dieser Beispiele hatte ich hier diskutiert. Bei einem solchen 24h-Durchschnitt der solaren Arbeit ist dann physikalisch allerdings Endstation. Unbeleuchtete Flächen und zeitliche Ableitungen haben in einer S-B-Inversion nämlich nichts zu suchen, und daher müssen wir uns bei der Betrachtung der Sonneneinstrahlung auf die Tagseite unserer Erde beschränken.

Zur Erinnerung, ich hatte in meinen beiden DGG-Veröffentlichungen (2016 und 2019) diesen sogenannten „natürlichen atmosphärischen Treibhauseffekt“ als Ergebnis einer fehlerhaften Faktor4-Inversion des Stefan-Boltzmann-Gesetzes widerlegt. Unter anderem hatte ich das hier noch einmal näher ausgeführt und einen konkreten Nachweis geliefert, dass unbeleuchtete Flächen in einer Inversion des Stefan-Boltzmann-Gesetzes nichts zu suchen haben, Zitat:

Es gibt im streng ‚gleichzeitigen‘ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer ‚gleichzeitigen‘ S-B-Inversion erlaubt. Physikalisch ‚gleichzeitig‘ bedeutet übrigens auch nicht, dass unterschiedliche ‚Gleichzeitigkeiten‘ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften.“

ALSO: Der Faktor4-Tag=Nacht-THE-Flacherdeansatz leitet sich aus der durchschnittlichen solaren ARBEIT über den 24h-Tag her. Ein solcher Tag+Nacht-Durchschnittswert der solaren Strahlungsleistung hat aber überhaupt nichts mit der Temperatur auf unserer Erde zu tun, wie ich hier bereits ausführlich erläutert hatte. Denn von der 24h-durchschnittlichen Arbeit führt nun einmal kein physikalisch korrekter Weg mehr zurück zur Ermittlung der tatsächlichen spezifischen solaren Strahlungsleistung auf der Tagseite unserer Erde.

Aus einer solchen rückgerechneten 24h-Tag&Nacht-Durchschnittsleistung der Sonneneinstrahlung hatten erstmals Kramm et al. (2017) eine breitenabhängige Ortstemperatur (Kramm et al. (2017) Abbildung 22a) vorgelegt. Dieser Wert entsteht aus der Division der eingestrahlten solaren 24h-Gesamtenergie geteilt durch die Sekunden@24h pro Quadratmeter, die eigentliche physikalische Einheit ist also 1 J/(m² s). Folgerichtig ergibt die Ableitung einer Temperatur aus einer solchen 24h-durchschnittlichen Rückrechnung der solaren Strahlungsleistung durch die Einbeziehung der unbeleuchteten Nachtseite eine „Schneeball-Erde“ mit gefrorenen tropischen Meeren und einem Temperatur-Hotspot am Pol der jeweiligen Sommerhemisphäre, wie man das ebenfalls in der nachfolgenden Abbildung 1b ablesen kann.

In seiner E-Mail vom 29.01.2021 um 09:58 Uhr* an mich und den üblichen Skeptiker-Email-Verteiler hatte dieser Dr. Gerhard Kramm schließlich ein PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ (wird in der Folge als „Kramm 2021“ bezeichnet) mit einem direkten Vergleich zwischen meinem hemisphärischen S-B-Modell und seiner „Erde ohne Atmosphäre“ verschickt. Die beiden nachfolgenden Abbildungen entstammen diesem PDF:

Abbildungen 1 a und b*: Berechnete Oberflächentemperaturen aus dem PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ von Dr. Gerhard Kramm, Fairbanks, Alaska*

Anmerkung: Die Temperaturskalen dieser Abbildungen stimmen nicht überein.

Originalbeschreibung:Abbildung 15. Wie in Abbildung 12, jedoch für die auf dem lokalen Strahlungsgleichgewicht nach Gleichung (3) beruhende Oberflächentemperatur.“

Dazu der Text zu Abbildung 12:Berechnete solare Einstrahlung für alle Tage des Jahres und alle geographischen Breiten:

(a [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545),

(b [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5).“

Die „Maxima nach Weber“ in der linken Abbildung, abgeleitet aus dem Maximum der örtlichen solaren LEISTUNG [W/m²] ohne Albedo, schwanken mit dem jahreszeitlichen Sonnenstand um den Äquator („Latitude 0°“) mit bis zu 394 Kelvin. Sie reduzieren sich dann zum Pol der Winterhemisphäre gegen null Kelvin. In der Realität werden diese theoretischen Maximalwerte aber aufgrund von Albedo, Verdunstung und Konvektion nicht erreicht; die Minimalwerte werden dagegen durch Advektion und Kondensation gestützt.

Die „Tägliche[n] Mittelwerte nach Kramm et al. (2017)“ in der rechten Abbildung, abgeleitet aus einer 24h-durchschnittlichen solaren ARBEIT [J/m²s] ohne Albedo, stellen dagegen die äquatoriale Zone bei 150-200 Kelvin mit gefrorenen tropischen Meeren als „Snowball-Earth“ dauerhaft im ewigen Eis dar; dafür verwandelt sich die Polarregion der jeweiligen Sommerhemisphäre in einen Touristen- und Temperatur-Hotspot mit 275-300 Kelvin.

Allein unser Schulwissen sagt uns also schon, welche der beiden Abbildungen am ehesten den Verlauf der Klimazonen unserer Erde spiegelt und dass der Pol der jeweiligen Sommerhemisphäre gar kein globaler Temperatur-Hotspot ist. Meine Ausführungen dazu hatte ich in dem EIKE-Artikel „Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur“ vom 18. März 2020 ausführlich dargestellt.

Abbildung 2: Zum physikalischen Unterschied zwischen Leistung (Watt) und Arbeit (Joule) der solaren Einstrahlung (Graphiken nicht flächengetreu)- Links: Tentative Gegenüberstellung der Beleuchtungsklimazonen mit dem Jahresverlauf der maximalen solaren Strahlungsleistung im Sommerhalbjahr (Südsommer linke Hälfte und Nordsommer rechte Hälfte). Overlays: Die Beleuchtungsklimazonen der Erde, von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License) Darunter: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium- Rechts: Die maximale spezifische solare (Strahlungs-) LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel (weitere Erläuterungen sind hier zu finden)

Auf unserer Erde wandert der senkrechte Sonnenstand im Verlauf des Jahres zwischen den beiden Wendekreisen und verursacht so die gegenläufigen Jahreszeiten auf der Nord-und Südhemisphäre. Das maximal mögliche rechnerische S-B-Temperaturäquivalent der solaren Strahlungsleistung (@W/m²) folgt diesem vertikalen Sonnenstand, also von der Sonnenwende am Wendekreis der jeweiligen Sommerhemisphäre über den Äquator mit dem Äquinoktium zum gegenüber liegenden Wendekreis und wieder zurück. Polare Temperatur-Hotspots dagegen existieren nicht, es gibt in der Polarzone der Sommerhemisphäre lediglich eine tageszeitlich länger eingestrahlte solare Energiemenge [J/m²], die dort zu einer erhöhten Biomasse-Produktion im Sommerhalbjahr führt.

Also schauen wir mal, was wir sonst noch über die sogenannte „gemessene globale Durchschnittstemperatur“ herausfinden können

Betrachten wir jetzt einmal, wie sich die Tagseite (A) und die Nachtseite (B) auf die sogenannte „gemessene globale Durchschnittstemperatur“ von vorgeblich 14,8°C auswirken. Denn diese Durchschnittstemperatur NST kann über ihren 24h-Verlauf eigentlich nur ganz minimal schwanken. Schließlich soll dieser Wert aus weltweit zeitgleich ermittelten Temperaturen berechnet werden und bildet deshalb für jeden Zeitpunkt des 24h-Tages einen globalen Tag&Nacht-Durchschnitt ab. Die Tagseite (A) und die Nachtseite (B) der Erde sind an diesen Durchschnittswerten also gleichberechtigt beteiligt. Lediglich die unterschiedliche geographische Verteilung von Land- und Ozeanflächen und deren Position zum aktuellen Stand der Sonne dürften einen merklichen Einfluss auf den globalen tages- und jahreszeitlichen Temperaturdurchschnitt ausüben.

Es ist etwas ärgerlich, aber die „gemessenen“ Globaltemperaturen werden üblicherweise als Differenzen zu einem Referenzzeitraum angegeben, sodass eine echte Zuordnung oder gar die Überprüfung von konkreten Aussagen kaum noch möglich ist. Diesem Vorgehen liegt sicherlich keine böse Absicht zugrunde, Zusammenhänge zu verschleiern oder gar fehlerhafte Aussagen zu stützen. Auf meteo.plus findet man schließlich eine Copyright-geschützte Abbildung mit dem Verlauf der absoluten Globaltemperaturen seit 1979 bis heute, und zwar aufgeteilt in Globaltemperaturen sowie die Temperaturen von Nord- und Südhemisphäre, deren grobe Durchschnittswerte nachstehend aufgeführt sind:

Tabelle 1: Globale Durchschnittswerte der Temperatur (Daten von meteo.plus)

Im Ergebnis schwankt die Globaltemperatur also zwischen 12°C und 17°C, und im langjährigen Durchschnitt liegt sie bei etwa 14,5°C. Sie verläuft in Phase mit der Temperatur der Nordhemisphäre, und zwar mit dem Mittelwert der jeweiligen Temperaturen von Nord- und Südhemisphäre, beispielsweise als MED(MIN-Nord, MAX-Süd) oder MED(MAX-Nord, MIN-Süd).

In einer ersten groben Näherung können wir also die Nord-Temperatur den Landmassen und die Süd-Temperatur den Ozeanen zuordnen, wohl wissend, dass eine reine Land-Temperatur eine noch größere Schwankungsbreite hätte und eine reine Ozean-Temperatur eine noch geringere; Willis Eschenbach gibt übrigens die Schwankungsbreite der reinen Landtemperatur mit 15°C und die der Ozeane mit 5°C an. Was bei den meteo.plus-Daten allerdings in beiden Fällen bleibt, ist eine Mitteltemperatur von etwa 14,5°C, die der sagenhaften „gemessenen globalen Durchschnittstemperatur“ (NST) von 14,8°C recht nahe kommt. Und in seiner E-Mail vom 11.04.2021 um 23:47 Uhr an den Skeptiker-Verteiler verweist Kramm auf einen Artikel von Lockyer, „Studies of temperature and pressure observations„, der 1906 in Nature erschien war. Darin heißt es, Zitat:

« It is interesting to remark that the northern hemisphere appears to be 1.5 °C warmer than the southern. Spitaler in 1886 came to a similar conclusion, his figures being :-

[Der Google-Übersetzer: Es ist interessant festzustellen, dass die nördliche Hemisphäre 1,5 ° C wärmer zu sein scheint als die südliche. Spitaler kam 1886 zu einem ähnlichen Ergebnis, seine Zahlen waren:- ]

Northern hemisphere …..15.4 °C,

Southern hemisphere….. 14.8 °C,

Whole earth………………. 15.1 °C,

Excess of N. over S. ………0.6 °C

Die „Whole-earth-Temperatur“ von Spitaler (1886) liegt also bei etwa 15°C. Da bleibt die Frage, wie überhaupt die „aktuelle globale Erwärmung bereits bei etwa 1 Grad Celsius“ über einer „vorindustriellen Durchschnittstemperatur“ liegen kann, wo doch in der Gegenwart immer noch sogenannte Globaltemperaturen um 15°C herum gemessen werden. Schließlich können für die Zeit vor 1886 gar keine neuen Temperaturmessungen mehr dazugekommen sein…

Meinem hemisphärischen S-B-Modell für unsere reale Erde wird von diversen Kritikern eine Nachttemperatur von 0 Kelvin nachgesagt. Nun erhält die Nachtseite unserer realen Erde zwar keinerlei Sonneneinstrahlung, aber trotzdem herrscht dort keine Mond-Temperatur von etwa minus 200°C. Vielmehr befindet sich die Temperatur unserer Erde in einem „eingeschwungenen“ Zustand. Lediglich die Differenz zur minimalen Nachttemperatur muss täglich ersetzt werden (hier letzte Abbildung). Denn die Nachttemperatur eines passiv bestrahlten Himmelskörpers hängt im Wesentlichen von dessen Wärmespeicherfähigkeit ab. Und auf unserer Erde wird der Nachtseite die erforderliche Wärme von ihrer kombinierten Luft-Wasser-Heizung aus den globalen Zirkulationen (Atmosphäre und Ozeane) zur Verfügung gestellt. Allein die Ozeane, die zwei Drittel unserer Erdoberfläche bedecken, enthalten ein Wärmeäquivalent von etwa 50.000 24h-Tagen Sonneneinstrahlung; und diese Wärmespeicher (Atmosphäre und Ozeane) werden wiederum fortwährend durch die solare Einstrahlung auf der Tagseite unserer Erde „aufgeladen“. In der nachfolgenden Abbildung ist links die jahresdurchschnittliche Oberflächentemperatur der Ozeane dargestellt, also der Durchschnitt zwischen Tag und Nacht sowie Frühling, Sommer, Herbst und Winter – mit entgegengesetzten Jahreszeiten auf beiden Hemisphären:

Abbildung 3: Temperaturvergleich Ozeane und S-B-Temperaturäquivalent der solaren Einstrahlung. Links: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA). Rechts: Das maximale breitenabhängige S-B-Temperaturäquivalent über den 24h-Tag im Äquinoktium, das aufgrund von Verdunstung und Konvektion nirgendwo erreicht wird

Mit angepasster Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)) Darüber: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über einen 24h-Tag im Äquinoktium

ALSO noch einmal ganz langsam zum Mitdenken: Die Sonne muss unsere Erde gar nicht jeden Morgen von 0 Kelvin auf Tagestemperatur bringen. Die Erde befindet sich nämlich in einem „eingeschwungenen“ Zustand und ihre Wärmespeicher sind mit dem Äquivalent von mehr als 50.000 24h-Tagen Sonneneinstrahlung gefüllt. Diese Wärmespeicher verlieren also nachts „nur etwas“ Energie und müssen deshalb auf der Tagseite lediglich „nachgefüllt“ werden, mehr nicht. Im Mittel sprechen wir hier von 1,05*10^22 Joule, die die Erde über den durchschnittlichen 24h-Tag netto erhält und auch wieder abstrahlt. Denn sonst wäre die sogenannte „gemessene“ globale Durchschnittstemperatur (NST) nicht einigermaßen stabil. Herr Werner Schulz hatte die KKDML-Fraktion mit pädagogischem Langmut immer wieder darauf hingewiesen, dass auf der Tagseite im Mittel* 480W/m² kontinuierlich eingestrahlt und 240W/m² kontinuierlich über die Gesamtfläche der Erde abgestrahlt werden. Abgestrahlt werden also jeweils 240W/m² auf der Tagseite und 240W/m² auf der Nachtseite – das ergibt in Summe dann wieder 480W/m² Abstrahlung, also gilt: IN=OUT.

*) Für die Sophisten unter Ihnen: Korrekt wäre bei der Einstrahlung eine Summierung über (S0(1-Albedo)* COSZenitwinkel). Ich verwende hier nach KT97 weiterhin 940W/m² für (S0(1-ALBEDO)); in meinen DGG-Veröffentlichungen beschreibe ich dagegen einen Zweischichtfall.

Die solare Einstrahlung ersetzt also lediglich die terrestrische Abstrahlung bei einer „gemessenen globalen Durchschnittstemperatur“ (NST) von etwa 15°C, die sich wiederum ohne einen „natürlichen atmosphärischen Treibhauseffekt“ ganz zwanglos aus meinem hemisphärischen S-B-Ansatz herleitet. Es gilt demnach im langjährigen Durchschnitt:

[ Solare Einstrahlung @2PIR² = terrestrische Abstrahlung @4PIR² ] @ NST

Unsere Erde verfügt auf zwei Dritteln ihrer Oberfläche über eine Fußbodenheizung mit der in Abbildung 3 (links) dargestellten mittleren Vorlauftemperatur. Diese Ozean-Temperaturen repräsentieren wiederum zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Die mittlere jährliche Oberflächentemperatur der Ozeane liegt bis etwa 70° nördlicher und südlicher geographischer Breite zwischen 0°C – 30°C und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt dürfte also in etwa bei der NST von etwa 15°C kumulieren. Wie wir bereits erfahren haben, wird das maximale rechnerische S-B-Temperaturäquivalent meines hemisphärischen S-B-Modells aufgrund von örtlicher Konvektion und Verdunstung in der Realität nirgendwo erreicht. Andererseits sinkt die Temperatur der Winterhemisphäre, insbesondere in der Polarnacht, niemals auf das rechnerische S-B-Temperaturäquivalent der geringen/fehlenden solaren Einstrahlung ab. Die nachfolgende Abbildung zum globalen horizontalen Wärmetransport gibt Aufschluss über die Gründe dafür:

Abbildung 4: Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite. QUELLE: HÄCKEL, Meteorologie, Verlag Eugen Ulmer, Stuttgart 1990, hier aus dem Internet

Alle diese Energieströme summieren sich für eine feste geographische Breite im durchschnittlichen Jahresmittel gerade auf null. Wir können hier also erkennen, dass sich die Überschüsse und Defizite gegenüber dem hemisphärisch berechneten S-B-Temperaturäquivalent durch den lateralen Transport von Wärme gerade global ausgleichen und damit mein hemisphärisches S-B-Modell voll bestätigen.

Wenn wir jetzt abschließend in der nachfolgenden Abbildung noch einmal die beiden Modell-Temperaturverläufe mit den Beleuchtungsklimazonen unserer Erde vergleichen, dann finden wir estätigt, dass unser Schulwissen über diese Klimazonen gar nicht mal so schlecht ist:

Abbildung 5: Vergleich unterschiedlicher Modelle für die globale Verteilung der Temperatur. Links mein hemisphärisches S-B-Modell: Oberflächentemperatur für die solaren Strahlungsmaxima nach Weber aus Kramm (2021)*. Mitte: Die Beleuchtungsklimazonen der Erde: von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License). Rechts ein breitenabhängiges 24h-Temperaturmittel: Oberflächentemperatur für die solaren tägliche Mittelwerte nach Kramm et al. (2017) aus Kramm (2021)*

Ergebnis: Unserem profanen Schulwissen ist an dieser Stelle wohl nichts mehr hinzuzufügen. Wie erwartet, spiegeln die Beleuchtungsklimazonen (Definition) unserer Erde (Abbildung 5 Mitte) den Verlauf der maximalen örtlichen solaren Strahlungsleistung. Und diese solare Strahlungsleistung ist in den Tropen am höchsten und fällt dann zu den Polarregionen kontinuierlich ab. Von den beiden konkurrierenden theoretischen Klimamodellen in Abbildung 5 wird dieser natürliche Verlauf lediglich von meinem hemisphärischen S-B-Modell korrekt abgebildet. Mein hemisphärisches S-B-Modell aus dem 21. Jahrhundert ersetzt als realistisches Modell unserer Erde ohne THE also das Faktor4-Tag=Nacht-THE-Flacherdemodell der real existierenden Klimawissenschaft mit einem fehlerhaft konstruierten „natürlichen atmosphärischen Treibhauseffekt“ von konstant 33°C.

*) Nachtrag: Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Adressat der o. g. E-Mail vom 29. Januar 2021 um 09:58 Uhr mit Kramms PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ und den dort enthaltenen Abbildungen 15 a und b (hier Abb. 1 a und b sowie Abb. 5 links und rechts) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein. Ich beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung dieser Graphiken in meinem Artikel „Die sogenannte ‚gemessene globale Durchschnittstemperatur‘ wird von den Ozeanen bestimmt“, Zitat:

CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, die Inhalte der besagten E-Mail Kramm vom 29. Januar 2021 um 09:58 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.