Der Irrweg der Dekarbonisierung: Warum der Kohleausstieg und die CO₂-Abgabe samt „Klimaschutzpolitik“ politisch wirkungslos und wirtschaftlich schädlich sind – und warum Kernenergie die Antwort ist

von Frank-Christian Hansel (AfD MdA Berlin) und Michael Limburg (Vizepräsident von EIKE)

Die deutsche Energie- und Klimapolitik wird seit Jahren von einem Dogma beherrscht: der vollständigen Dekarbonisierung der Wirtschaft, koste es, was es wolle. Der Kohleausstieg, der als Herzstück dieser Strategie gilt, wird dabei als moralisches Gebot und alternativloses Mittel im Kampf gegen den Klimawandel dargestellt. Doch ein genauerer Blick auf die Fakten entlarvt diese Politik als ineffektiv, teuer und in weiten Teilen von einer klima-apokalyptischen Ideologie getrieben, deren Nutzen für das globale Klima nicht nachweisbar ist. Statt wirksamen Klimaschutz zu erreichen, wird Deutschlands Energieversorgung geschwächt, die industrielle Wettbewerbsfähigkeit aufs Spiel gesetzt und der Wohlstand der Bürger gefährdet.

Gleichzeitig verkennt Deutschland eine entscheidende Technik, die weltweit eine Renaissance erlebt: die Kernenergie. Modernste Reaktortechnologien, darunter Small Modular Reactors (SMRs), bieten die Möglichkeit einer sauberen, sicheren und zuverlässigen Energieversorgung, die sowohl wirtschaftlich sinnvoll als auch klimafreundlich ist.

Ein teures Nullsummenspiel: Der Kohleausstieg ohne jeden Klimaeffekt

Aktuelle Daten und Antworten aus dem Bundeswirtschaftsministerium zeigen deutlich: Der Kohleausstieg in Deutschland verpufft in klimapolitischer Hinsicht komplett wirkungslos. Grund dafür ist nicht, dass die Bundesregierung es versäumt hat, die freiwerdenden Emissionszertifikate im EU-Emissionshandelssystem zu löschen. Sondern der Grund dafür ist, dass die Emissionen der EU, incl. Deutschlands keine Spur in der CO2 Konzentration hinterlassen, also nicht mal eine Delle in der Anstiegskurve, die ua. In Mauna Loa abrufbar ist, hinterlassen hat. Doch allein die Konzentration soll, folgt man dem IPCC, die sog. Gegenstrahlung erhöhen, die wiederum – wieder IPCC – für unser Klima, spontan verantwortlich sein soll. Das zeigte sich mehr als deutlich – bei dem Großexperiment während des Lockdown 2020- als 2,4 Gigatonnen weniger CO2 emittiert wurden als im Jahre davor und auch danach. Diese gewaltige Menge – welche der ökonomischen Stilllegung fast der gesamten EU entspricht, war komplett wirkungslos.

Doch trotzdem verbleiben diese Zertifikate, so wirkungslos und eminent schädlich sie sind, die eigentlich durch die Abschaltung von Kohlekraftwerken vom Markt genommen werden sollten, weiterhin verfügbar und können nun einfach von anderen Unternehmen in Europa genutzt werden. Eine weiterere wahnwitzige Folge ist: Während Deutschland Milliarden für die Stilllegung von Kohlekraftwerken ausgibt, werden an anderer Stelle in Europa Emissionen in gleicher Höhe ausgestoßen. Dieser gesamte Prozess gleicht einem Nullsummenspiel, bei dem sich auch die globale CO₂-Bilanz nicht verbessert, selbst wenn die, wie oben beschrieben, keinerlei Wirkung hat.

Besonders drastisch fällt die Kritik von FDP-Fraktionsvize Lukas Köhler aus: Er bezeichnet den Kohleausstieg als „energiepolitischen Irrweg“ und wirft der Bundesregierung vor, Milliarden an Steuergeldern für Entschädigungen verbrannt zu haben, ohne eine einzige zusätzliche Tonne CO₂ einzusparen. Eine solche Symbolpolitik mag moralisch inszeniert sein, doch sie bleibt nachweislich, auf das Klima bezogen, wirkungslos. Nun kann man unterstellen, dass der FDP Abgeordnete Köhler – ein studierter Philosoph – nicht so gut in der Klimawissenschaft zuhause ist, aber in seinem Kokon hat er recht. CO2 Einsparung, selbst unter Auflösung aller wirtschaftlichen Tätigkeiten – wie oben beschrieben- sind so oder so – völlig sinnlos. Sie katapultieren dieses Land nur zurück in die Armut des Mittelalters. Mehr nicht.

Milliardenschwere Symbolpolitik auf Kosten der Bürger

Die Zahlen sprechen für sich: Für den Kohleausstieg wurden allein 4,35 Milliarden Euro aus dem Klima- und Transformationsfonds für Entschädigungszahlungen an Kraftwerksbetreiber bereitgestellt. Zusätzlich werden bis 2038 Strukturhilfen in Höhe von 40 Milliarden Euro an betroffene Braunkohle-Regionen gezahlt. Diese gigantischen Summen fließen in ein Vorhaben, das – mangels wirksamer Löschung der Emissionszertifikate – keine realen Emissionsreduktionen auf EU-Ebene nach sich zieht.

Stattdessen steigen die Strompreise in Deutschland weiter, da die Versorgungslücke, die durch abgeschaltete Kohlekraftwerke entsteht, teuer durch Gasimporte oder volatilen erneuerbaren Strom gefüllt werden muss. Diese Preissteigerungen treffen nicht nur Privathaushalte, sondern schwächen auch die Wettbewerbsfähigkeit der deutschen Industrie. Stromintensive Unternehmen drohen ins Ausland abzuwandern, während die Bevölkerung mit höheren Energiekosten belastet wird.

Ein rationaler Ansatz hätte stattdessen darin bestehen können, diesen Weg endlich aufzugeben und wieder auf den Pfad von günstiger Energie mit Kern- oder Kohle, Öl und Gas zurückzukehren, wie es derzeit die USA unter Donald Trump vormachen und wie es alle anderen Länder, unabhängig von ihren Lippenbekenntnissen, auch machen. Doch ideologische Verbohrtheit steht einem pragmatischen Kurs im Weg.

Dekarbonisierung als Ausdruck einer klima-apokalyptischen Ideologie

Die deutsche Klimapolitik wird von einer Erzählung dominiert, die den Klimawandel als unmittelbar bevorstehende Apokalypse inszeniert. Diese Rhetorik erzeugt politischen und gesellschaftlichen Druck, radikale Maßnahmen wie die vollständige Dekarbonisierung der Wirtschaft um jeden Preis umzusetzen. Die Realität ist jedoch viel einfacher.

Deutschland trägt weniger als 2 % zu den globalen CO₂-Emissionen bei. Selbst eine vollständige Dekarbonisierung der deutschen Wirtschaft hätte – wie oben beschrieben – überhaupt keinen Einfluss auf den weltweiten Klimaverlauf. Weder so, noch so. Länder wie China, Indien und die USA bestimmen mit ihren merkwürdigen (Nicht-)Emissionsstrategien den globalen Trend. Dennoch verfolgt Deutschland einen Sonderweg, der mehr an eine moralische Selbstinszenierung erinnert als an eine rationale Politik.

Diese Ideologie blendet zudem aus, dass der Klimawandel zwar vielleicht eine Herausforderung darstellt, die nicht durch Anpassung behoben werden könnte aber erst dann wenn der Fall eintritt. Er ist nicht das existenzielle Weltuntergangsszenario, als das er von Klimaaktivisten dargestellt wird. Technischer Fortschritt, Anpassungsstrategien und eine globale Perspektive sind zielführender als blinder Aktionismus.

CO₂-Abgabe abschaffen – als Vorstufe zur Beendigung einer irrwitzigen „Klimaschutzpolitik“

Ein weiteres zentrales Instrument der aktuellen Klimapolitik, das ebenso wie gesamte „Klimarettungsspolitik“ – dringend abgeschafft gehört, ist die CO₂-Abgabe. Diese Abgabe verteuert Energie künstlich, belastet Haushalte mit steigenden Kosten für Strom, Wärme und Mobilität und stellt eine zusätzliche Belastung für Unternehmen dar. Auch hier bleibt die klimapolitische Wirkung fragwürdig: Wenn Emissionen im Rahmen des europäischen Emissionshandelssystems ohnehin gedeckelt sind, führt eine nationale CO₂-Abgabe lediglich zu einer Umverteilung der Kosten, und das nicht mal zu zusätzlichen Emissionsreduktionen.

Die Abschaffung der CO₂-Abgabe wäre daher ein erster sinnvoller Schritt, um den wirtschaftlichen Schaden der deutschen Klimapolitik erstmal zu begrenzen, bevor man sie Schritt für Schritt komplett abschafft. Statt auf zusätzliche Steuern und Abgaben zu setzen, sollte sich Deutschland auf marktwirtschaftliche Mechanismen konzentrieren.

Fazit: Zeit für einen Kurswechsel – Mit Kernenergie in die Zukunft

Der Kohleausstieg, wie er derzeit in Deutschland praktiziert wird, ist ein Beispiel für kostspielige Symbolpolitik, die keinen globalen Klimaeffekt hat. Milliarden Euro an Steuergeldern werden für Maßnahmen ausgegeben, deren Wirksamkeit nicht nachweisbar ist. Der Verzicht auf Kohle wird mit einer instabilen Energieversorgung, steigenden Strompreisen und sinkender industrieller Wettbewerbsfähigkeit bezahlt.

Die zugrunde liegende Dekarbonisierungsstrategie entpuppt sich als von klima-apokalyptischer Ideologie getrieben, die rationalen, marktwirtschaftlichen Lösungen im Weg steht. Es ist Zeit für einen fundamentalen Kurswechsel:

  1. Abschaffung der CO₂-Abgabe, um Wirtschaft und Bürger zu entlasten, als erster Schritt, die gesamte „Klimaschutzpolitk“ zu verwerfen.
  2. Stärkung marktwirtschaftlicher Mechanismen wie des EU-Emissionshandels.
  3. Abkehr von ideologisch motivierten Maßnahmen, die nur hohe Kosten verursachen, aber nichts am „Weltklima“ ändern können.

Revitalisierung der Kernenergie: Der entscheidende Hebel für Versorgungssicherheit und Klimaschutz

Ein echter Kurswechsel muss jedoch mehr umfassen: Deutschland muss die Kernenergie revitalisieren. Während hierzulande ideologische Vorbehalte weiterhin den Einsatz dieser sauberen, sicheren und zuverlässigen Energiequelle blockieren, zeichnet sich international längst ein neuer Trend ab.

Internationale Beispiele für die Renaissance der Kernenergie

  • USA: Die USA investieren massiv in die Entwicklung von Small Modular Reactors (SMRs). Unternehmen wie NuScale Power und TerraPower (mit Unterstützung von Bill Gates) arbeiten an Reaktoren, die kleiner, günstiger und schneller einsetzbar sind. Die US-Regierung sieht SMRs als Schlüsseltechnologie für die Dekarbonisierung des Energiesektors.
  • Kanada: Kanada verfolgt eine SMR-Roadmap, um bis 2030 die ersten SMRs in Betrieb zu nehmen. Diese sollen nicht nur Strom liefern, sondern auch abgelegene Regionen und Industriebetriebe zuverlässig versorgen.
  • Großbritannien: Das Vereinigte Königreich setzt mit dem Rolls-Royce SMR-Projekt auf den Bau von modularen Reaktoren, um bis 2050 klimaneutral zu werden und gleichzeitig die Abhängigkeit von Energieimporten zu verringern.
  • China: China baut derzeit sowohl konventionelle Kernkraftwerke als auch neue SMR-Modelle und sieht in der Kernenergie einen wesentlichen Bestandteil seiner Strategie zur Reduzierung der Kohlenutzung.
  • Osteuropa: Länder wie Polen, Rumänien und Tschechien planen ebenfalls SMR-Projekte, um ihre Energieversorgung zu dekarbonisieren, ohne dabei auf Kohle oder Gas angewiesen zu sein.

Small Modular Reactors (SMRs): Die Zukunft der Kernenergie

SMRs stehen für eine neue Generation von Kernreaktoren, die dezentral, modular und mobil-stationär einsetzbar sind. Sie unterscheiden sich in mehreren wesentlichen Punkten von traditionellen Großreaktoren:

  • Höchste Sicherheitsstandards: Viele SMR-Designs besitzen inhärente Sicherheitsmechanismen, die eine Kernschmelze physikalisch unmöglich machen.
  • Dezentrale Energieversorgung: SMRs können direkt an Industrieanlagen, entlegenen Regionen oder urbanen Zentren installiert werden, ohne große Stromübertragungsnetze zu benötigen.
  • Flexible Einsatzmöglichkeiten: Durch ihre kompakte Größe eignen sich SMRs für industrielle Wärmeversorgung, Wasserstoffproduktion und Entsalzung, was sie vielseitig einsetzbar macht.
  • Schnelle Bauzeiten und Skalierbarkeit: Im Vergleich zu Großkraftwerken können SMRs serienmäßig hergestellt und in kürzerer Zeit in Betrieb genommen werden.

Schlussfolgerung: Pragmatismus statt Ideologie – Mit Kernenergie zu Wohlstand und ohne „Klimaschutz“

Deutschland braucht keine teuren Alleingänge, sondern eine pragmatische, wirtschaftsfreundliche Klimapolitik, die Wohlstand, Versorgungssicherheit und technologischen Fortschritt miteinander in Einklang bringt. Dazu gehört:

  • Abschaffung der CO₂-Abgabe, um Verbraucher und Unternehmen zu entlasten als erster Schritt, die gesamte „Klimaschutzpolitk“ zu verwerfen.
  • Marktwirtschaftliche Mechanismen wie der EU-Emissionshandel statt planwirtschaftlicher Eingriffe.
  • Revitalisierung der Kernenergie – insbesondere durch den Einsatz von Small Modular Reactors (SMRs), die weltweit als Schlüsselelement einer nachhaltigen Energiezukunft anerkannt sind.

Deutschland darf den internationalen Anschluss nicht verlieren. Während andere Nationen auf Kernenergie der neuesten Generation setzen, um die Herausforderungen von Klimaschutz, Versorgungssicherheit und Wettbewerbsfähigkeit gleichzeitig zu lösen, hält Deutschland an einer ideologisch motivierten Dekarbonisierungspolitik fest, die nutzlos und teuer und aber komplett wirkungslos bleibt.

Die Zeit ist reif für einen Kurswechsel, der nicht auf klima-apokalyptische Narrative, sondern auf Technik, Innovation und wirtschaftliche Vernunft setzt. Mit der Kernenergie – insbesondere durch den Einsatz moderner SMRs – kann Deutschland eine klimafreundliche, sichere und wettbewerbsfähige Energiezukunft gestalten. Je nach Preis und Kosten bleiben Öl, Gas und Kohle sinnvolle andere Energieträger.

 




Das will die Union: Wachstum und Klimaschutz vereinen!

Von Peter Würdig.

So heißt es zumindest in einer Studie der Konrad-Adenauer-Stiftung (KAS). Wachstum und Klimaschutz vereinen – Konrad-Adenauer-Stiftung

Nun sagte Goethe schon „Wer Großes will muß sich zusammenraffen; In der Beschränkung zeigt sich erst der Meister“. Nun war aber die gestellte Aufgabe, Wachstum und Klimaschutz zu vereinen, so groß, dass es den Autoren nicht gelungen ist, sich wirklich zusammenzuraffen, denn herausgekommen ist ein Schriftstück von 109 Seiten und immerhin auch noch 210 Quellenangaben. Ob nun Beschränkung gelungen ist, wie von Goethe empfohlen, oder doch eher Beschränktheit deutlich geworden ist, das müssen die Leser der Studie beurteilen.

Nach den aktuellen Umfragen liegt die Union (CDU/CSU) weit vor den Werten für die SPD, sie wird also wohl den Kanzler stellen, unklar ist nur, wie eine mögliche Koalition aussehen wird. Deswegen ist es also wichtig, sich mit den ideologischen Vorstellungen der Union zu einer möglichen Gestaltung der zukünftigen Politik im Bereich von Energie und Wirtschaft zu befassen. An dieser Stelle will ich nur auf einige Kernpunkte der Studie eingehen, eine ausführliche Darstellung meiner Kritik findet man im Internet:

Die KAS-Studie

Die Studie wurde in der Vorweihnachtszeit aufgestellt und da ist es ein beliebter Brauch, eine Wunschliste für kommende Gaben aufzustellen, die häufig mit der Realität des Möglichen wenig zu tun hat. Eine politischen Partei sollte sich allerdings konkret an den Realitäten im Lande orientieren statt, wie das bei Wahlkämpfen häufig vorkommt, ansprechende Visionen zu verkünden, von denen man weiß, dass diese nie und nimmer erfüllt werden können. Schon der Titel der Studie stellt ja einen frommen Wunsch dar, denn in der jetzigen Situation erleben wir ja, vorsichtig ausgedrückt, das Gegenteil von wirtschaftlichem Wachstum, und das auf Grund von Bemühungen, die den „Schutz des Klimas“ im Sinn haben oder das zumindest vorgeben.

Unter „Klimaschutz“ verstehen die Autoren, dass man in der Wirtschafts- und vor allem Energiepolitik die Verwertung von fossilen Rohstoffen einschränken oder ganz auf null reduzieren soll. Die Frage, ob das überhaupt Sinn macht, wird im ganzen Papier nicht gestellt. Die sog. „Klimaziele“ werden wie eine Mantra vor sich hergetragen, als wären sie göttlichen Ursprungs und nicht eine rein politische Entscheidung. In dem Zusammenhang muss man sich fragen, diese drei Autoren (und ihr Umfeld) sind doch mal zur Schule gegangen, und zum üblichen Lernstoff etwa des siebenten Schuljahres gehört die Photosynthese, mit dieser wird mit Hilfe des Sonnenlichts das in der Atmosphäre vorhandene CO2 in die Grundstoffe von Pflanzen verwandelt, und dieser Prozess ist die Voraussetzung für das Leben von Tieren und Menschen auf dieser Erde. Dann muss man sich doch zumindest die Frage stellen, wie hoch wäre eine optimale Konzentration von CO2, um die Welternährung sicher zu stellen. Bekannt ist ja, dass in früheren erdgeschichtlichen Zeiten die Konzentration von CO2 sehr viel höher war als heute, was Flora und Fauna damals gut getan hat. Nun haben wir heute nur einen bescheidenen Anstieg der Konzentration von CO2, und das hat zu einem Ergrünen der Erde geführt, Wüstengebiete sind spürbar zurückgedrängt. Da stellt sich die Frage, brauchen wir unbedingt mehr Wüstenflächen auf der Erde, oder sollten wir nicht über das Ergrünen doch eher glücklich sein ?

Wir erleben gerade eine weiter fortschreibende Deindustrialisierung Deutschland, dann kann man fragen, welche Vorschläge hat die KAS, um diese verheerende Entwicklung umzukehren und wieder wirtschaftliches Wachstum zu erreichen ? In der Studie heißt es dazu: „Für Deutschland bedeutet der Ausstieg aus der Atomkraft und der Kohleverstromung, dass eine möglichst kostengünstige Stromversorgung auf der Basis von erneuerbaren Energien, (langfristig mit Wasserstoff betriebenen) Gaskraftwerken, Speichern und Flexibilitäten erreicht werden muss.“ Also, eine „möglichst kostengünstige Stromversorgung auf der Basis von erneuerbaren Energien“ muss (!) erreicht werden, aber wie das tatsächlich erreicht werden kann, dazu fehlt in der Studie jeder konkrete Hinweis. Tatsächlich ist es ja bis jetzt so, dass die „ Stromversorgung auf der Basis von erneuerbaren Energien“ Energie massiv verteuert hat, und da die grünen Parteien (also einschließlich CDU) eine Änderung der Strategie nicht erkennen lassen, ist eine weitere Verteuerung und damit die Fortsetzung der Deindustrialisierung zu erwarten.

Wie soll es denn nun wirklich gehen ? Dazu äußert die Studie: „Der Schlüssel für die Verbindung von Wachstum und Klimaschutz sind Innovationen und der technologische Fortschritt.“ Das ist zwar nicht ganz falsch, hat aber wieder den Charakter eines Wunschzettels. Welche Innovationen (Erfindungen) sollen das denn sein, die plötzlich vom Himmel fallen, rechtzeitig vor der nächsten Wahl ? Das ist also im Grunde nur das Eingeständnis, dass die Energiewende ohne eine neue gravierende Entdeckung nicht zu wirtschaftlichen Erfolg führen wird.

Die Hilflosigkeit der Studie zeigt sich auch in der Empfehlung: „Begrenzte staatliche Förderung zur Sicherstellung einer bezahlbaren Energieversorgung sowie der Versorgungssicherheit“. Wenn die wichtigen politischen Entscheidungen, also der Atom-Ausstieg und der Kohle-Ausstieg dazu geführt haben, dass das elektrische System unsicher geworden ist mit der Gefahr eines Blackouts und die Kosten auf ein Mehrfaches gestiegen sind, dann kann man nicht hoffen, diese Fehler durch große Mengen von Geld zuzuschütten, der Staat hat kein Geld, es sei denn, er nimmt es vorher oder später den Bürgern ab. An die Ursachen der Teuerung heranzugehen, dazu fehlt der KAS der Mut, stattdessen die Situation durch weiter steigende Subventionen zu retten ist hoffnungslos.

Die Autoren der Studie haben erkannt, dass es nachts dunkel ist und der Wind nur weht, wenn er will und nicht wenn er soll. Dazu heißt es dann: „Weltweit werden verschiedene Technologien komplementär zu den Erneuerbaren eingesetzt werden, um die Versorgungslücken zu füllen …“.

Mit dem „weltweiten“ Einsatz dieser Technologien ist es nicht weit her, auch nach über 20 Jahren einer üppigen Subventionierung gibt es in Deutschland nicht eine einzige Windkraftanlage oder eine PV-Anlage, die elektrische Leistung bedarfsgerecht zur Verfügung stellen kann. Man hat Versuche in drei verschiedenen Ländern gemacht, wenigstens eine kleine Insel mit erneuerbaren Energien zu versorgen, in Deutschland war das die Insel Pellworm, PI-News hat darüber berichtet: https://www.pi-news.net/2024/04/speichern-fuer-die-wende/ Alle diese Versuche wurden nach wenigen Jahren wegen der Kosten und wegen technischer Probleme wieder aufgegeben.

In einer Schlussbetrachtung muss man feststellen, dass die beiden Bereiche, die den Titel der Studie ausmachen, nämlich „Wachstum“ und „Klimaschutz“ sehr unterschiedlich gewichtet werden. Es werden viele Ideen aufgezeigt, wie man mit noch mehr Geld die Wirtschaft noch weiter „defossilieren“ kann, so etwas nennt man bekanntlich „Klimaschutz“, und ob diese Bemühungen uns auf Dauer besseres Wetter bringen werden und das diesen Preis wert ist, wird nicht betrachtet. Für das andere Ziel der Studie, Wachstum (der Wirtschaft), gibt es keine konkreten Angaben, es wird nur gesagt (wörtlich), dass eine „möglichst kostengünstige Stromversorgung … erreicht werden muss“. Was heißt hier „muss“ ? Man kann doch nicht im Ernst hoffen, dass durch stramme politische Vorgaben technologische Gegebenheiten und physikalische Gesetze aufgehoben werden können.

Die Autoren der Studie ahnen wohl auch selbst, dass die Vereinigung von Wachstum und Klimaschutz nicht gelingen wird und die Sache am Ende nicht gut ausgeht. So äußert man: „Eine schrumpfende Wirtschaft könnte die Finanzierung von Renten, der Gesundheitsversorgung und anderen Leistungen des Sozialstaats deutlich herausfordernder machen.“ Damit ist die Studie hier zumindest ehrlich, die politische Agenda der Union bedeutet also weitere Einschränkungen im Lebensstandard und deutliche Herausforderungen des Sozialstaats, und wer sich mit dieser Studie befasst hat, kann am Ende nicht sagen, dass er das nicht gewusst hat.

 




Ein einfacher Weg, um das Netz vor weiterem Wind- und Solarstrom zu schützen

David Wojick

Der Präsident möchte verhindern, dass neue Windkraftanlagen das amerikanische Stromnetz zerstören. Es gibt einen einfachen und vernünftigen Weg, dies zu tun, der auch die Solarenergie stoppt. Verbieten Sie einfach den Anschluss dieser zerstörerischen, intermittierenden Generatoren an das Stromnetz.

Die Bundesstaaten haben die Befugnis, Stromgeneratoren zu bauen, aber die Genehmigung ihres Anschlusses an das amerikanische Stromnetz ist eine Aufgabe des Bundes. Die federführende Behörde ist die Federal Energy Regulatory Commission (FERC) im Energieministerium. Diese Befugnis wird an die regionalen Übertragungsnetzbetreiber (RTO) delegiert, die der Aufsicht der FERC unterliegen.

Die derzeitige Situation ist absurd, da die RTOs Warteschlangen von Anschlussanträgen von Entwicklern erneuerbarer Energien haben, die in der Summe ihre Spitzennachfrage übersteigen. Die unvorhersehbaren Schwankungen der Erzeugung aus diesen erneuerbaren Energien drohen das Netz zu zerstören.

Die FERC hat die Befugnis und die Verantwortung, den Anschluss intermittierender Erzeuger zu verbieten. Sie hat gerade einen Vorschlag eines regionalen Übertragungsnetzbetreibers gebilligt, der vorsieht, dass der Anschluss von einsatzfähigen Erzeugern vorrangig vor intermittierenden Erzeugern genehmigt wird.

Abrufbar bedeutet, dass der Generator Strom produzieren kann, wenn er gebraucht wird. Wind- und Solarkraftwerke können dies nicht, da sie nur dann Strom erzeugen, wenn der Wind stark weht und die Sonne kräftig scheint. Diese Abhängigkeit von nicht vorhersagbarem Wetter wird als Intermittenz bezeichnet. Sie kann von Tag zu Tag, von Stunde zu Stunde und sogar von Minute zu Minute stark schwanken. Diese endlosen Schwankungen können das Stromnetz leicht destabilisieren, was von zerstörerischen Spannungs- und Frequenzschwankungen bis hin zu tödlichen Stromausfällen reichen kann.

Für die FERC ist es ein einfacher Schritt, von der Bevorzugung der disponiblen Stromerzeugung zu einer zwingenden Vorschrift überzugehen, indem sie den Anschluss destruktiver, intermittierender Stromerzeuger nicht genehmigt.

Der Auftrag der FERC ist eindeutig:

„Die FERC gewährleistet eine zuverlässige, sichere und wirtschaftlich effiziente Energieversorgung der Verbraucher zu angemessenen Kosten.“

Es gibt zwei sehr gute Gründe für die FERC, neue Intermittenz-Verbindungen zu verbieten – Zuverlässigkeit und Kosten. Unterbrechungen destabilisieren das Netz und kosten ein Vermögen. Theoretisch könnte die Speicherung von Strom Abhilfe schaffen, aber das ist unerschwinglich. Es gibt keine praktikable Lösung für die Unterbrechung der Stromversorgung.

Die Kosten der Unterbrechung sind exorbitant, weil die abschaltbare Stromerzeugung ständig verfügbar sein muss, wenn die erneuerbaren Energien nicht laufen. Die Amerikaner zahlen schließlich für zwei Stromerzeugungssysteme, wenn das abschaltbare System allein die Aufgabe erfüllen könnte. Die Hinzufügung intermittierender Stromerzeugung ist eine verschwenderische und teure Redundanz.

[Die Deutschen natürlich auch, wenn nicht sogar noch mehr. – Hervorhebung vom Übersetzer]

Aber die Instabilität der „erneuerbaren“ Energien ist viel teurer als diese Redundanz. Dinge wie Computer und Internet-Rechenzentren, die für unsere Lebensweise von zentraler Bedeutung sind, benötigen Strom von hoher Qualität. Selbst kleine Schwankungen der Wechselstromfrequenz oder -spannung können sie zerstören.

Viele unserer wichtigen Systeme und Geräte werden heute von Computern gesteuert, so dass sie sehr empfindlich auf die Qualität der elektrischen Energie reagieren. Der Ausfall ganzer Systeme kann katastrophale Folgen haben.

Immer häufiger wird davor gewarnt, dass das amerikanische Stromnetz instabil wird, weil man unklugerweise die abschaltbaren Generatoren durch intermittierende ersetzt hat. Dieser Trend darf nicht weitergehen, und es ist Aufgabe der FERC, ihn umzukehren.

Die Tatsache, dass einige Staaten Gesetze haben, die einen unmöglichen Übergang zu intermittierenden erneuerbaren Energien vorschreiben, ist irrelevant. Die FERC ist dem amerikanischen Volk gegenüber verantwortlich, nicht gegenüber schlecht durchdachten staatlichen Gesetzen. Eine verlässliche Stromversorgung zu angemessenen Kosten ist für Amerika von grundlegender Bedeutung. Sie muss wiederhergestellt werden.

Der Stromverbrauch stieg im zwanzigsten Jahrhundert stetig an. Dieses stetige Wachstum kam um die Jahrtausendwende plötzlich zum Stillstand, aber jetzt hat es wieder eingesetzt, und es wird ein starkes Wachstum erwartet. Ein großer Teil des neuen Bedarfs besteht in qualitativ hochwertiger Elektrizität, die durch die zunehmende Schwemme der intermittierenden Stromerzeugung unmöglich gemacht wird. Die Einspeisung störender, intermittierender Stromerzeugung in das Netz muss gestoppt werden, bis die Zuverlässigkeit wiederhergestellt und durch eine Vielzahl neuer, abschaltbarer Stromerzeuger gesichert ist.

Die FERC muss schnell handeln, um die Zuverlässigkeit wiederherzustellen. Der erste Schritt der FERC besteht darin, den Anschluss neuer intermittierender Erzeugungsanlagen an das amerikanische Stromnetz zu verbieten.

Link: https://www.cfact.org/2025/02/17/a-simple-way-to-save-the-grid-from-more-wind-and-solar/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Was die FERC in den USA ist, ist bei uns die Bundesnetzagentur. Wenn man in diesem Beitrag diese beiden Termini austauscht, bekommt man ein wunderbares Bild dessen, was hierzulande ebenfalls DRINGENDST erforderlich ist.

 




Januar-Temperaturvergleich: Die Nordsee und die Küste

Nordsee wurde wärmer seit 1988, Hamburg und Bremen nicht.

Matthias Baritz, Josef Kowatsch

Beginnen wir mit dem Diagramm der Nordseewassertemperaturen seit 1948 bis heute. Rechts unten neben dem Diagramm erkennt man, welche Nordseefläche erfasst wird

Abb.1: Die Nordseetemperaturen des Monates Januar sind 40 Jahre lang gesunken, und zwar von 1948 bis 1987. Die Nordsee wurde kälter. Von 1987 auf 1988 erfolgte ein plötzlicher Temperatursprung aufgrund der Änderung der Großwetterlagen. ΔT = 0,8 K (berechnet). Und ab 1988 bis heute hält ein angenehmer Erwärmungstrend an. Bitte die Steigungsformel beachten. Quelle: https://climatereanalyzer.org/ ECMWF ERA 5

Wurde der Golfstrom plötzlich wärmer?

Was auch immer die Gründe sind, jedenfalls hat der Golfstrom mit seiner Wärmezufuhr in die Norddeutsche Bucht hinein keinesfalls nachgelassen. Im Gegenteil, das Oberflächenwasser wurde immer wärmer. Wir gehen deshalb davon aus, dass der Golfstrom seit 1988 verstärkt Wärme in die Nordsee eingebracht hat. An dieser Stelle sind die Kommentatoren gefragt, weitere Ursachen dieser Temperatur-Entwicklung zu diskutieren.

Wie zu erwarten: Wärmer wurde natürlich auch der Januar bei der Wetterstation Helgoland.

Abb. 2: Die Wetterstation auf Helgoland, (Messbeginn leider erst 1953) unweit vom Meer, bestätigt den Verlauf der Wassertemperaturen. Bitte vor allem die Steigungsformel ab 1988 beachten. Sie ist nicht ganz so hoch wie bei den Wassertemperaturen, dafür beträgt der Temperatursprung 1,8 Grad.

Zur Vergleichsergänzung ziehen wir die Wetterstation auf der Ostfriesischen Insel Norderney heran, natürlich schon näher am Festland als Helgoland. Quelle für Abb. 2- Abb. 7: DWD

Abb. 3: Bitte zuerst nur die orangen Linien beachten und mit der Nordsee-Wassertemperatur der Grafik 1 vergleichen:

  1. Die Abkühlung auf Norderney ist im ersten Betrachtungszeitraum 1948 bis 1987 viel stärker als das Nordseewasser
  2. Der Temperatursprung 1987/88 beträgt 2 Grad, also viel höher als beim Nordseeoberflächenwasser
  3. Die Steigungsformel der Weitererwärmung ab 1988 ist höher als auf Helgoland und auch höher als die Erwärmungszunahme der Wassertemperatur.
  4. Und die Steigungsformel von T-min und T-max sind in beiden Zeitabschnitten jeweils innerhalb des Betrachtungszeitraumes fast ähnlich.

Abb. 4: List auf Sylt bestätigt unsere Ausführungen.

Wechseln wir zum Festland und beginnen mit Hamburg: Die Wetterstation steht am Flughafen nördlich der Stadt.

Abb. 5: Man beachte wieder zunächst nur die orange Kurve mitsamt Steigung.

Obwohl sich beide Städte unweit der Nordsee im Inland befinden, gibt es bereits Unterschiede zur Grafik der Nordseewasseroberfläche, aber auch zu den Temperaturen der drei Nordsee-Inseln. Und der Temperaturverlauf der beiden Städte ist sich ziemlich ähnlich, und zwar in allen drei Betrachtungszeiträumen. Das zeigt auch Bremen.

Abb. 6: Man betrachte wiederum zunächst die orangen Linien, den Januartemperaturverlauf.

Vergleich der beiden Hansestädte:

  1. Sehr starke Abkühlung der Januartemperaturen zwischen 1948 und 1987
  2. Großer Temperatursprung 1987/88 von über 2 Grad.
  3. Kein Anstieg der Januartemperaturen seit 1988 bis 2025
  4. In Hamburg wird der Januar seit 1988 sogar leicht kälter, und zwar sowohl bei den T-max also auch bei den T-min Temperaturen.

Überraschung: Obwohl die beiden Städte in Küstennähe sind wirkt sich die Erhöhung der Nordsee-Wassertemperaturen im Zeitraum 1988 bis heute in beiden Städten nicht mehr aus. Die wärmer gewordene Nordsee ließ HH und HB ab 1988 nicht mehr wärmer werden.

Wir geben diese Beobachtung zur Diskussion in die Runde der Kommentatoren.

Damit verhalten sich beide meeresnahen Wetterstationen bereits wie die etwa 100 km südlichere Inlandwetterstationen bei Hannover.

Nebenbei: Die Januartemperatur 2025 mitbeachten, denn angeblich soll der Januar 2025 global der „heißeste“ seit Messbeginn gewesen sein.

Abb. 7: 40 Jahre starke Abkühlung des Januars bis 1987, hoher Temperatursprung, seit 1988 keine Änderung der Januartemperaturen. Die jeweils mitgezeichneten T-max und T-min Temperaturverläufe zeigen keine Auffälligkeiten, sie verlaufen parallel den Gesamttagesschnitten.

Schlussfolgerungen:

Die Temperaturänderungen des Nordseewassers und damit des Golfstromes wirken sich im Januar nur auf die Inselwetterstationen aus. Die Küstenwetterstationen sind bereits stark von der Landmasse beeinflusst.

Auffallend ist jedoch, dass sowohl die Nordsee als auch das Festland anfangs ähnlich verlaufen. Nämlich ab 1948 die 40-jährige Abkühlung, dann der Temperatursprung auf ein höheres Niveau. Erst ab 1988 bis heute ergibt ein unterschiedlicher Verlauf: Die Nordsee wurde im Januar weiter wärmer, das restliche Deutschland nicht mehr.

Wie kann man sich diese Temperaturentwicklung der letzten 80 Jahre erklären?

Antwort: Nicht durch die Kohlendioxidzunahme, die CO-Kurve hat einen vollkommen anderen Verlauf. Es gibt keinerlei Korrelation zwischen dieser CO-Kurve und den Januartemperaturkurven der Grafiken davor.

Richtige Erklärung: Durch die Änderung der Großwetterlagen: Mehr Südanteil

Seit 1988 waren plötzlich Lagen mit südwestlichem Strömungsanteil meist dominant, so 1988 (29 Tage), 1994 (27 Tage), 1999 (28 Tage), 2007 (27 Tage) und 2008 (29 Tage). Aber ein Januar hat nur 31 Tage – viel mehr geht da kaum. Kalte Ostwetterlagen hatten Seltenheitswert. Durch diese Windverhältnisse wird der Golfstrom – so unsere Vermutung- stärker und schneller in die Nordsee gedrückt. Der Wärmezufluss ist beschleunigt. Das Oberflächenwasser wird wärmer.

Aber genauso wirkt sich die Änderung der Großwetterlagen seit 1988 auf mehr Südanteil auch auf dem Lande aus. Wie erwähnt, viel mehr geht da kaum mehr, deshalb stagniert die Erwärmung seit 1988 auf dem Land, während der Golfstrom als Meeresströmung immer noch zulegen kann, vor allem weil die Großwetterlagen sich übers ganze Jahr geändert haben.

Das heißt: Sollten künftig einmal SW-lagen seltener und Ostlagen wieder häufiger werden, würde sich der Januar abkühlen, zuerst auf dem Land – ob und wann das eintritt, lässt sich aber nicht vorhersehen. Viel wärmer, als der Rekordjanuar von 2007, als im DWD-Mittel fast 5°C erreicht wurden, kann der erste Monat des Jahres aber auch kaum werden.

Und wo bleibt der wärmende Treibhauseffekt? Antwort: Wirkung nicht erkennbar

Die Treibhauskirche mitsamt ihrer mitverdienenden Clique behauptet, CO sei der Temperaturregulierknopf. Deswegen sei es egal, wo auf der Welt CO eingespart wird. Ein Radweg in Peru hätte dieselbe temperaturbegrenzende Wirkung wie in Deutschland!!

Unsere Haltung: Grundsätzlich ist die physikalische Absorption und Emission von Gasen physikalische Realität und wird durch die Belege unseres Artikels nicht in Frage gestellt. Aber wie hoch ist die dadurch geglaubte Thermalisierung/Erwärmung der Lufthülle? Gibt es überhaupt eine? Von uns wird die beängstigende Höhe von 2 bis 5 Grad Klimasensitivität (je nach Klimamodell, hierbei handelt es sich um fiktive Modelle, Teilrechnungen und nicht um Realität) wissenschaftlich hinterfragt und anhand der Daten des Deutschen Wetterdienstes widerlegt. Insbesondere zeigt sich, dass keine Grundlage für einen sog. Klimanotstand und darauf aufbauende Verbote und Panikmache besteht. Wir Bürger sollten uns nicht von politischen Laien aus der Politik und gut alimentierten selbst ernannten Klimaexperten wie Lesch, Quaschnig, Terli und sonstigen im Auftrag der Treibhauskirche eingesetzten Angstmacher bevormunden lassen. Klimawandel gibt es immer, aber die CO-Treibhaustheorie als Temperaturregelknopf hat keine wissenschaftlichen Versuchs-Beweise.

Unsere Motivation: Alle unsere Arbeiten sind gegen das Geschäftsmodell CO-Klimapanik und Klimanotstand gerichtet. Da wir dieses Lügenmodell nicht vertreten, erhalten wir auch kein Geld. Die linksgrünen von unseren CO-Ablaßhandelssteuern alimentierten Chaosmacher tun so, als würde alle Erwärmung der letzten Jahrzehnte ausschließlich nur den Treibhausgasen geschuldet sein. Und dieses Lügenmodell wollen wir vernichten. Ein Abzockemodell, das Deutschland ruiniert, das dem Klima nichts nützt und mit den angeblichen Schutzmaßnahmen wie Freiflächensolaranlagen und Windrädern Natur und Umwelt nachhaltig zerstört. Überhaupt scheint die Zerstörung Deutschlands in der Mitte Europas das Ziel dieser linksgrünen Politik zu sein.

Wenn sich hier ein Kommentator oder ein Autor für eine geringe CO-Klimasensitivität in der Größenordnung bis 0,5/0,6 Grad ausspricht, dann widersprechen wir nicht. Für uns hat dem Geschäftsmodell Klimapanik und Klimanotstand in einer gemeinsamen konzertierten Aktion zu widersprechen absoluter Vorrang. Wir müssen uns endlich gemeinsam wehren.

Grundforderung von uns Natur- und Umweltschützern:

Die werbe- und geschäftsmäßig geplante und regierungsgewollte CO-Klimaangstmacherei vor einer angeblichen Erdüberhitzung muss sofort eingestellt werden. Es handelt sich um eine Werbestrategie der großen CO-Klimaewärmungslüge.

Nicht nur eine Forderung der Biologen: Wir brauchen mehr CO₂ in der Atmosphäre

Eine positive Eigenschaft hat die CO-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO-gehalt der Atmosphäre liegt etwa bei 800 bis 1200ppm, das sind etwa 0,1%. Das ist auch die Konzentration in den Gewächshäusern für den Gemüseanbau. Nicht nur für das Pflanzenwachstum, also auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.

Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO verteufelt und vermindern will, versündigt sich gegen die Schöpfung dieses Planeten. Außer Kohlenstoff als Grundbaustein braucht das Leben noch die Elemente S, H, O, N und weitere Spurenelemente und eine angenehm milde Temperatur.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das überhaupt nichts mit Natur- und Umweltschutz zu tun hat.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturwissenschaftler und Umweltschützer.

 




Namensänderung: Mein S-B-Modell wird jetzt zum „hemisphärischen Konvektionsmodell“

von Uli Weber

Mein hemisphärisches Stefan-Boltzmann-Modell ist kein Strahlungsmodell, sondern war von Anfang an ein Strahlungs­antriebsmodell; denn es wird von der Leistungsdifferenz zwischen der solaren Einstrahlung und der tatsächlichen individuellen Ortstemperatur angetrieben. Es wird also höchste Zeit, dieses Modell einmal am Stand seiner Weiterentwicklung über mehr als 50 EIKE-Artikel hinweg (mit Dank an Herrn Dipl.-Ing. Michael Limburg) zu betrachten. Der Anstoß für diese Betrachtung lieferte ein Artikel von Dr. Markus Ott, der zufällig passend zum 8. Jahrestag der EIKE-Erstveröffentlichung meines S-B-Ansatzes erschienen war. Nein, einen Link auf diesen Artikel gibt es hier nicht, denn ich werde Herrn Dr. Ott nicht sehenden Auges die üblichen pawlowschen Haßprediger auf den Hals hetzen – nicht nur mein Modell hat sich umfänglich weiterentwickelt, sondern auch die Zahl meiner ad-hominem-Kritiker. Mein erster Artikel über dieses Modell war am 23. Januar 2017 hier auf EIKE erschienen, und ein Herr Frank Endres hatte am selben Tag seherisch kommentiert, Zitat:

Jetzt fallen die Ökofanatiker über ihn her. Das – selbstverständlich selbstgebraute – Bier ist kalt gestellt, nur Chips bzw. Popcorn habe ich leider noch nicht besorgt. Zum ‚Klimaschutz‘ verzichte ich darauf, einkaufen zu gehen und warte hier auf die ersten Beschimpfungen und Zurechtweisungen der anerkannten ‚Elite-Wissenschaftler‘.“

Aber sei‘shaltwieshaltist – jedenfalls ist es eine völlig neue Sichtweise, wenn man einen fremden Artikel über ein Modell liest, das man über fast ein Jahrzehnt kontinuierlich weiterentwickelt hatte. Dieser hemisphärische S-B-Ansatz hatte zunächst einfach nur die terrestrische Temperaturgenese auf eine physikalisch korrekte S-B-Inversion für die Tagseite unserer Erde reduziert. Eine rechnerische Approximation mit einer flächengetreuen Durchschnittsbildung für das Stefan-Boltzmann-Temperaturäquivalent konnte später die sogenannte „gemessene globale Durchschnittstemperatur“ unserer Erde ohne den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ erklären. In der weiteren Folge wurde dieser Ansatz schließlich zum S-B-Modell, das neben seiner fortlaufenden Weiterentwicklung auch an unterschiedlichen atmosphärischen und geografisch-jahreszeitlichen Phänomenen validiert worden war. In dem o.g. Ott-Artikel wird die ausdrückliche Unterscheidung zwischen dem rechnerischen Temperaturäquivalent aus der S-B-Inversion und der tatsächlichen gemessenen Ortstemperatur noch einmal ganz besonders hervor­gehoben. Es wird dort ebenfalls nochmals verdeutlicht, dass innerhalb dieses Modells bei der Erwärmung der Erdoberfläche durch den gleichzeitigen Abfluss von Energie in die globalen Zirkulationen bereits eine Art Mittelung stattfindet. Da sich mein Modell also sehr weit von der ursprünglich namensgebenden S-B-Inversion entfernt hat, ist die bisherige Benennung für einen interessierten Betrachter inzwischen eher fehlleitend geworden, weil sich das weiterentwickelte Modell eben nicht mehr allein auf diese Inversion reduzieren lässt – und schon gar nicht auf ein reines Strahlungsmodell.

Von daher werde ich künftig die Bezeichnung „hemisphärisches Konvektionsmodell“ verwenden.

Als hemisphärisches Konvektionsmodell stellt dieses Modell das Klimasystem unserer Erde vom makroskopischen Standpunkt der Klimadefinition als Durchschnitt von 30 Jahren Wetter dar. Daraus lassen sich dann wiederum die primären Wirkmechanismen der terrestrischen Temperaturgenese auf unserer realen Erde qualitativ ableiten. Am Ende ist dieses einfache hemisphärische Konvektionsmodell Modell dann in der Lage, den Unterschied von Tag und Nacht zu berücksichtigen, ein durchschnittliches jahreszeitliches Wetter zu erklären und analog zu den Beleuchtungs­klimazonen sogar ganz grob die geografischen Klimazonen nachzuempfinden. Im Prinzip handelt es sich also um ein hybrides Modell, das auf eine Kombination von Berechnungen (Tagseite) und der Existenz von terrestrischen Wärmespeichern (Nachtseite) aufbaut. Und weil nicht jeder monothematische Artikel sämtliche Aspekte dieses hemisphärischen Konvektionsmodells abdecken kann, seien nachfolgend noch einmal dessen wesentliche Eckpunkte zusammengefasst:

1. AUSSAGE: Die hemisphärische S-B-Inversion kann die sogenannte globale Durchschnitts­temperatur ohne den vorgeblichen „natürlichen atmosphärischen Treibhauseffekt“ erklären [Berechnungen, Grafiken und weitere Erklärungen].

BEWEIS: Die Berechnungen für die Tagseite unserer Erde beruhen auf dem S-B-Temperatur­äquivalent aus einer ortsgetreuen S-B-Inversion der hemisphärisch eingestrahlten spezifischen Strahlungsleistung der Sonne für die jeweiligen individuellen Ortslagen.

Abbildung 1 Links: Geometrie der solaren Einstrahlung im Äquinoktium

Mitte: Berechnungsschema für das S-B-Temperaturäquivalent in 1° Segmenten

Rechts: S-B-Temperaturäquivalent in Abhängigkeit vom Zenitwinkel der Sonne

Das flächennormierte Temperaturmittel aus dieser Approximation beträgt 14,03°C und wird durch eine Verdoppelung der G&T-Integrallösung bestätigt. Das berechnete S-B-Temperaturäquivalent wird jedoch nirgendwo auf der Erde erreicht. Vielmehr finden mit der morgendlichen Erwärmung der Oberfläche sofort auch Verdunstung und Konvektion statt, durch die wesentliche Mengen der örtlich eingestrahlten Energie in die globalen Zirkulationen übergehen und abgeführt werden. Nach dem 1. HS der Thermodynamit geht diese Energie aber nicht verloren, sondern wird lediglich von den Strömungen in Atmosphäre und Ozeanen aufgenommen und von diesen großflächig verteilt.

BEISPIEL: Jahreszeitlicher Abfluss und Zufluss von Energie auf einer konkreten Ortslage am Beispiel Potsdam [aus Anmerkungen zur Bestimmung der hemisphärischen solaren Einstrahlung auf „Mittelerde“]:

Wie weiter oben bereits ausgeführt wurde, wird das maximale S-B-Temperaturäquivalent auf unserer Erde aufgrund von Konvektion und Verdunstung in der Realität niemals erreicht; umgekehrt wird aber der nächtliche Temperaturabfall durch Kondensation und Advektion abgemildert. Letzteres gilt übrigens auch für das Strahlungsdefizit in mittleren und höheren Breiten der jeweiligen Winter­hemisphäre, dazu nachfolgend das Beispiel für Potsdam:

Abbildung 2: Konvektion und Advektion über das Jahr an einer konkreten Ortslage (Potsdam)

Links: Treppenkurve: Maximale monatliche Bodentemperatur in Potsdam

Blau gestrichelt: Maximales jahreszeitliches S-B-Temperaturäquivalent

Rechts: Differenz zwischen der maximalen monatliche Bodentemperatur in Potsdam und dem maximalen örtlichen S-B-Temperaturäquivalent

Rote Kurve: Trendlinie für die Differenz (schwarze Zackenkurve) zwischen maximaler monatlicher Bodentemperatur und dem maximalen örtlichen S-B-Temperatur­äquivalent in Potsdam

Rot schraffiert: Zufluss von Wärme im Winterhalbjahr

Blau schraffiert: Abfluss von Wärme im Sommerhalbjahr

Im Sommerhalbjahr fließt also Energie in die globalen Wärmespeicher und im Winterhalbjahr wird die Ortstemperatur durch einen Wärmezufluss aus diesen Wärmespeichern gestützt. Und deshalb müssen Atmosphäre und Ozeane als „globale Wärmespeicher“ zwingend in die Bestimmung einer „natürlichen Temperatur“ unserer Erde einbezogen werden.

2. AUSSAGE: Dieses Modell kann die Umkehrung der vektoriellen Strahlungsrichtung zwischen solarer HF-Einstrahlung und terrestrischer IR-Abstrahlung erklären [ausführlich dargestellt in Zeigt der Poynting-Vektor auf „Mittelerde“ oder auf die sogenannte „Abstrahlungshöhe“?].

BEWEIS: Die konventionelle Faktor4-Ableitung einer „natürlichen“ terrestrischen Temperatur aus der globalen IR-Abstrahlung unserer Erde kann die Umkehrung der vektoriellen Strahlungsrichtung zwischen solarer HF-Einstrahlung und terrestrischer IR-Abstrahlung nicht erklären und arbeitet mit einem unphysikalischen skalaren 24h-Durchschnittswert der solaren Einstrahlung. Beim hemisphärischen Modell beschränkt sich die Temperaturgenese jedoch auf die Tagseite der Erde, wo die Sonneneinstrahlung planparallel einfällt und mit dem Cosinus der geografischen Breite temperaturwirksam wird. Denn eine Veränderung der vektoriellen Strahlungsrichtung von HF auf IR kann nur über die zwischenzeitliche Erwärmung von Materie erfolgen:

Einstrahlung HF-solar => Erwärmung von Materie an der Oberfläche => Abstrahlung IR-terrestrisch

Die auf der Tagseite erwärmte Materie gelangt durch die kontinuierliche Erddrehung schließlich auf die Nachtseite, wo sie weiterhin die terrestrische IR-Strahlung senkrecht zur Erdoberfläche abstrahlt.

3. AUSSAGE: Das hemisphärische Konvektionsmodell kann die jahreszeitlichen Schwankungen der örtlichen solaren Einstrahlung abbilden [hier eine ausführliche Darstellung].

BEWEIS: Hier bei uns in Deutschland schwankt die solare LEISTUNG zwischen etwa 90% der Solarkonstanten am Sommerpunkt (21.06.) und etwa 30% am Winterpunkt (21.12.). An den Polen unserer Erde geht es noch extremer zu, dort schwankt die Sonnenscheindauer als Indikator für die solare ARBEIT (=Leistung x Zeit) zwischen 0 Stunden (Wintersonnenwende am Pol der Winterhemisphäre) und 24 Stunden (Sommersonnenwende am Pol der Sommerhemisphäre), was das hemisphärische Konvektionsmodell tatsächlich abzubilden vermag:

Abbildung 3: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium (Abszissenbeschriftung aus Sicht der Nordhalbkugel)

Spez. Strahlungsleistung: MAX (Si) @24h-Tag mit (Si = 1.367W/m² * (1-ALBEDO) * cos PHIi)
und (PHIi = örtlicher Zenitwinkel) – Farbdarstellung: 0 [W/m²] (schwarz) – 940 [W/m²] (rot)

Linke Skala: Grad geografische Breite (Süd = „-“)

Skala oben: Datum ab Herbstäquinoktium

Anmerkung: Ein vergleichbarer geografischer Verlauf ergibt sich für das daraus abgeleitete S-B-Temperaturäquivalent (SBT) zwischen (-273°C=schwarz) und (86°C=rot)

https://eike-klima-energie.eu/wp-content/uploads/2020/03/fehler_06-640x355.png Das konventionelle Faktor4-THE-Modell vermag diese Schwankungen nicht abzubilden, im Gegenteil, es wirft grundsätzlich dieselbe „natürliche theoretische Globaltemperatur“ für alle Ortslagen auf unserer Erde aus, selbst für die Polkappen und die Wüstengebiete in niederen geografischen Breiten. Da aber das hemisphärische Konvektionsmodell den jahreszeitlichen solaren Zenitwinkel berücksichtigt, kann es sogar die Beleuchtungsklimazonen unserer Erde abbilden:

Abbildung 4: Tentative Gegenüberstellung der Beleuchtungsklimazonen mit dem Jahresverlauf der maximalen solaren Strahlungsleistung im Sommerhalbjahr (Südsommer linke Hälfte und Nordsommer rechte Hälfte)

Overlays rechts und links: Die Beleuchtungsklimazonen der Erde: von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Darunter farbgebend rot-gelb-schwarz: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium

4. AUSSAGE: Das hemisphärische Konvektionsmodell berücksichtigt den physikalischen Unterschied zwischen solarer Leistung und solarer Energie und vermag dadurch den grundsätzlichen Wechsel der Wetterlagen über den Verlauf der Jahreszeiten zu skizzieren [hier eine ausführliche Darstellung].

BEWEIS: Wenn wir uns die Nord- und Südhemisphäre unserer Erde einmal im Verlauf der Jahreszeiten vergegenwärtigen, dann besteht der wesentliche Unterschied zwischen vergleichbaren geografischen Ortslagen in jahreszeitlich erheblichen Gegensätzen der solaren LEISTUNG und der solaren ARBEIT. Die LEISTUNG ist über den solaren Zenitwinkel mit dem rechnerischen maximalen S-B-Temperaturäquivalent verknüpft, während die solare ARBEIT von der lichten Tageslänge (=Sonnenscheindauer) abhängig ist. So ist die solare LEISTUNG aufgrund des hohen Sonnenstandes in den Tropen stets am größten und generiert dort auch das höchste S-B-Temperaturäquivalent. Es ist aber weitgehend unbekannt, dass die solare ARBEIT (Energie=Leistung x Zeit) aufgrund der örtlichen Sonnenscheindauer am Pol der jeweiligen Sommerhemisphäre höher ist als in den Tropen:

Abbildung 5: Tentative räumliche und zeitliche Auswirkungen der hemisphärischen jahreszeitlichen solaren Einstrahlung (nicht flächengetreu)

Rot: Maximale solare ARBEIT auf der Polkappe der Sommerhemisphäre

Grün: Maximale solare LEISTUNG in Tropen und mittleren Breiten der Sommerhemisphäre

Blau: Minima von solarer ARBEIT und solarer LEISTUNG auf der Winterhemisphäre

Links: Sommer auf der Nordhemisphäre plus Tropen der Südhemisphäre

Rechts: Sommer auf der Südhemisphäre plus Tropen der Nordhemisphäre

Wir erkennen hier ganz deutlich, dass die Polarregion der jeweiligen Sommerhemisphäre einen solaren ENERGIE-Hotspot mit dem Maximum zur jeweiligen Sommersonnenwende darstellt. Dieser sommerliche solaren ENERGIE-Hotspot wechselt nun im halbjährlichen Rhythmus von der nördlichen zur südlichen Polarkalotte und zurück. Das bedeutet auch, dass auf den polaren Kalotten die jahreszeitlich höchsten Schwankungen des solaren Klimaantriebs auftreten. Und nicht nur das, denn gleichzeitig treten dort im jahreszeitlichen Verlauf die global stärksten Erwärmungen respektive Abkühlungen auf. Aus diesen Temperaturdifferenzen im Verhältnis zu den Tropen speist sich das Wetter, und von daher ist es kein Wunder, wenn interessierte klimareligiöse Kreise mit diesem regelmäßigen halbjährlichen Umklappen des polaren ENERGIE-Hotspots in einen Kältepol mediale Angst zu verbreiten suchen:

Abbildung 6: Vergleich zwischen der IPCC-Darstellung einer maximalen anthropogenen Klimaeinwirkung und der maximalen jahreszeitlichen Veränderung der Ortstemperatur

Links: Die IPCC-„Figure 1.SM.1 – Season of greatest warming“ aus dem Framing and Context Supplementary Material des IPCC Spezialberichts “Global Warming of 1.5°C” (SR1.5) mit der Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015 gegenüber 1850-1900

Rechts: Vereinfachte Darstellung der jahreszeitlichen Veränderung der solaren Ortstemperatur

Polarkappen: violett= extrem – mittlere Breiten: grün=stark – Tropen: gelb=mäßig

Es ist in der IPCC-Grafik deutlich erkennbar, dass in der nördlichen Polarregion die größte anthropogene Veränderung im Zeitraum Dezember-Februar (ocker) sowie März-Mai (blau) stattfindet, während sich diese Veränderung in der südlichen Polarregion auf Juni-August (grün) sowie September-November (violett) beschränkt. Der maximale jahreszeitliche Anstieg der solaren Einstrahlung, und damit auch der Anstieg der Ortstemperatur, ereignet sich rein rechnerisch um die Äquinoktien, und zwar auf der Nordhalbkugel von Februar-April und auf der Südhalbkugel von August-Oktober. Es kommt hier also immerhin zu einer impliziten Übereinstimmung zwischen den beiden dargestellten Grafiken, weil in der linken IPCC-Grafik die maximale Veränderung jeweils in das Halbjahr zwischen Wintersonnenwende und Sommersonnen­wende fällt. Von daher beschleicht den Autor der sicherlich nicht völlig unbegründete Verdacht, das IPCC könnte seine Zeitfenster sehr zielführend ausgewählt haben. Denn ganz zufällig fällt der natürliche jahreszeitliche Anstieg der solaren Einstrahlung auf der Polkappe der Sommerhemisphäre mit der jahreszeitlich größten menschlich-induzierten IPCC-Erwärmung zusammen. Und was die Tropen sowie insbesondere die gemäßigten nördlichen und südlichen Breiten angeht, so pausen sich dort lediglich die spezifischen Veränderungen aus der halbjährlichen Verlagerung des polaren Hotspots durch, die man als Wetter zu bezeichnen pflegt.

5. AUSSAGE: Die Wärmespeicher von Ozeanen und Atmosphäre puffern im Wechsel von Tag und Nacht den nächtliche Energieverlust durch die IR-Abstrahlung der Erde auf ihrer Nachtseite ab, während sie im Tagesverlauf regelmäßig wieder aufgefüllt werden [hier eine ausführliche Darstellung].

BEWEIS: Wir sprechen hier von der realen Erde, wir leben nämlich in einem „eingeschwungenen“ System, in dem die Energiespeicher unserer Erde (im Wesentlichen die Ozeane) bereits voll aufgeladen sind, und zwar von Anbeginn ihrer Entstehung an. Die Ozeane sind in der Frühzeit der Erde entstanden, als die Erde sich langsam abkühlte und eine feste Oberfläche gebildet hatte. Die Meere hatten sich also zunächst aus Wasserdampf kondensiert und sind dann bis zu einem Gleichgewicht zwischen Abkühlung und zugeführter Sonnenenergie abgekühlt.

Sowohl die Temperatur auf der Tagseite der Erde als auch die Temperatur auf deren Nachseite setzen nun auf der Temperatur der globalen Wärmespeicher auf, die im Wesentlichen von der Durchschnittstemperatur der Ozeane (ca. 20°C) bestimmt wird. Wasser ist der hauptsächliche Träger dieser Energie, sei es in flüssiger Form in den Ozeanen oder gasförmig in der Atmosphäre. Die örtliche Nachttemperatur der kontinentalen Landflächen wird also letztendlich über die Umgebungstemperatur ziehender Tiefdruckgebiete oder lokaler Land- Seewind Systeme bestimmt und gehorcht damit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes. Je weiter nun eine Örtlichkeit vom Meer entfernt liegt und umso weniger Wasserdampf die örtliche Atmosphäre enthält, umso größer sind dort die Temperaturschwankungen zwischen Tag und Nacht. Die kontinentalen Wüstengebiete unserer Erde sind dafür ein ganz hervorragendes Beispiel. Seit jeher haben die Ozeane mit einem Zeitverzug von Jahrhunderten jede globale Klimaänderung „mitgemacht“ und gleichzeitig die jeweiligen individuellen Ortstemperaturen (oder meinetwegen auch eine sogenannte „globale Durchschnittstemperatur“) auf der Nachthemisphäre nach unten abgesichert:

Abbildung 7: Die Beziehung zwischen Temperatur und spezifischer Strahlungsleistung im Stefan-Boltzmann-Gesetz. In diesem Beispiel entspricht die Schwankung von +/- 10°C um eine Ortstemperatur von 15°C einer Veränderung der spezifischen solaren Strahlungsleistung um 108 W/m². Die dargestellte S-B- Beziehung kann selbstverständlich auch entsprechend auf andere Ortstemperaturen und deren Schwankungsbreite in der Abfolge von Tag und Nacht angewendet werden.

Anmerkung: Das maximale S-B-Temperaturäquivalent aus der solaren Einstrahlung beträgt unter Berücksichtigung der terrestrischen Albedo 85,7°C. Der zur Aufrechterhaltung der Ortstemperatur erforderliche solare Leistungsbereich ist ockerfarben ausgehalten, darunter liegt die gespeicherte Energie und darüber die verfügbare Energie für Konvektion und Verdunstung

Unsere Erde ist ein Wasserplanet, dessen Oberfläche zu zwei Dritteln mit Ozeanen bedeckt ist. Sowohl die Temperatur auf der Tagseite der Erde als auch die Temperatur auf deren Nachseite werden von der Temperatur der globalen Wärmespeicher getragen, die deutlich größer als 0 Kelvin ist. Diese Temperatur wird im Wesentlichen wiederum von der Durchschnittstemperatur der Ozeane (ca. 20°C) bestimmt und muss nicht erst durch die tägliche solare Einstrahlung erzeugt werden, denn sie ist in diesem „eingeschwungenen“ System ja bereits vorhanden. Der Wärmeinhalt der Ozeane beträgt mehr als 4,59*10^26 Joule oder 50.000 Tage Sonneneinstrahlung, und der dagegen völlig unbeträchtliche nächtliche Wärmeverlust kann am folgenden Tag leicht ersetzt werden. Die solare Einstrahlung muss unsere Erde also gar nicht jeden Morgen von 0 Kelvin an erwärmen, sondern lediglich den nächtlichen Abstrahlungsverlust ersetzen. Von daher bleibt nach der Erwärmung der Erdoberfläche jede Menge Energie übrig, um den nächtlichen Abstrahlungsverlust der globalen Wärmespeicher allein aus der hemisphärischen solaren Tageseinstrahlung zu ersetzen.

Am Ende ist es also einfach nur korrekt angewandte Physik, mit der ein ganz simples hemisphärisches Konvektionsmodell den Ist-Zustand auf unserer Erde sowie dessen jahreszeitliche Veränderungen qualitativ richtig darzustellen vermag. Viel ist dazu gar nicht notwendig, eine Winkelfunktion für den örtlichen solaren Zenitwinkel, die Solarkonstante und das Albedo auf unserer Erde sowie eine physikalisch korrekte Stefan-Boltzmann-Inversion für das rechnerische Ergebnis – fertig. Die hier abrufbare Vergleichsliste zwischen meinem hemisphärischen Konvektionsmodell (@2PiR^2) und dem konventionellen Faktor4-THE-Paradigma (@4PiR^2) mag die Unterschiede zwischen diesen beiden Modellen nochmals verdeutlichen.