Ist es endlich an der Zeit, die Klimamodell-Panik zu beenden?

Steve Goreham

Klimamodelle bilden seit mehr als 35 Jahren die Grundlage für die Sorge um den Klimawandel. Die US-Regierung, die Vereinten Nationen und Organisationen auf der ganzen Welt haben sich auf Modellprojektionen gestützt, um vor der globalen Erwärmung zu warnen und einen Wechsel zu erneuerbaren Energien zu fordern. Doch die Haushaltskürzungen der Trump-Regierung bei der NASA, der NOAA und anderen Bundesbehörden drohen, die Modelle und damit das Herzstück des Klimawandel-Alarmismus‘ abzuschalten.

Im Juni 1988 hielt Senator Tim Wirth, damals Vorsitzender des Ausschusses für Energie und natürliche Ressourcen, die allererste Anhörung über die Wissenschaft des Klimawandels ab. Dr. James Hansen, Leiter eines Computermodellierungsteams bei der NASA, sagte aus, dass er „… zu 99 Prozent davon überzeugt ist, dass die Welt tatsächlich wärmer wird und dass dies mit hoher Wahrscheinlichkeit auf die vom Menschen verursachten Treibhausgase zurückzuführen ist.“

Seit Dr. Syukuro Manabe vom Geophysical Fluid Dynamics Laboratory in Washington D.C. in den 1960er Jahren eines der ersten Klimamodelle entwickelt hat, warnen Modellierer davor, dass der Mensch einen gefährlichen Klimawandel verursacht. Die globalen Temperaturen sind in den letzten 140 Jahren nur um etwas mehr als ein Grad Celsius gestiegen, aber die Modelle projizieren einen schnelleren zusätzlichen Anstieg von 0,5ꟷ3,5°C bis zum Jahr 2100.

Klimamodelle werden von Wissenschaftlern, Forschern und politischen Entscheidungsträgern verwendet, um mögliche zukünftige Klimaauswirkungen abzuschätzen. Globale Organisationen wie das IPCC der Vereinten Nationen und die Weltbank nutzen Modellprojektionen, um zu Klimaschutzmaßnahmen aufzurufen. Nichtregierungsorganisationen wie Greenpeace nutzen Modellprojektionen, um Gelder zu beschaffen. Doch die Trump-Regierung scheint im Begriff zu sein, die US-Klimamodelle abzustellen.

Weltweit gibt es mehr als 40 Klimamodelle, wobei 13 der führenden Modelle in den USA angesiedelt sind. Die US-Modelle werden von der National Aeronautics and Space Administration (NASA) in New York City, der National Oceanic and Atmospheric Administration (NOAA) in Princeton, New Jersey, und dem Department of Energy (DOE) in Boulder in Colorado betrieben. Jede dieser Organisationen wurde im Rahmen der Haushaltskürzungen der Trump-Regierung angewiesen, Personal abzubauen.

Das Weiße Haus könnte die NASA bald auffordern, sich auf Weltraumprogramme zu konzentrieren und nicht auf den Klimawandel. Im Februar verweigerte die Regierung NASA-Beamten die Erlaubnis, zu einem internationalen Klimatreffen in China zu reisen. Gleichzeitig strich die NASA-Leitung die Mittel für einen Unterstützungsvertrag für den 7. IPCC-Zustandsbericht. Die NASA war einer der Hauptverfasser früherer IPCC-Bewertungsberichte. Die vorläufigen Ausgabenpläne der Regierung für das Haushaltsjahr 2026 würden das Wissenschaftsbudget der NASA um fast die Hälfte auf 3,9 Milliarden Dollar kürzen.

Die Regierung will auch die Klimawandelprogramme der NOAA beenden. Die Pläne sehen eine Kürzung des NOAA-Budgets um 27 % auf 4,5 Milliarden Dollar vor. Die endgültigen Haushaltsbeträge für die NASA und die NOAA müssen vom Kongress genehmigt werden, wobei sich die um das Klima besorgten Abgeordneten sicher wehren werden.

Klimamodelle laufen auf Supercomputern und sind teuer. Supercomputer kosten etwa 50 Millionen Dollar im Voraus und 20 Millionen Dollar pro Jahr zur Unterstützung jedes Klimamodellierungsteams. Die Modellierungsteams der NASA, der NOAA und des DOE könnten die geplanten umfangreichen Kürzungen nicht verkraften.

Neben den Klimamodellen werden auch die Budgets für andere Klimaprojekte gekürzt. Die Sea Level Research Group an der University of Colorado untersucht seit etwa zwei Jahrzehnten den Anstieg des Meeresspiegels. Diese Gruppe erhält einen Großteil ihrer Mittel von der NASA und anderen Bundesbehörden. Das Mauna Loa Laboratory auf Hawaii misst seit den 1950er Jahren den Anstieg der CO₂-Konzentration in der Atmosphäre, könnte aber aufgrund von NOAA-Finanzierungskürzungen geschlossen werden. Drei NASA-Satelliten, die für die Sammlung von Klimadaten verwendet werden, müssen ebenfalls ersetzt werden, aber es gibt keine Pläne dafür.

Die Trump-Regierung kürzt die Mittel für die Klimaforschung in allen Bundesministerien, was erhebliche Auswirkungen auf die Bemühungen der USA und der ganzen Welt hat, Maßnahmen gegen den Klimawandel zu ergreifen. Vielleicht ist es wirklich an der Zeit, dass sich die NASA auf die Erforschung des Weltraums und die NOAA auf die Wettervorhersage konzentriert und die Klimamodelle abgeschaltet werden.

This article originally appeared at Master Resource

Link: https://www.cfact.org/2025/05/02/time-to-end-climate-model-panic/

Übersetzt von Christian Freuer für das EIKE

 




Klima-Hype ade*

============
Alex Reichmuth*
Glaubt man Fachleuten, steht es schlecht um das Klima. …
Doch es ist anders als gedacht :
Das Klimaproblem interessiert die Bevölkerung immer weniger.
============

Letztes Jahr lagen die Welttemperaturen erstmals mehr als 1,5 Grad über dem Niveau der vorindustriellen Zeit – und es scheint, dass diese Limite bald dauerhaft überschritten ist. Gleichzeitig wird trotz allen Konferenzen immer noch mehr CO2 in die Atmosphäre geblasen. Diejenigen, die die Erderwärmung als grösste Herausforderung der Menschheit bezeichnen, sehen sich bestätigt. Klimawandel, das Topthema – sollte man zumindest meinen.

Doch es ist anders als gedacht: Das Klimaproblem interessiert die Bevölkerung immer weniger. Das belegt eine neue Umfrage der Brüsseler Denkfabrik Bruegel in Deutschland, Frankreich, Italien, Polen und Schweden. Während die gleiche Erhebung vier Jahre zuvor noch ergab, dass der Klimaschutz in den fünf EU-Staaten erste Priorität geniesst, ist dieses Thema inzwischen auf Rang drei des Sorgenbarometers abgerutscht. Die Probleme der wirtschaftlichen Prosperität und der Sicherheit stossen inzwischen auf mehr Beachtung.

Überall kritische Stimmen

Der Bedeutungsverlust wird begleitet von einer wachsenden Skepsis, was die Ursachen des Klimawandels angeht. So glauben in Deutschland, Polen und Schweden inzwischen weniger als die Hälfte der Befragten, dass überwiegend menschliche Aktivitäten schuld sind an der Erderwärmung. Der Anteil der «harten Skeptiker», die vor allem natürliche Gründe sehen, ist gleichzeitig in allen fünf Ländern in den zweistelligen Prozentbereich gestiegen – in Polen sogar auf 23 Prozent.

Dass sich der Klimahype dem Ende zuneigt, ist auch Benny Peiser aufgefallen. Er stand bis Ende März der britischen Global Warming Policy Foundation (GWPF) vor, die für mehr Vernunft in der Klimapolitik kämpft. Nun hat er den Job als Direktor, den er seit der Gründung der GWPF 2009 innehatte, abgegeben und ist in Pension gegangen. «Mein Nachfolger als Stiftungsdirektor wird es leichter haben», sagte Peiser zum Nebelspalter. Denn viele Politiker hätten inzwischen eingesehen, dass es mit der Politik gegen die Erderwärmung so nicht weitergehen könne. Beim Start der GWPF vor sechzehn Jahren seien er und seine Mitstreiter noch «einsame Rufer in der Wüste» gewesen. «Das hat sich inzwischen geändert», so Peiser. Es seien überall kritische Stimmen zu hören, die das Netto-null-Ziel in Frage stellten.

Am deutlichsten erkennbar ist der Stimmungsumschwung in Sachen Klimapolitik bei Donald Trump. Mit brachialer Gewalt holzt der US-Präsident alle Programme zur Erreichung der Klimaneutralität ab. Unter dem Motto «Drill, baby, drill» fördert er den Abbau fossiler Brennstoffe im eigenen Land, um die erneuerbaren Energien an die Wand zu fahren.

Doch auch in Europa hat der Wind gedreht. EU-Kommissions-Präsidentin Ursula von der Leyen ist daran, viele hochgesteckte Ziele im Rahmen des «Green Deal» zurückzunehmen. So hat die Europäische Union etwa die Einführung strengerer Emissionsgrenzwerte für Autos um zwei Jahre verschoben. Auch das für 2035 angekündigte Verbot für Verbrennerfahrzeuge ist am Wackeln.

Von der Leyen beschwichtigt zwar und spricht von einer «Atempause». Auch die linksliberale Süddeutsche Zeitung hat lediglich eine «Pause im Klimaschutz» registriert. Doch es mehren sich die Anzeichen, dass sich die Aufmerksamkeitsspanne, die der Klimawandel geniesst, dem Ende zuneigt. Rund zwanzig Jahre lang dominierte die Erderwärmung die Schlagzeilen. Aber der Daueralarm hat sich abgenutzt. Die Menschen wenden sich anderen, wohl wichtigeren Problemen zu. Die sogenannten Klimafachleute mögen noch so laut rufen – sie werden immer weniger gehört.

Alex Reichmuth ist Redaktor beim Nebelspalter.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :
Dieser Artikel ist zuerst erschienen in der „WELTWOCHE GRÜN“ , Zürich ; Nr.2 (2025), S. 31  ;
https://weltwoche.ch/story/wolkige-klimaneutralitaet/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth
für die Gestattung der ungekürzten Übernahme des Beitrages,

wie schon bei früheren Beiträgen ; Hervorhebungen und Markierungen v.d. EIKE-Redaktion.

==================================================================




Die Falle der erneuerbaren Energien: Eine Warnung an Nationen, die blind nach Nachhaltigkeit streben

Terry L. Headley

Während sich die Welt zunehmend auf erneuerbare Energien umstellt, wächst die Gefahr, dass die Nationen in die „Erneuerbare-Energien-Falle“ tappen. Diese Falle entsteht, wenn man sich auf eine Energiewende einlässt, ohne die wirtschaftlichen, ökologischen und geopolitischen Folgen zu verstehen. Während erneuerbare Energiequellen wie Wind-, Sonnen- und Wasserkraft als die Zukunft der globalen Energieversorgung gepriesen werden, könnten Nationen, die sich ohne strategischen Plan auf diese Technologien stürzen, vor ernsten wirtschaftlichen und sicherheitspolitischen Herausforderungen stehen. Die Wahrheit ist, dass das blinde Festhalten an den erneuerbaren Energien, zumindest in ihrer derzeitigen Form, nicht das Allheilmittel ist, für das viele sie halten. Vielmehr könnte es sich für Industrie- und Entwicklungsländer gleichermaßen als kurzer, grüner Weg in den wirtschaftlichen Ruin erweisen.

Die falschen Verheißungen der erneuerbaren Energien: Versteckte Kosten und Risiken

Das Versprechen der erneuerbaren Energien wird oft mit einer Aura der Unfehlbarkeit verbunden – sauber, grün und grenzenlos. Dabei werden jedoch die versteckten Kosten des Übergangs zu erneuerbaren Energiesystemen übersehen, von denen viele durch irreführende Behauptungen und unvollständige Buchführung verschleiert werden. Die deutsche Energiewende beispielsweise ist ein warnendes Beispiel dafür, wie gut gemeinte Maßnahmen zu unbeabsichtigten Folgen führen können.

[Hervorhebung vom Übersetzer]

Deutschland, einst als Vorreiter bei der Revolution der erneuerbaren Energien gepriesen, hat über ein Jahrzehnt lang massiv in Wind- und Solarenergie investiert. Trotz der Ausgaben in Höhe von mehreren Milliarden Euro hat Deutschland seine Treibhausgas-Emissionen kaum reduziert, und die finanzielle Belastung für die Verbraucher war erheblich. Im Jahr 2020 hatte Deutschland die höchsten Strompreise in Europa, was größtenteils auf die Subventionen und die Unterstützung der Unternehmen für erneuerbare Energien zurückzuführen ist. Die Energierechnungen für die Verbraucher sind in die Höhe geschnellt, was zum Teil auf die Kosten für die Aufrechterhaltung von Reservekraftwerken für fossile Brennstoffe zurückzuführen ist, um die Netzstabilität zu gewährleisten, wenn die Wind- und Sonnenenergie nicht ausreicht.

Außerdem hat der deutsche Vorstoß für erneuerbare Energien zu einer paradoxen Abhängigkeit von der Kohle geführt. Wie schon so oft gesagt: Wenn der Wind nicht weht und die Sonne nicht scheint, ist Deutschland gezwungen, auf Kohlekraftwerke zurückzugreifen, um den Bedarf zu decken. Ironischerweise hat dies genau die Umweltziele untergraben, die das Land erreichen wollte. Trotz der hohen Investitionen in erneuerbare Energien ist der Kohleverbrauch in Deutschland gestiegen, da die erneuerbaren Energiequellen nur sporadisch zur Verfügung stehen, was eine der größten Schwächen eines von erneuerbaren Energien dominierten Netzes verdeutlicht: die Abhängigkeit von fossilen Brennstoffen, um die Lücken zu schließen.

Und warum?

Weil Deutschland mindestens so viel Grundlast-Kohlekraftwerke in Reserve halten muss, wie es an erneuerbaren Energiequellen hat, um sicherzustellen, dass es jederzeit Strom zur Verfügung hat. Die Realität ist, dass die Deutschen für den gleichen Strom zwei- oder dreimal zahlen.

Steigende Energiekosten und die Bedrohung durch Energiearmut

Die finanzielle Belastung durch die Politik der erneuerbaren Energien geht über Deutschland hinaus und betrifft Millionen von Haushalten auf der ganzen Welt. Eine der wichtigsten, aber oft übersehenen Folgen der Energiewende sind die steigenden Stromkosten. Die Umstellung auf erneuerbare Energien hat die Strompreise so weit in die Höhe getrieben, dass Energiearmut in vielen Ländern zu einem echten Problem wird.

Unter Energiearmut versteht man die Unfähigkeit von Haushalten, sich ausreichend Energie zum Heizen, Kühlen und Betreiben ihrer Häuser leisten zu können. Die Internationale Energieagentur (IEA) definiert Energiearmut als den fehlenden Zugang zu bezahlbarer und zuverlässiger Energie. Da die Kosten für Maßnahmen zur Nutzung erneuerbarer Energien weiter steigen, laufen immer mehr Haushalte Gefahr, in Energiearmut zu geraten.

Im UK zum Beispiel hat der Vorstoß der Regierung für erneuerbare Energien zu einem erheblichen Anstieg der Strompreise geführt. Einem Bericht des britischen Netzbetreibers National Grid zufolge ist die durchschnittliche jährliche Stromrechnung für einen britischen Haushalt zwischen 2008 und 2020 um 30 % gestiegen, wobei ein erheblicher Teil des Anstiegs auf die Investitionen des Landes in erneuerbare Energien zurückzuführen ist. Die britische Regierung hat Wind- und Solarenergieprojekte stark subventioniert, aber diese Subventionen werden von den Verbrauchern durch höhere Stromrechnungen bezahlt. Dies hat dazu geführt, dass Millionen britischer Haushalte Mühe haben, mit den steigenden Energiekosten zurecht zu kommen.

Auch in Kalifornien ist die Energiearmut auf dem Vormarsch, verfolgt doch der Staat aggressiv die Ziele für erneuerbare Energien. Kalifornien hat zwar stark in die Solarenergie investiert, ist aber nicht in der Lage, die Schwankungen der erneuerbaren Energien auszugleichen. In Zeiten des Spitzenbedarfs, wenn Solar- und Windenergie nicht ausreichen, ist der Staat gezwungen, auf Erdgas und importierten Strom zurückzugreifen, was die Kosten in die Höhe treibt. Kalifornien hat mit die höchsten Strompreise in den Vereinigten Staaten, und viele einkommensschwache Familien bekommen die Auswirkungen zu spüren. Nach Angaben der California Public Utilities Commission waren im Jahr 2020 mehr als 1,3 Millionen Haushalte in diesem Bundesstaat von Energiearmut bedroht. Trotz der Bemühungen des Staates um saubere Energie können sich viele Einwohner ihre Stromrechnungen nicht leisten und müssen sich entscheiden, ob sie für Energie oder ihr Geld für andere lebenswichtige Dinge wie Lebensmittel und Medikamente ausgeben.

Südaustralien ist ein weiteres Beispiel für die Falle der erneuerbaren Energien. Dort hat man eine aggressive Politik im Bereich der erneuerbaren Energien verfolgt und ist zu einem der weltweit führenden Länder bei der Nutzung von Wind- und Sonnenenergie geworden. Diese Entwicklung hat jedoch zu erheblichen Strompreisspitzen geführt. Der Bundesstaat war mit Preisschwankungen und Stromausfällen konfrontiert, die auf die Schwankungen der erneuerbaren Energien zurückzuführen waren. Im Jahr 2017 kam es in Südaustralien zu einem großflächigen Stromausfall, nachdem ein Sturm das Übertragungsnetz beschädigt hatte, und der Bundesstaat kämpft seitdem um die Aufrechterhaltung der Netzstabilität. Die zunehmende Abhängigkeit von erneuerbaren Energien hat zu einem sprunghaften Anstieg der Strompreise geführt, so dass viele Haushalte ihren Grundbedarf an Energie nicht mehr decken können. Nach Angaben der australischen Energieregulierungsbehörde sind die Strompreise in Südaustralien in den letzten zehn Jahren um 50 % gestiegen, und viele einkommensschwache Familien sind davon betroffen.

Die geopolitische Falle: Energieabhängigkeit, Rohstoffe und nationale Sicherheit

Der Übergang zu erneuerbaren Energien wirft auch wichtige geopolitische Fragen auf, insbesondere im Bereich der Rohstoffe. Die Technologien für erneuerbare Energien sind in hohem Maße von Metallen der Seltenen Erden, Lithium, Kobalt und Nickel für die Herstellung von Batterien, Solarzellen und Windturbinen abhängig. Diese Rohstoffe stammen überwiegend aus Ländern mit einem weniger stabilen politischen Umfeld oder werden von einigen wenigen Ländern wie China monopolisiert.

Dies schafft eine neue Form der Energieabhängigkeit. So wird beispielsweise die globale Lieferkette für Lithium und Kobalt weitgehend von China kontrolliert, was Fragen zur nationalen Sicherheit und das Potenzial für Preismanipulationen oder Handelsunterbrechungen aufwirft. Länder, die sich auf erneuerbare Energien stürzen, ohne diversifizierte Versorgungsketten zu entwickeln, könnten bei kritischen Materialien von einer Handvoll ausländischer Staaten abhängig werden – ein Echo der geopolitischen Verwundbarkeit, mit der ölabhängige Länder seit Jahrzehnten zu kämpfen haben. Diese neue Energieabhängigkeit könnte das Ziel der Energieunabhängigkeit untergraben, das viele Länder anstreben.

Außerdem ist der Abbau dieser Materialien alles andere als sauber oder umweltfreundlich. In Ländern wie der Demokratischen Republik Kongo, wo ein Großteil des weltweit geförderten Kobalts herkommt, ist der Bergbau mit schweren Umweltschäden und Menschenrechtsverletzungen verbunden. Die Umweltschäden, die mit dem Abbau von Lithium, Kobalt und Seltenerdmetallen verbunden sind, werden in der „grünen“ Berichterstattung über erneuerbare Energien oft nicht erwähnt. In vielen Fällen führt die Gewinnung dieser Materialien zu erheblicher Wasserverschmutzung, Abholzung von Wäldern und schädlichen Luftemissionen.

Die versteckten Kosten: Wirtschaftliche Belastungen und soziale Ungleichheit

Ein weiteres großes Problem bei der Förderung erneuerbarer Energien ist die Art und Weise, wie die tatsächlichen Kosten vor der Öffentlichkeit verborgen werden. Die Regierungen werben oft mit den wirtschaftlichen Vorteilen der erneuerbaren Energien, ohne die finanzielle Belastung der Verbraucher zu berücksichtigen. Die Umstellung auf erneuerbare Energietechnologien erfordert oft erhebliche staatliche Subventionen, die in der Regel von den Steuerzahlern finanziert oder über höhere Stromtarife an die Verbraucher weitergegeben werden. Im Falle der Europäischen Union werden die Kosten der Subventionen für erneuerbare Energien häufig durch irreführende Buchführungspraktiken verschleiert, welche die wahren Kosten für die Aufrechterhaltung der Netzstabilität nicht erfassen.

Nehmen Sie Kalifornien, einen Bundesstaat, der aggressiv Initiativen für erneuerbare Energien verfolgt hat. Während Solar- und Windenergie an Popularität gewonnen haben, hat die Abhängigkeit Kaliforniens von intermittierenden erneuerbaren Energien zu explodierenden Energiepreisen und Stromausfällen geführt. Der Staat war gezwungen, sich auf Erdgaskraftwerke als Reservestromquellen zu verlassen, was zu einem widersprüchlichen Energiesystem führte, das immer noch von fossilen Brennstoffen abhängig ist. Darüber hinaus haben die hohen Kosten für die Implementierung der Infrastruktur für erneuerbare Energien unverhältnismäßig stark Familien mit niedrigem Einkommen getroffen, die sich die höheren Stromrechnungen nicht leisten können.

Die entscheidende Rolle der mit Kohle befeuerten Grundlast-Stromerzeugung

Während sich die Nationen darum bemühen, die ehrgeizigen Ziele für erneuerbare Energien zu erreichen, darf die Rolle der Kohleverstromung für die Grundlast-Versorgung nicht übersehen werden. Entgegen der weit verbreiteten Meinung, Kohle sei ein Relikt der Vergangenheit, ist Kohle nach wie vor die zuverlässigste, erschwinglichste und am besten skalierbare Option für die Bereitstellung stabiler Elektrizität in einer Welt mit steigendem Energiebedarf.

Grundlaststrom bezieht sich auf die Mindestnachfrage in einem Stromnetz über einen bestimmten Zeitraum hinweg. Kohlekraftwerke sind in einzigartiger Weise in der Lage, diesen Grundlaststrom zuverlässig zu liefern. Im Gegensatz zu Wind- und Solarkraftwerken, die unstetig und wetterabhängig sind, können Kohlekraftwerke rund um die Uhr Strom erzeugen, unabhängig von den äußeren Bedingungen. Dies gewährleistet eine stabile und vorhersehbare Energieversorgung, die sowohl für den industriellen Bedarf als auch für den privaten Verbrauch von entscheidender Bedeutung ist.

Kohle ist auch eine der günstigsten Stromquellen. Die Stromgestehungskosten (LCOE) – die Kosten für die Stromerzeugung pro Megawattstunde – sind bei Kohlekraftwerken niedriger als bei vielen erneuerbaren Energien, insbesondere wenn man die Kosten für die gesamte Infrastruktur und die Netzintegration von Wind- und Solarenergie mit einbezieht. In den USA beispielsweise ist Kohle nach wie vor kosteneffizienter als Erdgas und viele erneuerbare Energien, insbesondere in Regionen wie dem Mittleren Westen, wo das Energienetz stärker auf Kohlekraftwerke angewiesen ist.

Außerdem ist Kohle in vielen Ländern reichlich vorhanden und im Inland verfügbar, was die Abhängigkeit von ausländischen Energiequellen verringert. Dies erhöht die Energiesicherheit, insbesondere für Länder, die versuchen, die geopolitischen Risiken zu vermeiden, die mit Energieimporten verbunden sind, einschließlich Öl, Erdgas und Seltenerdmetallen, die für erneuerbare Technologien benötigt werden.

Schlussfolgerung: Ein ausgewogener, in der Realität verankerter Ansatz ist unerlässlich

Die erneuerbaren Energien versprechen zwar eine nachhaltige Zukunft, doch muss die Welt mit Vorsicht vorgehen. Die Staaten können es sich nicht leisten, in die Erneuerbare-Energien-Falle zu tappen, indem sie sich diese Technologien zu eigen machen, ohne das gesamte Spektrum ihrer Auswirkungen zu berücksichtigen. Die Erfahrungen Deutschlands mit der Energiewende zeigen, dass ein zu starkes Engagement für erneuerbare Energien neue Umweltprobleme, wirtschaftliche Belastungen und politische Risiken mit sich bringen kann. Eine ausgewogene Energiestrategie, die Energiesicherheit, wirtschaftliche Nachhaltigkeit und ökologische Verantwortung miteinander verbindet, ist von entscheidender Bedeutung.

Kohlebefeuerter Grundlaststrom bleibt ein wesentlicher und zuverlässiger Bestandteil eines ausgewogenen Energie-Portfolios. Sie liefert erschwinglichen, stabilen und sicheren Strom und sorgt dafür, dass die Länder beim Übergang zu umweltfreundlicheren Energiequellen keine Energiearmut oder Netzinstabilität riskieren. Die Revolution der erneuerbaren Energien muss ein Schritt nach vorn sein, kein Sprung ins Ungewisse. Wenn wir die wahren Kosten der erneuerbaren Energien und die unersetzliche Rolle der Kohle anerkennen, können wir eine zuverlässigere und nachhaltigere Energiezukunft für alle schaffen.

Terry L. Headley is President, The Headley Company. 

This article was originally published by RealClearEnergy and made available via RealClearWire.

Link: https://wattsupwiththat.com/2025/05/06/the-renewable-energy-trap-a-warning-to-nations-pursuing-blind-sustainability/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Ein ganz entscheidender Vorteil der Kohleverstromung ist in diesem Beitrag mit keinem Wort erwähnt, nämlich die Emission des von der Natur dringend benötigten zusätzlichen Kohlendioxids!

 




Die Kohlendioxid-Erwärmungstheorie ist falsch. Das zeigt uns der Deutsche Wetterdienst mit seinen Apriltemperaturen – Teil 2

Von Matthias Baritz, Josef Kowatsch

Teil 1 hier

Teil 2: Unterschiedlicher Verlauf der Tages/Nachttemperaturen

  • Die Schere zwischen Tag und Nachttemperaturen öffnet sich seit dem Klimawandel
  • Der Klimawandel fand in Mittel- und Westeuropa erst im Jahre 1987/88 statt
  • Keine Korrelation zwischen Temperaturen und CO₂-Zunahme

Anmerkung: Der DWD- erfasst bei seinen Wetterstationen die Maximum- und die Minimum-Temperaturen mit einem Digitalthermometer, also die Tagesspitzen und die nächtlichen Tiefsttemperaturen, die in aller Regel kurz nach Sonnenaufgang gemessen werden. Bei warmen Apriltagen schaukelt sich die Temperatur aufgrund der schon hochstehenden Sonne und den südlichen Wetterlagen auf, so dass eine hohe Tmax auch zugleich einen warmen Apriltag tagsüber beschreibt. Umgekehrtes gilt für die Nacht. Deshalb reden wir verkürzt von Tages/Nachttemperaturen.

In Teil 1 hatten wir festgestellt, dass der April ab 1987/88 durch einen Temperatursprung wärmer wurde und zwar bei allen deutschen Wetterstationen, auch bei den WI-armen. Nochmals die Grafik der Apriltemperaturen dazu, ohne Aufschlüsselung in Tag/Nacht:

Abb.1: 30 Tagesmessungen ergeben den Schnitt für 1 Jahr. In früheren Jahrzehnten wurde diese Tagesmessung nach einer anderen Methode und analog in der englischen Wetterhütte ermittelt, die auch noch an einem anderen Platz stand, als die heutige Ermittlung nach DWD-Norm.

Nun könnten von der Treibhauserwärmung Überzeugte unter den Lesern behaupten, dieser natürliche Temperatursprung 1988 – siehe Grafik 1- wäre ein Einfluss von Treibhausgasen. Diese eventuelle Falsch-Überzeugung lässt sich leicht widerlegen, indem man den April-Temperaturverlauf seit 1988 auftrennt in Tag/Nachttemperaturen.

Wir gehen davon aus: Würde CO₂ der Haupttreiber der Temperaturen sein wie die Definition der Treibhauskirche von Klimawandel vorgibt, dann dürfte es zwischen einzelnen Wetterstationen kaum Unterschiede in den linearen Regressionslinien geben und zwar bei allen Wetterstationen der Welt.

Hinweis zur Übersichtlichkeit der folgenden Grafiken: Der Leser möge in den nun folgenden Grafiken vor allem den Trendverlauf der blauen unteren Nachttiefsttemperaturen mit dem Trendverlauf der oberen grauen Grafik, den Tageshöchsttemperaturen vergleichen. Vielleicht sollte man noch betonen, dass die monatlichen Maxima und Minima Durchschnittswerte aller täglichen Tmax/Tmin sind.

Unterschiedliche Entwicklung der Tag/Nachtemperaturen beim April

Der DWD bietet keinen Schnitt der Tag/Nachttemperaturen, erfasst als Tmax und Tmin seiner fast 2500 Wetterstationen an. Also auch kein Diagramm. Nur Einzelstationen. Herr Baritz hat sich die zeitaufwändige unendliche Mühe gemacht und fast 540 repräsentativ herausgegriffene DWD-Stationen zu einem Deutschland-Schnitt seit 1947 zusammengefasst. Ein zeitlich weiteres Zurückgehen war leider nicht möglich, da erst nach Kriegsende genügend Wetterstationen vorliegen, die auch heute noch alle drei Parameter messen.

Abb. 2: Aufgetragen sind 2 Zeiträume, 1947 bis 1987, dann der Temperatursprung und ab 1988 bis heute. Außerdem 3 Grafikverläufe: Die obere graue Grafik fasst die Tmax Temperaturen des Monats April, die mittlere braune Grafik die Tagesschnitte (24-Stunden) und die blaue Grafik die kältesten Nachttemperaturen, gemessen in Tmin. Quelle https://www.wetterzentrale.de/de/weatherdata_de.php

Ergebnis: Vollkommen anderer Verlauf vor und nach dem Temperatursprung

Tmax: bis 1987 stark fallend, Temperatursprung, seitdem stark steigend

Schnitt: bis 1987 deutlich fallend, Temperatursprung, danach deutlich steigend.

Tmin: ab 1947, 40 Jahre leicht fallend, Temperatursprung, danach ausgeglichen

Wichtige Erkenntnis, nach dem Temperatursprung 1987/88 wurden beim Monat April nur die Tage tagsüber wärmer.

Wo ist der CO₂-Treibhauseffekt in der Grafik 2 erkennbar? Antwort: Nirgendwo

  • An dem unterschiedlichen Verlauf der Temperatur-Maxima und -Minima hat der Deutsche Wetterdienst selbst den CO₂-Treibhauseffekt als Haupttreiber der Temperaturen widerlegt.
  • Die CO₂-Konzentration ist tagsüber und nachts gleich. Die Grafik 2 zeigt, dass die Aprilerwärmung seit 1988 aber nur tagsüber stattfand. (ähnlich wie bei allen Monaten im Sommerhalbjahr)

Dabei sollte doch laut Theorie der Treibhauskirche der Treibhauseffekt nachts stärker wirken als tagsüber, hier hat der RTL Klima-„Experte“ Christian Häckl diese Theorie ausführlich und verständlich beschrieben.

Auch der deutsche Physiknobelpreisträger von 2021, Klaus Hasselmann hat behauptet: Der Treibhauseffekt soll nachts stärker wirken als tagsüber, was ihm und seinem Team angeblich durch Satellitenmessungen bestätigt wurde. So seine Behauptungen. Und damit habe er die CO₂-Fußabdrücke in der Atmosphäre gefunden und als erster bestätigt. So wird der Mann im neuen Buch von Axel Bojanowski in einem ganzen Kapitel ab Seite 142 als Entdecker des nächtlichen CO₂-Signals gelobt: „Was Sie schon immer übers Klima wissen wollten“.

Es gibt nur einen Nachteil: die Vorhersagen einer stärkeren nächtlichen Erwärmung als angeblicher Beweis einer CO₂-Treibhauswirkung sind grottenfalsch, weil die Realität der DWD-Temperaturen das Gegenteil zeigt. Es ist aber auch zu dumm, wenn der DWD zwar die Tmin/Tmax erhebt, aber selbst nirgendwo eine Grafik anbietet und überzeugte Treibhausexperten dann ohne Beweis irgendwas behaupten dürfen und dafür auch noch den Nobelpreis erhalten! Oder – so unsere Vermutung – bietet der DWD etwa nur deshalb keine eigenen Grafiken mit Nacht- und Tagestemperaturen an, um die Treibhauskirche nicht ad absurdum zu führen? Um einen deutschen Nobelpreisträger nicht bloß zu stellen für seine falsche Theorie!!!

Mit der Grafik 2 weiter oben haben wir zusammen mit dem Deutschen Wetterdienst den Beweis erbracht, dass die Temperaturen am Tage stark steigen und nachts gar nicht.

Mehrere tatsächliche Gründe dieser Erwärmung tagsüber haben wir im Teil 1 genannt und gezeigt, es waren hauptsächlich die Sonnenstunden, die mit den Apriltemperaturen stark korrelieren.

Abb. 3: Beachte, zunächst die Abnahme der Sonnenstunden bis 1987, dann die Zunahme. Die Sonnenstundenzunahme hat wesentlich zu einem Anstieg der Apriltemperaturen seit 1988 beigetragen.

Mit den Sonnenstunden hat zugleich auch die Intensität der Sonnenstrahlung zugenommen, nähere Erläuterungen hier: Martin Wild’s Übersichtsartikel „Global dimming and brightening“, A review, J. Geophys. Res., 114, D00D16, doi:10.1029/2008JD011470.1.

Es sei darauf hingewiesen, durch unsere Grafikbeweise kann eine winzige CO₂-Wirkung (erwärmend oder abkühlend) jedoch nicht ausgeschlossen werden. Doch wir können zeigen: Keinesfalls ist CO₂ der entscheidende Temperaturregelknopf wie die linksgrüne Treibhauskirche uns vorlügt. Keinesfalls ist CO₂ ein Temperaturregelknopf und schon gar kein Klimakiller.

Ein möglicher weiterer Grund für die Aprilerwärmung neben den in Teil 1 sonst noch genannten soll hier aufgrund von Hinweisen in Kommentaren mit erwähnt werden: das Geo-Engineering. Der Schweizer Dipl. Physiker Dr. rer. nat. Philipp Zeller beschäftigt sich schon über 30 Jahre mit den Methoden des Geo-Engineerings. In diesem Vortrag (45-Minuten) stellt er einige vor, die alle Anwendung finden.

Wer sich doppelt so lange damit beschäftigen möchte, derselbe Physiker, Vortrag nur wissenschaftlicher aufgebaut.

Halten wir für den weiteren Verlauf fest: Die DWD-Temperaturdatenreihen und damit der Deutsche Wetterdienst selbst widerlegen die starke Wirkung eines CO₂-Treibhauseffektes: CO₂ wirkt allerhöchstens in homöopathischen Dosen versteckt mit.

Hier noch einige DWD-Einzelstationen. Wie oben erwähnt dürfte es bei einer alleinigen CO₂-Wirkung zumindest in Mitteleuropa keine Unterschiede geben. Bitte auf die Scherenöffnung und die Differenzen von Tmax zu Tmin achten.

Zunächst drei Wetterstationen in Stadtnähe

Grafiken 4a bis 4c: Stadtnähe: Im April beobachten wir große Scherenöffnungen zwischen Tag/Nacht, nachts wurde der April bei Wetterstationen in Stadtnähe kälter, siehe Trendlinien mit negativer Steigungsformel.

Schon nach 3 DWD-Wetterstationen zeigt sich deutlich:

Ergebnis 1: Die Aprilnächte wurden kälter seit 1988, die Tage hingegen deutlich wärmer. Die mittlere braune Grafik ist eher die Resultierende aus Tag/Nachtverlauf.

Weiter geht es mit drei eher ländlichen Stationen: Grafiken 4d – 4f:

Schon jetzt sieht man, dass die Aprilnächte im ländlichen Bereich nachts deutlich kälter wurden. Ein klarer Beweis gegen die Treibhaustheorie, wonach CO₂ der Haupterwärmungstreiber wäre und nachts auch noch stärker wirken würde als tagsüber.

Ergebnis 2: Die Schere zwischen Tageshöchst- und den nächtlichen Tiefst-Temperaturen öffnet sich immer weiter. Der April wird vor allem auf dem Lande nachts eindeutig kälter seit 1988. Und das freie Land ist die Hauptfläche Deutschlands

Und hier noch ausgesprochen städtische Stationen, mitten in der Wärmeinsel München:

Auch in einer ausgesprochenen städtischen Wärmeinsel gibt es deutliche Unterschiede im Apriltemperaturverlauf zwischen Tag und Nacht. Allerdings ist die nächtliche Tmin-Trendlinie nicht fallend, sondern eher ausgeglichen bis leicht steigend. Wir erklären es damit, dass die kalten Aprilnächte einfach aus der Stadt hinaus geheizt werden.

Ähnliches gilt auch für die Wetterstationen in Berlin, hier als Beispiel Dahlem:

Bremen: hier wirkt zusätzlich die Nordseenähe mit:

 

Abb. 4g bis i: Auch in Großstädten erwärmen sich die Tage tagsüber viel stärker, die Nächte bleiben ausgeglichen bis leicht zunehmend. Die kalten Aprilnächte werden hinaus geheizt, in Bremen zusätzlich durch die Nordsee. Die Scherenöffnung zwischen Tmax/Tmin ist nicht ganz so stark.

Ergebnis 3: alle Grafiken zeigen, die Aprilerwärmung seit 1988 fand im Gebietsmittel Deutschlands nur tagsüber statt. Selbst bei städtischen Wärmeinselwetterstationen wurden die Aprilnächte durch die Wirkungen des städtischen Wärmeinseleffektes leicht wärmer. Keinesfalls wirkt ein Treibhauseffekt nachts stärker wie die Theorie nobelpreisausgezeichnet behauptet.

Der völlig unterschiedliche Verlauf der Tmax und Tmin Temperaturen sind der eindeutige Beweis, dass die CO₂-Konzentrationsänderungen überhaupt keinen oder fast keinen Einfluss auf irgendwelche Temperaturen haben.

Für Zweifler: Bei Sonnenuntergang kann eine CO₂-Erwärmungswirkung nicht aussetzen, um dann anderntags bei Sonnenaufgang tagsüber wieder zu wirken. Derartige Gaseigenschaften gibt es nicht.

Und nicht vergessen: der Treibhauseffekt soll laut Treibhaustheorie nachts stärker wirken als tagsüber.

Man muss richtigerweise folgern: Die physikalische CO₂-Erwärmungstheorie mit den behaupteten hohen Klimasensitivitätswerten zwischen 2 und 5 Grad ist eindeutig falsch. Und CO₂ ist schon gar kein Temperaturregelknopf, denn diese linksgrüne politische Meinungsmache, die vor allem in Deutschland gilt, würde bedeuten, dass ausschließlich Kohlendioxid die Temperaturen rauf und runter regelt.

Richtig ist vielmehr diese Aussage: CO₂ hat auf den Temperaturverlauf der Atmosphäre keine erkennbare Wirkung. Auch wenn CO₂ im Infrarotbereich absorbiert, und emittiert – was physikalisch richtig ist – dann sollten sich Physiker endlich überlegen, weshalb diese Tatsache in der Gesamtatmosphäre keine Rolle spielt, warum es zu keinen „Thermalisierungen“ kommt und keine CO₂-basierten Erwärmungen gemessen und bestätigt werden können.

Letztlich hat der Großversuch bei der Sprengung der Ostseepipeline gezeigt, dass selbst das 50 mal stärkere Treibhausgas Methan zu keinerlei messbaren Erwärmungen über der Ostsee geführt hat. Die behauptete Thermalisierung der Luft durch Treibhausgase findet nicht oder nur in homöopathischen, nicht messbaren Dosen statt.

Außerdem: Es gibt auch keinerlei technische Anwendung des behaupteten CO₂-Erwärmungeseffektes oder sonstiger positiver Treibhauseffekte anderer Gase, die wir Menschen uns zunutze machen könnten.

Zusammenfassung:

1a) Die DWD-Aprilmitteltemperatur 2025 aller Stationen von 10,5°C ist zu hoch im Vergleich zu früher. Die heutigen Wetterstationen stehen im Vergleich zu früher eher in Wärmeinseln. Außerdem hat sich in den letzten zwei Jahrzehnten die Messerfassung geändert. Die Wetterhütte ist abgeschafft und die neuen Digital-Einheiten müssen laut neuer DWD-Norm frei in der Sonne stehen.

1b) Somit richtet sich der Trendlinienverlauf tagsüber hauptsächlich nach der Zunahme der Aprilsonnenstunden, die überall in Deutschland zunehmend sind.

2) Die Grafiken des Artikels zeigen allesamt: CO₂ hat keinen erkennbaren Einfluss auf das Temperaturverhalten.

3) Die Erwärmung seit dem Temperatursprung 1987/88 fand aber nur am Tage statt. Die Nächte wurden entgegen der Treibhaustheorie nicht wärmer. Auch dieser Umstand ist ein deutlicher Beweis, dass CO₂ nichts mit den Temperaturen der Atmosphäre zu tun hat. Es gibt allerhöchstens Zufalls-Koinzidenzen zwischendurch für kurze Zeitabschnitte.

4) Der Monat April nimmt bereits vorweg, was die Sommermonate bis in den Herbst hinein noch deutlicher zeigen werden: Die Klimaerwärmung Deutschlands fand erst ab 1988 und nur tagsüber statt.

5) Alle teuren Maßnahmen zur CO₂-Reduzierung sind ein Geschäftsmodell und ändern am Temperaturverlauf überhaupt nichts. Sie müssen sofort eingestellt werden, weil diese unser Land ruinieren.

6) Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt einer allumfassenden Politik gestellt werden. Der Erhalt einer sauberen Luft, sauberes Wasser und intakte Naturlandschaften mit genügend Bodenfeuchte sollten das gemeinsame Ziel sein und nicht die planmäßige Angstmacherei, die Klimahysterie mit einem angeblichen und nur erfundenen Treibhausgas.

7) Das Leben auf der Erde ist auf dem Element Kohlenstoff aufgebaut. Kohlendioxid ist das Transportmittel für den Kohlenstoff. Die Erde braucht höhere CO₂-Konzentrationen in der Atmosphäre und nicht weniger. Der CO₂-Optimumsbereich für die Schöpfung Erde sollte endlich wissenschaftlich erforscht werden

8) Wer CO₂ verdammt als Klimakiller oder Klimagift, versündigt sich an der Schöpfung. Das gilt insbesondere für die beiden christlichen Kirchen.

9) Wir alle sind aufgerufen, diesem unheilvollen Geschäftsmodell Klimahysterie durch Kohlendioxid ein Ende zu bereiten. Jeder so wie er kann und wie er es für richtig hält. Eine Klimakatastrophe ist weit und breit nicht in Sicht. Die in den Medien ständig verkündeten Panikmeldungen sind entweder Übertreibungen oder Folgen einer bisher verfehlten Natur- und Umweltpolitik

Josef Kowatsch, Naturbeobachter, aktiver Natur- und Umweltschützer

Matthias Baritz, Naturwissenschaftler und Naturschützer

 




Der Galilei-Prozess steht am Ende des Mittelalters – die Klima-Justiz heute dagegen ganz am Anfang!

von Uli Weber

Vorwort: Man schreibt heute sämtliche Klimaveränderungen dem CO2-Ausstoß unserer industriellen Kultur durch die Nutzung fossiler Energierohstoffe zu und macht inzwischen nicht einmal mehr vor dem Wetter halt. Aber nicht das Wetter ist klimaabhängig, sondern das Wetter definiert überhaupt erst durch seinen 30-jährigen regionalen Durchschnitt dieses regionale Klima. Genauso, wie viele Wege nach Rom führen, so kann man auch das CO2-Klimaparadigma aus ganz unterschiedlichen Richtungen angreifen. Während mein hemisphärisches Konvektionsmodell ganz ohne den ominösen „natürlichen atmosphärischen Treibhauseffekt“ auskommt, kann man vorgeb­liche CO2-Effekte auch ganz für sich allein widerlegen, indem man sie einfach als „wahr“ annimmt, sie auf der Basis gesicherter wissenschaftlicher Erkenntnisse weiterentwickelt, und sie am Ende zu einem inhärenten Widerspruch („wahr=falsch“) führt. Hier folgt jetzt ein solcher Widerspruchsbeweis („wahr=falsch“) gegen das verfas­sungs­gerichtlich festgestellte nationale CO2-Budget von kumulativ 6,7 Gigatonnen für den Zeitraum 2020 bis 2030. Denn, wie nachfolgend nachgewiesen werden wird, ist das globale CO2-Budget fortlaufend erneuerbar und Deutschlands 2%-iger Anteil daran beträgt immerhin gut eine Gigatonne pro Jahr.

Physik ist eigentlich eine ganz simple Wissenschaft; mein alter Physiklehrer pflegte oft zu sagen, man benötige nur einen Zettel, einen Bleistift – und seinen Kopf:

  1. Bei einem behaupteten physikalischen Zusammenhang lässt sich bereits aus den direkt beteiligten physikalischen Größen deren qualitative Abhängigkeit herleiten.
  2. Die experimentelle Überprüfung des behaupteten physikalischen Zusammenhangs führt entweder zu einem reproduzierbaren quantitativen Ergebnis – oder wenn nicht, dann ist hier schon mal Schluss.
  3. Eine Überprüfung von Zusammenhang und Ergebnis im Rahmen der gesicherten Physik führt dann entweder zur Widerspruchsfreiheit– oder erfordert einen Neustart.

In der sogenannten Klimawissenschaft ist das aber alles ganz anders, denn deren Beweisführung bleibt üblicherweise bei [A] stecken, wird mit klima-missionarischem Eifer medial verbreitet und versagt dann bereits bei [B]. Nehmen wir als Beispiel mal das sogenannte Klimaurteil des Bundesverfassungs­gerichtes vom 24. März 2021, das unter Punkt 19 auf einer annähernd linearen Beziehung zwischen der Gesamtmenge an emittierten klimawirksamen Treibhausgasen und dem Anstieg der mittleren Oberflächen­temperatur aufbaut, Zitat mit Hervorhebungen:

„Bis zu welcher Höhe und mit welcher Geschwindigkeit die Temperatur weiter ansteigt, hängt vom Anteil der Treibhausgase in der Atmosphäre und damit maßgeblich vom Umfang der anthropogen emittierten Treibhausgase ab, insbesondere vom CO2-Ausstoß (IPCC, a.a.O., S. 17 f., 26). Denn zwischen der Gesamtmenge an emittierten klimawirksamen Treibhausgasen und dem Anstieg der mittleren Oberflächentemperatur besteht eine annähernd lineare Beziehung (SRU, Demokratisch regieren in ökologischen Grenzen ‒ Zur Legitimation von Umweltpolitik, Sondergutachten, 2019, S. 36).

Damit stellt sich das Bundesverfassungsgericht gegen den Vatikan der Klimareligion, den sogenannten „Weltklimarat“ (IPCC). Denn in dessen TAR Full Report Kapitel 6 “Radiative Forcing of Climate Change” gibt der IPCC in Tabelle 6.2 auf Seite 358 Formeln für den vorgeblichen Strahlungsantrieb ∆F [Wm−2] von sogenannten Klimagasen an; für das „Radiative Forcing“ von Kohlenstoffdioxid (CO2) ergibt sich folgende logarithmische Funktion:

∆F = α ln(C/C0) mit α=5.35 (IPCC TAR Kapitel 6 Tabelle 6.2 auf Seite 358)

Unter III. heißt es im Beschluss des Bundesverfassungsgerichtes vom 24. März 2021 dann weiter, Zitat:

Der durch Menschen verursachte Klimawandel lässt sich nach derzeitigem Stand nur durch die Reduktion von CO2-Emissionen maßgeblich aufhalten.“ (Rn 31)

Und in (2) Subsumtion wird unter (a) ein „ab 2020 verbleibendes konkretes nationales CO2-Restbudget 6,7 Gigatonnen“ (Rn. 231) angegeben, das „durch die in § 4 Abs. 1 Satz 3 KSG in Verbindung mit Anlage 2 zugelassenen CO2-Mengen bis 2030 bereits weitgehend aufgezehrt“ würde. Aber selbst dann, wenn man an einen menschengemachten Klimawandel durch die Nutzung fossiler Energien glaubt, sollte man sich nicht gleich verfassungsjuristisch ins physikalische Bockshorn jagen lassen. Denn es schadet vom wissenschaftlichen Standpunkt her sicherlich nicht, die vorgeblichen Zusammenhänge einmal näher zu betrachten und mit zusätzlichen Fakten abzugleichen:

Die Klimawirksamkeit von CO2 wird üblicherweise als „Klimasensitivität“ in Grad pro Verdoppelung angegeben. Das IPCC gibt dafür eine Spanne von 1,5 bis 4,5 [°/2xCO2] an. Der ursprüngliche vorindustrielle atmosphärische CO2-Gehalt soll 280 ppm betragen haben. Bis zum Jahre 2015 hatte der Mensch aus der Nutzung fossiler Energieträger etwa 1.400 Gt CO2 zusätzlich in die Atmosphäre eingebracht (Quelle) und damit den CO2-Gehalt der Atmosphäre auf 400 ppm erhöht:

http://scilogs.spektrum.de/klimalounge/files/IPCC-Synthesebericht-Abb-5b-ori.jpgAbbildung 1: „Erwärmung versus kumulative CO2-Emissionen – Quelle: IPCC Synthesebericht (2014)

Der dortige Text zu dieser Abbildung, Zitat:Zusammenhang von kumulativen CO2-Emissionen und globaler Erwärmung. Die Zahlen an den „Blasen“ geben die in den verschiedenen Szenarien erreichte CO2-Konzentration in der Atmosphäre an. Die auf der vertikalen Achse angegebene Temperatur gilt zu dem Zeitpunkt, an dem die auf der horizontalen Achse angegebene Emissionsmenge erreicht wird. Das heißt: die noch folgende weitere Erwärmung allein aufgrund der thermischen Trägheit im System ist hier noch nicht einkalkuliert.

Die Aussagen über das verbleibende globale CO2-Budget basieren offenbar auf dem Blasenwert aus der obigen IPCC-Grafik mit:

480-530 ppm ≅ 3.000 Gt CO2 ≅ ΔT 1,75-2,0 °C

Vergleichen wir diese Werte einmal mit den vorstehend aufgeführten zusätzlichen Fakten:

Der vorindustrielle CO2–Gehalt in unserer Atmosphäre soll 280 ppm oder 0,028% betragen haben. Im 20. Jahrhundert ist dann einiges dazugekommen, wobei der stärkste Anstieg auf den Zeitraum 1965-1980 fällt:

Abbildung 2: Der globale industrielle CO2-Ausstoß im 20. Jahrhundert aus diversen Quellen
Grafik aus: Klimahysterie ist keine Lösung (SW-Ausgabe)

Fassen wir mal zusammen:

Zwischen 1900 und 1948 stieg der globale industrielle CO2-Ausstoß von ca. 2 auf 5 Gt.

Zwischen 1948 und 1965 stieg der globale industrielle CO2-Ausstoß von ca. 5 auf 10 Gt.

Zwischen 1965 und 1980 stieg der globale industrielle CO2-Ausstoß von ca. 10 auf 20 Gt.

Und zwischen 1980 und 2002 stieg der globale industrielle CO2-Ausstoß von ca. 20 auf 25 Gt.

Zum Stand 2023 betrug der globale industrielle CO2-Ausstoß etwa 37,8 Gigatonnen. Die CO2-Klimapanik begann Anfang der 1980-er Jahre mit dem Ende der medial verbreiteten „neuen Eiszeit“-Panik aus den 1970-er Jahren. Denn mit dem vorgeblichen Klimakatastrophen-Auslöser CO2 war der Politik plötzlich der Schlüssel in die Hände gefallen, um den Mehrwehrt der westlichen industriellen Entwicklung sowie das Leben selbst besteuern zu können. Und da die MINT-Fächer die natürlichen Feinde der Schlafschafe sind, ist auch nicht damit zu rechnen, dass der grundlegende Systemfehler der anthropogenen Klimakatastrophe jemals verstanden wird. Denn die Grundrechenarten und der Dreisatz stellen sich dem Verständnis eines MINT-fernen Schlafschafs unüberwindbar in den Weg:

Für den Zeitraum zwischen 1900 und 2015 summiert sich der anthropogene CO2-Eintrag auf insgesamt etwa 1.400 Gigatonnen (Gt) und hatte zu einer Erhöhung des atmosphärischen CO2-Gehaltes um 0,012% auf 0,040% oder 400 ppm geführt. Zwischen dem anthropogenen CO2-Ausstoß und dem atmosphärischen CO2-Gehalt ergibt sich also folgender Zusammenhang:

(1) X Gt CO2 ≅ 280 ppm mit X = „natürliche“ atmosphärische CO2-Menge [Gt CO2]

(2) X Gt CO2 + 1.400 Gt CO2 ≅ 400 ppm

(3) = (2) – (1) 1.400 Gt CO2 ≅ 120 ppm

Die ursprüngliche atmosphärische CO2-Gesamtmenge „X [Gt CO2]“ ergibt sich dann aus den Zeilen (1) und (3) mit einem einfachen Dreisatz zu:

X Gt CO2 = 280 ppm x 1.400 Gt CO2 / 120 ppm = 3.200 Gt CO2

Wir können aus dem IPCC-Blasenwert mit (480-530 ppm ≅ 3.000 Gt CO2 ≅ 1,75-2,0 ΔT °C) einmal ganz vorsichtig eine mittlere CO2-Konzentration von 510 ppm für einen maximalen anthropogenen Temperaturanstieg unter 2 Grad entnehmen. Diese 510 ppm entsprechen dann knapp 6.000 Gt CO2. Abzüglich der natürlichen atmosphärischen CO2-Menge ergibt sich daraus also ein ursprüngliches globales Emissionsbudget von 2.800 Gt CO2 für eine Temperaturerhöhung unter 2 Grad, das sogar noch um 200 GT CO2 kleiner ist, als im IPCC-Bubble angegeben wird. Von diesem ursprünglich verfügbaren globalen CO2-Budget von 2.800 Gt CO2 wären bereits 1.400 Gt CO2 „verbraucht“. Dieser Wert stimmt übrigens auch recht gut mit den Angaben der Bundeszentrale für politische Bildung überein, nach denen sich die Konzentration von CO2 seit Beginn der Industrialisierung um ca. 40 Prozent erhöht haben soll.

Nach der hier durchgeführten Abschätzung würde eine Erhöhung des vorindustriellen atmosphärischen CO2-Gehaltes auf 510 ppm also weitere 1.400 Gt CO2 (=2.800 Gt CO2– 1.400 Gt CO2) erfordern, um nach der oben abgebildeten IPCC-Grafik schließlich eine atmosphärische Temperaturerhöhung von insgesamt etwa 1,75-2,0 °C auszulösen. Bei einem weltweiten jährlichen CO2-Ausstoß von konstant 30 Gigatonnen würde es ab dem Jahre 2015 dann noch etwa 45 Jahre bis zu einem angeblich anthropogen verursachten Temperaturanstieg von insgesamt knapp 2 Grad Celsius dauern, also etwa bis zum Jahr 2060.

Die Aussage über eine kumulative Wirkung von CO2 zur Bemessung des verfügbaren CO2-Budgets in dem zitierten Urteil des Bundesverfassungsgerichtes ist aber nur insoweit korrekt, wie sich dieses CO2 auch noch in der Atmosphäre befindet. Und da widersprechen sich die geehrten Gelehrten doch sehr heftig, denn danach reicht die „atmosphärische Lebenserwartung“ von CO2 von Jahren bis zu Jahrhunderten. Allerdings hatte es mit den Atomwaffenversuchen der 1960-er Jahre einen Großversuch für die „atmosphärische Lebenserwartung“ von CO2 gegeben. Bei diesen Atomwaffenversuchen war nämlich das radioaktive C14-Isotop vermehrt erzeugt worden und dessen „atmosphärische Lebensdauer“ gemessen worden:

Abbildung 3: Atmosphärisches 14CO2 in der zweiten Hälfte des 20. Jahrhunderts
Quelle Wikipedia – Autor Hokanomono – gemeinfrei

Übersetzung der Erklärung: „Die Abbildung zeigt das 14C/12C-Verhältnis relativ zum natürlichen CO2-Gehalt in der Atmosphäre als Funktion der Zeit in der zweiten Hälfte des 20. Jahrhunderts. Das Diagramm wurde mit gnuplot aus atmosphärischen Radiokarbondaten in Wellington, Neuseeland (1954 n. Chr. bis 1993 n. Chr.) und am Vermuntsee, Österreich (1959 n. Chr. bis 1983 n. Chr.) erstellt. Die SVG-Datei von gnuplot wurde manuell verbessert. Die Datenquellen liefern die Daten als D14C. Für das Diagramm wurde der absolute prozentuale moderne Wert unter der Annahme berechnet, dass jede Messung im selben Jahr wie die jeweilige Probenahme durchgeführt wurde.“

Nun haben Isotope üblicherweise dieselben chemischen Eigenschaften wie das Normalelement, nur bei der Physik wird es etwas komplizierter. Wenn wir jetzt einmal den Peak vom 10. Oktober 1963 und seinen Abfall über die Folgejahre betrachten, dann sind 80% des erzeugten C14-Isotops bereits innerhalb von etwa 20 Jahren aus der Atmosphäre verschwunden. Damit wären wir bereits deutlich unter der üblicherweise angesetzten Abklingschwelle von [1/e] entsprechend etwa 37%. Wir dürften daher für die „atmosphärische Lebenserwartung“ von anthropogenem CO2 mit vorsichtigen 50 Jahren bei einer CO2-Restmenge kleiner 2% gar nicht mal so falsch liegen und stellen erstaunt fest:

Huch, das globale CO2-Budget ist ja gar nicht kumulativ, sondern fortlaufend „erneuerbar“!

Denn mit dieser „atmosphärischen Lebenserwartung“ von etwa 50 Jahren für das anthropogene CO2 in unserer Atmosphäre beträgt das fortlaufende globale CO2-Budget für den anthropogenen CO2-Ausstoß etwa:

2.800 Gigatonnen CO2 pro 50 Jahre: 2.800 Gt CO2 / 50 Jahre = 56 Gt / Jahr

Bei einem aktuellen anthropogenen CO2-Ausstoß von deutlich unter 40 Gigatonnen pro Jahr ist also mit jährlich 56 Gt für die wirtschaftliche Entwicklung der 3. Welt auch noch jede Menge Luft nach oben, ohne das ominöse 2-Grad Ziel überhaupt anzurühren. Von einem überlebenswichtigen Zwang zu Null-CO2-Emmissionen ab 2050 kann also selbst dann keine Rede sein, wenn man tatsächlich an einen menschengemachten Klimawandel durch CO2-Emmissionen glauben möchte.

Ein nachprüfbar berechnetes globales CO2-Budget von jährlich bis zu 56 Gigatonnen CO2 kann also die klimareligiös befürchtete menschengemachte Klimaerwärmung ohne die angestrebte Dekarbonisierung der Welt dauerhaft unter 2 Grad halten – selbst wenn man denn dem Wahn von der anthropogenen CO2–Katastrophe voll verfallen wäre. Die Dekarbonisierung der Welt bis zum Jahr 2100 erweist sich damit zum wiederholten Male als eine völlig unnötige, von Klimaaber­glauben getriebene Selbstkasteiung der Mensch­heit. Und mit dieser menschen­feindlichen Agenda wollen die grünen Klihmer jetzt zielgerichtet unsere kohlenstoff-basierte industrielle Lebensgrundlage zerstören und unseren daraus resultierenden Lebensstandard vernichten.

Also vorwärts in die Vergangenheit, ihr CO2-Klimaschafe – wir sehen uns dann im Mittelalter!

PS: Deutschlands 2%-iger Anteil an diesem erneuerbaren globalen CO2-Budget von jährlich 56 Gigatonnen beträgt also fortlaufend gut 1 Gigatonne pro Jahr. Aber was soll’s, in einem hunderttausende Kilometer von der Bonner Republik entfernen Land, in dem nach der Wahl eines neuen Parlaments noch schnell mal das „geschäftsführende“ über eine Verfassungsänderung abstimmt, sollte es auch kein großes Problem sein, den 2. Hauptsatz der Thermodynamik mal eben per Gerichtsurteil an den menschen­gemachten CO2-Klima­aberglauben anzupassen…