Das Mysterium der fehlenden Daten

Ivor Williams

Ich möchte mit zwei unbeantworteten Fragen schließen. Der Grund dafür liegt in einer Geschichte mit acht Dezimalstellen voller geheimnisvoller Rätsel und kaum glaubwürdiger Schlussfolgerungen. Ein letzter Blick auf die Realität: Die durchschnittliche Temperatur der Erde liegt derzeit (Anfang November) bei etwa 14 °C, (Anmerkung der Redaktion: Bis Anfang 2000 waren es 15° C, was aber auf Grund des Befindens von Phil Jones – ehemals Leiter der Climate Research Unit in der Universität von East Anglia- von einem Tag zum anderen aufgegeben wurde) was jedoch nie angegeben wird, da es nicht ausreichend die Gefahr der globalen Erwärmung vermittelt. Vierzehn Grad Celsius oder siebenundfünfzig Grad Fahrenheit sind keine Botschaften des bevorstehenden Untergangs. Beide Werte entsprechen der jährlichen Durchschnittstemperatur in Bordeaux, San Francisco oder Canberra.

Daher haben die Weisen beschlossen, dass jede globale Temperatur, die der Öffentlichkeit mitgeteilt wird, immer als Differenz zum Mittelwert des halben Jahrhunderts 1850–1900 angegeben werden muss, der ihrer Meinung nach repräsentativ für unsere Welt in der rauchfreien vorindustriellen Zeit ist. Dieser Zeitraum fällt zufällig auch mit dem Ende der Kleinen Eiszeit zusammen, die laut dem Met Office „besonders kalte Intervalle um 1650, 1770 und 1850“ hatte. Eine Kälteperiode, die 1850 begann? Interessant.

So teilte uns das Met Office am 10. Januar dieses Jahres mit, dass „die globale Durchschnittstemperatur für 2024 um 1,53 ± 0,08 °C über dem globalen Durchschnitt von 1850 bis 1900 lag”. Dies ist eine außerordentlich genaue Zahl, aber die Weltorganisation für Meteorologie kommt zu einem ähnlichen Ergebnis: „Die globale durchschnittliche Oberflächentemperatur [im Jahr 2024] lag laut der konsolidierten Analyse der WMO um 1,55 °C … ± 0,13 °C … über dem Durchschnitt von 1850 bis 1900.“ Ignorieren wir einmal die kaum zu glaubende Genauigkeit dieser zweiten Dezimalstelle, denn es kommt noch schlimmer.

Die offensichtliche Frage lautet: Warum wurden gerade diese fünfzig Jahre als grundlegender Referenzzeitraum gewählt? Die Antwort ist leicht zu finden: „Globale Beobachtungen aus der instrumentellen Ära begannen Mitte des 19. Jahrhunderts für die Temperatur“, so der Weltklimarat (IPCC) in seinem Fünften Sachstandsbericht (Abschnitt B, Seite 4). Ein zugehöriger Sonderbericht des IPCC (FAQ1.2 Absatz 4) erklärt: „Der Referenzzeitraum 1850–1900 … ist der früheste Zeitraum mit nahezu globalen Beobachtungen und wird … als Annäherung an die vorindustrielle Temperatur verwendet.“ Beachten Sie die kategorischen Aussagen, dass für diesen fünfzigjährigen Zeitraum des 19. Jahrhunderts ausreichende Daten zur Berechnung der globalen Durchschnittstemperaturen verfügbar sind.

Ich erinnere daran, dass Dickens 1850 „David Copperfield“ schrieb, Kalifornien als 31. Bundesstaat in die Union aufgenommen wurde und weite Teile der Erde noch unerforscht waren. Das Jahr 1900 brachte den Boxeraufstand (China), den Burenkrieg (Südafrika) und den Hurrikan von Galveston (USA) mit sich. Es gab noch immer recht große Gebiete, die auf unerschrockene Entdecker warteten.

Ich war neugierig, wie man früher die globalen Temperaturen gemessen hat, aber nach einer mühsamen Suche auf Websites und nachdem sich erneut gezeigt hatte, dass von KI abgeleitete Informationen sowohl falsch als auch irreführend sein können, wandte ich mich verzweifelt an den Auskunftsdienst des Met Office. Die Antwort war lang und sehr detailliert. Es gab zwar keine konkreten Daten, aber mehrere Hinweise, wo ich suchen könnte. Sehr interessante Hinweise.

Der oben genannte IPCC-Bericht, der „globale Beobachtungen” behauptet, ist offensichtlich wahr, da die Weltorganisation für Meteorologie eine umfassende Grafik mit sechs verschiedenen Messungen der globalen Durchschnittstemperatur mit der Differenz zum Zeitraum 1850–1900 vorlegt. Ein Link „Daten abrufen” auf der gleichen Seite führt jedoch zu der folgenden merkwürdigen Tabelle mit Anomalien des Met Office:

1850  -0.1797
1851  -0.0592

dann jedes Jahr bis

1899  0.0128
1900  0.1218

dann jedes Jahr bis

2023  1.4539
2024  1.5361

Es gibt sogar noch genauere Daten des Met Office aus der Vergangenheit, diesmal Anomalien im Vergleich zum Zeitraum 1961–1990, die jedoch völlig unglaubwürdig sind. Alle stammen aus HadCRUT5.1.0.0, Summary Series, Global, CSV-Datei, jährlich.

1850  -0.42648312
1851  -0.2635183

dann jedes Jahr bis

1899  -0.34430692
1900  -0.2301605

dann jedes Jahr bis

2024  1.1690052

Wenn man weiter recherchiert, erhält man monatliche Werte. Man kann nicht umhin, selbst bei zwei Dezimalstellen misstrauisch zu werden, geschweige denn bei acht. Ich habe weiter recherchiert. Ich habe Grafiken gefunden.

Sie zeigen die nördliche und südliche Hemisphäre getrennt, mit der Anzahl der Stationen und dem Prozentsatz der Abdeckung. Sie stammen aus einem Artikel: Hemispheric and large-scale land surface air temperature variations: An extensive revision and an update to 2010, P.D. Jones et al. Seite 48, Zeile 1120. Sie zeigen die Anzahl der Messstationen und den Prozentsatz der abgedeckten Hemisphäre von 1850 bis 2010.

Sehr ähnliche Abbildungen finden sich auch in Land Surface Air Temperature Variations Across the Globe Updated to 2019: The CRUTEM5 Data Set, T J Osborn et al, Absatz 5.1 Abb. 6 [Link] und Hemispheric Surface Air Temperature … to 1993, P D Jones 1993, Seite 1797 [Link].

Ungefähre Werte aus den obigen Grafiken:

1850

Abdeckung der nördlichen Hemisphäre 7 %

Abdeckung der südlichen Hemisphäre 0–1 %

1900

Abdeckung der nördlichen Hemisphäre 23 %

Abdeckung der südlichen Hemisphäre 6 %

Das kann doch nicht sein? Da muss irgendwo ein Fehler vorliegen. Aber nichts liefert so klare und eindeutige Informationen wie eine Grafik in wissenschaftlichen Fachzeitschriften. Wenn Sie immer noch glauben, dass dies einfach nicht wahr sein kann, dann schauen Sie sich die Karte der American Meteorological Society zur Stationsdichte von 1861 bis 1890 (Abschnitt 5 des Journals) oder eine klassische Bartholomew-Karte der weltweiten Wetterstationen von 1899 an.

Die vom Met Office bereitgestellten Informationen führten mich zu einer Vielzahl wissenschaftlicher Arbeiten, die sich über dreißig Jahre intensiver Forschung zum Thema der genauen Messung der globalen Durchschnittstemperaturen seit 1850 erstrecken. Dieser Weg scheint in einem wirbelnden Nebel zu enden.

Diese Grafiken zeigen, dass selbst im Jahr 1900 nur etwa 15 % der Erde über Messstationen verfügten. Und die Daten für 1850 stammen offenbar nur aus etwa 4 % der Erde.

Wie können die weltweiten Temperaturen mit einer so unglaublich geringen Datenmenge – fast keine Daten aus den Ozeanen und der Großteil der übrigen Daten aus Nordamerika und Westeuropa – so genau gemessen werden?

Das wäre eigentlich nicht weiter schlimm, hätte nicht jemand beschlossen, dass die aktuellen globalen Durchschnittstemperaturen der besorgten Welt immer als Anomalien im Vergleich zu den Daten von 1850 bis 1900 dargestellt werden sollten, die selbst möglicherweise eine kühlere Klimaperiode darstellen. Die Absicht muss sein, deutlich zu zeigen, dass es keinen Zweifel daran gibt, dass wir uns tatsächlich gefährlich erwärmen, und wenn wir nicht bald etwas dagegen unternehmen, wird es zu spät sein, und sagen Sie nicht, wir hätten Sie nicht gewarnt.

Aber, und das ist ein großes „Aber“, wie kann die globale Durchschnittstemperatur von 1850 beispielsweise mit -0,1797 °C unter dem Durchschnitt von 1850–1900 angegeben werden, wenn die Messstationen zu dieser Zeit offenbar nur etwa 4 % der Erde abdeckten? Und warum mit einer völlig unrealistischen Genauigkeit von einem Zehntausendstel Grad?

Ich habe Sie gewarnt, dass dies mit zwei unbeantworteten Fragen enden würde, und hier sind sie, beide beziehen sich auf den Fünfzigjahreszeitraum von 1850 bis 1900:

Wo können wir die tatsächlichen Originaldaten für die ganze Welt einsehen?

Wie wurden diese unglaublich genauen Anomaliewerte berechnet?

Link: https://wattsupwiththat.com/2025/11/10/the-curious-case-of-the-missing-data/

Übersetzt von Christian Freuer für das EIKE

 




Dreißig Jahre des Scheiterns der COPs: die vernichtende Bewertung eines wirklichkeitsfernen Klimaprozesses

Samuel Furfari

[Alle Hervorhebungen im Original]

Science-Climate-Energy bat Samuel Furfari, die These seines neuesten Buches „The Truth About the COPs, 30 years of illusions” (Die Wahrheit über die COPs, 30 Jahre Illusionen) vorzustellen, eine rigorose und dokumentierte Analyse der aufeinanderfolgenden Misserfolge dieses Prozesses, die dessen Fortführung in Frage stellt. (Dieses Buch ist Professor Ernest Mund gewidmet, der regelmäßig Beiträge für Science-Climate-Energy verfasste, mehr dazu hier).

Angesichts der COP30 in Belém in Brasilien vom 10. bis 21. November 2025, zu der fast 70.000 Teilnehmer erwartet werden, wird es wichtiger denn je, die tatsächliche Wirksamkeit dieser Klimakonferenzen kritisch zu bewerten. Diese neue Ausgabe verkörpert durch ihren organisatorischen Aufwand die wachsende Kluft zwischen dem diplomatischen Prozess und der globalen Energie-Realität. Die Ergebnisse von drei Jahrzehnten Klimaverhandlungen sind eindeutig: Trotz zahlreicher feierlicher Erklärungen und ehrgeiziger Verpflichtungen sind die globalen CO₂-Emissionen seit dem Erdgipfel, der den Dekarbonisierungsprozess einleitete, um 65 % gestiegen.

Das Scheitern: das Kyoto-Protokoll und dessen Illusionen 

COP ist die Abkürzung für „Conference of the Parties” (Konferenz der Vertragsparteien), das jährliche Treffen der Staaten, die das Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen (Rio, 1992) ratifiziert haben, um sich zur Reduzierung ihrer CO₂-Emissionen zu verpflichten. Die erste Konferenz fand 1995 in Berlin unter dem Vorsitz von Angela Merkel statt, der damaligen Umweltministerin in der Regierung von Helmut Kohl. 1994 übernahm ich die Verantwortung für das Thema Klima in der Generaldirektion Energie der Europäischen Kommission, wodurch ich diese jährlichen Konferenzen bereits vor der ersten COP verfolgen konnte. Auch nach meinem Ausscheiden aus dieser Position verfolgte ich diese Konferenzen aus persönlichem Interesse weiter, wodurch ich auch ohne direkte Beteiligung einen tiefen Einblick in den Prozess gewinnen konnte.

Das Kyoto-Protokoll (1997) sollte den Beginn eines verbindlichen globalen Klima-Managements markieren. Mit dem Ziel, die Emissionen der Industrieländer bis 2010-2012 um 5,2 % zu reduzieren, läutete es das Zeitalter der quantifizierten Verpflichtungen ein. Die Realität zerstörte jedoch schnell alle Hoffnungen: Die Clinton-Gore-Regierung der Vereinigten Staaten, damals der größte Emittent weltweit, weigerte sich, das Abkommen zu ratifizieren, obwohl sie daran mitverhandelt hatte, während Kanada 2011 aus dem Abkommen austrat. Noch wichtiger war, dass die Flexibilitätsmechanismen eher eine virtuelle Übertragung von Emissionen als eine tatsächliche Reduzierung ermöglichten. Zwischen 1990 und 2010 stiegen die globalen Emissionen um 32 %, was die strukturellen Ineffizienzen eines Systems deutlich machte, das Schwellenländer von allen Beschränkungen ausnimmt.

Die Betonung, dass dieses Ziel in den Jahren „2010–2012” erreicht werden müsse – eine Forderung der Ökologen –, ist kein Detail: Diese Frist sollte den Diskurs der permanenten Dringlichkeit befeuern. Die Ziele wurden 2012 nicht erreicht, geschweige denn 2010; aber dieser Prozess sorgt auch dafür, dass die öffentliche Debatte ständig unter Druck steht.

Es sei darauf hingewiesen, dass an der COP3 keine Staats- und Regierungschefs, sondern nur Umweltminister teilnahmen, weshalb es leicht war, sich auf utopische Ziele zu einigen.

Das Kopenhagen-Debakel: Die Spaltung zwischen Nord und Süd offenbaren

Die COP15 in Kopenhagen im Dezember 2009 sollte einen entscheidenden Wendepunkt in der internationalen Klimapolitik markieren, indem sie einen Nachfolgevertrag zum Kyoto-Protokoll schuf, das als stillschweigender Misserfolg galt. Obwohl diese Konferenz lang erwartet worden war, endete sie mit einem grandiosen Scheitern, da keine rechtlich bindende Vereinbarung erzielt werden konnte. Dieser Gipfel offenbarte eine tiefe und anhaltende Kluft zwischen Industrie- und Entwicklungsländern, insbesondere hinsichtlich der Aufteilung der Klimaverantwortung.

Im Gegensatz zu Kyoto waren bei der COP15 zahlreiche Staats- und Regierungschefs anwesend, die die Verhandlungen leiteten, um zu verhindern, dass „grüne” Minister ihre Länder zu übermäßig restriktiven Verpflichtungen überredeten, die angesichts der wirtschaftlichen Interessen als unrealistisch angesehen wurden. Als die dramatischen wirtschaftlichen Folgen der Dekarbonisierung deutlich wurden, machten viele Staaten einen Rückzieher. Es gab keine verbindlichen oder auch nur indikativen Ziele auf globaler Ebene mehr.

Schwellenländer, insbesondere China und Indien, haben jede nennenswerte Einschränkung ihrer wirtschaftlichen Entwicklung im Namen des Klimaschutzes kategorisch abgelehnt. Sie beriefen sich auf das Grundprinzip der „gemeinsamen, aber unterschiedlichen Verantwortlichkeiten“ und bekräftigten ihr Recht auf wirtschaftliche Entwicklung ohne unangemessene Einschränkungen angesichts der unverhältnismäßig hohen historischen Emissionen der Industrieländer. Diese Positionen waren ausschlaggebend für die Ablehnung eines verbindlichen Vertrags und stießen auf der internationalen Bühne auf starken Widerstand.

Die Konferenz endete in einem Klima der Verwirrung und diplomatischer Spannungen, was die Unfähigkeit der UN-Gremien verdeutlichte, divergierende nationale Interessen und die Verwaltung globaler öffentlicher Güter in Einklang zu bringen.

Das Scheitern von Kopenhagen markierte einen wichtigen Wendepunkt in der internationalen Klimapolitik und zeigte, dass der UN-Konsens die tatsächlichen strategischen Interessenkonflikte zwischen Industrie- und Entwicklungsländern nicht länger verschleiern konnte. Unter dem Druck von Aktivisten und Medien gerieten die Staats- und Regierungschefs (Barack Obama, José Manuel Barroso, Nicolas Sarkozy, Angela Merkel, Xi Jinping) in die Zwickmühle. Sie wurden unter Druck gesetzt, Maßnahmen in Betracht zu ziehen, die ihrer nationalen Wirtschaft geschadet hätten, aber sie gaben nicht nach und zogen es vor zu scheitern. Seitdem nehmen einige kurz an der Eröffnung der COPs teil, um „im Bilde zu sein“, und verlassen dann schnell die Debatten, um jegliche Verantwortung für das Ausbleiben konkreter Entscheidungen zu vermeiden. Sobald sie fotografiert wurden, achten sie nun darauf, nicht an den Verhandlungen teilzunehmen.

Uneinigkeit in Paris: Die Einführung der Beschwörungskraft

Das Pariser Abkommen der COP21 (2015) wurde mit großem Pomp und Zeremoniell als historischer diplomatischer Erfolg präsentiert, ist aber in Wirklichkeit ein Triumph der französischen Diplomatie. Seit Monaten bemüht sich die französische Diplomatie, möglichst viele Länder davon zu überzeugen, dieses internationale Abkommen zu akzeptieren. Es sei darauf hingewiesen, dass es sich hierbei nicht um ein Protokoll wie Kyoto handelt, da es in vielen Ländern den Ratifizierungsprozess nicht durchlaufen hätte. Gerade diese Berücksichtigung des Völkerrechts zeigt die Leere dessen, was als französischer Erfolg präsentiert wird.

Laurent Fabius behauptete mit Tränen in den Augen, es sei ein historisches Ereignis gewesen… Aber schauen wir uns die Fakten zehn Jahre später an: Es ist vor allem ein monumentaler Misserfolg. Es war notwendig zu versuchen, das Präsidentenmandat von François Hollande zu retten, aber es ist klar, dass diese COP den Trend nicht umkehren konnte. Hollande hatte nicht einmal den Mut, erneut zu kandidieren. Das Pariser Abkommen hat weder ihm noch den anderen geholfen – außer der EU und den Aktivisten vorzugaukeln, sie hätten den Lauf der Welt umgekehrt.

In meinem Buch habe ich das dieser COP gewidmete Kapitel auch „Die Pariser Uneinigkeit” genannt, weil es bedeutungslos ist. Es enthält nichts weiter als bürokratische Verpflichtungen, die nur den konkreten Effekt haben, unnötige Verwaltungsarbeit zu verursachen – was ironischerweise unnötigerweise zusätzliches CO₂ erzeugt. Eine schöne ökologische Farce, denn der Verbrauch fossiler Brennstoffe weltweit ist weiter gestiegen. Ihr Anteil bleibt mit fast 87 % des globalen Energiemix‘ überwältigend. Nichts in diesem Abkommen ändert wirklich etwas an den Energieentscheidungen der Staaten; fossile Brennstoffe sind nach wie vor beliebt, machen sie doch in zehn Jahren 77 % des Nachfragewachstums aus, d. h. die Kluft zwischen ihnen und den erneuerbaren Energien wird immer größer (siehe auch den Artikel „Energie hinzufügen, nicht umsteigen: Fossile Brennstoffe bleiben die Grundlage des Fortschritts“ vom 18. Juli 2025 in Science-Climate-Energy).

Paradoxerweise blieb die Kernenergie – die einzige CO₂-freie Energiequelle, die reichlich und kontrollierbar Strom liefern kann – bis zur COP 28 in den internationalen Klimaverhandlungen marginalisiert. Die Entwicklung fortschrittlicher Kerntechnologien, darunter kleine modulare Reaktoren, wäre jedoch eine glaubwürdige Lösung für das doppelte Erfordernis der wirtschaftlichen Entwicklung und der Reduzierung der CO₂-Emissionen für diejenigen, die noch daran glauben. Das Beharren darauf, diese Option aus dem globalen Energiemix auszuschließen, ist ein großer strategischer Fehler, wenn nicht sogar ein historischer.

Der geopolitische Wendepunkt: Die Revolte der Entwicklungsländer 

Die geopolitische Landschaft hat sich seit der Uneinigkeit in Paris erheblich verändert und markiert einen endgültigen Bruch mit dem Paradigma der Dekarbonisierung. Die Eröffnung der COP29 im Jahr 2024 in Baku durch den aserbaidschanischen Präsidenten Ilham Aliyev, der bekräftigte, dass „fossile Energie ein Geschenk Gottes ist“, symbolisierte diesen Kurswechsel. Diese Erklärung spiegelt eine tiefere Realität wider: Afrikanische und asiatische Länder lehnen nun offen jede Einschränkung ihrer Entwicklung im Namen der Bekämpfung des Klimawandels ab. Wie der Energiebedarf des afrikanischen Kontinents zeigt, auf dem 180 Millionen Menschen in Städten mit mehr als fünf Millionen Einwohnern leben, kann die Elektrifizierung keinesfalls auf intermittierende erneuerbare Energien gesetzt werden. Die Nachfrage nach reichlich vorhandener und billiger Energie wird zur obersten Priorität und drängt die Dekarbonisierung in den Hintergrund.

Diese Veränderung war bereits auf der COP in Glasgow zu spüren, wo der niederländische Sozialist Frans Timmermans, damals erster Vizepräsident der Europäischen Kommission, den unberechenbaren Umweltschützer Boris Johnson – obwohl dieser sich als Konservativer präsentierte – davon überzeugte, Kohle zu verbieten. Nun sind beide aus dem Rennen, und der Kohleverbrauch steigt stetig. Nach Glasgow wurden wir mit COPs in den Ölförderländern (Ägypten und den Vereinigten Arabischen Emiraten) konfrontiert, die den Schwerpunkt der Konferenz wieder auf die Sicherheit der Energieversorgung verlagerten. Schlimmer noch, in Dubai fand am Rande der COP eine Konferenz zur Wiederbelebung der Kernenergie statt: Die Klimaaktivisten mussten den Becher bis zum Grund leeren. Es sei daran erinnert, dass der belgische Premierminister Alexandre De Croo fotografiert wurde, aber das Abkommen über diese Wiederbelebung der Kernenergie nicht unterzeichnen konnte, weil seine Regierung unter der Fuchtel der Grünen stand. Wenn man sich seine Karriere ansieht, kann man sich schließlich fragen, ob dieser Ökologe wirklich aus Überzeugung oder aus simpler Heuchelei fotografiert werden wollte.

Es sei darauf hingewiesen, dass die Entwicklungsländer erst nach den COP-Konferenzen in Ölförderländern begannen, sich zunächst zaghaft und dann in Baku mutiger gegen die Dekarbonisierung auszusprechen. Lange Zeit ließen sie glauben, dass sie an einer Dekarbonisierung interessiert seien, indem sie sich für neue Finanzmittel aus den OECD-Ländern einsetzten. Sie wurden dabei von Klimaaktivisten ermutigt, die einen „Technologietransfer” forderten, also die Bereitstellung von Technologien – als ob Technologie kein kommerzieller Wert wäre, der privaten Unternehmen gehört und einfach kostenlos an weniger begünstigte Länder weitergegeben werden könnte. Erst als sie erkannten, dass das Geld nicht so fließen würde, wie sie es sich erhofft hatten, und dass Technologie gekauft werden musste, wagten sie es, die Umweltschützer nicht mehr zu unterstützen.

Wie kann man übersehen, dass dieser gesamte COP-Prozess nichts anderes als ideologische Manipulation, politischer Opportunismus und Gier war?

Die Dringlichkeit des Widerstands gegen das Klima-Dogma

Die jüngsten COPs haben gezeigt, dass die eigentliche Priorität der Bevölkerung in Entwicklungsländern – insbesondere in China und Indien – nicht die Reduzierung der CO₂-Emissionen ist, sondern der effektive und schnelle Zugang zu wirtschaftlicher und sozialer Entwicklung (dank des massiven Einsatzes von Kohle – der Energiequelle, die pro gelieferter Energieeinheit am meisten CO₂ produziert. Narendra Modi ist es gelungen, über eine Milliarde Inder mit Strom zu versorgen). Nur eine groß angelegte Elektrifizierung wird einen industriellen Aufschwung, die Schaffung von Arbeitsplätzen und eine strukturelle Verringerung der Armut ermöglichen. Und genau das fordern die afrikanischen Staats- und Regierungschefs.

Daher muss die Energiepolitik auf Lösungen basieren, die Zuverlässigkeit, angemessene Kosten und Energiedichte bieten – Anforderungen, die derzeit nur konventionelle Energieformen, fossile und nukleare, in dem Umfang erfüllen, den diese Länder benötigen. Die Förderung der Dekarbonisierung durch die ausschließliche Konzentration auf intermittierende erneuerbare Energiequellen bedeutet, diese Länder zu einer chronischen Energieunterversorgung zu verdammen. Und das akzeptieren sie nicht mehr, so dass die COPs niemals ein Erfolg werden können.

Diese Tatsache wurde gerade von Bill Gates ausdrücklich anerkannt, der nun argumentiert, dass die Dekarbonisierung keine Priorität haben kann, da keine unmittelbar bevorstehende Klimakatastrophe wissenschaftlich nachgewiesen wurde, wie viele Wissenschaftler weiterhin behaupten, darunter auch bei Science-Climate-Energy und bei Clintel. Diese Position, die seit langem von vielen Wissenschaftlern, Ökonomen und kritischen Denkern vertreten wird, wurde von einer Presse, die sich zu sehr den Thesen der Umweltschützer verschrieben hat, systematisch marginalisiert, indem ihr eine Plattform und eine kontroverse Debatte verwehrt wurden.

Es ist klar, dass die Beseitigung der Armut einen massiven Stromverbrauch erfordert, was den Bau Hunderter konventioneller Kraftwerke mit sich bringt: Kohle-, Gas-, Wasser- und Kernkraftwerke. Diese Realität zu leugnen bedeutet, Illusionen auf Kosten des Schicksals der schwächsten Bevölkerungsgruppen aufrechtzuerhalten. Die Aktivisten haben den Kampf gegen den Klimawandel bereits verloren, bei allem Respekt gegenüber der Europäischen Kommission, welche an einer wirtschaftlich selbstmörderischen Dekarbonisierungspolitik festhält, die von den tatsächlichen Herausforderungen der Entwicklung losgelöst ist.

Es sei darauf hingewiesen, dass es weder die Äußerungen von Donald Trump noch die von Bill Gates waren, die der Utopie der COPs ein Ende gesetzt haben, sondern vielmehr die dreißig Jahre anhaltender Misserfolge, die von den Medien und der Europäischen Kommission vertuscht wurden. Sie tragen eine schwere Verantwortung.

In meinem Buch zitiere ich viele Ereignisse, welche die Unangemessenheit dieser Treffen verdeutlichen: einen Umweltminister, der wegen unüberlegter Entscheidungen von seinem Premierminister streng zurechtgewiesen wurde; die Organisation einer Konferenz in Warschau zur Förderung der Kohle während der COP; Ministerwechsel bei Treffen aufgrund ihrer Ineffizienz; oder die grotesken Diskussionen über die Größe von Kühlschränken, als der US-Botschafter bei der COP2 erklärte: „Sie werden nicht über die Größe unserer Kühlschränke entscheiden.“ Dies spiegelt direkt den berühmten Satz des Atmosphärenwissenschaftlers Richard Lindzen wider: „Wenn man den Kohlenstoff kontrolliert, kontrolliert man das Leben.“ Dies, so sagt er, sei der ultimative Traum von Bürokraten: vorzugeben, das Leben zu kontrollieren.

Eine fundamentale Umgestaltung internationaler Prioritäten

Die Schlussfolgerung ist klar: Der COP-Prozess hat sein grundlegendes Ziel verfehlt, die weltweiten Emissionen zu reduzieren. Sein Fortbestehen ist nun das Ergebnis einer nutzlosen institutionellen Routine. Die beträchtlichen Summen, die für diese Konferenzen ausgegeben werden – jede COP kostet rund 100 Millionen Euro –, könnten unendlich viel besser für die Finanzierung konkreter Energie-Entwicklungsprojekte in den Ländern des Südens verwendet werden. Die Dringlichkeit liegt nicht in der Organisation neuer großer Klima-Veranstaltungen, sondern in der Anerkennung des Rechts auf Entwicklung und der Bereitstellung der für deren Verwirklichung notwendigen Energieressourcen.

Rückkehr nach Brasilien nach Rio 1992

Dreißig Jahre nach der ersten COP in Berlin ist die Bilanz verheerend: Die weltweiten CO₂-Emissionen sind seit den in Rio de Janeiro eingegangenen Verpflichtungen um fast 65 % gestiegen, was das klare Scheitern eines Prozesses verdeutlicht, der von Aktivisten und Politikern angeführt wurde, die nach Popularität strebten und konkrete Maßnahmen zugunsten steriler Beschwörungsformeln opferten. Am Vorabend der COP30 in Belém, zu der rund 70.000 Teilnehmer erwartet werden, deutet alles darauf hin, dass erneut eine Chance verpasst werden wird.

Der Kontrast ist auffällig: Der brasilianische Präsident Luiz Inácio Lula da Silva, der die COP30 eröffnet hat, hat gerade die Ölförderung im brasilianischen Teil des „Äquatorialrandes” genehmigt, diesem neuen Eldorado, das sich von Guyana über Surinam und Französisch-Guayana bis zum Nordosten Brasiliens in der Nähe des Amazonas erstreckt. Dieses riesige Becken, das derzeit in voller Entwicklung ist, verkörpert den brutalen Konflikt zwischen wirtschaftlichen Zwängen und internationaler Klima-Rhetorik.

Wenn Brasilien Stefan Zweigs Versprechen einlösen will, „das Land der Zukunft zu sein und die Welt zu ernähren”, muss es sich zwangsläufig auf eine reichliche Energieproduktion stützen – und damit auf einen erhöhten Verbrauch fossiler Brennstoffe. Diese Ausrichtung steht in völligem Widerspruch zu den erklärten Zielen der COP, die das Land organisiert. Leider führt der COP-Prozess, wie dieses Buch zeigt, allzu oft zu wiederkehrender Heuchelei.

Darüber hinaus tragen Journalisten eine große Verantwortung: Sie haben ihre kritische Aufgabe verfehlt, indem sie die immense Farce dieser Konferenzen nicht angeprangert haben und somit dazu beitragen, die Illusion der Dekarbonisierung aufrechtzuerhalten, während die zugrunde liegende Dynamik unverändert bleibt.

Es ist an der Zeit, mit den Illusionen zum Klimawandel Schluss zu machen und anzuerkennen, dass die globale Priorität auf der wirtschaftlichen Entwicklung und dem Zugang zu Energie für alle liegen muss. Wie die sich wandelnden Positionen der Schwellenländer zeigen, gehört die Zukunft nicht der ideologischen Dekarbonisierung, sondern dem Energie-Pragmatismus, der allein die legitimen Bestrebungen der Menschen nach Wohlstand, Lebensqualität und Wohlergehen erfüllen kann. Es ist an der Zeit, einen Prozess der Vereinten Nationen aufzugeben, der sich als ineffektiv erwiesen hat, und die internationalen Bemühungen auf die wirklichen Prioritäten zu verlagern: die Bekämpfung der Armut und die wirtschaftliche Entwicklung für alle durch den Zugang zu reichlich vorhandener und billiger Energie.

Sollen wir warten, bis die COP99 scheitert?

Dies ist eine Übersetzung des Artikels „Trente ans d’échecs des COP : le bilan accablant d’un processus climatique déconnecté des réalités“ (Dreißig Jahre Misserfolge der COP: die niederschmetternde Bilanz eines von der Realität losgelösten Klimaprozesses), veröffentlicht am 7. November 2025 in „Science, climat et énergie“.

Samuel Furfari ist Ingenieur und promovierter Wissenschaftler der Universität Brüssel. Er ist Professor für Energie-Geopolitik und Politik. 36 Jahre lang war er leitender Beamter in der Generaldirektion Energie der Europäischen Kommission. Er ist Autor zahlreicher Bücher.

Link: https://clintel.org/thirty-years-of-cop-failures-the-damning-assessment-of-a-climate-process-disconnected-from-reality/

Übersetzt von Christian Freuer für das EIKE

 




Die „Klima-Krise“ des Jahres 1695

Ron Barmby

[Alle Hervorhebungen im Original]

Jahrhundertealte Thermometeraufzeichnungen zeigen, dass sich Mittelengland innerhalb von 40 Jahren um 2 °C erwärmt hat – doppelt so schnell wie die heutige Erwärmung.

Niemand würde Ihnen einen Vorwurf machen, wenn Sie glauben, dass wir zwischen 1980 und 2020 eine Erwärmung des Klimas erlebt haben, deren Geschwindigkeit in den letzten 2000 Jahren beispiellos ist. [Hervorhebung und Links hinzugefügt]

Diese weit verbreitete Behauptung basiert auf rekonstruierten (nicht mit Thermometern gemessenen) Temperaturen bis 1850 und beobachteten (mit Thermometern gemessenen) Temperaturen danach.

Die Technologie der versiegelten Thermometer ist jedoch etwa 200 Jahre älter als 1850, und wenn man diese Daten heranzieht, schmilzt die weit verbreitete Behauptung dahin.

Schauen Sie sich die folgende Grafik genau an: Es handelt sich um die längste Thermometeraufzeichnung der Welt, die bis ins Jahr 1659 zurückreicht. Die Daten wurden vom MET Office, dem nationalen Wetterdienst von UK zusammengestellt.

Mit Instrumentendaten aus dreieinhalb Jahrhunderten ist sie mehr als nur eine Wetteraufzeichnung; sie ist eine Aufzeichnung des Klimawandels in Mittelengland.

Die Temperaturmessungen wurden mit mehreren Thermometern von vielen verschiedenen Personen vorgenommen, die zu ihrer Zeit wahrscheinlich als Technikexperten galten und von denen keiner damit beauftragt war zu beweisen, dass der Mensch zur Erwärmung des Planeten beiträgt.

Man vergleiche die 40-jährigen Temperaturtrends (schwarze gestrichelte Linie) von 1695 bis 1735 mit denen von 1980 bis 2020.

Der Erwärmungstrend von 1695 bis 1735, 2 °C über vier Jahrzehnte, war doppelt so hoch wie der von 1980 bis 2020 mit 1 °C über vier Jahrzehnte.

Die frühere Erwärmungsphase war vorindustriell – eine Ära, deren Technologie dadurch gekennzeichnet war, dass Menschen in hölzernen Segelschiffen die Welt umrundeten. Raumschiffe, die den Planeten umkreisen, sowie Schwerindustrie und enorme Energieproduktion kennzeichnen die spätere Phase.

Die früheren Engländer überlebten von 1695 bis 1735 und erlebten eine doppelt so starke Erwärmung wie in den letzten 40 Jahren, und das mit viel weniger Technologie.

Hätte man König Georg II. gefragt, ob die Erwärmung in Mittelengland während seiner Regierungszeit um 2 °C in 40 Jahren eine existenzielle Bedrohung für sein Königreich darstellte, hätte er vielleicht geantwortet, dass es eine Zeit des Überflusses war, die zur englischen Vorherrschaft führte.

Georg II. vertrieb den „Bonny Prince Charles” aus Schottland, die Franzosen aus Nordamerika und die Spanier rund um den Globus, nur weil sie einem englischen Marinekapitän ein Ohr abgeschnitten hatten.

In Großbritannien gab es Anfang des 18. Jahrhunderts keine Hysterie wegen der Erwärmung um 2 °C, obwohl es viele kulturelle Ähnlichkeiten mit der heutigen Weltgemeinschaft gab.

Es war ein Land der aufgeklärten wissenschaftlichen Denkweise. Isaac Newton hatte gerade seine Bewegungs- und Gravitationsgesetze veröffentlicht. Es war auch ein Zentrum bedeutender technischer Fortschritte.

• Im Jahr 1709 leitete Abraham Darby mit der Massenproduktion von Eisen unter Verwendung von Koks aus Kohle anstelle von Holz die industrielle Revolution ein.

• 1712 baute Thomas Newcomen die weltweit erste kommerzielle Dampfmaschine.

• Mit der Eröffnung der Bank of England im Jahr 1695 wurden die nationalen Finanzen komplexer.

• Und es war ein Land, das in scheinbar endlose irrationale Kriege verwickelt war, wie beispielsweise den Krieg um Jenkins‘ Ohr (1739–1742).

Auf der anderen Seite des Ärmelkanals, in Frankreich, waren es die ungewöhnlich niedrigen Temperaturen während der Kleinen Eiszeit vor 1695, die eine echte existenzielle Bedrohung darstellten. Die Regierungszeit Ludwigs XIV. (des Sonnenkönigs) wurde durch kalte und feuchte Wetterbedingungen beeinträchtigt, die 1687 einsetzten.

Hunger und Krankheiten forderten in den kältesten Jahren 1693 und 1694 das Leben von 10 Prozent seiner Untertanen. Die zufällige Erwärmung von 1695 bis 1735 beendete die verheerende Hungersnot.

Der Erwärmungstrend war nur ein natürlicher Klimazyklus, aber zum ersten Mal wurde er mit modernen Instrumenten aufgezeichnet, die von wissenschaftlich versierten Menschen entwickelt worden waren.

Dann, im Jahr 1736, kehrte die Kleine Eiszeit mit voller Wucht zurück: Ein plötzlicher Temperatursturz um 1 °C innerhalb von fünf Jahren, von dem sich Mittelengland erst 200 Jahre später vollständig erholen sollte.

Der Temperatursturz war so abrupt, dass ein Kriegsschiff in der Themse festfror und die Feindseligkeiten wegen eines abgetrennten Ohrs verzögert wurden. (Letztendlich plünderte das britische Kriegsschiff als Vergeltung für das fehlende Ohr von Kapitän Jenkins Gold im Wert von heute 80 Millionen Dollar aus einer spanischen Galeone.)

In Frankreich begann das Jahr 1740 mit 75 Frosttagen, was eine neue Ära schlechter Ernten und weit verbreiteter Hungersnöte einläutete, die Jahrzehnte andauern sollte. Missernten von frostempfindlichem Weizen trugen zur Französischen Revolution von 1789 bei.

Es gibt viele Spekulationen darüber, was den Temperaturrückgang in England und Frankreich im Jahr 1695 und die anschließende dramatische Erwärmung bis 1735 verursacht hat:

• War dies Teil eines globalen Trends, der durch Veränderungen der Sonnenaktivität verursacht wurde? Das Maunder-Minimum (eine längere Periode mit sehr geringer Sonnenfleckenaktivität) von 1645 bis 1715 korreliert in gewisser Weise mit den Temperaturveränderungen.

• Hat die heftige Eruption der Klasse 4 (sehr hohe Eruptionssäule) des Vulkans Helka in Island im Jahr 1693 das Sonnenlicht behindert und so mehrere Jahre lang zu einem regionalen Kälteeinbruch geführt?

• War es eine regionale Klimaveränderung, die durch die Nordatlantische Oszillation verursacht wurde? (Dies ist ein atmosphärisches Druckphänomen, das der El-Niño-Südoszillation im Südpazifik ähnelt.)

• War es alles zusammen?

Wir wissen es nicht, aber die vom Menschen verursachten Kohlendioxidemissionen (CO) können kein Faktor gewesen sein.

Die längste Thermometeraufzeichnung der Welt zeigt, dass die aktuelle Erwärmungsrate des 20. und 21. Jahrhunderts einen größeren und nicht vom Menschen verursachten Präzedenzfall aus der Zeit vor 300 Jahren hat. Dieser war für die Menschheit auch von enormem Nutzen.

Und dann wurde es wieder kalt, so kalt, dass „einem Messingaffen die Eier abfrieren“ (ein britischer Marineausdruck für extreme Kälte, der in dieser Zeit verwendet wurde).

Vielleicht wäre König Georg II. nicht überrascht, wenn sich die Erwärmung von 1695 im Jahr 1980 auch nur zur Hälfte wiederholen würde. Schließlich gibt es höhere Gewalt, und außerdem: Wer würde eine Zeit des Überflusses ablehnen?

Er wäre jedoch überrascht zu erfahren, dass die Nachfolger seines Königreichs behaupten, der Mensch habe die Erwärmung von 1980 verursacht. Was hat dann die Erwärmung von 1695 verursacht?

Ron Barmby ist ein professioneller Ingenieur mit einem Master-Abschluss. Seine vier Jahrzehnte lange Karriere in den Geowissenschaften führte ihn in über 40 Länder auf fünf Kontinenten. Dabei befasste er sich mit den meisten technischen Disziplinen, die auch in der Klimawissenschaft und der Netto-Null-Technologie zum Einsatz kommen, darunter klassische Physik, Thermodynamik, Geologie, Paläoklimatologie, Computermodellierung, Satellitenfernerkundung, Metallurgie, Wirtschaftswissenschaften und statistische Methodik. Sein erstes Buch, „Sunlight on Climate Change: A Heretic’s Guide to Global Climate Hysteria” (Sonnenlicht und Klimawandel: Ein Leitfaden für Ketzer zur globalen Klimahysterie), veranlasste weltweit renommierte Wissenschaftsexperten dazu, ihre Forschungsergebnisse zu teilen, was Ron dazu ermöglichte, „Sunset on Net Zero: A Heretic’s Guide to the Futile CO2 Target” (Sonnenuntergang für Netto-Null: Ein Leitfaden für Ketzer zum sinnlosen CO2-Ziel) zu verfassen.

This article was published on 3 November 2025 on climatechangedispatch.com.

Link: https://clintel.org/the-climate-crisis-of-1695/

Übersetzt von Christian Freuer

 




Oktobererwärmung in Deutschland, erst in den letzten 3 Jahrzehnten markant und angenehm. Teil 2

Von Josef Kowatsch, Matthias Baritz

  • Zwischen dem CO₂-Konzentrationsverlauf und dem Oktobertemperaturverlauf besteht keine Korrelation und somit auch keine Ursache–Wirkung-Kausalität.

Teil 1 steht hier.

Im Teil 1 haben wir anhand der Temperaturreihen des Deutschen Wetterdienstes (DWD) gezeigt, dass die Oktobererwärmung erst 1988 begann, das war übrigens in ganz Mittel- West- und Nordeuropa so.

In diesem Teil 2 ergänzen wir den Temperaturverlauf durch die Mitbetrachtung der Tageshöchst- und der nächtlichen Tiefsttemperaturen über die letzten 80 Jahre.

Noch niemals wurden solchen Grafiken wie sie nun im Teil 2 gezeigt werden von den Anhängern der Treibhauskirche, vom Deutschen Wetterdienst, vom PIK Potsdam oder den Medien veröffentlicht. Auch die Sozialen Medien wie „Nius“ informieren sich wohl nicht bei EIKE.

Wir vermuten: Man lässt seitens der Treibhauskirche die unterschiedliche Entwicklung der Tag/Nachttemperaturen wohl bewusst weg, weil sie ganz und gar dem CO₂-Treibhaushypothese, die fast alle Erwärmung auf CO₂ zurückführt, widersprechen.

Nicht einmal die Grafik 1 aus Teil 1 unserer Arbeit wird so aufgeschlüsselt in 2 Zeitabschnitten gezeigt, weil die Erwärmung erst 1988 begann. Das widerspricht bereits dem Glauben an ausschließlich durch CO₂ verursachte Erwärmung.

Grafik 1: Der Monat Oktober wurde seit dem Jahre 1942 laut den Daten des DWD 45 Jahre lang überhaupt nicht wärmer. Erst seit 1988, eigentlich erst ab 1995 beginnt die Erwärmung. Und auf diesem Niveau hält sich der Oktober seit knapp 30 Jahren.

Interessant ist nun die Aufschlüsselung der Oktobertemperaturen in Tag- und Nachtvergleiche, die wir als Tmin und Tmax darstellen werden.

Tmin ist der Durchschnitt aller täglichen Minimumtemperaturen, meist kurz vor Sonnenaufgang, Tmax der Durchschnitt aller täglichen Maximumtemperaturen.

Leider bietet der Deutsche Wetterdienst für seine ca 2500 Wetterstationen keine Tages- und Nachttemperaturen bereits ausgerechnet im Schnitt seit 1942 an, so dass wir auf Einzelwetterstationen zurückgreifen müssen. Wir haben knapp 540 Wetterstationen aufsummiert, eine zeitraubende Arbeit. Jedoch erst seit 1947, denn nach dem Kriege hat der DWD bedingt durch die neuen Außengrenzen, neue Wetterstationen hinzugefügt und ältere entfernt. Und nach der Einheit musste wieder umsortiert werden. Und es gibt halt seit 1947 nicht mehr Stationen, die schon damals und auch noch heute alle drei Parameter messen. Aber: Nur der Name blieb erhalten, die Stationen wurden vollkommen geändert, und zwar in vielerlei Hinsicht:

Vom DWD wurde eine einheitliche Messmethodenerfassung aller Wetterstationen eingeführt, d.h. Die Daten vor 2000 sind alle analog in der früher gebräuchlichen Wetterhütte gemessen, und diese stand auch noch dort, wo der Ableser diese halt nach eigenem Gutdünken und Platz hinstellte. Meistens nicht ganztägig in der Sonne.

Die jetzigen Stationen müssen ganztägig sonnenbeschienen sein, von Sonnenaufgang bis Sonnenuntergang.

Deutschland, Oktoberverlauf seit 1947, gleichzeitige Mitbetrachtung der nächtlichen Tiefsttemperaturen und der Tages-Höchsttemperaturen

Grafik 2: Oben in grau die Oktober Tmax-Schnitte, 31 Schnitte aller 537 Stationen bilden dann ein Oktober-Jahr, ebenso werden die anderen beiden Trendlinien errechnet über die letzten 79 Jahre. Aus den beiden ähnlichen Gesamtsteigungen bei Grafik 1 und hier bei den Tagesschnitten schließen wir auf eine weitgehende Stimmigkeit der Tag/Nachtsteigungen.

Noch anzumerken: Diese Grafiken bietet der DWD nirgendwo an und den bezahlten Klimawandelforschern z.B. beim PIK Potsdam oder all den Wetterterlis ist die Arbeit wohl zu zeitaufwendig. Oder? Oder wollen sie das gar nicht wissen, weil die Graphen ihrem Treibhausglauben und ihrem bezahlten Auftrag bei ARD/ZDF widersprechen?

Überraschung:

  1. Die Tagestemperaturen Tmax fallen von 1947 bis 1987 ganze 40 Jahre lang, bevor sich ab 1988 die Regressionslinie umdreht und stark ansteigt.
  2. Auch die nächtlich gemessenen Tmin-Temperaturen steigen, aber viel weniger stark.
  3. Die Schere zwischen Tag/Nacht schließt sich bis 1987, ab 1988 öffnet sie sich.

Solche Fakten kann man nur mit natürlichen Ursachen eines ständigen Klimawandels erklären, jedoch keinesfalls mit CO₂. Das Klima bedarf noch etlicher Forschung. Aber sicher spielen hierbei die Häufigkeitsabnahme der trüben und/oder nebligen Tage sowie die Häufung südlicher Großwetterlagen nach 1988 mit, siehe Grafik 4.

Anmerkung. Bei allen dieser 540 Stationen hat sich seit 1947 der Standort wärmend verändert.

Man kann jedoch Einzelstationen, die fast unverändert blieben, gut betrachten und auswerten, jeweils im Vergleich zum DWD-Gesamtbild. Wir beginnen für diese Betrachtung erst ab 1988, dem eigentlichen Beginn der Klimaerwärmung in Mittel- und Westeuropa. Zudem haben sich die Standorte in diesem Zeitraum weniger wärmend verändert als bei einer Betrachtung über 80 Jahre. Lediglich die Messmethodenerfassung der 24-h-Tagestemperatur wird nun digital und rundum erfasst, auch wurde die Messung in der einstigen englischen Wetterhütte abgeschafft. Beginnen wir mit:

DWD-Station Dachwig (wärmeinselarm) – der Föhn vom Thüringer Wald regiert mit.

Die relativ wärmeinselarme Station Dachwig liegt in einer Senke des Jordan-Baches nordwestlich Erfurts nicht weit vom Thüringer Wald entfernt. Aufgrund der starken Häufigkeitszunahme der erwärmend wirkenden, zu Föhn im Lee des Thüringer Waldes neigenden Süd- und Südwestlagen war hier, anders als bei Amtsberg, wo im Herbst der „Böhmische Wind“ kühlend wirkt, eigentlich eine starke Erwärmung auch bei den Minima zu erwarten, aber die zeigt sich nur bei den Maxi- und den Mittelwerten. Die mittleren Minima erwärmten sich nur unwesentlich (im Vergleich zu 2001, 2006 und 2017, die über 8°C erreichten, wurden 2022 nur 6,2°C erreicht). Offenbar war der SW-Föhn nicht stark genug, um die Bildung einer bodennahen Kaltluftschicht durch nächtliche Ausstrahlung gänzlich zu verhindern. Andererseits war der Föhn tagsüber stark genug, um mit Warmluftadvektion und einer schwächer werdenden Oktobersonne noch einen Sommertag und neun Tage mit mindestens 20°C (Maximum-Temperaturen) zu erzeugen.

In seinen Beiträgen zum extrem sonnigen Ausnahme-März 2022 hatte KÄMPFE schon auf die enorme Bedeutung der Stationslage auf das Temperaturverhalten hingewiesen; unter anderem zeigte es sich, dass Stationen in Senken und Tallagen in letzter Zeit zu verstärkter nächtlicher Abkühlung neigen, welche aber mitunter von Föhn-Effekten verschleiert wird; Näheres zu der umfangreichen Problematik hier.

Grafik 3: In Dachwig (Thür. Becken) zeigen sich die stark steigenden gemittelten Maxima bei viel geringer steigenden Minima. In vielen anderen Monaten fallen bei Dachwig die mittleren Minima sogar, weil in ihnen S- und SW-Lagen viel seltener sind als im Oktober.

Das wird uns die nächste Grafik von Stefan Kämpfe noch besser verdeutlichen.

Grafik 4: Langfristig bewirkte die Häufigkeitszunahme der Großwetterlagen mit südlichem Strömungsanteil (rot) einen wesentlichen Teil der Oktober-Erwärmung in Deutschland; kalte Nord- und Ostlagen wurden hingegen viel seltener. Stationen an den Nordostseiten der Gebirge, wie etwa Dachwig, profitierten besonders von dieser Entwicklung (Föhn).

Erkenntnis: Dieses unterschiedliche Verhalten von Tages- und Nachttemperaturen ist mit keinerlei CO₂-Treibhauserwärmungstheorie erklärbar

Beispiel 2: Amtsberg in Sachsen, WI-arm, aber vom Böhmischen Wind beeinflusst.

Die Privat-Wetterstation Amtsberg in Sachsen am Fuße des Erzgebirges ist eine WI-arme Station, auch die Daten werden noch in der englischen Wetterhütte erhoben, erst seit 2005 kam die automatische digitale 24-Stundenerfassung dazu. Da die Wetterstation jedoch im Betrachtungszeitraum unverändert am selben Platz steht und sich auch deren weite Umgebung nicht verändert hat, sind wenigstens die Standortbedingungen seit Messbeginn fast gleich geblieben, so dass man die Daten der Station gut mich sich selbst und mit früher vergleichen kann.

Grafik 5a: Der Oktoberschnitt (rote Trendlinie) zeigt auch in Amtsberg eine Erwärmung von 1,2 Grad seit 1988. Aber wie in Dachwig verhalten sich die drei Trendlinien vollkommen unterschiedlich in ihrer Steigung. Tmax steigt viel stärker als Tmin, große Scherenöffnung.

Der Unterschied dieser WI-armen Privatstation zur Entwicklung vom Schnitt der DWD-Wetterstationen für Deutschland soll hier extra verdeutlicht werden

Grafik 5b: Man beachte die Steigungsformeln.

Tmax von Amtsberg steigt gleich stark, bzw. sogar etwas stärker als DWD-Deutschland. Die nächtlichen Tmin steigen schwächer bei Amstberg.

Beispiel 3: München/Stadt, eine ausgesprochene städtische Wärmeinselstation mitten in der Großstadt.

Grafik 6: Die Oktobererwärmung seit 1988 fand auch mitten in der Stadt München fast nur tagsüber statt. Nur bei den Tmax tagsüber steigt die Trendlinie steil. In der Nacht fast nicht. Beachte den letzten Wert für den Oktober 2025. Tagsüber viel kälter gegenüber den letzten beiden Jahren. Die Scherenöffnung zwischen Tmax/Tmin wird in den letzten Jahren kleiner (Warum?)

Insgesamt ist doch ein starker Temperaturanstieg tagsüber zu verzeichnen, der Grund sind die Sonnenstunden mitten in der großen Wärmeinsel, die im Gegensatz zum restlichen Deutschland leicht zunehmen.

Grafik 7: Im Gegensatz zu Dachwig und zum DWD-Schnitt sind in München die Oktober-Sonnenstunden seit 1988 leicht gestiegen, möglicherweise durch häufigeren Föhn. Allerdings war 2024 und 2025 auch in München wenig Sonne. Das erklärt wohl auch den eher niedrigen Wert der Tageshöchsttemperatur.

Gleichzeitig sind in der „Betonwüste“ München die Niederschläge schon seit Anfang der 90er Jahre rückläufig, die Trockenheit erzeugt zusammen mit der Zunahme der wärmenden Wohnbebauung, Flächenversiegelung und Kanalisation der Niederschläge auch weniger kühlenden Nebel in der City.

Beispiel 4: Düsseldorf, Der selbst ernannte und gut bezahlte CO₂-RTL-Experte Christian Häckl behauptet sogar, die Nächte würden sich stärker erwärmen wie die Tage, rein von seiner CO₂-Theorieüberzeugung so daher geschwätzt. Siehe RTL-Häckl im Oktober 2020.

Grafik 8: Im Gegensatz zur CO₂-Treibhaustheorie des RTL-Klimaexperten Häckl verhalten sich auch in Düsseldorf die Temperaturen genau umgekehrt. Die Tageshöchsttemperaturen steigen stärker als die nächtlichen Tiefsttemperaturen.

Ergebnisse: Die Oktober-Erwärmung seit 1988 findet hauptsächlich nur am Tage statt sogar im ländlichen Amtsberg mit fast 0,8 K/Jahrzehnt. Die Nächte blieben eher kühl und zeigten weniger Erwärmung.

Erkenntnis: Dieses unterschiedliche Verhalten von Tages- und Nachttemperaturen ist mit keinerlei CO₂-Treibhauserwärmungstheorie erklärbar. Im Gegenteil, diese Temperaturverläufe widerlegen den CO₂-Treibhauseffekt

Kohlendioxid kann doch tagsüber nicht stark erwärmend wirken und nachts nicht. Und das auch erst seit 1988. Davor war es genau umgekehrt. Solche Gaseigenschaften gibt es nicht.

Noch besser zeigt sich das unterschiedliche Verhalten der Tages- und Nachttemperaturen, wenn man die Zeitreihe bei 1943 beginnen lässt, hier Buchen im Odenwald:

Grafik 9: DWD Station Buchen: bis 1987 steigt die Tmin-Trendlinie und fällt danach, bei der Tmax-Trendlinie ist es genau umgekehrt. Immerhin, in Buchen wurden die Oktobernächte seit 1988 leicht kälter.

Grafik 10: Bei der DWD Station Augsburg ähnliche Temperatur-Trendlinien wie bei DWD-Buchen.

Aufforderung: Die bisher Treibhauserwärmungsüberzeugten sollten endlich einen Schlussstrich ziehen und ihren falschen Glauben über angeblich stark wärmende Treibhausgase verwerfen. Treibhausgase können nachts doch nicht kühlen!!!

Pech für solche Leute, wenn man dann auch noch ohne nachzuprüfen aufgrund seiner vermeintlich physikalischen Kenntnisse das Gegenteil behauptet als die Wetterstation vor der eigenen Nase zeigt, siehe CO₂-RTL-Treibhausexperte Christian Häckl.

Richtig bleiben natürlich die physikalischen Grundlagen des CO₂-Moleküls und die sollen von uns nicht bestritten werden: Die IR-Rot-Absorption einiger Gase, die in Deutschland irrtümlich Treibhausgase benannt werden, gibt es. Diese IR-Absorption ist physikalisch nachweisbar, aber die behauptete große Erwärmung der Atmosphäre durch Treibhausgase, die Thermalisierung der Luft ist nicht nachweisbar und ist nichts als ein Glaubensgebot der Treibhausglaubenskirche. Unsere Graphiken, gezeichnet nach den Original DWD-Temperaturerhebungen beweisen erneut, dass die Treibhauserwärmungskirche uns nur mit einem Geschäftsmodell Angst macht. Und genau das ist deren perfide Absicht.

Sieben weitere Gründe: Gegen diese CO₂-Erwärmungs-Hypothese mit einer behaupteten Klimasensitivität von 2 bis 5 Grad, gibt es bis jetzt

1) keine Versuchsbeweise für die Glaubenserwärmung, aber auch

2) keine natürlichen Erwärmungs-Hotspots in freier Natur, wo naturbedingt plötzlich große Mengen an Treibhausgasen freigesetzt werden wie vor einem Jahr beim ungewollten Großversuch mit dem ausströmenden Methan über der Ostsee. Und es gibt auch

3) keine technische Anwendung, die auf dem Treibhaus-Erwärmungseffekt beruht. Und

4) alle DWD Temperatur-Grafiken können nur für kurze Zeiträume Korrelationen mit dem steigenden CO₂-Gehalt in der Atmosphäre finden.

5) Insbesondere begann die Klimaerwärmung in Mitteleuropa nicht nach der Kleinen Eiszeit, sondern durch einen Temperatursprung 1987/88 und danach die steile Weitererwärmung. (Der Oktober hat keinen Temperatursprung aber seit 1988 die Erwärmung.)

6) Dabei sind vor allem im Sommer bis in die Herbst hinein nur die Tagestemperaturen seit 1988 gestiegen, die Nachttemperaturen kaum oder gar nicht.

7) Die stark gestiegenen Tagestemperaturen dieser sechs Monate sind der Hauptgrund für die allgemeine Klimaerwärmung in Mitteleuropa seit 1988.

Folge: Ein politisch gewolltes Absenken der jährlich gemessenen CO₂-ppm-Zuwachsraten wäre somit vollkommen unnütz, weil wirkungslos, zudem sehr teuer und sollte unterlassen werden.

Die letzte Generation sowie viele Bürger Deutschlands sind ein Opfer der CO₂- Klimaangstpropaganda. Wir sind weit entfernt von irgendwelchen irdischen Erwärmungs-Katastrophen aufgrund der CO₂-Zunahme.

Diese Klimapropaganda ist ein Geschäftsmodell ähnlich dem Ablasshandelsmodell der Kirche im Mittelalter. Die kirchlichen Mainstream-Wissenschaftler vor 700 Jahren haben den Begriff Erbsünde und Fegefeuer eigens erfunden, um den Leuten Angst einzujagen. Heute heißen die Begriffe Treibhausgas, Klimakipppunkte und ständige Erderhitzung.

Auch die seit 1979 mit Satelliten gemessene globale Erwärmung ist erst recht kein Grund zur Beunruhigung, wenn man die Anstiegswerte nicht in Hundertstel-Grad aufträgt, sondern sie ins Klimageschehen der Erdgeschichte einreiht. Und die Satelliten-Messungen begannen auf dem Höhepunkt einer Abkühlungsphase – dem „Seventies Cooling“.

Grafik 11: Die momentan global ermittelten Temperaturen sind weit entfernt von einem Hitzetod der Erde. Die „letzte Generation“ ist auch ein Opfer übertriebener und entstellter Grafiken. Das Geschäftsmodell Treibhaus betreibt auch „Grafikpanik“

Fazit: Die seit 1988 bei uns stattfindende Erwärmung hat andere Gründe:

  1. Die natürlichen Grüne sind der Anstieg der Sonnenstunden, auch wegen den Luftreinhaltemaßnahmen die Zunahme der Sonnenintensität, sowie die Zunahme der SW-Wetterlagen.
  2. Stetige Wärmeinselzunahme: 15% der Deutschlandfläche sind inzwischen bebaut und versiegelt, täglich kommen ca. 50 ha dazu: Siehe BodenverbrauchAktueller_Stand: 51 000 km²

Und so fressen sich die Wärmeinseln in die einst freie Landschaft hinein und erwärmen sie weiter. Das aufgefangene Wasser wird über unterirdische Kanäle und offene Gräben über Bäche ins Meer abgeleitet. Eine Grundwasserneubildung kann nicht mehr stattfinden. Deutschlands Böden trocknen aus und die einstige Verdunstungskühlung geht verloren. Eindrucksvoll bewiesen durch folgendes Landschaftsbild.

Bild: Schwäbische Zeitung. Ausbau von Stuttgart 21, wo einst Wald und Wiesen waren ist der Boden asphaltiert. Tagsüber heizen sich die Wärmeinseltrassen auf, die einstige Verdunstungskühlung existiert nicht mehr, weil der Niederschlag sofort aufgefangen und in Bäche und Flüsse abgeleitet wird.

Natürlich bestreiten wir nicht die momentane stattfindende Erwärmung, sie hat beim Oktober in Deutschland seit dem Temperatursprung 1988 natürliche Ursachen (mehr SW-Wetterlagen) und vom Menschen verursachte. CO₂ kann doch nicht erst seit 1988 wirken!!

Wir versuchen die Erwärmung mit wissenschaftlich erhobenen Fakten zu erklären und die wären bei Kohlendioxid: CO₂ wirkt allerhöchstens in homöopathischen Dosen mit.

CO₂ ist ein lebensnotwendiges Gas für die Photosynthese und das Pflanzenwachstum auf dieser Erde. Die Schöpfung der Erde ist auf Kohlenstoff und Kohlendioxid aufgebaut. Ein weiterer CO₂-Anstieg hätte positive Wirkungen für das Leben und wäre wünschenswert.

Ebenso wünschenswert wäre, wenn der Oktober weiterhin so prächtig ausfallen würde wie bis vor 3 Jahren. Der Monat mit seinen herrlichen Farben war für Naturliebhaber Balsam für die Seele. Von einer Klimakatastrophe oder gar von Klima-Kipppunkten sind wir weit entfernt.

Der fast überall auf der Welt steigende WI-Effekt der Landmassen ist der tatsächlich anthropogene Anteil an der Erwärmung und nicht der wirkungslose nicht nachweisbare CO₂-Effekt. Es handelt sich um eine CO₂-Klimalüge. Will man den vom Menschen verursachten WI-Effekt zurückfahren, dann muss die Flächen versiegelnde Naturzerstörung und die Trockenlegung der Landschaft eingestellt werden, nicht nur in Deutschland.

Anstatt sich sinnlose CO₂-Einsparungen zu überlegen, sollten die Umweltministerien der Länder sofort einen Ideenwettbewerb starten wie man den Niederschlag wieder in der freien Landschaft, in den Städten und Gemeinden halten und versickern lassen kann, damit wenigstens die Verdunstungskühlung der Landschaft erhalten wird.

Die Klimaerwärmung brachte Deutschland bisher nur Vorteile, leider seit einigen Jahren in der Jahreszeit Sommer nur noch eingeschränkt. Deshalb sind gerade die jungen Leute aufgefordert, sich am regen Ideenwettbewerb gegen die Versteppung und Austrocknung Deutschlands im Sommer zu beteiligen. Wir haben hier vorläufig 15 Vorschläge erarbeitet.

Wir brauchen mehr CO₂ in der Atmosphäre

Eine positive Eigenschaft hat die CO-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO-gehalt der Atmosphäre liegt etwa bei 800 bis 1000ppm, das sind 0,1%. Nicht nur für das Pflanzenwachstum, also auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.

Grafik 12: Noch ist die Flora und Fauna auf diesem Planeten nicht gerettet. Wir haben bisher erst die CO₂-Konzentrationsabnahme stoppen können. Ein deutlicher CO₂-Aufwärtstrend, eine Konzentrationszunahme auf den optimalen Wert für Flora und Fauna ist noch nicht erkennbar

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Das ist eine erfundene CO₂-Klimalüge. Gegen die Terrorgruppen „letzte Generation“ und „Antifa“ muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppen keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert. Ausführlich hier beschrieben.

Es wird Zeit, dass wir all den erlogenen dreisten Falschbehauptungen einer gefährlichen CO₂-Klimapanik ein Ende machen. Und zwar jeder auf seinem Weg und nach seinen Fähigkeiten. Bitte sofort beginnen.

Matthias Baritz, Naturschützer und Naturwissenschaftler

Josef Kowatsch, aktiver Naturschützer und unabhängiger, weil unbezahlter Klimaforscher.

 




Die falschen Temperaturangaben, welche die alarmistische Agenda der COP30 stützen

Chris Morrison, THE DAILY SCEPTIC

In den nächsten zwei Wochen der COP30 werden drei beliebte Klimaszenarien unermüdlich verbreitet werden, um die schnell verblassende Phantasterei der radikalen Linken vom Netto-Null-Ziel zu fördern. Diese sind: das Überschreiten einer globalen „Schwelle” von 1,5 °C, was zu einem Temperaturanstieg führt, der außer Kontrolle gerät; vom Menschen verursachte Kipppunkte, die unvorstellbare Naturkatastrophen hervorrufen; und die Zuordnung einzelner Unwetterereignisse zum Einsatz natürlicher Kohlenwasserstoffe. Die Zahl 1,5 °C ist eine bedeutungslose Zahl, die von Politikern und Aktivisten erfunden wurde, um die Aufmerksamkeit auf Netto-Null zu lenken; Kipppunkte sind Unsinn aus Klimamodellen; und dasselbe gilt für die Zuordnung von Ereignissen anhand von Kristallkugeln. Keine dieser Behauptungen wird durch glaubwürdige wissenschaftliche Beweise und Beobachtungen gestützt. Das ist natürlich der Grund, warum die politische Elite den wissenschaftlichen Untersuchungsprozess verworfen, jede abweichende Diskussion verboten und abgesagt und die Angelegenheit für „settled” erklärt hat.

Der grundlegende Betrug ist die Temperatur. Es heißt, die Welt erwärme sich dramatisch, was zu Kipppunkten und einer Verschärfung extremer Wetterereignisse führe. Die Veränderungen sollen in beispiellosem Tempo voranschreiten und in erster Linie durch den Anstieg des Kohlendioxidgehalts in der Atmosphäre verursacht werden, der wiederum vom Menschen verursacht wird. Tatsächlich ist der Temperaturanstieg gering, etwa 1 °C über 200 Jahre (unter Berücksichtigung aller gefälschten Temperaturschätzungen und durch städtische Hitze verfälschten Messungen), und ähnliche Anstiege sind sowohl in historischen als auch in paläontologischen Aufzeichnungen weit verbreitet. Die jüngsten „heißesten jemals gemessenen“ Temperaturanstiege gab es auch in der Vergangenheit – plötzliche Temperaturänderungen werden durch plötzliche lokale Ereignisse wie Vulkanausbrüche verursacht. So hat der Unterwasservulkan Hunga Tonga im Jahr 2022 große Mengen Wasserdampf in die obere Atmosphäre abgegeben, ein „Treibhaus”-Erwärmungsereignis, das durch eine starke El-Niño-Oszillation in jüngster Zeit noch verstärkt worden sein dürfte. Aktuelle genaue Satellitenmessungen zeigen, dass die globale Temperatur im Jahr 2025 insgesamt wieder gesunken ist.

Glauben Sie mir nicht einfach blind, was diese natürliche Bewegung angeht. Professor Mark Maslin ist Professor für etwas, das als Erdsystemwissenschaft an der UCL bezeichnet wird, und einer der Autoren eines aktuellen Berichts über Kipppunkte, der rechtzeitig zur COP30 veröffentlicht worden ist. Diese spezielle, auf Computermodellen basierende Behauptung legt nahe, dass Warmwasserkorallen möglicherweise bereits ihre „thermischen Kipppunkte” überschritten haben, obwohl Korallen seit Hunderten von Millionen von Jahren existieren und in Gewässern mit Temperaturen zwischen 24 und 32 °C überleben. Es scheint sich um den gleichen Mark Maslin zu handeln, der 1999 als bescheidener Geografie-Dozent eine Abhandlung verfasste, in der er schrieb, dass die meisten großen Klimaveränderungen mit Schwankungen von mehreren Grad höchstens auf einer Zeitskala von einigen Jahrhunderten, manchmal Jahrzehnten „und vielleicht sogar einigen Jahren” stattfanden. Heute jammert er, dass „die Erde bereits unbewohnbar wird”, während die Klimapolitik zum Aufbau „eines neuen politischen und sozioökonomischen Systems” beiträgt. Im Jahr 2018 gehörte er zu einer Reihe von Ökoaktivisten, die einen Brief an den Guardian unterzeichneten, in dem sie erklärten, dass sie nicht länger „ihre Glaubwürdigkeit verleihen” würden, indem sie über Klimawandel-Skeptizismus debattieren.

Kein Wunder, dass Leute wie Maslin – natürlich ein regelmäßiger Gast bei der BBC, wenn es um alle gelehrten Fragen zum Klimawandel geht – sich aus der klimawissenschaftlichen Debatte zurückgezogen haben. Die Verbindung zwischen CO₂-Werten und steigenden Temperaturen, um daraus politisches Kapital für die Linke zu schlagen, stützt sich auf Beobachtungen aus nur wenigen Jahren. Erweitert man die Beobachtungen auf Hunderte und dann Hunderte von Millionen von Jahren, ergibt sich ein anderes Bild. Manchmal steigen und fallen die Temperaturen gleichzeitig mit dem CO₂-Gehalt, manchmal nicht. Manchmal steigt der CO₂-Gehalt sogar vor den Temperaturen, meistens jedoch nicht. Die einfache Erklärung, dass Treibhausgase wie CO₂ bei Überschreiten bestimmter Konzentrationen „gesättigt” sind und die Erwärmung logarithmisch abfällt, ist eine wissenschaftliche Hypothese oder Meinung, die jedoch angesichts der Beobachtungsdaten aus der Vergangenheit durchaus plausibel ist.

Betrachten wir einige dieser Beobachtungen, beginnend mit den Langzeitaufzeichnungen über 600 Millionen Jahre. Die folgende Grafik zeigt eine große Divergenz zwischen Temperatur und CO₂:

Über einen Zeitraum von 600 Millionen Jahren ist es schwierig, einen allgemeinen Zusammenhang zwischen Temperatur und Gas zu beobachten. Es ist jedoch anzumerken, dass über einen Zeitraum von 600 Millionen Jahren der CO₂-Gehalt in der Atmosphäre im Allgemeinen auf das heute fast nicht mehr vorhandene Niveau gesunken ist. Wie wir in den letzten 40 Jahren gesehen haben, führen selbst geringe Anstiege des CO₂-Gehalts zu einem signifikanten Wachstum der Biomasse auf dem gesamten Planeten. All dieses CO₂ war gut für die Dinosaurier, die bis vor 66 Millionen Jahren die Erde bevölkerten, als die Werte mehr als dreimal so hoch waren wie heute. Das kleine Plus war auch gut für den Menschen, da die Ernteerträge in letzter Zeit stark gestiegen sind und dazu beigetragen haben, die natürlich auftretende Hungersnot weltweit zu lindern.

Diese Aufzeichnungen sind natürlich sehr langfristig und werden aus Proxies zusammengestellt, deren Genauigkeit nur wenige tausend Jahre beträgt. In den unmittelbareren Aufzeichnungen finden wir zusätzliche und schlüssige Beweise dafür, dass CO₂ nicht der wichtigste Klimaregulator ist. Die Temperaturen im Mittelalter waren ähnlich wie heute, möglicherweise noch etwas höher in der Römerzeit und oft 3-4 °C höher im Holozän-Temperaturmaximum vor etwa 8.000 bis 5.000 Jahren. Während dieser Zeiträume war der CO₂-Gehalt mit etwa 260 ppm bemerkenswert stabil, ein Wert, der für die Erhaltung des Lebens auf der Erde eigentlich gefährlich niedrig ist. Der berüchtigte 1000-jährige Temperatur-„Hockeyschläger” von Michael Mann beseitigte das Verbindungsproblem, indem er die mittelalterliche Warmzeit und die darauf folgende kleine Eiszeit abschaffte, die bis etwa 1800 dauerte.

Bemerkenswerte neue wissenschaftliche Erkenntnisse deuten darauf hin, dass abrupte Temperaturanstiege bereits seit der eisfreien Jurazeit vor über 150 Millionen Jahren ein Merkmal des globalen Klimas waren. Wie der jüngere Maslin bezeugen kann, sind dramatische Temperaturänderungen in 1500-Jahre-Zyklen in Grönland und im Nordatlantik bekannt. Eine Gruppe französischer Wissenschaftler unter der Leitung von Slah Boulila von der Sorbonne hat jedoch weltweit große Temperaturanstiege festgestellt, die Millionen von Jahren zurückreichen. Die Wissenschaftler stellten innerhalb weniger Jahrzehnte eine Erwärmung bis zu 15 °C fest, was „auf abrupte und gravierende Veränderungen im Klima der Erde in der Vergangenheit hindeutet”. Die 1500-Jahre-Zyklen werden oft nach den Wissenschaftlern, die sie entdeckt haben, als Dansgaard-Oeschger-Ereignisse (DO) bezeichnet. Einige Wissenschaftler haben die ursprünglichen DO-Ergebnisse heruntergespielt und vermutet, dass die kurzfristigen Temperaturanstiege von etwa 1,5 °C durch spezifische Schwankungen der Eisschilde und der umgebenden Gewässer in der nördlichen Hemisphäre verursacht worden seien.

Die französischen Wissenschaftler merken jedoch an: „Der 1500-Jahre-Zyklus ist in beiden Hemisphären, in anderen Ozeanen und auf Kontinenten dokumentiert.“ Ihre Arbeit soll die globale Natur von DO-ähnlichen Ereignissen untermauern, insbesondere, dass ihre potenzielle Hauptursache unabhängig von der Dynamik der Eisschilde ist. Unterdessen mehren sich die wissenschaftlichen Hinweise darauf, dass die Temperaturen vor einigen tausend Jahren deutlich höher waren. Eine aktuelle Studie hat ergeben, dass die Pflanze Ceratopteris vor 8000 Jahren in 40° nördlicher Breite in Nordchina wuchs, was auf Wintertemperaturen hindeutet, die 7,7 °C höher waren als heute. Eine andere Studie fand Arten von Weichtieren, die vor 9000 Jahren in der arktischen Region Spitzbergen lebten und auf Temperaturen hindeuten, die 6 °C höher waren.

Die derzeitige Netto-Null-Fantasie basiert darauf, dass man winzige Temperaturanstiege, die offen gesagt nicht einmal richtig gemessen werden, zu einer Katastrophe hochstilisiert, CO₂-Anstiege verteufelt, die der Erde helfen, zu einer gesünderen Biosphäre und einem gesünderen atmosphärischen Gleichgewicht zurückzukehren, mit Hilfe von minderwertigen Computermodellen „Kipppunkte“ erfindet und die Intelligenz mit nicht überprüfbaren Geschichten beleidigt, in denen behauptet wird, dass die Menschen das Wetter verschlechtern.

Und sie bezeichnen uns Skeptiker als „Leugner“.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2025/11/07/the-false-temperature-claims-that-underpin-the-cop30-alarmist-agenda/

Übersetzt von Christian Freuer für das EIKE