Schockierendes schmutziges Geheimnis vor COP30: Mindestens die Hälfte des Balsaholzes in Windturbinenflügeln wird illegal in den Regenwäldern des Amazonasgebiets geschlagen.
Der Schutz des Amazonas-Regenwaldes ist eines der Hauptziele der COP30. Der Veranstaltungsort in der brasilianischen Stadt Belém wurde gewählt, um die entscheidende Rolle dieser Wälder für die globale Klimaregulierung, die Artenvielfalt und die Speicherung von Kohlenstoff zu unterstreichen. Es ist schon schlimm genug, dass 100.000 ausgewachsene Regenwaldbäume gefällt werden mussten, um eine „Autobahn der Schande” zu bauen, auf der die COP-Delegierten diese und nächste Woche durch die Stadt rasen können. Ein weitaus größerer Skandal, auf den heute die Zeitung Daily Sceptic die Öffentlichkeit aufmerksam macht, ist jedoch der illegale Holzeinschlag von Balsaholz im ecuadorianischen Regenwald, um die rasant steigende Nachfrage vor allem chinesische Hersteller von Windkraftanlagen zu befriedigen. Der Bedarf an diesem starken, aber außerordentlich leichten Holz ist so groß, dass schätzungsweise mindestens 50 % der weltweiten Nachfrage nach Balsaholz derzeit durch illegalen Holzeinschlag in unberührten Regenwäldern gedeckt wird.
Die einzigartigen Eigenschaften des Holzes machen es ideal als Kern für die riesigen Rotorblätter von Windkraftanlagen. Ecuador produziert aufgrund der besonderen klimatischen Bedingungen in diesem Teil Amerikas über 90 % des Balsaholzes. Früher stammte ein Großteil davon aus Plantagen, aber ein „Balsa-Boom” in den letzten fünf Jahren hat diese Ressourcen erschöpft, und die Knappheit wurde durch die Plünderung des Regenwaldes ausgeglichen. Und Plünderung ist kaum übertrieben, da offenbar Bäume aus einigen der am besten geschützten Gebiete des ecuadorianischen Waldes entfernt worden sind.
Im vergangenen Jahr veröffentlichte die Environmental Investigation Agency einen vernichtenden Bericht, in dem festgestellt wurde, dass viele Produzenten Plantagenholz mit illegal geschlagenem wildem Balsaholz aus den Amazonaswäldern mischten, darunter auch aus dem Biosphärenreservat Yasuni, in dem unkontaktierte indigene Gruppen leben. Die wichtigsten Ergebnisse sind Folgende:
Laut einer Untersuchung der EIA hat dieser sprunghafte Anstieg der Nachfrage langfristige Auswirkungen gehabt. Es scheint, dass seit dem Balsa-Boom 2019–2020 der gesamte Balsa-Produktionssektor weiterhin von der Abholzung natürlicher Wälder abhängig ist, wobei der Anteil von Plantagenholz im Vergleich zu Naturwaldholz je nach Exporteur zwischen 10 % und 70 % variiert. Diese Mischpraktiken in Ecuador haben globale Auswirkungen.
Seltsamerweise fand dieser schockierende Bericht, der die ethische Produktionskette von Windkraftanlagen ernsthaft untergräbt, in den Mainstream-Medien keine Erwähnung. Die EIA ist keine kleine, unbekannte Organisation, sondern eine bedeutende, gut finanzierte Nichtregierungsorganisation, die 1984 in Großbritannien gegründet worden ist und Büros in den USA und Europa hat. Die Net-Zero-Phantasterei erfordert, dass der Planet mit Windkraftanlagen überzogen wird, was offensichtlich alle ökologischen Bedenken außer Kraft setzt. Fledermäuse und Vögel können zu Millionen getötet werden, Wale können an den Küsten stranden und ganze lokale Ökosysteme können zerstört werden, aber die politischen Aktivisten scheinen sich nicht darum zu kümmern. Wenn überhaupt etwas gesagt wird, dann dient es nur dazu, die ökologischen Folgen für das größere Wohl der Netto-Null-Emissionsziele zu rechtfertigen und zu akzeptieren. So erklärt beispielsweise der Bat Conservation Trust in UK, dass der „Klimawandel” eine erhebliche Bedrohung für die Fledermauspopulationen darstellt. „Wir brauchen erneuerbare Energien, um den Klimawandel zum Wohle der Fledermäuse, der Menschen und der Umwelt insgesamt abzuschwächen”, fügt er hinzu.
Bis vor kurzem war Balsaholz ein kleiner Markt, dessen Verwendungszwecke unter anderem Modellflugzeuge und Surfbretter umfassten. Der durch die Nachfrage nach Windkraftanlagenflügeln ausgelöste Balsa-Boom bedeutet, dass der aktuelle Markt auf einen Jahreswert von mindestens 200 Millionen Dollar geschätzt wird. Der Balsabaum (Ochroma pyramidale) wächst unter den richtigen tropischen Bedingungen schnell. Wäre da nicht die enorme Nachfrage durch die Windindustrie, könnte er auf Plantagen als nachhaltiger Rohstoff geerntet werden. So wie es aussieht, hat die jüngste und anhaltende Nachfrage viele Plantagen erschöpft und Gebiete des Urwalds kahlgeschlagen. In einer wilden Umgebung füllen Balsabäume oft natürliche Lücken. Ihre Ernte schafft plötzlich freie Flächen, die das komplexe Netz des Lebens stören, das Tausende von Tier- und Pflanzenarten unterstützt. Obwohl sie auf fruchtbaren Böden schnell wachsen, kann die Regeneration im Regenwald aufgrund der schlechten Bodenqualität und der lokalen Erosion infolge der Entfernung des Blätterdachs viel langsamer verlaufen.
Bis heute hat Balsaholz als Kernmaterial für Rotorblätter von Windkraftanlagen zahlreiche Vorteile gegenüber möglichen Ersatzstoffen aus Kunststoffschaum. Es verfügt über eine im Vergleich zu Schaumstoffen überlegene Festigkeit und Steifigkeit, wodurch dünnere Kernschichten in Bereichen mit hoher Belastung möglich sind wie beispielsweise am Blattansatz. Dies trägt dazu bei, das Gesamtgewicht zu reduzieren, ohne die technische Integrität insgesamt zu beeinträchtigen. Die Preise für Balsaholz gelten allgemein als wettbewerbsfähig, nicht zuletzt, weil die Produktion von Plantagenholz durch illegale Abholzung massiv angekurbelt wird.
Der EIA-Bericht ist es wert, vollständig gelesen zu werden. Die Mainstream-Medien könnten sogar in Betracht ziehen, über seine Ergebnisse zu berichten. Die EIA-Ermittler besichtigten viele der illegalen Abholzungsgebiete und warfen den Exporteuren vor, dass die meisten, wenn nicht sogar alle, schnell auf Naturwälder als „bequemen und sofort verfügbaren Ersatz“ zurückgegriffen hätten, als die Plantagen um die Jahrtausendwende herum schnell von älteren Bäumen abgeholzt wurden. Es wurde festgestellt, dass Balsa aus dem Amazonasgebiet im Herzen Ecuadors gewonnen wurde, „das zum Großteil einige der letzten intakten Waldlandschaften des Landes umfasst”. Dabei handelte es sich angeblich um einzigartige Schutzgebiete und symbolträchtige indigene Territorien. Händler sollen der EIA mitgeteilt haben, dass der Holzeinschlag von Balsa „von Norden nach Süden in den meisten Amazonasprovinzen des Landes” stattfand.
Die EIA empfahl den Herstellern von Windkraftanlagen und den Entwicklern von Windkraftprojekten, die Verwendung von Balsaholz auszusetzen, bis die Lieferketten aus Ecuador zurückverfolgt und transparent sind. Die Antwort darauf, wie der verstörte britische Energieminister Ed Miliband einmal sang, ist vom Winde verweht.
Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.
Ist die wissenschaftliche Sicherheit hinsichtlich des Klimawandels größer als 99 % oder kleiner als 1 %? Und ist das IPCC wirklich von seiner eigenen Schlussfolgerung überzeugt? Auf den ersten Blick mögen diese Fragen trivial und sinnlos erscheinen. Sogar ein wenig peinlich. Bei genauerer Betrachtung stellt sich jedoch heraus, dass nur 0,6 % der von Fachkollegen begutachteten wissenschaftlichen Arbeiten die zentrale Position des IPCC ausdrücklich unterstützen – nämlich, dass ein Konsens darüber besteht, dass menschliche Aktivitäten, insbesondere durch den Ausstoß von Treibhausgasen, die dominierende Ursache für die jüngste globale Erwärmung sind. Ja, es besteht ein allgemeiner Konsens darüber, dass der Mensch das Klima beeinflusst, aber nur in einem ausdrücklich nicht quantifizierten Sinne und wahrscheinlich in eher geringem Maße. Und das ist etwas ganz anderes.
Dem IPCC gebührt Anerkennung dafür, dass er in den meisten seiner Bewertungen den Grad der „Wahrscheinlichkeit” seiner Aussagen und den Grad der „Zuversicht” der Autoren in ihre eigenen Schlussfolgerungen angibt. Allerdings sind diese angegebenen Wahrscheinlichkeits- und Zuversichtsgrade bemerkenswert niedrig und liegen oft unter dem, was für Aussagen mit wissenschaftlicher Autorität als angemessen angesehen werden könnte. Es scheint, dass für die meisten Autoren der IPCC-Bewertungsberichte die Wissenschaft noch nicht abgeschlossen ist.
Sie glauben das wahrscheinlich nicht sofort. Lesen Sie daher bitte den folgenden Artikel. Er basiert weitgehend auf den Absätzen 1 und 3 von Kapitel 3 meines Buches „Crisis or Hoax”. Veröffentlicht von Bookbaby (gedruckt) und Amazon (E-Book). Eine frühere Version dieses Artikels wurde auf der niederländischen Website „Climategate” veröffentlicht.
Konsens, Wahrscheinlichkeit und Vertrauen
1. Ein Konsens von 97%oder mehr?
Am 16. Mai 2013 twitterte US-Präsident Obama: „97 % der Wissenschaftler sind sich einig. Der Klimawandel ist real, vom Menschen verursacht und gefährlich.“
Dieser Tweet wurde extrem wichtig und ist möglicherweise der meistzitierte Tweet aller Zeiten. Sein Nachfolger, der Twitter-Fanatiker Donald Trump, kam nicht einmal annähernd an diese Zahl heran. Auf den ersten Blick scheint es ein seltsamer Zeitpunkt für einen solchen Tweet zu sein. Im Mai 2013 war die globale Durchschnittstemperatur seit 14 Jahren kaum gestiegen. Aber Obama reagierte weder auf das Wetter noch auf das Klima; sondern auf einen Artikel von John Cook (et al.), der am Vortag (!), dem 15. Mai 2013, in der begutachteten Fachzeitschrift Environmental Research Letters erschienen war. Er trug den Titel „Quantifying the consensus on anthropogenic global warming in the scientific literature“ (J. Cook et al., 2013). Der Hauptautor war Assistenzprofessor für Kommunikationswissenschaften.
AfD MdB Karsten Hilse zeigt im Bundestag am 6.11.25 wie wenig – nämlich 0,5 % – wirklich die Meinung vertraten, der Mensch sei hauptsächlich schuld am Klimawandel. Statt der behaupteten 97 %
Es ist schwer vorstellbar, dass Obama oder einer seiner engsten Berater an diesem Tag im Mai wenig zu tun hatten, aus Spaß die Ausgabe der Environmental Research Letters vom Vortag zur Hand nahmen und spontan beschlossen, dass dieser bis dahin völlig unbekannte Autor die Unterstützung des Präsidenten verdiente. Obama hatte seine eigenen Gründe. Fast die Hälfte der amerikanischen Bevölkerung hatte zu diesem Zeitpunkt noch keine Meinung zum Klimawandel, und die Wissenschaftler waren untereinander gespalten. Dies könnte sowohl die Verhandlungen über das neue Pariser Abkommen, das Obama unbedingt unterzeichnen wollte, als auch die Chancen eines demokratischen Kandidaten bei den bevorstehenden Präsidentschaftswahlen beeinträchtigen. Die Unterstützung einer Studie, die zu zeigen schien, dass praktisch alle Wissenschaftler den Konsens des IPCC befürworteten, schien daher eine hervorragende Chance zu sein, wenn es denn eine war. Ab Mai 2013 würde keine Klimadiskussion mehr so sein wie zuvor. Jeder Skeptiker oder Leugner, der es noch wagte, den Mund aufzumachen, konnte mit dem 97-Prozent-Argument konfrontiert und besiegt werden. Der Tweet wurde zu einem der grundlegenden Texte des „Konsens’” zum Klimawandel.
There’s no evidence that human emissions of carbon dioxide are driving global warming! 👇🏽 pic.twitter.com/6tbDSCbYeb
Im Jahr 2013 benötigten die Klimaalarmisten dringend wissenschaftliche Unterstützung. Jährlich erschienen Tausende alarmistischer, von Fachkollegen begutachteter Artikel in wissenschaftlichen Zeitschriften. Die verschiedenen IPCC-Berichte wurden immer selbstbewusster und bezeichneten ihre eigenen Argumente als immer überzeugender. Aber es waren immer die gleichen Argumente, und es wurde einfach nicht wärmer. Trotz der vielen Milliarden für die Klimaforschung (Weart, 2008), die zum größten Teil für alarmistische Forschung ausgegeben worden waren, gab es noch immer keine direkten Beweise für die Treibhausgas-Theorie. Viele Amerikaner glaubten nicht an den Klimawandel. Die alarmistische Welt beschloss, sich auf den „Konsens” zu konzentrieren.
Natürlich war ihnen klar, dass Konsens kein wissenschaftlicher Beweis ist. Wissenschaft schreitet in erster Linie durch die Widerlegung von Hypothesen voran, nicht durch Konsens. Aber sie hofften, damit durchzukommen. Wenn sie zeigen könnten, dass eine überwältigende Mehrheit der Wissenschaftler (sagen wir über 95 %) ihre alarmistischen Theorien unterstützen würde, wer würde es dann wagen, diese in Frage zu stellen? Wer würde es wagen, das Schicksal der Erde gegen die Meinung von mehr als 95 % der Wissenschaftler zu riskieren?
Sie sollten weitgehend Recht behalten. Das Zauberwort „Konsens“ wurde zu einem weltweiten Hit, und der Begriff sollte einen großen Einfluss haben und behalten. Der Konsens war ein wichtiger Faktor bei den Verhandlungen zum Pariser Abkommen im Jahr 2015. Obama erhielt grünes Licht und konnte den Vertrag 2015 unterzeichnen und noch im gleichen Jahr ratifizieren. Das IPCC-Paradigma war wieder vollständig zurück, die Alarmisten hatten gewonnen.
Wie konnte es dazu kommen? Natürlich wurde das Konzept des Konsens‘ nicht erst 2013 erfunden. Nachdem das IPCC zwischen 1992 und 1996 skeptische Neinsager aus den eigenen Reihen entfernt hatte, förderte es schnell den Konsens in der wissenschaftlichen Gemeinschaft. Skeptische Stimmen drangen nur noch „versehentlich” in die Berichte ein, wie im AR 3 im Jahr 2001. Aber die Forscher wussten von der Kritik und den vielen Petitionen und offenen Briefen, und das gefiel ihnen gar nicht. Ihre Reaktion war ebenso unwissenschaftlich wie das Konzept des Konsenses selbst und ebenso wirksam. Sie drangen in die wissenschaftlichen Institutionen und Fachzeitschriften ein und besetzten sie.
Unmittelbar nach der Veröffentlichung des dritten IPCC-Bewertungsberichts im Jahr 2001 gaben die National Academies of Science der USA zusammen mit 17 weiteren Akademien der Wissenschaften aus allen wichtigen Ländern (die Niederlande nahmen nicht teil) eine gemeinsame Erklärung ab, in der sie die Grundsätze der IPCC-Berichte nachdrücklich unterstützten und Kritik daran ablehnten. Die gemeinsame Erklärung wurde in einem Leitartikel der Zeitschrift Science, dem Organ der American Association for the Advancement of Sciences, abgedruckt. Diese Veröffentlichung versperrte Skeptikern den Zugang zu den meisten wichtigen Fachzeitschriften zum Thema Klimawandel. Einige Zeitschriften, wie beispielsweise Science, machten ihre beabsichtigte Zensur deutlich und veröffentlichten sie, aber die meisten Zeitschriften taten dies stillschweigend durch das Instrument der „Peer Reviews”. (Mehr dazu in Kapitel 4.)
Wie oft kam es schon vor, dass so viele Akademien der Wissenschaften einer relativ neuen Theorie zustimmten, die weder bewiesen noch experimentell getestet worden war, und Kritik daran de facto untersagten? Das war keine Wissenschaft. Das war Politik. Und sie kam von ganz oben.
Die gemeinsame Erklärung der National Academies war jedoch nicht die einzige. Es folgten Unterstützungsbekundungen aus vielen anderen Bereichen. Im Jahr 2005 schloss sich die European Geosciences Union an, 2006 die Geological Society of America, 2007 die International Union of Geodesy and Geophysics und die Royal Meteorological Society. Im Jahr 2008 folgte die Europäische Föderation der Geologen und 2012 die American Meteorological Society. Bis 2007 hatten alle großen wissenschaftlichen Institutionen – mit Ausnahme der American Meteorological Society – ausdrücklich ihre Unterstützung für den Konsens des IPCC zum Ausdruck gebracht. Aber die vertretenen Positionen waren die Meinungen der „Institute”, der Präsidenten und Verwaltungsleiter. Wie stand es um die Mitglieder, die eigentlichen Wissenschaftler? Das war weit weniger klar.
Um herauszufinden, wie viele Wissenschaftler den sogenannten „Konsens” tatsächlich unterstützten, wurden zahlreiche Sonderstudien durchgeführt. Wichtig und oft zitiert wurde die Studie von Naomi Oreskes, einer hoch angesehenen Professorin an der Harvard University und einer echten Alarmistin. Sie analysierte die Abstracts von 928 Artikeln, die zwischen 1993 und 2003 zum Thema der Erwärmung der Erdoberfläche durch menschliche Aktivitäten veröffentlicht wurden. Sie stellte fest: „Bemerkenswerterweise widersprach keiner der Artikel der Konsensposition”. Ihre Studie wurde mehrmals wiederholt. Fast alle diese Studien wiesen auf einen wissenschaftlichen Konsens von 85 bis 100 % hinsichtlich der Existenz einer vom Menschen verursachten globalen Erwärmung hin. Diese Ergebnisse wurden jedoch auch heftig umstritten. Die Studie von John Cook aus dem Jahr 2013 legte angeblich einen Konsens von 97 % zwischen den wissenschaftlichen Artikeln und dem IPCC-Konsens nahe, während Kritiker in der gleichen Studie nur einen Konsens von 0,6 % feststellten. Dies verlangt natürlich nach einer weiteren Erklärung.
Wie bereits erwähnt war die mit Abstand meistzitierte und einflussreichste Konsensstudie die von John Cook (et al.) aus dem Jahr 2013. Sie untersuchten 11.944 Artikel von 29.083 Autoren. Cook kam zu dem Schluss, dass in den „Abstracts” – den kurzen Zusammenfassungen – ein Konsens von 97 % über die Existenz einer vom Menschen verursachten Erwärmung zu finden war. Er sagte, dass die Anzahl der Artikel, die „anthropogene globale Erwärmung (AGW)” explizit oder implizit ablehnten, nur einen winzigen Bruchteil der veröffentlichten Literatur ausmachten.
Neben der ausdrücklichen Unterstützung durch viele hundert Autoren und der impliziten Unterstützung durch eine große Mehrheit der Klimawissenschaftler, der Presse und der Politiker wurde der Artikel auch vielfach kritisiert. Manchmal nur hinsichtlich der statistischen Verarbeitung der Daten, manchmal jedoch auch viel grundlegender. Legates erklärte: „Es ist unfassbar, dass eine Zeitschrift einen Artikel veröffentlichen kann, der einen Konsens von 97 % zum Klimawandel feststellt, wenn aus den Zahlen des Autors selbst geschlossen werden muss, dass der tatsächliche Konsens unter 1 % liegt.“ (Legates. 2015)
Wie ist das möglich?
Im März 2012 durchsuchten John Cook und ein kleines Team das ISI Web of Science mit den Suchbegriffen „globale Erwärmung” und „globaler Klimawandel”. Der untersuchte Zeitraum erstreckte sich von 1991 bis 2011. Die Suche ergab 12.465 Artikel, von denen 12.418 eine Zusammenfassung enthielten. Cook (et al.) arbeiteten nur mit Zusammenfassungen. Anschließend wurden die Artikel gelöscht, die nicht begutachtet waren, gefolgt von den Artikeln, die sich trotz der Suchbegriffe nicht mit dem Klima befassten. Übrig blieben 11.944 Artikel von 29.083 Autoren in nicht weniger als 1980 verschiedenen Zeitschriften. Ziel der Studie war es, „den Grad des wissenschaftlichen Konsenses darüber zu ermitteln, dass menschliche Aktivitäten sehr wahrscheinlich den größten Teil der aktuellen globalen Erwärmung (anthropogene globale Erwärmung) verursachen”.
Cook analysierte die Abstracts und klassifizierte sie anhand eines Fragebogens in sieben Kategorien, die grob von einer expliziten und quantifizierten Unterstützung der Theorie des vom Menschen verursachten Klimawandels bis zu einer expliziten Ablehnung dieses Konsenses reichten.
Kategorie 1. Die Einstufung in Kategorie 1 erfolgte, wenn aus der Zusammenfassung geschlossen werden konnte, dass die Autoren der Aussage „Der Mensch ist die Hauptursache für die jüngste globale Erwärmung“ ausdrücklich zustimmten (IPCC AR 4 und später auch AR 5 und AR 6).
Kategorie 2 enthält eine ausdrückliche Unterstützung der Theorie der anthropogenen Erwärmung ohne weitere Quantifizierung: „Der Mensch verursacht die globale Erwärmung“, aber wir wissen nicht, in welchem Ausmaß.
Kategorie 3 impliziert, dass der Mensch die globale Erwärmung verursacht, ohne dies ausdrücklich zu sagen.
Kategorie 4 (die mit Abstand größte) umfasste Abstracts, die laut Cook keine Position zur Erwärmung bezogen.
Kategorie 5 Eine implizite Ablehnung der Theorie der anthropogenen globalen Erwärmung.
Kategorie 6 Eine explizite Ablehnung ohne Quantifizierung.
Kategorie 7 Eine explizite Ablehnung mit Quantifizierung.
In seinem Artikel hat Cook die zugrunde liegenden Daten seiner Untersuchung nicht veröffentlicht. Mit etwas Aufwand lassen sie sich jedoch in den verschiedenen Anhängen nachschlagen.
Aufgeteilt in die 7 Kategorien ergaben sich folgende Ergebnisse:
Kategorie 1: 65 Treffer
Kategorie 2: 934 Treffer
Kategorie 3: 2.931 Treffer
Kategorie 4: 8.261 Treffer
Die Kategorien 5, 6 und 7: hatten jeweils 53, 15 und 10 Treffer.
Für John Cook muss das Ergebnis sehr enttäuschend gewesen sein. Nur die Einstufung in Kategorie 1 impliziert, dass der Mensch eine dominante Ursache für die globale Erwärmung ist, und stützt die Position des IPCC zur Klimawissenschaft. Es konnten nur 65 Artikel gefunden werden, die seine Kategorie 1 stützten! Das sind nur 65 von 11.944, also 0,6 %: „deutlich unter 1 %”. (Legates, 2015). Nicht die 95 %, auf die er gehofft hatte.
Cooks Studie widerlegte eindeutig den „wissenschaftlichen Konsens“ und lieferte keine Unterstützung für die IPCC-Hypothese, wie sie in AR 4 und in AR 5 (das weniger als ein Jahr später veröffentlicht wurde, aber konzeptionell bereits vorlag) formuliert war. Es war definitiv nicht das Ergebnis, das die Politik (mit Obama selbst) und die National Academies erwartet hatten.
[Hervorhebung im Original]
Was sollte man jetzt tun?
Cook kombinierte die Kategorien 1, 2 und 3 und kam so auf 2.930 Treffer. Er ignorierte die 8.261 Treffer der Kategorie 4 (keine Meinung) und kam zu dem Schluss, dass 97 % aller Abstracts die Theorie des menschlichen Einflusses auf den Klimawandel stützten. Diese Darstellung birgt die große Gefahr von Fehlinformationen. Cook hat die Definitionen geändert. Der von Cook behauptete Konsens von 97 % ist ein Konsens aller drei Kategorien zusammen und bezieht sich auf die Existenz „einer nicht quantifizierten menschlichen Ursache für die globale Erwärmung”. Aber diese Existenz „einer” menschlichen Auswirkung auf das Klima ist eine offene Tür, die praktisch alle Klimawissenschaftler akzeptieren, einschließlich der Skeptiker. Wir wissen, dass eine relativ große Anzahl von Autoren, die sich selbst als Skeptiker betrachten, keine Einwände dagegen hatten, dass ihre Artikel als 2 oder 3 kategorisiert wurden. Praktisch alle Forscher, einschließlich der meisten Skeptiker, sind bereit anzuerkennen, dass der Mensch (einen gewissen) Einfluss auf das Klima hat. Aber ein gewisser Einfluss ist keine dominante Ursache, wie sie für Kategorie 1 erforderlich ist, und unterscheidet sich sehr davon, zu den Befürwortern des IPCC-Konsens‘ gezählt zu werden.
Hat Cook ausdrücklich gesagt, dass es einen 97-prozentigen Konsens mit den Kriterien des IPCC gab, und hat er daher gelogen? Nicht wirklich. Er sagte: „Wir haben eine große Anzahl von Abstracts untersucht, um den Grad des Konsens‘ festzustellen, dass menschliche Aktivitäten sehr wahrscheinlich die Ursache für mehr als die Hälfte der aktuellen globalen Erwärmung sind.“ Er hat nicht ausdrücklich gesagt, wie hoch dieser Konsens mit den IPCC-Kriterien tatsächlich war. Er betrug nur 0,6 %, und Cook wusste das. Aber durch die Kombination der Kategorien 1, 2 und 3 und das Weglassen der Kategorie 4 gelang es ihm, einen 97-prozentigen Konsens mit dem IPCC-Konsens zu suggerieren.
Durch die Änderung der Definitionen verwandelte Cook eine offene Tür (Menschen haben einen gewissen Einfluss auf das Klima) in eine höchst relevante, aber völlig falsche Behauptung eines Konsens‘ mit den Ansichten des IPCC und einem vermeintlichen wissenschaftlichen Konsens. Es ist unverständlich, dass er damit so leicht davonkam. Wie viele Menschen haben seinen Artikel ernsthaft gelesen? Wie viele haben seinen Artikel gelesen und beschlossen, nicht zu reagieren?
Übrigens, wie können wir die Einteilung in die Kategorien 1, 2 und 3 nachvollziehen? Das ist nicht einfach. Der Artikel selbst erwähnt dies nicht. In der beigefügten statistischen Analyse sind die Zahlen für die Kategorien 2 und 3 angegeben, aber die Daten für Kategorie 1 fehlen. Man muss wirklich alle 12.000 Artikel durchgehen, die in der Datendatei zitiert werden, um die Wähler der Kategorie 1 zu finden! Ich habe das getan. Tatsächlich gibt es nur 65 ! (Übrigens hat KI das viel einfacher gemacht. Mit den richtigen Fragen kann man alle Daten in wenigen Minuten erhalten.)
Interessant ist die große Gruppe von 8.261 Befragten, welche die von Cook gestellten Fragen nicht beantwortet haben. Was ist mit ihnen? Die meisten von ihnen werden der Aussage zugestimmt haben, dass sich die Erde seit 1850 erwärmt hat und dass der Mensch dafür teilweise verantwortlich ist. Aber wie viele gehörten zur Kategorie 1? Es erscheint am fairsten, die 8.261 Nichtwähler proportional auf die Kategorien 1, 2 und 3 aufzuteilen. Das würde zu 170 zusätzlichen Stimmen für die erste Kategorie von Cook führen. Dann wären es 235 Wähler (statt 65), die den Konsens des IPCC unterstützen. Nicht 0,6 %, sondern etwa 2 %. Das ist immer noch eine fast vernachlässigbare Zahl! Und wir können sie nicht verbessern.
Wir können nur zu dem Schluss kommen, dass Cooks Studie in Bezug auf ihr Design, ihre Fragen und ihre weitere Analyse hoffnungslos fehlerhaft ist. Es gab und gibt keinen Konsens (ganz sicher nicht von 97 %) mit den im AR 4 (und später im AR5 und AR6) veröffentlichten Ansichten des IPCC. Er war viel, viel geringer als von Cook angegeben. Aber Cooks Studie wurde zur meistzitierten und einflussreichsten Veröffentlichung zum Konsens in der Klimawissenschaft. Legates Artikel wurde ignoriert, er selbst wurde entlassen.
Dennoch halte ich Cooks Studie für sehr relevant und sehr wichtig. Cook zeigt deutlich, dass es in der Zeit von 1991 bis 2011 in der wissenschaftlichen Literatur praktisch keine Unterstützung für seine Kategorie 1 gab: „Der Mensch ist die Hauptursache für die jüngste globale Erwärmung.“ Es gab keine Unterstützung für den Konsens des IPCC!
Cooks Studie war weder die erste noch die letzte ihrer Art. Interessanterweise kamen alle Autoren zu ungefähr den gleichen Schlussfolgerungen wie Cook. Und alle machten die gleichen Fehler: Sie sahen jede Erwärmung als Beweis für eine dominante anthropogene Ursache.
Aber wie sah der Konsens in der Zeit nach 2011 aus? Im Oktober 2021 veröffentlichte Environmental Research Letters einen Folgeartikel von einem anderen überzeugten Alarmisten, Mark Lynas. Der Titel lautete „Greater than 99% consensus on human-caused climate change in the peer-reviewed scientific literature” (Mehr als 99 % Konsens über den vom Menschen verursachten Klimawandel in der begutachteten wissenschaftlichen Literatur). (M. Lynas, 2021). Er wiederholt die Forschung von Cook (2013), nun jedoch für den Zeitraum von 2012 bis 2021. Mit fast den gleichen Suchbegriffen wie Cook findet er 88.125 Artikel zum Thema „Klimawandel”. Lynas hält dies zu Recht für eine unüberschaubare Zahl und verwendet eine repräsentative Stichprobe von 3.000 Abstracts.
Es ist ein wohlwollend geschriebener Artikel. Im Gegensatz zu Cook geht er sehr offen mit seinen Ergebnissen um. Auch was die Anzahl der Wähler in Kategorie 1 angeht: Es waren nur 19 von 3000! Wiederum etwa 0,6 %!
Lynas verwendet fast die gleichen 7 Kategorien wie Cook im Jahr 2013 und kommt zu den gleichen Ergebnissen.
Seine Kategorie 1 ist eine ausdrückliche Unterstützung für die These, dass
„menschliche Handlungen die Hauptursache für die jüngste Erwärmung sind”. 19
Die Kategorien 2 und 3 beziehen sich auf „einen gewissen menschlichen Einfluss” 873
Kategorie 4 ohne Position 2104
Kategorien 5, 6, 7 leugnen den menschlichen Einfluss 4
Auch hier sehen wir, dass die überwiegende Mehrheit der Abstracts, nämlich fast 70 %, keine Aussage über den Einfluss des Menschen auf das Klima enthält. Lynas schlägt vor, sie als Kategorie 2 zu betrachten. Das ändert jedoch nichts an der Schlussfolgerung. Wiederum sehen wir, dass der Konsens zwischen der in den Abstracts zum Ausdruck gebrachten Meinung und der Schlussfolgerung des IPCC (AR 4) sehr gering ist! Kategorie 1 hat nur 19 Treffer bei einer Stichprobe von fast 3.000. Fast genauso wie 2013. Der Konsens mit den Schlussfolgerungen des IPCC beträgt nicht 99,6 %, sondern weniger als 0,6 %!
Genau wie Cook haben sie die Kategorien 1, 2 und 3 addiert, Kategorie 4 ignoriert und sind zu einem Konsens von 99,6 % gekommen. Sie hatten nichts gelernt, kannten vielleicht nicht einmal Legates‘ Artikel oder hatten die vielen skeptischen Briefe, Petitionen und Erklärungen nicht gesehen.
Lynas sagt: „Unsere Analysen zeigen eine Übereinstimmung von mehr als 99 % in der begutachteten wissenschaftlichen Literatur hinsichtlich der primären Rolle der Treibhausgasemissionen aus menschlichen Aktivitäten als Treiber des modernen Klimawandels und der Erwärmung seit 1850.“ Das ist völliger Unsinn. Nur 0,6 % der Abstracts stützen eine primäre Rolle des Menschen. Ich glaube nicht, dass Lynas lügt; dafür ist er zu offen. Er und sein Herausgeber glauben fest an seine Analysen und Ergebnisse. Aber das macht es nicht besser.
Das bedeutet, dass es in den letzten 30 Jahren keinen, ich wiederhole, keinen Konsens zwischen den Meinungen der aktiv publizierenden Klimawissenschaftler in begutachteten Fachzeitschriften und dem Konsens des IPCC gegeben hat. Im Gegenteil, der Anteil der Abstracts, die die Schlussfolgerungen des IPCC ausdrücklich unterstützten, liegt zwischen 0,6 % und 2 %. Das ist natürlich ein sehr heikles Thema, und Alarmisten sind sehr daran interessiert, es in Vergessenheit geraten zu lassen.
Abbildung 1. Nur 19 von 2.718 Artikeln (0,6 %) unterstützen den Konsens des IPCC. (M. Lynas, 2021)
Die oben genannten Schlussfolgerungen wurden in der wissenschaftlichen Literatur nicht offiziell angefochten, aber natürlich gab es viele unterschiedliche Stimmen.
Ein bekannter Autor zum Thema Konsens war James Powell. Ihm zufolge würden alle, ich wiederhole, alle relevanten Veröffentlichungen aus den ersten sieben Monaten des Jahres 2019 (es waren 11.602) die anthropogene Erwärmungstheorie des IPCC stützen. (Powell, 2017, 2019). Für mich ist das unverständlich, unerklärlich und inakzeptabel. Wie bereits erwähnt gab es viele Tausende von Wissenschaftlern, die in Petitionen und offenen Briefen betonten, dass sie den Konsens des IPCC nicht unterstützen. Und es gab immer wieder Veröffentlichungen von Skeptikern in Fachzeitschriften mit Peer-Review. Natürlich weit weniger als die alarmistischen Artikel, aber sicherlich mehr als null. Longhursts beeindruckendes Buch ist voller kritischer Aussagen aus skeptischen Veröffentlichungen in Fachzeitschriften mit Peer-Review (Longhurst 2015) . Gleiches gilt für Don Easterbrooks Buch, das 2016 veröffentlicht wurde. Viele Tausende von Wissenschaftlern haben skeptische Appelle und Erklärungen unterzeichnet.
Im September 2019 sandte die niederländische Stiftung CLINTEL im Namen von 500 internationalen Wissenschaftlern einen äußerst skeptischen Brief an den UN-Generalsekretär und den Sekretär der UNFCCC, in dem sie den Konsens des IPCC nachdrücklich ablehnten. Die Zahl der Unterzeichner ist seitdem auf über 2000 gestiegen.
Ich selbst erhalte fast täglich unaufgefordert Artikel, Buchrezensionen und andere Ankündigungen sowohl von alarmistischen als auch von skeptischen Wissenschaftlern. Die Zahl der in den letzten Jahren veröffentlichten skeptischen Bücher muss in die Hunderte gehen; die Zahl der Artikel ist sogar noch größer. Natürlich weiß ich, dass die Zahl der Bücher und Veröffentlichungen von alarmistischen Wissenschaftlern sehr viel größer ist. Aber darauf kommt es nicht an. Wichtig ist, dass die Kritik am Konsens des IPCC in wissenschaftlichen Kreisen nachdrückliche Unterstützung gefunden hat und es nicht angebracht ist, diese Stimmen weiter zu ignorieren und von einem 100-, 99- oder 97-prozentigen Konsens zu sprechen. Artikel, die dies tun, sind höchst voreingenommen und dienen politischen „Oberherren”.
Wir sollten einen politischen Konsens nicht mit einem wissenschaftlichen Konsens verwechseln. Das gesellschaftliche Verständnis – geprägt von Medienberichten und politischer Rhetorik – vereinfacht oder übertreibt oft die wissenschaftlichen Erkenntnisse und verwandelt komplexe Unsicherheiten in moralische oder ideologische Positionen. Im krassen Gegensatz dazu ist die tatsächliche wissenschaftliche Unterstützung für den IPCC-Konsens, der in Artikeln zum Ausdruck kommt, die in den letzten 30 Jahren in Fachzeitschriften mit Peer-Review veröffentlicht wurden, bemerkenswert gering.
2. Wahrscheinlichkeit und Vertrauenswürdigkeit der IPCC-Berichte
Seit der Gründung des IPCC im Jahr 1988 wurden etwa sechs Bewertungsberichte und zahlreiche Sonderberichte veröffentlicht. Die darin enthaltene Botschaft, wie sie in den Zusammenfassungen für politische Entscheidungsträger dargestellt wird, ist weitgehend einheitlich. Aber es gab immer Meinungsverschiedenheiten, auch innerhalb des IPCC selbst.
Dies zeigt sich daran, dass der IPCC offenbar wenig Vertrauen in seine eigenen Ansichten hat. Der IPCC spricht fast nie von „Beweisen”. Fast immer bezieht er sich auf „Hinweise” und Anzeichen.
Der IPCC weist in vielen seiner Aussagen auf Unsicherheitsmargen hin. Dafür wird er oft gelobt, meiner Meinung nach zu Recht.
Der IPCC unterscheidet zwischen „Beweis“ und verschiedenen Graden der „Wahrscheinlichkeit“, verstanden als möglichst objektive Aussage auf der Grundlage von Faktenmaterial. In den meisten wissenschaftlichen Kapiteln gibt es praktisch keinen „Beweis“. „Praktisch sicher“ hat eine Wahrscheinlichkeit von 99–100 %. „Extrem wahrscheinlich“ hat eine Wahrscheinlichkeit von 95–100 %. „Sehr wahrscheinlich“ hat eine Wahrscheinlichkeit von 90–100 %. „Wahrscheinlich“ hat eine Wahrscheinlichkeit von 66–100 %. Nur wenige Aussagen sind „extrem wahrscheinlich“. Die Mehrheit der Aussagen und Thesen ist wahrscheinlich oder sehr wahrscheinlich.
Das bedeutet, dass nach Angaben des IPCC selbst die Mehrheit seiner Ansichten mit einer Wahrscheinlichkeit von über 66 %, manchmal über 90 %, selten 95 % und sehr selten 99–100 % bewertet werden sollte.
Es ist sehr ehrlich, aber auch ein überraschend niedriger Prozentsatz. In den meisten Sozialwissenschaften ist für eine wissenschaftlich fundierte Aussage eine Wahrscheinlichkeit von mindestens 95 % erforderlich. In den exakten Wissenschaften liegt sie sogar noch etwas höher, nämlich bei fast 99,99 %. In der Klimawissenschaft arbeiten wir jedoch mit einer Wahrscheinlichkeit von 66 % und treffen auf dieser Grundlage Entscheidungen, die viele Billionen kosten.
Darüber hinaus verwendet der IPCC den Begriff „Vertrauen“; dies ist das Maß an Vertrauen, das die Forscher in die Richtigkeit ihrer eigenen Schlussfolgerungen haben. Der Begriff wurde in AR 4 eingeführt und danach immer häufiger verwendet. Der neue AR6 erwähnt nur noch das „Vertrauen“. (Terje & Renn 2015).
„Sehr hohes Vertrauen“ bedeutet, dass die Autoren einer Forschungsgruppe die Wahrscheinlichkeit, dass sie richtig liegen, auf mindestens 9 von 10 schätzen. Hohes Vertrauen bedeutet, dass etwa 8 von 10 Mitgliedern der Gruppe davon überzeugt sind, dass sie richtig liegen. Mittleres Vertrauen liegt bei etwa 7 bis 5 von 10. Geringes Vertrauen liegt bei 4 bis 3 von 10. Sehr geringes Vertrauen liegt bei weniger als 2 von 10. Ein sehr hohes Vertrauen ist selten. In der Regel handelt es sich um ein hohes oder mittleres Vertrauen. Selbst ein geringes Vertrauen kommt regelmäßig vor. Die Vertrauensbewertung kann eine Möglichkeit sein, mit unterschiedlichen Meinungen innerhalb der eigenen Reihen umzugehen. Ein „mittleres Vertrauen“ kann bedeuten, dass die Hälfte der Autoren und Gutachter unterschiedlicher Meinung sind. Bei einem „geringen“ Vertrauen hat sich der Hauptautor gegen die Mehrheit der anderen durchgesetzt. Bei einigen kontroversen Themen kann das Vertrauen „sehr gering“ sein. Wie wird der Grad der Zuversicht bestimmt? Oft geschieht dies einfach durch Handzeichen. Es ist zu erwarten, dass sozialer Gruppendruck eine große Rolle spielen kann. Vertrauen wird oft überschätzt.
Im AR 6 weist der IPCC darauf hin, dass das „Vertrauen”, d. h. das Vertrauen der Forschungsgruppen in ihre eigenen Schlussfolgerungen, in den letzten Jahren stark gestiegen ist. Im AR6 (2021/2022) war es viel höher als 2013 (AR 5). Der IPCC gab dafür keine Erklärung, und es ist immer noch eher niedrig. Es widerlegt jede Aussage über einen wissenschaftlichen Konsens. Für die Wissenschaftler des IPCC ist die „Wissenschaft noch nicht abgeschlossen”.
„Vertrauen“ in IPCC-Berichte AR5 AR6
Sehr hohes Vertrauen 6 6
Hohes Vertrauen 36 56
Mittleres Vertrauen 37 32
Geringes Vertrauen 20 6
Abb. 2 Vertrauen des IPCC in die Berichte AR5 und AR6. ( Coren 2021)
Abbildung 2 zeigt, dass im AR5 das Vertrauen der Mehrheit der Autoren (57 %) mittel oder gering war. Das bedeutet, dass das UNFCCC, als 2015 das Pariser Abkommen entworfen worden ist, wusste, dass ihre Schlussfolgerungen nicht auf dem Vertrauen oder Konsens der Autoren des IPCC-Berichts von 2013 basieren konnten. Das war ihnen egal.
Der AR 6 zeigt ein höheres Vertrauen als der AR5, aber das hohe (56) und sehr hohe (6) Vertrauen ist zu gering, um die vielen Behauptungen eines beispiellosen und katastrophalen Klimawandels zu rechtfertigen.
Wir können nur zu dem Schluss kommen, dass das IPCC seinen „politischen Entscheidungsträgern” ein bemerkenswert geringes Maß an Zuversicht verspricht – viel geringer als normalerweise für wissenschaftlich fundierte Schlussfolgerungen erforderlich. Wir müssen auch zu dem Schluss kommen, dass es den politischen Entscheidungsträgern egal war.
Trotz zahlreicher Verweise auf unterstützende Literatur, schöne Bilder und Dutzende von Modellstudien erinnern die IPCC-Berichte immer noch an R. Feynmans Beschreibung der „Cargo-Kult-Wissenschaft“ (Caltech, 1974). Äußerlich sieht es sehr nach Wissenschaft aus, aber tatsächlich ist es keine, denn es fehlt der Antrieb, die Wahrheit zu finden und zu kommunizieren. Ich denke, dass sich eine ganze Reihe von Wissenschaftlern dessen bewusst sind, darunter auch viele Alarmisten. Skeptische Forscher messen der reichhaltigen alarmistischen Literatur und den detaillierten Berichten wenig Bedeutung bei. Einige sehen diese Fülle in erster Linie als Nebelkerze, als Schleier, der den Blick auf das große Ganze verdeckt. Es gibt eine Vertrauenskrise, auf die bereits zuvor hingewiesen wurde. Es scheint, dass innerhalb des IPCC selbst immer viel mehr Zweifel an den eigenen Ansichten bestanden haben als in der alarmistischen Außenwelt. Leider hat das IPCC dies nie klar kommuniziert, und die internationale Politik (das UNFCCC) hat dies nicht zur Kenntnis genommen oder sich nicht darum gekümmert.
Ich möchte mit zwei unbeantworteten Fragen schließen. Der Grund dafür liegt in einer Geschichte mit acht Dezimalstellen voller geheimnisvoller Rätsel und kaum glaubwürdiger Schlussfolgerungen. Ein letzter Blick auf die Realität: Die durchschnittliche Temperatur der Erde liegt derzeit (Anfang November) bei etwa 14 °C, (Anmerkung der Redaktion: Bis Anfang 2000 waren es 15° C, was aber auf Grund des Befindens von Phil Jones – ehemals Leiter der Climate Research Unit in der Universität von East Anglia- von einem Tag zum anderen aufgegeben wurde) was jedoch nie angegeben wird, da es nicht ausreichend die Gefahr der globalen Erwärmung vermittelt. Vierzehn Grad Celsius oder siebenundfünfzig Grad Fahrenheit sind keine Botschaften des bevorstehenden Untergangs. Beide Werte entsprechen der jährlichen Durchschnittstemperatur in Bordeaux, San Francisco oder Canberra.
Daher haben die Weisen beschlossen, dass jede globale Temperatur, die der Öffentlichkeit mitgeteilt wird, immer als Differenz zum Mittelwert des halben Jahrhunderts 1850–1900 angegeben werden muss, der ihrer Meinung nach repräsentativ für unsere Welt in der rauchfreien vorindustriellen Zeit ist. Dieser Zeitraum fällt zufällig auch mit dem Ende der Kleinen Eiszeit zusammen, die laut dem Met Office „besonders kalte Intervalle um 1650, 1770 und 1850“ hatte. Eine Kälteperiode, die 1850 begann? Interessant.
So teilte uns das Met Office am 10. Januar dieses Jahres mit, dass „die globale Durchschnittstemperatur für 2024 um 1,53 ± 0,08 °C über dem globalen Durchschnitt von 1850 bis 1900 lag”. Dies ist eine außerordentlich genaue Zahl, aber die Weltorganisation für Meteorologie kommt zu einem ähnlichen Ergebnis: „Die globale durchschnittliche Oberflächentemperatur [im Jahr 2024] lag laut der konsolidierten Analyse der WMO um 1,55 °C … ± 0,13 °C … über dem Durchschnitt von 1850 bis 1900.“ Ignorieren wir einmal die kaum zu glaubende Genauigkeit dieser zweiten Dezimalstelle, denn es kommt noch schlimmer.
Die offensichtliche Frage lautet: Warum wurden gerade diese fünfzig Jahre als grundlegender Referenzzeitraum gewählt? Die Antwort ist leicht zu finden: „Globale Beobachtungen aus der instrumentellen Ära begannen Mitte des 19. Jahrhunderts für die Temperatur“, so der Weltklimarat (IPCC) in seinem Fünften Sachstandsbericht (Abschnitt B, Seite 4). Ein zugehöriger Sonderbericht des IPCC (FAQ1.2 Absatz 4) erklärt: „Der Referenzzeitraum 1850–1900 … ist der früheste Zeitraum mit nahezu globalen Beobachtungen und wird … als Annäherung an die vorindustrielle Temperatur verwendet.“ Beachten Sie die kategorischen Aussagen, dass für diesen fünfzigjährigen Zeitraum des 19. Jahrhunderts ausreichende Daten zur Berechnung der globalen Durchschnittstemperaturen verfügbar sind.
Ich erinnere daran, dass Dickens 1850 „David Copperfield“ schrieb, Kalifornien als 31. Bundesstaat in die Union aufgenommen wurde und weite Teile der Erde noch unerforscht waren. Das Jahr 1900 brachte den Boxeraufstand (China), den Burenkrieg (Südafrika) und den Hurrikan von Galveston (USA) mit sich. Es gab noch immer recht große Gebiete, die auf unerschrockene Entdecker warteten.
Ich war neugierig, wie man früher die globalen Temperaturen gemessen hat, aber nach einer mühsamen Suche auf Websites und nachdem sich erneut gezeigt hatte, dass von KI abgeleitete Informationen sowohl falsch als auch irreführend sein können, wandte ich mich verzweifelt an den Auskunftsdienst des Met Office. Die Antwort war lang und sehr detailliert. Es gab zwar keine konkreten Daten, aber mehrere Hinweise, wo ich suchen könnte. Sehr interessante Hinweise.
Der oben genannte IPCC-Bericht, der „globale Beobachtungen” behauptet, ist offensichtlich wahr, da die Weltorganisation für Meteorologie eine umfassende Grafik mit sechs verschiedenen Messungen der globalen Durchschnittstemperatur mit der Differenz zum Zeitraum 1850–1900 vorlegt. Ein Link „Daten abrufen” auf der gleichen Seite führt jedoch zu der folgenden merkwürdigen Tabelle mit Anomalien des Met Office:
1850 -0.1797
1851 -0.0592
dann jedes Jahr bis
1899 0.0128
1900 0.1218
dann jedes Jahr bis
2023 1.4539
2024 1.5361
Es gibt sogar noch genauere Daten des Met Office aus der Vergangenheit, diesmal Anomalien im Vergleich zum Zeitraum 1961–1990, die jedoch völlig unglaubwürdig sind. Alle stammen aus HadCRUT5.1.0.0, Summary Series, Global, CSV-Datei, jährlich.
1850 -0.42648312
1851 -0.2635183
dann jedes Jahr bis
1899 -0.34430692
1900 -0.2301605
dann jedes Jahr bis
2024 1.1690052
Wenn man weiter recherchiert, erhält man monatliche Werte. Man kann nicht umhin, selbst bei zwei Dezimalstellen misstrauisch zu werden, geschweige denn bei acht. Ich habe weiter recherchiert. Ich habe Grafiken gefunden.
Sie zeigen die nördliche und südliche Hemisphäre getrennt, mit der Anzahl der Stationen und dem Prozentsatz der Abdeckung. Sie stammen aus einem Artikel: Hemispheric and large-scale land surface air temperature variations: An extensive revision and an update to 2010, P.D. Jones et al. Seite 48, Zeile 1120. Sie zeigen die Anzahl der Messstationen und den Prozentsatz der abgedeckten Hemisphäre von 1850 bis 2010.
Sehr ähnliche Abbildungen finden sich auch in Land Surface Air Temperature Variations Across the Globe Updated to 2019: The CRUTEM5 Data Set, T J Osborn et al, Absatz 5.1 Abb. 6 [Link] und Hemispheric Surface Air Temperature … to 1993, P D Jones 1993, Seite 1797 [Link].
Ungefähre Werte aus den obigen Grafiken:
1850
Abdeckung der nördlichen Hemisphäre 7 %
Abdeckung der südlichen Hemisphäre 0–1 %
1900
Abdeckung der nördlichen Hemisphäre 23 %
Abdeckung der südlichen Hemisphäre 6 %
Das kann doch nicht sein? Da muss irgendwo ein Fehler vorliegen. Aber nichts liefert so klare und eindeutige Informationen wie eine Grafik in wissenschaftlichen Fachzeitschriften. Wenn Sie immer noch glauben, dass dies einfach nicht wahr sein kann, dann schauen Sie sich die Karte der American Meteorological Society zur Stationsdichte von 1861 bis 1890 (Abschnitt 5 des Journals) oder eine klassische Bartholomew-Karte der weltweiten Wetterstationen von 1899 an.
Die vom Met Office bereitgestellten Informationen führten mich zu einer Vielzahl wissenschaftlicher Arbeiten, die sich über dreißig Jahre intensiver Forschung zum Thema der genauen Messung der globalen Durchschnittstemperaturen seit 1850 erstrecken. Dieser Weg scheint in einem wirbelnden Nebel zu enden.
Diese Grafiken zeigen, dass selbst im Jahr 1900 nur etwa 15 % der Erde über Messstationen verfügten. Und die Daten für 1850 stammen offenbar nur aus etwa 4 % der Erde.
Wie können die weltweiten Temperaturen mit einer so unglaublich geringen Datenmenge – fast keine Daten aus den Ozeanen und der Großteil der übrigen Daten aus Nordamerika und Westeuropa – so genau gemessen werden?
Das wäre eigentlich nicht weiter schlimm, hätte nicht jemand beschlossen, dass die aktuellen globalen Durchschnittstemperaturen der besorgten Welt immer als Anomalien im Vergleich zu den Daten von 1850 bis 1900 dargestellt werden sollten, die selbst möglicherweise eine kühlere Klimaperiode darstellen. Die Absicht muss sein, deutlich zu zeigen, dass es keinen Zweifel daran gibt, dass wir uns tatsächlich gefährlich erwärmen, und wenn wir nicht bald etwas dagegen unternehmen, wird es zu spät sein, und sagen Sie nicht, wir hätten Sie nicht gewarnt.
Aber, und das ist ein großes „Aber“, wie kann die globale Durchschnittstemperatur von 1850 beispielsweise mit -0,1797 °C unter dem Durchschnitt von 1850–1900 angegeben werden, wenn die Messstationen zu dieser Zeit offenbar nur etwa 4 % der Erde abdeckten? Und warum mit einer völlig unrealistischen Genauigkeit von einem Zehntausendstel Grad?
Ich habe Sie gewarnt, dass dies mit zwei unbeantworteten Fragen enden würde, und hier sind sie, beide beziehen sich auf den Fünfzigjahreszeitraum von 1850 bis 1900:
Wo können wir die tatsächlichen Originaldaten für die ganze Welt einsehen?
Wie wurden diese unglaublich genauen Anomaliewerte berechnet?
Dreißig Jahre des Scheiterns der COPs: die vernichtende Bewertung eines wirklichkeitsfernen Klimaprozesses
geschrieben von Chris Frey | 13. November 2025
Samuel Furfari
[Alle Hervorhebungen im Original]
Science-Climate-Energy bat Samuel Furfari, die These seines neuesten Buches „The Truth About the COPs, 30 years of illusions” (Die Wahrheit über die COPs, 30 Jahre Illusionen) vorzustellen, eine rigorose und dokumentierte Analyse der aufeinanderfolgenden Misserfolge dieses Prozesses, die dessen Fortführung in Frage stellt. (Dieses Buch ist Professor Ernest Mund gewidmet, der regelmäßig Beiträge für Science-Climate-Energy verfasste, mehr dazu hier).
Angesichts der COP30 in Belém in Brasilien vom 10. bis 21. November 2025, zu der fast 70.000 Teilnehmer erwartet werden, wird es wichtiger denn je, die tatsächliche Wirksamkeit dieser Klimakonferenzen kritisch zu bewerten. Diese neue Ausgabe verkörpert durch ihren organisatorischen Aufwand die wachsende Kluft zwischen dem diplomatischen Prozess und der globalen Energie-Realität. Die Ergebnisse von drei Jahrzehnten Klimaverhandlungen sind eindeutig: Trotz zahlreicher feierlicher Erklärungen und ehrgeiziger Verpflichtungen sind die globalen CO₂-Emissionen seit dem Erdgipfel, der den Dekarbonisierungsprozess einleitete, um 65 % gestiegen.
Das Scheitern: das Kyoto-Protokollund dessenIllusionen
COP ist die Abkürzung für „Conference of the Parties” (Konferenz der Vertragsparteien), das jährliche Treffen der Staaten, die das Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen (Rio, 1992) ratifiziert haben, um sich zur Reduzierung ihrer CO₂-Emissionen zu verpflichten. Die erste Konferenz fand 1995 in Berlin unter dem Vorsitz von Angela Merkel statt, der damaligen Umweltministerin in der Regierung von Helmut Kohl. 1994 übernahm ich die Verantwortung für das Thema Klima in der Generaldirektion Energie der Europäischen Kommission, wodurch ich diese jährlichen Konferenzen bereits vor der ersten COP verfolgen konnte. Auch nach meinem Ausscheiden aus dieser Position verfolgte ich diese Konferenzen aus persönlichem Interesse weiter, wodurch ich auch ohne direkte Beteiligung einen tiefen Einblick in den Prozess gewinnen konnte.
Das Kyoto-Protokoll (1997) sollte den Beginn eines verbindlichen globalen Klima-Managements markieren. Mit dem Ziel, die Emissionen der Industrieländer bis 2010-2012 um 5,2 % zu reduzieren, läutete es das Zeitalter der quantifizierten Verpflichtungen ein. Die Realität zerstörte jedoch schnell alle Hoffnungen: Die Clinton-Gore-Regierung der Vereinigten Staaten, damals der größte Emittent weltweit, weigerte sich, das Abkommen zu ratifizieren, obwohl sie daran mitverhandelt hatte, während Kanada 2011 aus dem Abkommen austrat. Noch wichtiger war, dass die Flexibilitätsmechanismen eher eine virtuelle Übertragung von Emissionen als eine tatsächliche Reduzierung ermöglichten. Zwischen 1990 und 2010 stiegen die globalen Emissionen um 32 %, was die strukturellen Ineffizienzen eines Systems deutlich machte, das Schwellenländer von allen Beschränkungen ausnimmt.
Die Betonung, dass dieses Ziel in den Jahren „2010–2012” erreicht werden müsse – eine Forderung der Ökologen –, ist kein Detail: Diese Frist sollte den Diskurs der permanenten Dringlichkeit befeuern. Die Ziele wurden 2012 nicht erreicht, geschweige denn 2010; aber dieser Prozess sorgt auch dafür, dass die öffentliche Debatte ständig unter Druck steht.
Es sei darauf hingewiesen, dass an der COP3 keine Staats- und Regierungschefs, sondern nur Umweltminister teilnahmen, weshalb es leicht war, sich auf utopische Ziele zu einigen.
DasKopenhagen-Debakel: Die Spaltung zwischen Nord und Süd offenbaren
Die COP15 in Kopenhagen im Dezember 2009 sollte einen entscheidenden Wendepunkt in der internationalen Klimapolitik markieren, indem sie einen Nachfolgevertrag zum Kyoto-Protokoll schuf, das als stillschweigender Misserfolg galt. Obwohl diese Konferenz lang erwartet worden war, endete sie mit einem grandiosen Scheitern, da keine rechtlich bindende Vereinbarung erzielt werden konnte. Dieser Gipfel offenbarte eine tiefe und anhaltende Kluft zwischen Industrie- und Entwicklungsländern, insbesondere hinsichtlich der Aufteilung der Klimaverantwortung.
Im Gegensatz zu Kyoto waren bei der COP15 zahlreiche Staats- und Regierungschefs anwesend, die die Verhandlungen leiteten, um zu verhindern, dass „grüne” Minister ihre Länder zu übermäßig restriktiven Verpflichtungen überredeten, die angesichts der wirtschaftlichen Interessen als unrealistisch angesehen wurden. Als die dramatischen wirtschaftlichen Folgen der Dekarbonisierung deutlich wurden, machten viele Staaten einen Rückzieher. Es gab keine verbindlichen oder auch nur indikativen Ziele auf globaler Ebene mehr.
Schwellenländer, insbesondere China und Indien, haben jede nennenswerte Einschränkung ihrer wirtschaftlichen Entwicklung im Namen des Klimaschutzes kategorisch abgelehnt. Sie beriefen sich auf das Grundprinzip der „gemeinsamen, aber unterschiedlichen Verantwortlichkeiten“ und bekräftigten ihr Recht auf wirtschaftliche Entwicklung ohne unangemessene Einschränkungen angesichts der unverhältnismäßig hohen historischen Emissionen der Industrieländer. Diese Positionen waren ausschlaggebend für die Ablehnung eines verbindlichen Vertrags und stießen auf der internationalen Bühne auf starken Widerstand.
Die Konferenz endete in einem Klima der Verwirrung und diplomatischer Spannungen, was die Unfähigkeit der UN-Gremien verdeutlichte, divergierende nationale Interessen und die Verwaltung globaler öffentlicher Güter in Einklang zu bringen.
Das Scheitern von Kopenhagen markierte einen wichtigen Wendepunkt in der internationalen Klimapolitik und zeigte, dass der UN-Konsens die tatsächlichen strategischen Interessenkonflikte zwischen Industrie- und Entwicklungsländern nicht länger verschleiern konnte. Unter dem Druck von Aktivisten und Medien gerieten die Staats- und Regierungschefs (Barack Obama, José Manuel Barroso, Nicolas Sarkozy, Angela Merkel, Xi Jinping) in die Zwickmühle. Sie wurden unter Druck gesetzt, Maßnahmen in Betracht zu ziehen, die ihrer nationalen Wirtschaft geschadet hätten, aber sie gaben nicht nach und zogen es vor zu scheitern. Seitdem nehmen einige kurz an der Eröffnung der COPs teil, um „im Bilde zu sein“, und verlassen dann schnell die Debatten, um jegliche Verantwortung für das Ausbleiben konkreter Entscheidungen zu vermeiden. Sobald sie fotografiert wurden, achten sie nun darauf, nicht an den Verhandlungen teilzunehmen.
Uneinigkeit in Paris: Die Einführung der Beschwörungskraft
Das Pariser Abkommen der COP21 (2015) wurde mit großem Pomp und Zeremoniell als historischer diplomatischer Erfolg präsentiert, ist aber in Wirklichkeit ein Triumph der französischen Diplomatie. Seit Monaten bemüht sich die französische Diplomatie, möglichst viele Länder davon zu überzeugen, dieses internationale Abkommen zu akzeptieren. Es sei darauf hingewiesen, dass es sich hierbei nicht um ein Protokoll wie Kyoto handelt, da es in vielen Ländern den Ratifizierungsprozess nicht durchlaufen hätte. Gerade diese Berücksichtigung des Völkerrechts zeigt die Leere dessen, was als französischer Erfolg präsentiert wird.
Laurent Fabius behauptete mit Tränen in den Augen, es sei ein historisches Ereignis gewesen… Aber schauen wir uns die Fakten zehn Jahre später an: Es ist vor allem ein monumentaler Misserfolg. Es war notwendig zu versuchen, das Präsidentenmandat von François Hollande zu retten, aber es ist klar, dass diese COP den Trend nicht umkehren konnte. Hollande hatte nicht einmal den Mut, erneut zu kandidieren. Das Pariser Abkommen hat weder ihm noch den anderen geholfen – außer der EU und den Aktivisten vorzugaukeln, sie hätten den Lauf der Welt umgekehrt.
In meinem Buch habe ich das dieser COP gewidmete Kapitel auch „Die Pariser Uneinigkeit” genannt, weil es bedeutungslos ist. Es enthält nichts weiter als bürokratische Verpflichtungen, die nur den konkreten Effekt haben, unnötige Verwaltungsarbeit zu verursachen – was ironischerweise unnötigerweise zusätzliches CO₂ erzeugt. Eine schöne ökologische Farce, denn der Verbrauch fossiler Brennstoffe weltweit ist weiter gestiegen. Ihr Anteil bleibt mit fast 87 % des globalen Energiemix‘ überwältigend. Nichts in diesem Abkommen ändert wirklich etwas an den Energieentscheidungen der Staaten; fossile Brennstoffe sind nach wie vor beliebt, machen sie doch in zehn Jahren 77 % des Nachfragewachstums aus, d. h. die Kluft zwischen ihnen und den erneuerbaren Energien wird immer größer (siehe auch den Artikel „Energie hinzufügen, nicht umsteigen: Fossile Brennstoffe bleiben die Grundlage des Fortschritts“ vom 18. Juli 2025 in Science-Climate-Energy).
Paradoxerweise blieb die Kernenergie – die einzige CO₂-freie Energiequelle, die reichlich und kontrollierbar Strom liefern kann – bis zur COP 28 in den internationalen Klimaverhandlungen marginalisiert. Die Entwicklung fortschrittlicher Kerntechnologien, darunter kleine modulare Reaktoren, wäre jedoch eine glaubwürdige Lösung für das doppelte Erfordernis der wirtschaftlichen Entwicklung und der Reduzierung der CO₂-Emissionen für diejenigen, die noch daran glauben. Das Beharren darauf, diese Option aus dem globalen Energiemix auszuschließen, ist ein großer strategischer Fehler, wenn nicht sogar ein historischer.
Der geopolitische Wendepunkt: Die Revolte der Entwicklungsländer
Die geopolitische Landschaft hat sich seit der Uneinigkeit in Paris erheblich verändert und markiert einen endgültigen Bruch mit dem Paradigma der Dekarbonisierung. Die Eröffnung der COP29 im Jahr 2024 in Baku durch den aserbaidschanischen Präsidenten Ilham Aliyev, der bekräftigte, dass „fossile Energie ein Geschenk Gottes ist“, symbolisierte diesen Kurswechsel. Diese Erklärung spiegelt eine tiefere Realität wider: Afrikanische und asiatische Länder lehnen nun offen jede Einschränkung ihrer Entwicklung im Namen der Bekämpfung des Klimawandels ab. Wie der Energiebedarf des afrikanischen Kontinents zeigt, auf dem 180 Millionen Menschen in Städten mit mehr als fünf Millionen Einwohnern leben, kann die Elektrifizierung keinesfalls auf intermittierende erneuerbare Energien gesetzt werden. Die Nachfrage nach reichlich vorhandener und billiger Energie wird zur obersten Priorität und drängt die Dekarbonisierung in den Hintergrund.
Diese Veränderung war bereits auf der COP in Glasgow zu spüren, wo der niederländische Sozialist Frans Timmermans, damals erster Vizepräsident der Europäischen Kommission, den unberechenbaren Umweltschützer Boris Johnson – obwohl dieser sich als Konservativer präsentierte – davon überzeugte, Kohle zu verbieten. Nun sind beide aus dem Rennen, und der Kohleverbrauch steigt stetig. Nach Glasgow wurden wir mit COPs in den Ölförderländern (Ägypten und den Vereinigten Arabischen Emiraten) konfrontiert, die den Schwerpunkt der Konferenz wieder auf die Sicherheit der Energieversorgung verlagerten. Schlimmer noch, in Dubai fand am Rande der COP eine Konferenz zur Wiederbelebung der Kernenergie statt: Die Klimaaktivisten mussten den Becher bis zum Grund leeren. Es sei daran erinnert, dass der belgische Premierminister Alexandre De Croo fotografiert wurde, aber das Abkommen über diese Wiederbelebung der Kernenergie nicht unterzeichnen konnte, weil seine Regierung unter der Fuchtel der Grünen stand. Wenn man sich seine Karriere ansieht, kann man sich schließlich fragen, ob dieser Ökologe wirklich aus Überzeugung oder aus simpler Heuchelei fotografiert werden wollte.
Es sei darauf hingewiesen, dass die Entwicklungsländer erst nach den COP-Konferenzen in Ölförderländern begannen, sich zunächst zaghaft und dann in Baku mutiger gegen die Dekarbonisierung auszusprechen. Lange Zeit ließen sie glauben, dass sie an einer Dekarbonisierung interessiert seien, indem sie sich für neue Finanzmittel aus den OECD-Ländern einsetzten. Sie wurden dabei von Klimaaktivisten ermutigt, die einen „Technologietransfer” forderten, also die Bereitstellung von Technologien – als ob Technologie kein kommerzieller Wert wäre, der privaten Unternehmen gehört und einfach kostenlos an weniger begünstigte Länder weitergegeben werden könnte. Erst als sie erkannten, dass das Geld nicht so fließen würde, wie sie es sich erhofft hatten, und dass Technologie gekauft werden musste, wagten sie es, die Umweltschützer nicht mehr zu unterstützen.
Wie kann man übersehen, dass dieser gesamte COP-Prozess nichts anderes als ideologische Manipulation, politischer Opportunismus und Gier war?
Die Dringlichkeit des Widerstands gegen das Klima-Dogma
Die jüngsten COPs haben gezeigt, dass die eigentliche Priorität der Bevölkerung in Entwicklungsländern – insbesondere in China und Indien – nicht die Reduzierung der CO₂-Emissionen ist, sondern der effektive und schnelle Zugang zu wirtschaftlicher und sozialer Entwicklung (dank des massiven Einsatzes von Kohle – der Energiequelle, die pro gelieferter Energieeinheit am meisten CO₂ produziert. Narendra Modi ist es gelungen, über eine Milliarde Inder mit Strom zu versorgen). Nur eine groß angelegte Elektrifizierung wird einen industriellen Aufschwung, die Schaffung von Arbeitsplätzen und eine strukturelle Verringerung der Armut ermöglichen. Und genau das fordern die afrikanischen Staats- und Regierungschefs.
Daher muss die Energiepolitik auf Lösungen basieren, die Zuverlässigkeit, angemessene Kosten und Energiedichte bieten – Anforderungen, die derzeit nur konventionelle Energieformen, fossile und nukleare, in dem Umfang erfüllen, den diese Länder benötigen. Die Förderung der Dekarbonisierung durch die ausschließliche Konzentration auf intermittierende erneuerbare Energiequellen bedeutet, diese Länder zu einer chronischen Energieunterversorgung zu verdammen. Und das akzeptieren sie nicht mehr, so dass die COPs niemals ein Erfolg werden können.
Diese Tatsache wurde gerade von Bill Gates ausdrücklich anerkannt, der nun argumentiert, dass die Dekarbonisierung keine Priorität haben kann, da keine unmittelbar bevorstehende Klimakatastrophe wissenschaftlich nachgewiesen wurde, wie viele Wissenschaftler weiterhin behaupten, darunter auch bei Science-Climate-Energy und bei Clintel. Diese Position, die seit langem von vielen Wissenschaftlern, Ökonomen und kritischen Denkern vertreten wird, wurde von einer Presse, die sich zu sehr den Thesen der Umweltschützer verschrieben hat, systematisch marginalisiert, indem ihr eine Plattform und eine kontroverse Debatte verwehrt wurden.
Es ist klar, dass die Beseitigung der Armut einen massiven Stromverbrauch erfordert, was den Bau Hunderter konventioneller Kraftwerke mit sich bringt: Kohle-, Gas-, Wasser- und Kernkraftwerke. Diese Realität zu leugnen bedeutet, Illusionen auf Kosten des Schicksals der schwächsten Bevölkerungsgruppen aufrechtzuerhalten. Die Aktivisten haben den Kampf gegen den Klimawandel bereits verloren, bei allem Respekt gegenüber der Europäischen Kommission, welche an einer wirtschaftlich selbstmörderischen Dekarbonisierungspolitik festhält, die von den tatsächlichen Herausforderungen der Entwicklung losgelöst ist.
Es sei darauf hingewiesen, dass es weder die Äußerungen von Donald Trump noch die von Bill Gates waren, die der Utopie der COPs ein Ende gesetzt haben, sondern vielmehr die dreißig Jahre anhaltender Misserfolge, die von den Medien und der Europäischen Kommission vertuscht wurden. Sie tragen eine schwere Verantwortung.
In meinem Buch zitiere ich viele Ereignisse, welche die Unangemessenheit dieser Treffen verdeutlichen: einen Umweltminister, der wegen unüberlegter Entscheidungen von seinem Premierminister streng zurechtgewiesen wurde; die Organisation einer Konferenz in Warschau zur Förderung der Kohle während der COP; Ministerwechsel bei Treffen aufgrund ihrer Ineffizienz; oder die grotesken Diskussionen über die Größe von Kühlschränken, als der US-Botschafter bei der COP2 erklärte: „Sie werden nicht über die Größe unserer Kühlschränke entscheiden.“ Dies spiegelt direkt den berühmten Satz des Atmosphärenwissenschaftlers Richard Lindzen wider: „Wenn man den Kohlenstoff kontrolliert, kontrolliert man das Leben.“ Dies, so sagt er, sei der ultimative Traum von Bürokraten: vorzugeben, das Leben zu kontrollieren.
Eine fundamentale Umgestaltung internationaler Prioritäten
Die Schlussfolgerung ist klar: Der COP-Prozess hat sein grundlegendes Ziel verfehlt, die weltweiten Emissionen zu reduzieren. Sein Fortbestehen ist nun das Ergebnis einer nutzlosen institutionellen Routine. Die beträchtlichen Summen, die für diese Konferenzen ausgegeben werden – jede COP kostet rund 100 Millionen Euro –, könnten unendlich viel besser für die Finanzierung konkreter Energie-Entwicklungsprojekte in den Ländern des Südens verwendet werden. Die Dringlichkeit liegt nicht in der Organisation neuer großer Klima-Veranstaltungen, sondern in der Anerkennung des Rechts auf Entwicklung und der Bereitstellung der für deren Verwirklichung notwendigen Energieressourcen.
Rückkehr nach Brasilien nach Rio 1992
Dreißig Jahre nach der ersten COP in Berlin ist die Bilanz verheerend: Die weltweiten CO₂-Emissionen sind seit den in Rio de Janeiro eingegangenen Verpflichtungen um fast 65 % gestiegen, was das klare Scheitern eines Prozesses verdeutlicht, der von Aktivisten und Politikern angeführt wurde, die nach Popularität strebten und konkrete Maßnahmen zugunsten steriler Beschwörungsformeln opferten. Am Vorabend der COP30 in Belém, zu der rund 70.000 Teilnehmer erwartet werden, deutet alles darauf hin, dass erneut eine Chance verpasst werden wird.
Der Kontrast ist auffällig: Der brasilianische Präsident Luiz Inácio Lula da Silva, der die COP30 eröffnet hat, hat gerade die Ölförderung im brasilianischen Teil des „Äquatorialrandes” genehmigt, diesem neuen Eldorado, das sich von Guyana über Surinam und Französisch-Guayana bis zum Nordosten Brasiliens in der Nähe des Amazonas erstreckt. Dieses riesige Becken, das derzeit in voller Entwicklung ist, verkörpert den brutalen Konflikt zwischen wirtschaftlichen Zwängen und internationaler Klima-Rhetorik.
Wenn Brasilien Stefan Zweigs Versprechen einlösen will, „das Land der Zukunft zu sein und die Welt zu ernähren”, muss es sich zwangsläufig auf eine reichliche Energieproduktion stützen – und damit auf einen erhöhten Verbrauch fossiler Brennstoffe. Diese Ausrichtung steht in völligem Widerspruch zu den erklärten Zielen der COP, die das Land organisiert. Leider führt der COP-Prozess, wie dieses Buch zeigt, allzu oft zu wiederkehrender Heuchelei.
Darüber hinaus tragen Journalisten eine große Verantwortung: Sie haben ihre kritische Aufgabe verfehlt, indem sie die immense Farce dieser Konferenzen nicht angeprangert haben und somit dazu beitragen, die Illusion der Dekarbonisierung aufrechtzuerhalten, während die zugrunde liegende Dynamik unverändert bleibt.
Es ist an der Zeit, mit den Illusionen zum Klimawandel Schluss zu machen und anzuerkennen, dass die globale Priorität auf der wirtschaftlichen Entwicklung und dem Zugang zu Energie für alle liegen muss. Wie die sich wandelnden Positionen der Schwellenländer zeigen, gehört die Zukunft nicht der ideologischen Dekarbonisierung, sondern dem Energie-Pragmatismus, der allein die legitimen Bestrebungen der Menschen nach Wohlstand, Lebensqualität und Wohlergehen erfüllen kann. Es ist an der Zeit, einen Prozess der Vereinten Nationen aufzugeben, der sich als ineffektiv erwiesen hat, und die internationalen Bemühungen auf die wirklichen Prioritäten zu verlagern: die Bekämpfung der Armut und die wirtschaftliche Entwicklung für alle durch den Zugang zu reichlich vorhandener und billiger Energie.
Sollen wir warten, bis die COP99 scheitert?
Dies ist eine Übersetzung des Artikels „Trente ans d’échecs des COP : le bilan accablant d’un processus climatique déconnecté des réalités“ (Dreißig Jahre Misserfolge der COP: die niederschmetternde Bilanz eines von der Realität losgelösten Klimaprozesses), veröffentlicht am 7. November 2025 in „Science, climat et énergie“.
Samuel Furfari ist Ingenieur und promovierter Wissenschaftler der Universität Brüssel. Er ist Professor für Energie-Geopolitik und Politik. 36 Jahre lang war er leitender Beamter in der Generaldirektion Energie der Europäischen Kommission. Er ist Autor zahlreicher Bücher.
Jahrhundertealte Thermometeraufzeichnungen zeigen, dass sich Mittelengland innerhalb von 40 Jahren um 2 °C erwärmt hat – doppelt so schnell wie die heutige Erwärmung.
Niemand würde Ihnen einen Vorwurf machen, wenn Sie glauben, dass wir zwischen 1980 und 2020 eine Erwärmung des Klimas erlebt haben, deren Geschwindigkeit in den letzten 2000 Jahren beispiellos ist. [Hervorhebung und Links hinzugefügt]
Diese weit verbreitete Behauptung basiert auf rekonstruierten (nicht mit Thermometern gemessenen) Temperaturen bis 1850 und beobachteten (mit Thermometern gemessenen) Temperaturen danach.
Die Technologie der versiegelten Thermometer ist jedoch etwa 200 Jahre älter als 1850, und wenn man diese Daten heranzieht, schmilzt die weit verbreitete Behauptung dahin.
Schauen Sie sich die folgende Grafik genau an: Es handelt sich um die längste Thermometeraufzeichnung der Welt, die bis ins Jahr 1659 zurückreicht. Die Daten wurden vom MET Office, dem nationalen Wetterdienst von UK zusammengestellt.
Mit Instrumentendaten aus dreieinhalb Jahrhunderten ist sie mehr als nur eine Wetteraufzeichnung; sie ist eine Aufzeichnung des Klimawandels in Mittelengland.
Die Temperaturmessungen wurden mit mehreren Thermometern von vielen verschiedenen Personen vorgenommen, die zu ihrer Zeit wahrscheinlich als Technikexperten galten und von denen keiner damit beauftragt war zu beweisen, dass der Mensch zur Erwärmung des Planeten beiträgt.
Man vergleiche die 40-jährigen Temperaturtrends (schwarze gestrichelte Linie) von 1695 bis 1735 mit denen von 1980 bis 2020.
Der Erwärmungstrend von 1695 bis 1735, 2 °C über vier Jahrzehnte, war doppelt so hoch wie der von 1980 bis 2020 mit 1 °C über vier Jahrzehnte.
Die frühere Erwärmungsphase war vorindustriell – eine Ära, deren Technologie dadurch gekennzeichnet war, dass Menschen in hölzernen Segelschiffen die Welt umrundeten. Raumschiffe, die den Planeten umkreisen, sowie Schwerindustrie und enorme Energieproduktion kennzeichnen die spätere Phase.
Die früheren Engländer überlebten von 1695 bis 1735 und erlebten eine doppelt so starke Erwärmung wie in den letzten 40 Jahren, und das mit viel weniger Technologie.
Hätte man König Georg II. gefragt, ob die Erwärmung in Mittelengland während seiner Regierungszeit um 2 °C in 40 Jahren eine existenzielle Bedrohung für sein Königreich darstellte, hätte er vielleicht geantwortet, dass es eine Zeit des Überflusses war, die zur englischen Vorherrschaft führte.
Georg II. vertrieb den „Bonny Prince Charles” aus Schottland, die Franzosen aus Nordamerika und die Spanier rund um den Globus, nur weil sie einem englischen Marinekapitän ein Ohr abgeschnitten hatten.
In Großbritannien gab es Anfang des 18. Jahrhunderts keine Hysterie wegen der Erwärmung um 2 °C, obwohl es viele kulturelle Ähnlichkeiten mit der heutigen Weltgemeinschaft gab.
Es war ein Land der aufgeklärten wissenschaftlichen Denkweise. Isaac Newton hatte gerade seine Bewegungs- und Gravitationsgesetze veröffentlicht. Es war auch ein Zentrum bedeutender technischer Fortschritte.
• Im Jahr 1709 leitete Abraham Darby mit der Massenproduktion von Eisen unter Verwendung von Koks aus Kohle anstelle von Holz die industrielle Revolution ein.
• 1712 baute Thomas Newcomen die weltweit erste kommerzielle Dampfmaschine.
• Mit der Eröffnung der Bank of England im Jahr 1695 wurden die nationalen Finanzen komplexer.
• Und es war ein Land, das in scheinbar endlose irrationale Kriege verwickelt war, wie beispielsweise den Krieg um Jenkins‘ Ohr (1739–1742).
Auf der anderen Seite des Ärmelkanals, in Frankreich, waren es die ungewöhnlich niedrigen Temperaturen während der Kleinen Eiszeit vor 1695, die eine echte existenzielle Bedrohung darstellten. Die Regierungszeit Ludwigs XIV. (des Sonnenkönigs) wurde durch kalte und feuchte Wetterbedingungen beeinträchtigt, die 1687 einsetzten.
Hunger und Krankheiten forderten in den kältesten Jahren 1693 und 1694 das Leben von 10 Prozent seiner Untertanen. Die zufällige Erwärmung von 1695 bis 1735 beendete die verheerende Hungersnot.
Der Erwärmungstrend war nur ein natürlicher Klimazyklus, aber zum ersten Mal wurde er mit modernen Instrumenten aufgezeichnet, die von wissenschaftlich versierten Menschen entwickelt worden waren.
Dann, im Jahr 1736, kehrte die Kleine Eiszeit mit voller Wucht zurück: Ein plötzlicher Temperatursturz um 1 °C innerhalb von fünf Jahren, von dem sich Mittelengland erst 200 Jahre später vollständig erholen sollte.
Der Temperatursturz war so abrupt, dass ein Kriegsschiff in der Themse festfror und die Feindseligkeiten wegen eines abgetrennten Ohrs verzögert wurden. (Letztendlich plünderte das britische Kriegsschiff als Vergeltung für das fehlende Ohr von Kapitän Jenkins Gold im Wert von heute 80 Millionen Dollar aus einer spanischen Galeone.)
In Frankreich begann das Jahr 1740 mit 75 Frosttagen, was eine neue Ära schlechter Ernten und weit verbreiteter Hungersnöte einläutete, die Jahrzehnte andauern sollte. Missernten von frostempfindlichem Weizen trugen zur Französischen Revolution von 1789 bei.
Es gibt viele Spekulationen darüber, was den Temperaturrückgang in England und Frankreich im Jahr 1695 und die anschließende dramatische Erwärmung bis 1735 verursacht hat:
• War dies Teil eines globalen Trends, der durch Veränderungen der Sonnenaktivität verursacht wurde? Das Maunder-Minimum (eine längere Periode mit sehr geringer Sonnenfleckenaktivität) von 1645 bis 1715 korreliert in gewisser Weise mit den Temperaturveränderungen.
• Hat die heftige Eruption der Klasse 4 (sehr hohe Eruptionssäule) des Vulkans Helka in Island im Jahr 1693 das Sonnenlicht behindert und so mehrere Jahre lang zu einem regionalen Kälteeinbruch geführt?
• War es eine regionale Klimaveränderung, die durch die Nordatlantische Oszillation verursacht wurde? (Dies ist ein atmosphärisches Druckphänomen, das der El-Niño-Südoszillation im Südpazifik ähnelt.)
• War es alles zusammen?
Wir wissen es nicht, aber die vom Menschen verursachten Kohlendioxidemissionen (CO) können kein Faktor gewesen sein.
Die längste Thermometeraufzeichnung der Welt zeigt, dass die aktuelle Erwärmungsrate des 20. und 21. Jahrhunderts einen größeren und nicht vom Menschen verursachten Präzedenzfall aus der Zeit vor 300 Jahren hat. Dieser war für die Menschheit auch von enormem Nutzen.
Und dann wurde es wieder kalt, so kalt, dass „einem Messingaffen die Eier abfrieren“ (ein britischer Marineausdruck für extreme Kälte, der in dieser Zeit verwendet wurde).
Vielleicht wäre König Georg II. nicht überrascht, wenn sich die Erwärmung von 1695 im Jahr 1980 auch nur zur Hälfte wiederholen würde. Schließlich gibt es höhere Gewalt, und außerdem: Wer würde eine Zeit des Überflusses ablehnen?
Er wäre jedoch überrascht zu erfahren, dass die Nachfolger seines Königreichs behaupten, der Mensch habe die Erwärmung von 1980 verursacht. Was hat dann die Erwärmung von 1695 verursacht?
Ron Barmby ist ein professioneller Ingenieur mit einem Master-Abschluss. Seine vier Jahrzehnte lange Karriere in den Geowissenschaften führte ihn in über 40 Länder auf fünf Kontinenten. Dabei befasste er sich mit den meisten technischen Disziplinen, die auch in der Klimawissenschaft und der Netto-Null-Technologie zum Einsatz kommen, darunter klassische Physik, Thermodynamik, Geologie, Paläoklimatologie, Computermodellierung, Satellitenfernerkundung, Metallurgie, Wirtschaftswissenschaften und statistische Methodik. Sein erstes Buch, „Sunlight on Climate Change: A Heretic’s Guide to Global Climate Hysteria” (Sonnenlicht und Klimawandel: Ein Leitfaden für Ketzer zur globalen Klimahysterie), veranlasste weltweit renommierte Wissenschaftsexperten dazu, ihre Forschungsergebnisse zu teilen, was Ron dazu ermöglichte, „Sunset on Net Zero: A Heretic’s Guide to the Futile CO2 Target” (Sonnenuntergang für Netto-Null: Ein Leitfaden für Ketzer zum sinnlosen CO2-Ziel) zu verfassen.