https://x.com/cohler/status/2045615260443279694
Zusammenfassung meines Vortrags auf der ICCC16 am 8. April 2026.

John Cohler bei seinem Vortrag Heartland Climate Conference April 2026
Die dieser Analyse zugrunde liegenden Dokumente sind unter
http://papers.jcohler.com verfügbar.
Seit fast vier Jahrzehnten wird der Welt eine Geschichte erzählt: Die Erde erwärmt sich in alarmierendem Tempo, der Mensch ist dafür verantwortlich, indem er fossile Brennstoffe verbrennt, und wenn wir nicht Billionen von Dollar investieren, um dies zu verhindern, droht eine Katastrophe. Regierungen haben ihre Wirtschaften auf diese Geschichte ausgerichtet. Kinder wachsen mit Angst davor auf. Wissenschaftler, die sie hinterfragen, werden ausgegrenzt.
Es gibt da nur ein Problem. Die wissenschaftliche Grundlage dieser Argumentation – jede einzelne Zahl, die der IPCC verwendet – ist physikalisch bedeutungslos. Nicht unsicher. Nicht diskutabel. Physikalisch bedeutungslos, genauso wie der Durchschnitt aller Telefonnummern in Washington, D.C., bedeutungslos ist. Man kann ihn berechnen. Die Rechnung stimmt. Aber das Ergebnis sagt absolut nichts über die Realität aus.
Das ist keine abwegige Behauptung. Es handelt sich um einen mathematischen und physikalischen Beweis, der auf wissenschaftlichen Artikeln und den Grundprinzipien der Thermodynamik basiert. Und wenn man es einmal erkannt hat, kann man es nicht mehr ignorieren.
Die erste Lüge: Eine Temperatur, die nicht existiert
Alles beginnt mit der globalen mittleren Oberflächentemperatur (GMST). Diese eine Zahl – üblicherweise als Abweichung vom vorindustriellen Niveau angegeben – bildet die Grundlage der gesamten IPCC-Studie. Wenn Sie hören, dass sich die Erde seit der industriellen Revolution um 1,2 Grad erwärmt hat, sprechen Sie von der GMST. Wenn Klimamodelle eine Erwärmung von 2, 3 oder 4 Grad bis zum Jahr 2100 prognostizieren, beziehen sie sich auf Veränderungen der GMST. Wenn das Pariser Abkommen eine Obergrenze von 1,5 Grad festlegt, ist dies eine Obergrenze für die GMST.
Was genau ist GMST? Hier beginnt die Geschichte sich zu entwirren.
Temperatur ist in der Physik eine sogenannte intensive Größe. Das bedeutet, sie beschreibt den Zustand eines spezifischen physikalischen Systems – eines Systems mit Grenzen, das sich im oder nahe am thermischen Gleichgewicht befindet und dessen Zustandsgleichung eindeutig definiert ist. Man kann sinnvoll über die Temperatur einer Tasse Kaffee, eines Zimmers oder des Ozeans in einer bestimmten Tiefe sprechen, da es sich dabei jeweils um ein definiertes physikalisches System handelt. Was man jedoch nicht tun kann, ohne die Gesetze der Thermodynamik zu verletzen, ist, Temperaturen von Systemen zu addieren, die nicht in thermischem Kontakt miteinander stehen, und das Ergebnis als „Temperatur“ zu bezeichnen.
Die Erdoberfläche ist kein thermodynamisches System. Sie ist ein Flickenteppich aus Tausenden von lokalen Systemen – Wüsten und Regenwäldern, polaren Eisschilden und tropischen Ozeanen, Berggipfeln und Talsohlen –, von denen keines mit den anderen im thermischen Gleichgewicht steht. Die Mittelung ihrer Temperaturen ergibt zwar einen Wert. Dieser Wert ist aber keine Temperatur im physikalisch sinnvollen Sinne. Er unterliegt keiner Zustandsgleichung. Es gibt kein physikalisches Gesetz, das ihn mit irgendetwas verknüpft. Wie der Physiker Christopher Essex und seine Kollegen in einer Veröffentlichung aus dem Jahr 2007 überzeugend darlegten, ist er schlichtweg keine Temperatur.
The Emperor Has No Clothes: How the IPCC Built a 38-Year Climate Empire on a Circle of Lies
Summary of my talk at ICCC16 on April 8, 2026.
The papers underlying this analysis are available at https://t.co/ym4Iv7EjWR.For nearly four decades, the world has been told a story. The… https://t.co/EwuAzclQxL
— Jonathan Cohler (@cohler) April 18, 2026
Das ist keine bloße Formalität. Es handelt sich um einen Kategorienfehler, der in jedem anderen Wissenschaftsbereich ein Forschungsprogramm sofort beenden würde. Intensive Eigenschaften über Nichtgleichgewichtssysteme hinweg zu mitteln, ist so, als würde man die Postleitzahlen aller Einwohner New Yorks mitteln und das Ergebnis dann als Wegbeschreibung verwenden. Die Rechnung liefert eine Zahl. Diese Zahl ist bedeutungslos.
Die Internationale Organisation für Normung (ISO) erkannte dies bereits vor Jahrzehnten implizit an. 2002 wurde die ISO beauftragt, alle wichtigen Begriffe im Zusammenhang mit dem Klimawandel zu definieren – und bis heute fehlt der Begriff „globale Durchschnittstemperatur“ in den finalen Definitionen. Diese Auslassung ist kein Versehen. Der Auftrag der ISO erfordert messtechnische Genauigkeit, und der Begriff „globale Durchschnittstemperatur“ kann diesen Anforderungen nicht gerecht werden.
Weder der IPCC noch irgendeine andere Klimabehörde hat jemals eine präzise physikalische Definition der globalen mittleren Oberflächentemperatur (GMST) vorgelegt. Sie verwenden den Begriff ständig – er taucht in praktisch jedem Kapitel des Sechsten Sachstandsberichts des IPCC auf –, aber sie haben nie definiert, welche physikalische Größe er repräsentiert, weil eine solche Definition nicht möglich ist.
Die zweite Lüge: Modelle, die auf nichts basieren
Wenn GMST physikalisch bedeutungslos ist, was leisten dann die Klimamodelle des IPCC eigentlich?
Die Antwort ist unbequem. Jedes der vom IPCC verwendeten wichtigen Klimamodelle – das Ensemble CMIP (Coupled Model Intercomparison Project) – ist darauf ausgelegt, historische Trends der mittleren globalen Oberflächentemperatur (GMST) zu reproduzieren. Diese Modelle verfügen über Hunderte von anpassbaren Parametern, die so eingestellt werden, dass die Modellausgabe mit den beobachteten GMST-Daten übereinstimmt. Diesen Vorgang nennt man Validierung: Man passt das Modell so lange an, bis es zu den Daten passt, und erklärt es dann anhand der Beobachtungen für validiert.
Wenn die globale mittlere Oberflächentemperatur (GMST) jedoch keine physikalisch sinnvolle Größe darstellt, ist die Anpassung eines Modells an ihre Reproduktion keine Validierung. Es handelt sich vielmehr um eine Kurvenanpassung an eine Zahl ohne physikalischen Gehalt. Das Modell lernt, ein mathematisches Artefakt abzubilden, nicht die physikalische Realität. Und da es sich um gekoppelte globale Zirkulationsmodelle handelt – in denen die Temperatur mit Niederschlag, Wind, Meeresströmungen, Meereis und Dutzenden weiterer Variablen interagiert –, breitet sich diese Verfälschung überall aus. Jede vom Modell erzeugte Projektion erbt für jede Variable die ursprüngliche Bedeutungslosigkeit.
Die Auswirkungen sind erschreckend. Jede Temperaturprognose. Jede Meeresspiegelprognose. Jede Prognose extremer Wetterereignisse. Jede CO₂-Bilanz. Jede Berechnung der verbleibenden Emissionen. All das basiert auf Modellen, die anhand einer physikalisch nicht existierenden Größe validiert wurden.
Die dritte Lüge: Ein Ozean, der nie vermessen wurde
Da die Aufzeichnungen der Oberflächentemperatur umstritten und unzuverlässig waren, entwickelte der IPCC eine zweite Beweiskette: den Wärmeinhalt der Ozeane (OHC). Die Argumentation war einfach: Wenn die Erde durch den Treibhauseffekt Energie speichert, muss diese Energie irgendwohin fließen, und der größte Teil davon sollte in die Ozeane gelangen. Misst man den Wärmeinhalt der Ozeane über einen längeren Zeitraum, erhält man ein direktes Maß für das Energieungleichgewicht der Erde.
Dieses Argument klingt überzeugend. Es basiert auf dem Programm Argo – einem Netzwerk von rund 4.400 Roboterbojen, die in den Weltmeeren verteilt sind. Jede Boje taucht bis zu 2.000 Meter tief und steigt alle zehn Tage wieder an die Oberfläche, wobei sie Temperatur- und Salzgehaltsprofile übermittelt. Argo ist eine echte wissenschaftliche Leistung, ein technisches Meisterwerk, das eine enorme Menge wertvoller ozeanografischer Daten geliefert hat.
Laut den Gründungsdokumenten von 1998 war Argo ursprünglich für Folgendes konzipiert: die Beobachtung des sich verändernden physikalischen Zustands der oberen Ozeanschichten, die Erfassung regionaler Wärme- und Salzgehaltsmuster, die Unterstützung der Wettervorhersage und die Ergänzung von Satellitenaltimetern. Der globale Wärmegehalt der Ozeane und das Energieungleichgewicht der Erde werden nirgends erwähnt. Das Programm war nicht für diesen Zweck gedacht und ist dafür grundlegend ungeeignet.
Das Problem beginnt mit grundlegenden physikalischen Prinzipien. Wenn eine Argo-Boje innerhalb von sechs bis zehn Stunden von 2.000 Metern Tiefe zur Oberfläche aufsteigt, sammelt sie dabei etwa 1.000 Temperaturmessungen. Die Boje driftet jedoch die ganze Zeit. Bis sie auftaucht und per Satellit Daten sendet, kann sie sich bis zu 50 Kilometer von der Stelle entfernt befinden, an der die tiefsten Messungen durchgeführt wurden. Diese Messungen werden alle der GPS-Position an der Oberfläche zugeordnet – dem einzigen tatsächlich bekannten Standort. Die tatsächliche Unterwasserbahn ist völlig unbekannt. Jeder einzelne Datenpunkt unter Wasser wird dem falschen Standort zugeordnet.
Dann beginnt die Interpolation. Die 12.000 monatlichen Messwerte – die bereits räumlich falsch zugeordnet sind – werden verwendet, um 45.000 dreidimensionale Gitterzellen zu füllen, die den globalen Ozean abdecken. Der größte Teil des Ozeans wird gar nicht gemessen, sondern berechnet. Polargebiete, Küstenzonen und Randmeere werden weitgehend ausgeschlossen. Etwa die Hälfte des gesamten Ozeanvolumens, einschließlich aller Wassermassen unterhalb von 2.000 Metern, wird schlichtweg ignoriert. Die Berechnungen verwenden Korrelationsfunktionen, die Messwerte von Wassermassen vermischen, die Hunderte oder sogar Tausende von Kilometern voneinander entfernt liegen, und so jegliche lokale Information zerstören, die die Messbojen tatsächlich erfasst haben.
Die aus diesem Prozess berechneten Anomalien – die Abweichungen von einem historischen Referenzwert – stoßen dann auf dasselbe grundlegende physikalische Problem wie GMST. Temperatur ist eine intensive Größe. Man kann Temperaturanomalien nicht sinnvoll über Nichtgleichgewichtsvolumina des Ozeans mitteln, genauso wenig wie über die Erdoberfläche. Der resultierende Wert hat zwar eine Einheit und die Berechnung ist korrekt, aber er repräsentiert keine physikalische Realität.
Wenn alle relevanten Unsicherheitsquellen – nicht erfasste Trajektorien, Interpolationsfehler, unzureichende Kenntnisse über die Tiefsee, Lücken in den Polargebieten und uneinheitliche Messrahmen – korrekt quantifiziert werden, beträgt die tatsächliche Unsicherheit des abgeleiteten Wertes für das Energieungleichgewicht der Erde mehr als ± 1 Watt pro Quadratmeter bei einer Wahrscheinlichkeit von 95 %. Der sechste Sachstandsbericht des IPCC gibt sie mit 0,7 ± 0,2 Watt pro Quadratmeter an. Die tatsächliche Unsicherheit ist etwa fünfmal größer als das gemessene Signal. Das Ergebnis ist statistisch nicht von null zu unterscheiden.
Die vierte Lüge: Satelliten wurden an die Fiktion angepasst
Der IPCC präsentiert seine Daten zum Wärmegehalt der Ozeane und seine satellitengestützten Daten zum Energieungleichgewicht als zwei unabhängige, übereinstimmende Beweisketten. Diese Übereinstimmung wird als starke Bestätigung dafür angeführt, dass die Erde Energie in dem behaupteten Ausmaß speichert.
Was der IPCC nicht prominent in den Vordergrund rückt, ist, wie diese Einigung zustande kam.
Die CERES-Instrumente der NASA – Satelliten zur Messung der Strahlungsbilanz am oberen Rand der Atmosphäre – liefern Rohmesswerte mit einer absoluten Unsicherheit von etwa drei bis fünf Watt pro Quadratmeter. Das vom IPCC angegebene Messsignal beträgt 0,7 Watt pro Quadratmeter. Die Satelliten allein können diese Größe nicht bestimmen.
Was wurde also getan? Die CERES-Daten wurden – mittels einer Methode der kleinsten Quadrate – angepasst, um eine Übereinstimmung mit der aus Argo-Daten abgeleiteten Schätzung des Wärmegehalts der Ozeane zu erzielen. Die Dokumentation des IPCC-Berichts AR6 bestätigt dies ausdrücklich: Die CERES-Flüsse „wurden innerhalb der geschätzten Unsicherheiten angepasst, um sicherzustellen, dass der Nettofluss an der Obergrenze der Atmosphäre mit der auf Basis von Messungen des Wärmegehalts der Ozeane geschätzten Energiebilanz der Erde übereinstimmt.“
Anders ausgedrückt: Sie haben die Satelliten so ausgerichtet, dass sie mit den Driftbojen übereinstimmten, und diese Übereinstimmung dann als unabhängige Bestätigung angeführt. Das ist keine Wissenschaft. Das ist ein Zirkelschluss mit unnötigen Umwegen.
Dieses Verhalten ist im IPCC-Ökosystem nicht beispiellos. Kevin Trenberth, einer der Architekten des Modells zur Berechnung des Wärmegehalts der Ozeane, schrieb in einer mittlerweile berüchtigten E-Mail aus dem Jahr 2009, die durch die ClimateGate-Enthüllungen ans Licht kam: „Tatsache ist, dass wir die derzeit ausbleibende Erwärmung nicht erklären können, und es ist eine Farce, dass wir es nicht können. Die im August veröffentlichten CERES-Daten zeigen, dass es eigentlich noch stärkere Erwärmung geben müsste: aber die Daten sind mit Sicherheit falsch.“ Wenn die Satellitendaten nicht mit den Modellen übereinstimmen, gelten die Satelliten als falsch. Wenn die Satellitendaten so angepasst werden, dass sie übereinstimmen, wird diese Übereinstimmung als Bestätigung angeführt. Das System ist von vornherein manipuliert.
Die fünfte Lüge: Der CO-Fingerabdruck ₂ , der nie existierte
Die letzte Säule der IPCC-Argumentation ist die Zuordnung des Kohlendioxids. Zwar ist der CO₂-Gehalt ₂ in der Atmosphäre gestiegen, und menschliche Industrieaktivitäten emittieren CO₂ ₂ . Doch der IPCC geht noch weiter und behauptet, der Anstieg des atmosphärischen CO₂ ₂ sei fast ausschließlich anthropogen bedingt – natürliche Prozesse könnten ihn nicht erklären, und die Isotopenzusammensetzung des atmosphärischen CO₂ ₂ liefere einen eindeutigen menschlichen Fingerabdruck.
Diese Behauptung stützt sich auf das Berner Modell, ein mathematisches Modell, das die CO₂-Verteilung ₂ zwischen Atmosphäre und natürlichen Speichern beschreibt. Das Berner Modell weist eine besonders alarmierende Eigenschaft auf: Es prognostiziert, dass ein erheblicher Anteil des heute emittierten CO₂ ₂ Jahrhunderte oder Jahrtausende in der Atmosphäre verbleiben wird. Der fünfte Sachstandsbericht des IPCC (AR5) besagt, dass 15 bis 40 Prozent des emittierten CO₂ ₂ über tausend Jahre in der Atmosphäre verbleiben werden. Dies ist die Grundlage für CO₂-Budgets und Klimaneutralitätsziele.
Das Berner Modell wurde durch Beweise widerlegt, die seit sechzig Jahren offenkundig waren.
Als die atmosphärischen Atomtests Anfang der 1960er Jahre ihren Höhepunkt erreichten, wurde ein massiver Impuls radioaktiven Kohlenstoffs – Atom-14-Kohlenstoff (CO₂) – in die Atmosphäre freigesetzt. Dieser Impuls wird seither kontinuierlich verfolgt. Wäre das Berner Modell korrekt, müsste dieser Impuls langsam abklingen, wobei ein substanzieller permanenter Anteil zurückbliebe. Stattdessen klingt er exponentiell mit einer e-Faltungszeit von etwa siebzehn Jahren ab. Der Atom-14-Kohlenstoff ist verschwunden. Er durchlief das System und wurde innerhalb von etwa einem halben Jahrhundert vollständig absorbiert. Das multi-exponentielle Berner Modell mit seinem permanenten Anteil in der Atmosphäre ist schlichtweg falsch. CO₂ ₂ verbleibt nicht über Jahrtausende in der Atmosphäre. Es durchläuft das System innerhalb von Jahren bis Jahrzehnten.
Die Isotopenanalyse bestätigt dies. Das Kohlenstoffisotopenverhältnis im atmosphärischen CO₂ ₂ – die sogenannte Delta-13C-Größe – nimmt ab, da sich das isotopisch leichtere CO₂ aus fossilen Brennstoffen ₂ mit der Atmosphäre vermischt. Der IPCC wertet diesen Rückgang als eindeutigen Beweis für die menschliche Verursachung.
Eine 2024 von Fachkollegen begutachtete Studie von Prof. Demetris Koutsoyiannis untersuchte die tatsächlichen Isotopendaten eingehend und fand etwas, das mit der gängigen Lehrmeinung nicht vereinbar ist: Die Netto-Isotopensignatur des atmosphärischen Eintrags ist seit der Kleinen Eiszeit im Wesentlichen unverändert geblieben. Der Wert ist stabil geblieben – weltweit, an allen wichtigen Messstationen und während der gesamten Industrialisierungsphase. Ein sich verändernder menschlicher Einfluss müsste sich in einer veränderten Nettosignatur widerspiegeln. Das ist jedoch nicht der Fall. Die Isotopenzusammensetzung ist mit der Dominanz der natürlichen Biosphäre und einem nicht nachweisbaren menschlichen Beitrag vereinbar.
Der Grund dafür ist nicht mysteriös. Die Biosphäre – Pflanzen, Böden, Ozeane – zirkuliert jährlich etwa 25-mal mehr Kohlenstoff als die menschlichen Industrieemissionen. Natürliche Prozesse sind dabei mit Abstand dominant. Menschliche Emissionen stellen lediglich ein Rauschen dar, das einem gewaltigen natürlichen Signal überlagert ist. Und die Temperatur, nicht menschliche Aktivitäten, ist für den größten Teil dieses Signals verantwortlich: Die Erwärmung führt dazu, dass die Biosphäre mehr CO₂ ausstößt ₂ , was die atmosphärischen Konzentrationen erhöht. Die Kausalität verläuft von der Temperatur zum CO₂ ₂ , nicht umgekehrt.
5 x 0 = 0
Treten Sie einen Schritt zurück und betrachten Sie das Gesamtbild.
Die Argumentation des IPCC für eine vom Menschen verursachte Klimakatastrophe stützt sich auf fünf miteinander verknüpfte Indikatoren: die globale mittlere Oberflächentemperatur (GMST), die darauf abgestimmten Klimamodelle, den Wärmeinhalt der Ozeane, das aus der Wärme der Ozeane resultierende Energieungleichgewicht der Erde und die CO₂-Zuordnung ₂ . Jeder dieser Indikatoren wird als unabhängiger Beweis präsentiert. Zusammen bilden sie laut IPCC einen überwältigenden Beweis.
Sie sind jedoch nicht unabhängig. Sie bilden einen Kreis. Die globale mittlere Oberflächentemperatur (GMST) ist physikalisch bedeutungslos. Die Modelle sind auf die GMST abgestimmt und erben deren Bedeutungslosigkeit. Der Wärmegehalt der Ozeane wird durch ein Verfahren berechnet, das gegen die Gesetze der Messphysik verstößt und statistisch nicht von null zu unterscheiden ist. Die Energiebilanz der Erde wird aus dem Wärmegehalt der Ozeane abgeleitet und durch Satelliten bestätigt, die entsprechend justiert wurden. Die Zuordnung von CO ₂ basiert auf einem Modell, das durch Daten aus Atombombenversuchen widerlegt wurde, und einem Isotopen-Fingerabdruck, der in den Beobachtungen nicht existiert.
Jedes Glied der Kette ist von den anderen abhängig. Keines steht für sich allein. Der IPCC nennt dies „mehrere Beweisketten“. Doch fünf mal null ist immer noch null.
Was das bedeutet
Nichts davon beweist, dass sich das Klima nicht verändert oder das menschliche Aktivitäten keinen Einfluss auf die Atmosphäre haben. Das Klima verändert sich kontinuierlich, und das seit Milliarden von Jahren. Es zeigt lediglich, dass die spezifischen Kennzahlen, mit denen der IPCC die Krise quantifiziert – jede Zahl, die die Politik bestimmt, jede Zahl, die die Ausgaben rechtfertigt, jede Prognose, die die Öffentlichkeit verängstigt – auf einem Fundament beruhen, das den Gesetzen der Physik nicht standhält.
Die Internationale Organisation für Normung konnte keine globale Durchschnittstemperatur definieren, da diese den metrologischen Anforderungen nicht genügt. Vier verschiedene KI-Systeme, denen die mathematischen Argumente vorgelegt wurden, kamen unabhängig voneinander zum selben Ergebnis. Der Kaiser ist nackt – und selbst die Werkzeuge, die sein Hof zu seinem Schutz geschaffen hat, erkennen es.
Seit 38 Jahren wurde auf diesen Kennzahlen eine gewaltige wissenschaftliche und politische Infrastruktur aufgebaut. Billionen von Dollar an Ausgaben wurden damit gerechtfertigt. Karrieren, Institutionen und internationale Abkommen hängen von ihnen ab. Sie in Frage zu stellen, wurde als Ketzerei behandelt.
Doch die Physik verhandelt nicht. Eine Zahl ohne physikalische Bedeutung erhält diese nicht, nur weil einflussreiche Personen sie für nützlich halten. Eine Messung, die sich nicht von Null unterscheidet, wird nicht zum Beweis einer Krise, nur weil ein Satellit entsprechend justiert wurde. Ein Modell, das durch sechzig Jahre Atombomben-Kohlenstoffdaten widerlegt wurde, wird nicht gültig, nur weil es zehntausendmal zitiert wurde.
Die Arbeit ist getan. Die Artikel sind veröffentlicht. Die mathematischen Grundlagen stehen jedem zur Verfügung, der sie untersuchen möchte. Die Frage ist nun nicht wissenschaftlicher Natur. Es geht vielmehr darum, ob die Institutionen, die ihre Macht auf diesen Zahlen aufgebaut haben, endlich anerkennen werden, was die Physik ihnen seit jeher zu sagen versucht.
Der Kaiser ist nackt. Das war schon immer so. Und es ist längst überfällig, das auszusprechen.
Der Vortrag „Des Kaisers neue Kleider“ wurde auf der 16. Internationalen Klimakonferenz in Washington DC am 8. und 9. April 2026 gehalten















Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
- Bitte geben Sie Ihren Namen an (Benutzerprofil) - Kommentare "von anonym" werden gelöscht.
- Vermeiden Sie Allgemeinplätze, Beleidigungen oder Fäkal- Sprache, es sei denn, dass sie in einem notwendigen Zitat enthalten oder für die Anmerkung wichtig sind. Vermeiden Sie Schmähreden, andauernde Wiederholungen und jede Form von Mißachtung von Gegnern. Auch lange Präsentationen von Amateur-Theorien bitten wir zu vermeiden.
- Bleiben Sie beim Thema des zu kommentierenden Beitrags. Gehen Sie in Diskussionen mit Bloggern anderer Meinung auf deren Argumente ein und weichen Sie nicht durch Eröffnen laufend neuer Themen aus. Beschränken Sie sich auf eine zumutbare Anzahl von Kommentaren pro Zeit. Versuchte Majorisierung unseres Kommentarblogs, wie z.B. durch extrem häufiges Posten, permanente Wiederholungen etc. (Forentrolle) wird von uns mit Sperren beantwortet.
- Sie können anderer Meinung sein, aber vermeiden Sie persönliche Angriffe.
- Drohungen werden ernst genommen und ggf. an die Strafverfolgungsbehörden weitergegeben.
- Spam und Werbung sind im Kommentarbereich nicht erlaubt.
Diese Richtlinien sind sehr allgemein und können nicht jede mögliche Situation abdecken. Nehmen Sie deshalb bitte nicht an, dass das EIKE Management mit Ihnen übereinstimmt oder sonst Ihre Anmerkungen gutheißt. Wir behalten uns jederzeit das Recht vor, Anmerkungen zu filtern oder zu löschen oder zu bestreiten und dies ganz allein nach unserem Gutdünken. Wenn Sie finden, dass Ihre Anmerkung unpassend gefiltert wurde, schicken Sie uns bitte eine Mail über "Über Uns->Kontakt"Ordentliche Quellenangaben wären hilfreich.
Bitte hier nur unter vollem Klarnamen posten, siehe Regeln.
Dann halten Sie sich auch dran, und geben Sie keinen geschlechtslosen Fantasienamen an.
Richtig, wie ist ihr tatsächlicher Name oder sind Sie ein geschlechtsloses KI-Wesen?
Bitte hier nur unter vollem Klarnamen posten, siehe Regeln.
Dann halten Sie sich auch dran, und geben Sie keinen geschlechtslosen Fantasienamen an.
Richtig, wie ist ihr tatsächlicher Name oder sind Sie ein geschlechtsloses KI-Wesen?
Es gibt stattdessen viel bessere, korrekte und elegantere Evidenz, die die Klimawissenschaft falsifiziert. Um da drauf zu kommen muss sich aber halt mit der Materie tiefergehend beschäftigen.
Lustiger Weise liefert die „Konsenswissenschaft“ selbst die Daten die sie falsifiziert, und das auch noch auf höchstnotpeinliche Weise. Hier Daten aus dem Anhang von Chung et al 2010. Die Proxydaten sollen ein stark positives Wasserdampf-Feedback beweisen, wobei ein „Planck Feedback“ = 3,6 unterstellt wird. Für das WD-Feedback ergibt sich dann zB. 3,6 – 2,1 = 1,5W/m2.
Der Witz: die Regression ist einfach falsch. Bei stark verrauschten x-Werten ist eine lineare Einfachregression (OLS) nicht zulässig. Das weiß jeder Statistiker, aber kein Klimawissenschafter. Besonders falsch wird das Ergebnis, wenn die numerische Verteilung vertikal ist.
Eine Re-Analyse der Daten zeigt das wunderbar auf. Invertiert man die OLS Regression erhält man Werte ~5W/m2. Sinnvoller hier ist allerdings eine orthogenale Regression (TLS), die dann jedenfalls eine Steigung von weit über 3,6 liefert. Das heißt diese Daten zeigen tatsächlich, dass WD ein stark negatives Feedback ist! Und ja, da fährt der Zug drüber.
Wozu all diese Unwahrheiten?
„Der Atom-14-Kohlenstoff ist verschwunden. Er durchlief das System und wurde innerhalb von etwa einem halben Jahrhundert vollständig absorbiert.“
Nein, wurde es nicht. Zwar ist die C14 Konzentration wieder auf den „natürlichen“ Ausgangswert abgesunken, aber zugleich fiel and fält der C14 Wert eben wegen der anthropogenen Emissionen. Ich habe schon gezeigt, dass man die C14 Kurve (leider) sehr gut mit verschienden Modellannahmen rekonstruieren kann.
Was man sicher sagen kann ist, dass die extrem restrikten Modellannahmen in der RCP Szenarios wo die Atmosphäre mit einem sekundären Reservoir nur doppelter Größe kommunizieren würde, welches dann ebenfalls „voll läuft“, falsch ist. Das zeigen alleine schon die vorindustriellen anthropogenen Emissionen. Viel mehr lässt sich aus diesen Daten vorerst noch nicht ableiten.
https://greenhousedefect.com/basic-greenhouse-defects/co2-sinks-and-the-ocean
Es ist zweifellos wichtig, die Schwachstellen des Klimakonzeptes immer wieder aufzuzeigen, und hier hat der Artikel von Jonathan Cohler zweifellos seine Verdienste. Umso ärgerlicher, wenn dabei unsinnige Aussagen sich mit sinnvollen mischen.
Cohler ist sich nicht zu schade für die Behauptung, das Mitteln von Temperaturen sei: „Physikalisch bedeutungslos, genauso wie der Durchschnitt aller Telefonnummern in Washington, D.C.“ Dieser Vergleich hinkt nicht nur, er ist geradezu beinamputiert!
Ein Temperaturwert ist eine Maßzahl. Das heißt v.a., man kann sie nach kleiner, gleich oder größer ordnen, und grundsätzlich ist auch das Rechnen damit erlaubt.
Eine Telefonnummer ist etwas vollkommen anderes: es handelt sich um eine reine Codierung. Sie hat kein Maß und ist keine Zahl im eigentlichen Sinne, auch wenn zur Codierung Ziffern verwendet werden. Man könnte statt der Ziffern genau so gut Buchstaben nehmen oder irgendwelche chinesischen Zeichen oder meinetwegen Farbtöne.
Wenn Cohler also meint, mit Telefonnummern rechnen zu können, macht er nicht weniger als einen Kategorienfehler – also genau das, was er dem IPCC vorwirft (Zitat: „Es handelt sich um einen Kategorienfehler, der in jedem anderen Wissenschaftsbereich ein Forschungsprogramm sofort beenden würde.“)!
Diejenigen, die vehement behaupten, die ermittelte Globaltemperatur ist bedeutungslos und lässt keine Aussagen über den energetischen Zustand der Erde zu, können sicher ganz einfach folgende Fragen beantworten:
1. Warum stimmen die Jahreswerte so gut überein? Das klingt trivial, ist aber bei einer
bedeutungslosen Zahl ohne Bindung zur Realität nicht zu erwarten.
2. Wieso wird der Jahresgang der globalen Temperatur (spezifisch für die Wasser- und
Lufttemperaturen) immer wieder korrekt abgebildet, wenn dieser Wert keinen Bezug
zum Energiegehalt des Erdsystems hat? Bei den Meerestemperaturen sind das
Änderungen im Zehntelgrad-Bereich!
3. Warum lassen sich in den globalen Temperaturreihen gut untersuchte Oszillationen
(z.B. ENSO) oder Störungen (Vulkanausbrüche) klar erkennen?
4. Weshalb korreliert der gemessene Temperaturanstieg erstaunlich gut mit dem
Meeresspiegelanstieg?
Ich bin auf die Antworten gespannt. Beste Grüße, Ole
„4. Weshalb korreliert der gemessene Temperaturanstieg erstaunlich gut mit dem
Meeresspiegelanstieg?“
Welchen gemessenen Temperaturanstieg meinen Sie?
Und welchen korrelierenden Meeresspiegelanstieg haben Sie dabei im Blick?
Da die Temperaturzeitreihen gerade in der modernen Ära (seit 1980) kaum voneinander zu unterscheiden sind, dürfen Sie sich eine aussuchen. Egal ob Landmessstellen, Satellitendaten oder Reanalyse-Produkte: Darin sehen Sie immer einen Temperaturanstieg der zum Meerespiegelanstieg (Pegelmessungen oder Satellit) passt. Mittlerweile hat man die jeweiligen Teilursachen für den Anstieg so gut aufgeschlüsselt, dass das Gesamtbudget sehr gut hinkommt. Aber so kompliziert meinten Sie es wahrscheinlich nicht, oder?
Das klingt nach einer sauberen Korrelation, aber bei genauerem Hinsehen vermischen Sie hier ein statistisches „Oberflächentemperatur“-Konstrukt mit einer volumetrischen Energiebilanz.
Dass die Kurven optisch ähnlich verlaufen, heilt nicht die thermodynamischen Mängel des GMST-Konstruktes, der Nicht-Temperatur.
Der Meeresspiegel steigt z.B. unter anderem durch thermische Ausdehnung (sterischer Anstieg). Aber das Wasser dehnt sich nicht wegen der GMST-Statistik aus, sondern wegen der Energieaufnahme in der Tiefe (Ocean Heat Content).
Die GMST ist ein geometrisch flächenmäßiges statistisches Konstrukt aus Oberflächentemperaturen, dem man °C unthermodynamisch anhängt.
Der Meeresspiegel reagiert auf die totale Enthalpie des Ozeans über die gesamte Tiefe.
Dass beide steigen/sinken, zeigt nur, dass Energie ins/aus dem System fließt. Es legitimiert aber nicht die GMST als physikalisch korrekte Messgröße. Eine Korrelation ist keine Kausalität – das eine hängt von der Energiebilanz ab, das andere ist geometrische Statistik.
Wenn Sie von Pegelmessungen sprechen: Wie rechnen Sie die lokale Tektonik und Landabsenkungen (z. B. durch Grundwasserentnahme oder postglaziale Landhebung) heraus?
Viele Pegel zeigen einen Anstieg, der primär auf das Absinken des Landes zurückzuführen ist.
Diese lokalen Effekte mit einem globalen statistischen Temperaturmittelwert-Konstrukt zu korrelieren, ist methodisch gewagt, da man hier geologische Prozesse mit atmosphärischem Rauschen vermengt.
Sie erwähnen Satellitendaten beim Meeresspiegel. Wissen Sie, in welcher Größenordnung wir hier messen?
Wir sprechen von einem Anstieg von ca. 3 mm pro Jahr.
Die Messgenauigkeit der Satelliten (z. B. Jason-Missionen) liegt nach allen Korrekturen (Atmosphäre, Wellengang, Gezeiten) in einem ähnlichen Bereich.
Zwei extrem fehleranfällige, hochgradig prozessierte statistische Konstrukte (GMST und globale Altimetrie) miteinander zu korrelieren und daraus eine physikalische Gewissheit abzuleiten, ist eher ein mathematischer Zirkelschluss als eine thermodynamische Beweisführung.
Dass das „Gesamtbudget“ angeblich so toll hinkommt, liegt oft daran, dass die Parameter so lange angepasst werden (Homogenisierung, Fitting), bis die Modelle die Korrelation widerspiegeln. Modelle passen Modelle an passen Modell an.
Wenn die GMST thermodynamisch keine Bedeutung hat – was sie als statistisches Flächenmittel nicht haben kann – dann ist ihre Korrelation mit dem Meeresspiegel lediglich das gewünschte/beauftragte Indiz damit die Klimatistik weiterhin politisch gepampert wird, oder?
„2. Wieso wird der Jahresgang der globalen Temperatur (spezifisch für die Wasser- und Lufttemperaturen) immer wieder korrekt abgebildet, wenn dieser Wert keinen Bezug zum Energiegehalt des Erdsystems hat? Bei den Meerestemperaturen sind das Änderungen im Zehntelgrad-Bereich!“
Woraus schließen Sie, dass der Jahresgang der sogenannten globalen Temperatur korrekt abgebildet wird? Was meinen Sie mit korrekt abgebildet?
Es gibt einen typischen Verlauf für die Globaltemperaturen übers Jahr. Ich vermute, das haben Sie sich schon mal angesehen. Dieser Verlauf wird jedes Jahr ähnlich durchlaufen und hängt vom Sonnenstand ab. Hätte die gemittelte Globaltemperatur keinen Bezug zur physikalischen Wirklichkeit, wäre dieses Verhalten nicht zu erwarten, sondern eher ausgeschlossen. Verständlich?
Der Jahresgang des statistischen GMST-Konstruktes ist eher eine „geografische Kuriosität“, ein geometrischer Index geprägt durch die zufällige Verteilung der Kontinente.
Er beschreibt lediglich, dass die Nordhalbkugel „kontinentaler“ geprägt ist.
Er ist ein Maß für die saisonalen höheren Temperaturen von Landflächen gegenüber den Ozeanen, nicht für eine globale Erwärmung des Planeten im Halbjahrstakt.
Für die energetische Bilanz des Planeten ist er tatsächlich eher statistisches Rauschen – Unfug.
Man kann sehr viel mit einem statistischen Konstrukt zusammenbauen, der Jahresgang der GMST was soll der beschreiben, wenn schon die GMST keine Temperatur beschreibt, thermodynamisch hat das alles keine Bedeutung, oder?
Hallo Herr Lange, Sie haben mein Argument nicht wirklich verstanden. Wahrscheinlich habe ich es auch nicht gut dargebracht. Ein nächster Versuch: Wodurch der Jahresgang entsteht, ist mir durchaus klar. Erstaunlich dabei ist, oder besser sollte für Kritiker der Globaltemperatur sein, dass die statistische GMST-Größe diesen Jahresgang zuverlässig abbildet. Und das zeigt eindeutig, dass die gewählte statistische Methode einen Wert ergibt, der mit der physikalischen Realität gekoppelt ist. Wäre er das nicht, würde er den Jahresgang, aber auch ENSO-Schwankungen nicht wiedergeben können. Und es widerspricht Ihrer Aussage, dass die Jahreswerte ein Artefakt der Mittelung sind, das kurzfristige Schwankungen wegdämpft. Was Sie beschreiben, ist das Wegmitteln von Wetter. Und das ist korrekt. Aber den globalen Energiegehalt der Luft (wahrscheinlich zu 95% durch die Meerestemperaturen getriggert) scheint die GMST sehr genau zu repräsentieren. El Nino ist da ein gutes Beispiel, das Phänomen kann man aktuell quasi live mitverfolgen. Ja, da wird warmes Wasser an die Oberfläche befördert. Das erwärmt, neben der Sonne, die Luft über einen großen Bereich des Pazifiks. Global gesehen, ist das gar nicht so viel, bei einem moderraten El Nino vielleicht 0.1 Grad. Und dennoch sieht die GMST diese Veränderung. Und das jedes Mal. Wie erklären Sie das, wenn die GMST für Sie nur ein statistisches Artefakt, ohne Aussagekraft ist?
„1. Warum stimmen die Jahreswerte so gut überein? Das klingt trivial, ist aber bei einer bedeutungslosen Zahl ohne Bindung zur Realität nicht zu erwarten.“
Womit stimmen die Jahreswerte so gut überein?
Die global gemittelten Werte übers Jahr sind immer sehr ähnlich und unterscheiden sich nur um wenige Zehntelgrad. Und das auch nur, wenn El Nino und La Nina ihren Einfluss ausüben. Auch hier das Gleiche: Anscheinend wird der Globalwert vom Energiezustand der Erde begrenzt und konstant gehalten. Ansonsten wären viel stärkere Fluktuationen zu erwarten.
Dass die Jahreswerte so stabil sind, liegt nicht an einer energetischen Begrenzung, sondern an der statistischen Glättung. Wenn man tausende Würfel gleichzeitig wirft, kommt fast immer ein Mittelwert von 3,5 heraus. Das liegt nicht daran, dass eine Kraft die Würfel ‚begrenzt‘, sondern dass sich die extremen Ausreißer (Eiszeit in Sibirien vs. Hitzewelle in Australien) mathematisch gegenseitig aufheben.
El Niño beweist, dass die GMST eben nicht direkt vom globalen Energiezustand gesteuert wird. Bei El Niño wird kein einziges Joule Energie zusätzlich von der Sonne aufgenommen (aber mehr abgestrahlt!); es wird lediglich warmes Wasser aus der Tiefe an die Oberfläche des Pazifiks geschoben. Die GMST schießt hoch, obwohl die Gesamtenergie der Erde gleich bleibt. Das zeigt: Die GMST ist eine reine Oberflächenstatistik, die bestenfalls auf interne Umverteilungen reagiert, nicht auf den energetischen Gesamtzustand, den sie nie repräsentiert.
Ergo: Die Konstanz der GMST-Jahreswerte beschreibt keine thermodynamische Stabilität, es ist eine künstliche statistische sehr flache Fläche, ein statistisches unphysikalisches Nebenprodukt einer riesigen homogenisierten Stichprobe. Dass die Werte so eng beieinander liegen, ist ein Artefakt der Mittelung über ein extrem träges System (die Ozeane), das kurzfristige Schwankungen wegdämpft.
„3. Warum lassen sich in den globalen Temperaturreihen gut untersuchte Oszillationen
(z.B. ENSO) oder Störungen (Vulkanausbrüche) klar erkennen?“
Die „Nichtdurchgängigkeit“ in korrekten Anzeigen – also die Tatsache, dass diese Signale manchmal verschwimmen – verdeutlicht, dass die sogenannte globale Oberflächentemperatur (GMST) allein kein vollständiges (geeignetes) Maß für den energetischen Zustand unseres Planeten ist. GMST hat zudem große historische Datenschwäche.
Man kann es so ausdrücken: Die Oberflächentemperatur ist eher das „Fieberthermometer“, während der Energiegehalt der Ozeane (Ocean Heat Content) das eigentliche „Bankkonto“ der Erderwärmung darstellt.
Wobei sodann die gemittelte GMST und deren Anomalie bezüglich willkürlichem Normal-Referenzpunkt als ein reines ideologisch-politisches Konstrukt benutzt wird, zur Ausgabe des politischen 1,5 °C-Ziels.
Und weil das statistische Konstrukt GMST so „zappelig“ und ungenau ist (wegen ENSO etc.), ist sie als wissenschaftliches Langzeit-Maß eigentlich schlechter geeignet als z.B. der Wärmegehalt der Ozeane. Aber gerade weil sie so zappelig ist, bietet sie der Politik ständig neue Schlagzeilen (z.B. „Heißester Monat seit Aufzeichnungsbeginn“).
Die GMST-Nutzung zeigt das geschmeidige Zusammenwirken von politisch bezahlter Klimatistik, Medien und Politik sehr gut, oder?
Die eigentliche Frage dahinter: Warum ist die GMST nie genormt worden, warum sind diesbezügliche Versuche der Klimatistik an der Wissenschaft gescheiter?
Sorry, aber da verstehe ich Ihre Bemerkungen nicht. Mir ging es darum, dass die gemittelte Globaltemperatur sensitiv genug ist, um typische klimatische Ereignisse (wie ENSO) wiederzugeben. Und das sehr zuverlässig in Stärke und temporärer Auflösung. Wie soll das ohne Kausation funktionieren?
Genau das macht GMST eben nicht stringent und falsch sensitiv.
Beispiel Energieumverteilung:
Bei einem El Niño gelangt Wärme aus dem Ozean in die Atmosphäre. Die GMST steigt sprunghaft, obwohl die Gesamtenergie der Erde (Ozean + Luft) sich nicht im selben Maße ändert.
Was zeigt sie also an? Eine globale Erwärmung, wie behauptet?
Nein eine Energieumverteilung vom Ozean zur Atmosphäre, damit ist GMST nicht sensitiv bezüglich des globalen Gesamtsystems, nicht sensitiv bezüglich des globalen Energieinhaltes, für das sie aber angeblich stehen soll, oder?
Warum ist die GMST falsch sensitiv? Sie zeigt doch genau das, wofür sie steht, die globale Lufttemperatur. Und diese wiederum spiegelt den Wärmegehalt der Meeresoberfläche wider, während ENSO-Oszillationen gut zu beobachten. Und ja, sie zeigt damit auch die globale Erwärmung an, denn (nahezu) jeder El Nino Peak ist wärmer als der vorherige.
Aber es ging bei meiner Argumentation vor allem darum, darauf hinzuweisen, dass die GMST auf bekannte natürliche Veränderungen im System Erde (Jahresgang, ENSO) in der erwartbaren Größenordnung und in der richtigen zeitlichen Auflösung reagiert und damit auch einen sinnvollen Index für anthropogene Einflüsse darstellt. Nicht mehr, aber auch nicht weniger.
Dann sagen Sie uns doch bitte wo, wann, und in welcher Höhe sie gemessen wird? Wenn Sie das nicht können, dann sollten Sie akzeptieren das dies eine künstlich geschaffner Wert ist. Ohne Sinn und Verstand für den Zweck für den sie erfunden wurde.
Diejenigen, die vehement behaupten, die ermittelte Globaltemperatur ist bedeutungslos und lässt keine Aussagen über energetischen Zustand der Erde zu, können sicher ganz einfach folgende Fragen beantworten:
1. Warum stimmen die Jahreswerte so gut überein? Das klingt trivial, ist aber bei einer
bedeutungslosen Zahl nicht zu erwarten.
2. Wieso wird der Jahresgang der globalen Temperatur (spezifisch für die Wasser- und
Lufttemperaturen) immer wieder korrekt abgebildet, wenn dieser Wert keinen Bezug
zum Energiegehalt des Erdsystems hat? Bei den Meerestemperaturen sind das
Änderungen im Zehntelgrad-Bereich!
3. Warum lassen sich in den globalen Temperaturreihen gut untersuchte Oszillationen
(z.B. ENSO) oder Störungen (Vulkanausbrüche) klar erkennen?
4. Weshalb korreliert der gemessene Temperaturanstieg erstaunlich gut mit dem
Meeresspiegelanstieg?
Ich bin auf die Antworten gespannt. Beste Grüße, Ole
Siehe dazu auch
Klima-Physik: Wie fundierte Wissenschaft das CO2-Narrativ korrigiert
2026_04_19
https://tkp.at/2026/04/19/klima-physik-wie-fundierte-wissenschaft-das-co2-narrativ-korrigiert/
CERES Team Shines at Heartland Institute’s ICCC16 Bold Voices for Climate Realism
Mit 3 Foliensätzen der Vortragenden
https://www.ceres-science.com/post/ceres-team-shines-at-heartland-institutes-iccc16-conference
Aller Vorträge auf der ICC
https://climateconference.heartland.org
Ja, der Kaiser ist nackt! Man kann das nicht oft genug sagen. Nur ist m. E. auch diesmal – wie leider so oft – in der Beweisführung ein Fehler enthalten: Eine Mittelwertbildung ist ein rein mathematischer Vorgang, den man immer manchen darf. Die Mathematik ist geduldig, es kommt immer nur darauf an, welche Schlüsse man daraus zieht. Und wahrscheinlich kann man sogar immer auch irgendeinen Nutzen aus einem Mittelwert ziehen. Das gilt selbst bei dem im Beitrag angeführten Trivial-Beispiel der Postleitzahlen aller Einwohner New Yorks: Wenn man außerhalb von New York ist, dann kann auch dieser Wert ein brauchbarer Hinweis auf „die richtige Richtung“ sein, wenn man eine Karte mit eingetragenen Postleitzahlen hat.
Und so ist es auch mit Temperaturmittelwerten: Manche daraus abgeleitete Aussage ist zulässig, manche nicht. Ob z. B. ein bestimmtes Land eher in Äquatornähe oder eher in Polnähe liegt, das kann aus der mittleren Temperatur sogar zuverlässiger beurteilt werden als aus zwei Einzelmessungen. Oder auch, ob es die Kleine Eiszeit gegeben hat oder nicht, ist aus Jahresmittelwerten recht zuverlässig beurteilbar. Das Gleiche gilt, als letztes Beispiel, auch für die Frage, ob es in den USA in den 30-er Jahren ähnlich warm war wie heute und dazwischen kühler. Temperatur-Mittelwerte sind nicht nur zulässig, sondern für manche Dinge auch aussagkräftig.
Der Kaiser ist nicht nackt, weil er Temperaturen mittelt, sondern er ist nackt, weil er bei dieser Mittelung trickst und weil er bei den gezogenen Schlüssen nicht ausreichend auf deren Tragfähigkeit achtet, z. B. bezüglich ausreichender Messgenauigkeit. Auf diese Fehler aufmerksam gemacht zu haben, ist ein großer Verdienst des Beitrags von J. Cohler. Nur leider wird der gesamte Beitrag m. E. durch die genannte Fehlbeurteilung der Mittelwertbildung entwertet. In einem Kommentar zum Beitrag heißt es auch treffend: „Auch Einstein hat sinngemäß schon gesagt, wenn eine Theorie an einem Punkt falsch ist, ist das gesamte Konstrukt falsch“. Das war zwar umgekehrt gemeint, es kann aber zu leicht auch auf den Beitrag von J. Cohler angewendet werden: Aussage zur Mittelung falsch, alles falsch?
Der Kaiser ist doch nackt, weil es ihm nämlich viel zu heiß geworden ist in unserem beinahe brennenden Vaterland. Der stürbe einen Hitzetod, trüge er standesgemäß einen Hermelin…
Dieser Kaiser war schon immer nackt und EIKE sagt das seit 2 Jahrzehnten täglich.
.
„CO2-Messungen im 19. Jahrhundert: Was Chemiker fanden und warum es die Klimaforschung ignoriert
20. April 2026″
1857 „Das entspricht exakt 415 ppm. Die Einzelwerte schwankten je nach Wetter, Standort und Jahreszeit zwischen etwa 315 und 574 ppm.“
1888 – „„CO₂ findet sich zu etwa 0,04 Proz. in der Atmosphäre“.“
(Was beim Artikel fehlt, man vergißt die tägliche Schwankung nach Uhrzeit zu erwähnen, wie man schon lange bei EIKE lesen konnte)
Im 19. Jahrhundert gab es auch schon Lügen-Presse.
Ordentliche Quellenangaben wären hilfreich.
Die Globaltemperatur ist bedeutungslos!
Mr. Cohler gibt eine gute Beschreibung der Situation:
Eine Globaltemperatur (GMST) als Mittelwert von Temperaturen aus dem Flickenteppich der Klimazonen herauszurechnen, ist zwar im Prinzip möglich, aber dieser Wert ist völlig bedeutungslos, denn eine Temperatur beschreibt physikalisch allerhöchstens den Zustand eines begrenzten spezifischen physikalischen Systems, dessen Zustandsgleichung eindeutig definiert ist.
So kann man z.B über die Temperatur einer Kaffeetasse sprechen und daraus deren Energieinhalt berechnen, man kann sie aber nicht mit der Temperatur einer danebenstehenden anderen Kaffeetasse vergleichen und daraus eine „Kaffeetassenglobaltemperatur“ mitteln. Der Wert ist völlig sinnlos, da Temperatur keine „Erhaltungsgröße“ wie z.B. die Energie ist. Eher ließe sich die Summe der Energien (proportional der Temperatur mal der Masse mal weiterer physikalischer Werte) der einzelnen Tasseninhalte mitteln. Diese mittlere Energie hat aber nichts mit der „mittleren Kaffetassentemperatur“ zu tun!
So erhöht auch ein verstärkter Wärmeenergieaustausch von der Tropen hin zu den Polen, der zur Zeit zuzunehmen scheint – aus welchen Gründen auch immer -, eine „Globaltemperatur“ nicht unerheblich, ohne daß irgendein Treibhauseffekte dafür verantwortlich wäre.
Es fällt einem immer wieder auf, daß auf IPCC-Seite ab und zu rechte „Klein-Fritzchen-Physik“ betrieben wird, so daß man sich fragt, wo manche dieser Herren-Damen ihre Physik gelernt haben.
Das Fazit ist eindeutig: Aus einer Globaltemperatur (GMST) lassen sich keine ,,Klimaaussagen
herleiten.MfG
G.Wedekind
Die wissen das ganz genau. Und lügen trotzdem.
Sehr geehrter Herr Michael Mechtel, danke für den Kommentar.
… wenn Sie die Energien in Ihren Kaffeetassen mitteln, wie Sie vorschlagen, dann hat das sehr wohl etwas mit deren mittlerer Temperatur zu tun, sehr viel sogar!
… natürlich, wenn man nur wissen will, ob der Kaffee heiß genug ist, oder wenn man einfach definiert, daß Klimaänderung nichts als eine Änderung der Globaltemperatur sei. Energetisch gesehen, ist aber z.B. eine Temperaturänderung in Wüstengebieten etwas völlig anderes als in Regenwaldgebieten.
Eigentlich fehlt eine saubere Definition, was man unter den sehr komplexen Begriffen „Klima“ und „Klimaänderung“ verstehen sollte. Daß das IPCC versucht, „Klimaänderung“ über ein Energieungleichgewicht zu definieren, ist vielleicht ein erster Schritt in die richtige Richtung, aber das ist, wie oben im Bericht erwähnt, in wegen seiner geringen Größe im Vergleich zu den gesamten Energieflüssen praktisch nicht meßbar.
MfG
G.Wedekind
„Klein Fritzchen Physik“, das ist Absicht. Die wollen das Geschäftsmodell CO2-Klimalüge weiter am Laufen halten. Denn davon leben diese Leute.
Man kann nicht aus mehreren Tassen eine „Kaffeetassenglobaltemperatur“ mitteln?
Herr Wedekind, boshafterweise stelle ich mir folgende Situation vor: ich bin Qualitätsprüfer für Restaurants und möchte wissen, ob der Kaffee in einem Betrieb heiß genug ausgeliefert wird. Ich messe also in jeder Tasse Kaffee, die einem Kunden serviert wird, die Temperatur (eine fiktive Situation, versteht sich). Dann kann ich daraus eine Mitteltemperatur bilden, um zu sehen, wie gut eine Sollvorgabe eingehalten wird. Das gleiche kann ich ein Jahr später bei einer Wiederholungsprüfung nochmals machen und anhand der Mittelwerte beurteilen, ob sich die Qualität verändert hat und wenn ja, ob zum besseren oder zum schlechteren.
Nur mal als Idee. Damit will ich aber weder den Artikel, den ich gut finde, noch Ihren Kommentar schlechtreden. Nur ein Kritikpunkt noch: wenn Sie die Energien in Ihren Kaffeetassen mitteln, wie Sie vorschlagen, dann hat das sehr wohl etwas mit deren mittlerer Temperatur zu tun, sehr viel sogar!
Ich wuerde sie nicht als Qualitaetspruefer einsetzen!
Sie messen die Temperatur, wenn sie unter dem Sollwert ist, ist die Qualitaet nicht erreicht. Sie zaehlen die Faelle und brauchen keine Mitteltemperatur, die hier keine Bedeutung hat.
……Wie der IPCC ein 38-jähriges Klimaimperium auf einem Lügengebäude errichtete….Wird im Artikel wunderbar dargestellt. Aber das ist nicht das Problem. Die Frage lautet, wie reißen wir das Lügengebäude wieder ein.
Erst die Ursache feststellen, dann zur Wirkung übergehen. Soweit die Theorie.
Ich fürchte allerdings das das Einreißen dieses Blendwerks mindestens solang dauert wie die Gehirnwäsche. Also rd. 40 Jahre.
Schneller wird es gehen, wenn die Leute merken es geht ihnen nicht nur ans Geld, sondern auch an den Arbeitsplatz, die Wohnung und alles was Ihre Mütter und Väter aufgebaut haben. Dann wird es schneller gehen, doch zu welchem Preis.
„Die Frage lautet, wie reißen wir das Lügengebäude wieder ein.“
Herr Kowatsch, nur keine Eile, das Lügengebäude wurde absichtlich errichtet, was dank entsprechend geschulter Bevölkerung gut geklappt hat. Wenn es also seinen Zweck erfüllt hat, wird sich keiner mehr drum scheren.
Der Zweck ist, das weltweite Finanzsystem kontrolliert gleichzeitig zu zerstören. Gleichzeitigkeit ist wichtig, damit kein Volk einen zeitlichen Startvorteil hat mit der neuen Wirtschaftsform. Dem Kapitalismus.
Was soll man sonst davon halten, wenn das Land das die Weltleitwährung betreibt, den weltweiten Handel selbst durch Zölle und Blockaden behindert?
Also den CO2-Absorptionstricher und die von O3, CH4 und Wasserdampf kann man im Auststrahlungsspektrum sehen.
Dann erläutern Sie doch mal wie sich das auf die Temperatur der Luft auswirkt, wie machen sog. GHGs Luft warm, um 33K? Ihr „Argument“ sagt nichts darüber aus wie der Effekt technisch gesehen funktionieren soll, ein sog. Nothing-Burger.
„Was ist das?“ – „Blaues Licht.“ – „Und was macht es?“ – „Es leuchtet blau.“ – John Rambo + Hamid
Und was sagt dies in Verbindung zu obigem Artikel nun aus? Oder hat das irgendwer in Zweifel gezogen und ich habs schlicht überlesen?
Auch die Behauptung, die Erde wäre in einem permanenten energetischen „Ungleichgewicht“ ist unphysikalisch!
Weil was würde das bedeuten, wenn wie von IPCC behauptet +0,7 ± 0,2 Watt pro Quadratmeter permanent mehr eingespeichert als abgegeben würden? Nehmen wir der einfachheit halber +0,8 W/m². Nach einem Tag wären das je m² +19,2 Wh, nach einem Monat 595 Wh oder ca. 0,6 kWh, nach einem Jahr ca. +7,2 kWh pro m², usw.
Es würde also bedeuten, bei angenommen unveränderter Sonneneinstrahlung würde sich die Erde ununterbrochen energetisch anreichern, wäre also unfähig, das zu tun, was das grundsätzliche physikalisch Prinzip des Energiegleichgewichts erfordert!
In der Wirklichkeit kann man schön beobachten, wie auf jede Tageserwärmung eine Nachtabkühlung erfolgt, es also keinen sich kumulierenden „Wärmeübertrag“ gibt.
Seit langem die im physikalischen Sinne sinnvollste Beschreibung der „Klimasituation“. Man kann nur hoffen, dass diese Darstellung in die Erziehung und Ausbildung nachfolgender Generationen eingeht.
Der MgKw ist letztlich eine sozialistische Idee. Und der tiefste Kern der Sozialisten ist es, ALLES, und wirklich ALLES selber und möglichst zentral zu kontrollieren. Ein Wetter dass seine eigenen Gesetze hat und tut was es will, das geht gar nicht in deren Ideologie. Das Wetter hat sich ihnen unterzuordnen. Die Sozialisten lehnen einen Schöpfergott ab und beanspruchen dessen Position für sich.
„Wie der IPCC ein 38-jähriges Klimaimperium auf einem Lügengebäude errichtete“
Ein aufschlussreicher Artikel, der den Missbrauch der Physik mit dem Ziel, die Mehrheit von Physik Unkundigen hinter das Licht zu führen, beleuchtet. Die überwiegende Zahl von Menschen glaubt an eine Globaltemperatur, die es physikalisch absolut nicht geben kann. Es ist eine erfundene vollkommen sinnlose Größe.
Tatsächlich ist das Ganze nur eines:
Ein gewaltiger und international übergreifender krimineller Akt! Von wenigen ausgedacht, die sich mit Institutionen und Zusammentreffen bei Schampus und Kaviar daran bereichern. Es geht nie dabei um Klima oder Klima-Änderungen, sondern Täuschung und Bereicherung aufgrund von Vermögens-Umverteilungen ohne Leistungsaustausch.
„Schon 2010 sagte Ottmar Edenhofer, damaliger Direktor des Potsdam Instituts für Klimafolgenforschung, in der NZZ:
„Wir verteilen durch die Klimapolitik de facto das Weltvermögen um […]. Man muss sich von der Illusion frei machen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik fast nichts zu tun.“ (=> das „fast“ hätte er sich sparen können, es ist eine weitere Täuschung. Das hat mit Umweltpolitik gar nichts zu tun, wäre einzig richtig gewesen.)
Klarer kann die Beteiligung an einem kriminellen Akt nicht formuliert werden.
Wer notgedrungen die Qualitätsmedien verfolgt, dem fallen sofort genügend Personen ein, die zum persönlichen Vorteil dieser einmaligen Volksverblödung huldigen, und sei es nur als Erklärbär oder Wetterfrosch, der statt Wetter „Klima“ präsentiert. Greta und Luisa sind dabei nur die ganz kleinen Fische! Die größeren findet man in der Politik mit der besonderen Auslegung ihres Amtseids zum Wohle des Volkes!
Jede Macht- und Ausbeutungskonstellation bedient sich gern eines Narratives, mit einen Kollektivistischen lassen sich alle gesellschaftlichen Überschüssen sehr leicht in die gewünschte Richtung kanalisieren (De-facto-Enteignung), meist unter Verwendung von Zuckerbrot (irgendeinem Heilsversprechen zur Erreichung von Opferbereitschaft) und Peitsche (vom leichten Stupsen über Steuern, Abgaben, Druck bis zu Strafen).
Aus den Narrativen werden dann die Missionen abgeleitet, die zum Ende der Freiwilligkeit führen. Bei den Narrativen und Missionen bestimmt der erreichbare Konsens die Nützlichkeit, nicht der Wahrheitsgehalt.
Solche Narrative – egal ob religiös, politisch oder ökologisch – folgen einer fast identischen Strukturlogik. Man kann sie als „Säkulare Religionen“ bezeichnen, da sie die gleichen psychologischen und soziologischen Knöpfe drücken, um Massen zu bewegen.
Es lassen sich folgende wesentliche Gemeinsamkeiten beobachten:
Das Narrativ ist der Köder (Zuckerbrot), die Organisation ist die Falle (Peitsche/Struktur), und der Nutznießer ist derjenige, der am Ende die Beute verwertet.
Der Konsens ist dabei das Schmiermittel, das die Moral liefert, das dafür sorgt, dass die Maschine ohne allzu viel Reibungshilfe (Gewalt) läuft und alles machttechnisch stabil bleibt.
Wahrheiten werden sekundär, ob nun historisch und/oder wirtschaftlich und/oder physikalisch.
Ottmar Edenhofer Direktor vom PIK, ein Klimaguter, ein Klima-Hohenpriester, hat in 2010 genau das gemeint, Klimaschutz als ökonomisches Steuerungselement, die „Mission“ ist das Vehikel, aber das Ziel ist die systemische Kontrolle über die globalen Stoff- und Finanzströme und damit über die Menschen, oder?
PIK-Edenhofer sagte 2010: „Wir verteilen durch die Klimapolitik de facto das Weltvermögen um […]. Man muss sich von der Illusion frei machen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik nichts zu tun.“
So ist es, deshalb hab ich als aktiver Natur-und Umweltschützer, ausgezeichnet mit zig Umweltpreisen – ohne diese Aussage zu kennen- mich deutlichst dem Kampf gegen diese CO2-Klimalüge verschrieben. Wir müssen die Natur- und Umwelt schützen, Klimaschutz zersört vielfach die Natur und Umwelt. KLimaschutz ist ein Geschäftsmodell, das die Demokratie Deutschlands bedroht und unser Geld will.
Eine sehr gute Zusammenfassung der Lügen des IPPC. Wenn man die Physik ignoriert, die keine Beweise für den menschgemachten Klimawandel findet ist alles andere falsch gemäß 5×0=0.
Ja es ist richtig, mit Mathematik und mit dem Frisieren von Zahlen und Computermodellen kann man viel ausrechnen, aber es bleibt falsch weil es nicht die Physik beschreibt.
Auch Einstein hat sinngemäß schon gesagt, wenn eine Theorie an einem Punkt falsch ist, ist das gesamte Konstrukt falsch.
Der vorliegende Artikel/ Vortrag von Herrn Cohler sollte m.e. als Vorlage für eine Debatte im Bundestag und im EU-Parlament herangezogen werden um eine Änderung bezüglich der Energie-und Wirtschaftspolitik in Europa zu erreichen.
Der Glaube an den „menschengemachten Klimawandel“ ist stärker als alle Fakten, wir werden es erleben…
Kann man mal die diversen tiefgestellten 2 bereinigen?
Danke für diesen Beitrag, der die Realtät der Klimareligion exakt wiedergibt. Die hat nämlich gar nichts an Beweisen, dass CO2 der Haupttemperaturregler sein soll und in erster Linie auch noch das anthropogene CO2. Und deren Behauptung, man müsse das KLima wieder in den Griff kriegen durch Verminderung des CO2-Ausstoßes.
Was werden nun die Reaktionen sein, hier bei EIKE
1) Die Gläubigen mit physikalischem Hintergrund werden Nebengleise suchen im Artikel oder in Kommentaren und dann über diese Nebensächlichkeiten diskutieren, um den tatsächlichen Fakten des Artikels auszuweichen.
2) Die überzeugten Laien der Klimalüge, also mein mehr oder weniger überzeugter Umgebungskreis, die Medien, die NGOs uns Politiker?
Die kurzerhand sagen, alles schön und gut, was von Herrn Limburg geschrieben wurde, aber es wurde doch wärmer, die Gletscher schmelzen und früher war der Winter im Alpenvorland doch viel länger.
Und darüber sind sich nun alle einig und sehen allein diese richtige Beobachtungen als Beweis der menschenverschuldeten CO2-Erwärmung. Erfolge im Ausreden dieser Glaubensüberzeugung hatte ich stets mit der Argumentation mit dem stets steigenden Wärmeinseleffekt. Der Mensch macht das Klima wärmer in Deutschland, durch Bebauung, gestiegener Energieverbrauch, Bevölkerungszunahme und Trockenlegung der Landschaft. Dass die ständige WI-zunahme nur ein Grund von vielen für die Erwärmung seit 1987/88 ist, laß ich dann weg bis neue Frage entstehen.
Irgendwo muss man ansetzen, um für die Allgemeinheit das CO2-Lügengebäude zum Einsturz zu bringen. Jeder muss seinen Hebel selbst finden, aber eins müssen wir alle: Sofort mit dem Bekämpfen des CO2-Klimaglaubens beginnen, denn dieser ist eine glatte Lüge, auf der ein weltweites Geschäftsmodell errichtet wurde.
Also bitte beginnen.
Das Problem, Herr Kowatsch, für uns sind diese Widersprüche eine klare Sache, für die Apologeten der Klimakirche auch, sie werden es nur vehement abstreiten weil ihre Ideologie, oder ihre wirtschaftliche Abhängigkeit, es gebietet. Der große, ganz große, Rest versteht weder die Aussagen des IPCC noch die hier vorgebrachten Widerlegungen. Für die Masse der Menschen in Deutschland könnte man diese Diskussion auch in Mandarin führen ohne dass sich ihr Verständnis dadurch ändern würde. Sie können die Worte lesen aber niemals deren Sinn verstehen. Was bleibt ist der „Glaube“, die Frage wem glaubt man seine Geschichte und da haben die netten Damen und Herrn von ARD und ZDF noch immer 1 km Vorsprung vor jedem „Klimaleugner“. Die Deutschen werden es auf die harte Tour lernen müssen, erst der ökonomische Verfall wird die Fundamente der Klimakirche erodieren, Argumente haben da keine Chance.
Ganz ähnlich sehe ich das auch. Ich befürchte, dass erst beim völligen Zusammenbruch der Energieversorgung die Chance zur Vernunft zurück zu kommen besteht. Der größere Teil der Bevölkerung wird dann zwar immer noch kein Verständnis haben, aber man muss halt was anderes machen. Und weiter befürchte ich, dass es bei der ARD- und ZDF-Journaille plötzlich viele Wendehälse gibt, schließlich habe man ja über die Energiewende bloß (neutral) berichtet.
Natürlich, man wurde von bösen Mächten falsch informiert, sonst hätte man das Märchen der CO2 Klimakrise den Leuten ja nie erzählt…. 🤮
Natürlich werden die sich so rausreden, deshalb ist es nowendig, die bösen Mächte jetzt schon deutlich namentlich zu benennen: Das PIK und andere Voodoo-Wissenschaftler im Rundfunk und Fernsehen.
Schon wer wie Sven Plöger versichert, den Klimawandel gibt es wirklich, gehört am Rande zu dieser Kategorie, denn niemand behauptet das Gegenteil.
Herr Kowatsch, das machen wir doch hier schon die ganze Zeit. Aber wer kennt uns schon. Ist doch nur ein ganz kleiner Kreis. Auch bei tkp ist heute ein guter Artikel über die CO2 Lüge. Aber wer kennt auch tkp? Vielleicht müsste Tichy sich mehr des Themas annehmen, da TE einen größeren Kreis erreicht, vermute ich.
Die verblödungs-Orgie trägt neue Früchte. Frage mich schon ein paar Stunden mit welchem Wissen ich damals eigentlich praktiziert habe und wofür ich im Studium Biochemie hatte, wenn man das einfach mit einem Blick aus dem Fenster erledigen kann. :-O
https://www.forschung-und-wissen.de/nachrichten/medizin/co-konzentration-im-menschlichen-koerper-wird-bald-kritisch-133711139
Wer solchen Schwachsinn glaubt wird seelig? Seit Jahrtausenden lagen die CO2-Werte der Luft teilweise höher und trotzdem gab es Menschen und Tier und Pflanzen. Sicher ist das nur eine sinnlose Studie um weitere „Forschungsmittel“ abgreifen zu können. Als Biochemiker sollte Sie eigentlich auch wissen, dass mehr CO2 auch ein Wachstum der Vegetation ergibt und somit auch mehr O2 für Mensch und Tier.
Sehr geehrter Herr Steínmetz, wie bedauerlich, dass Sie Ihre kostbare Zeit mit Biochemiestudium und jahrelanger Praxis verschwendet haben! Sie hätten doch einfach Germanistik und Philosophie studieren und anschließend als Kinderbuchautor Weltbestseller schreiben sollen – selbstverständlich übersetzt auch in die Khoisansprachen mit ihren wunderbaren Klick- und Schnalzlauten, denn Bildung kennt ja bekanntlich keine Grenzen, Hauptsache sie bleibt schön flach.
Anschließend Mitglied bei den Grünen werden – und schon hätten Sie via blitzschneller Telepathie sämtliche naturwissenschaftlichen Kenntnisse und Fertigkeiten erworben, könnten mühelos Quantensprünge vollführen (ich meine ausdrücklich nicht die Füße) und wären geradezu prädestiniert, Wirtschaftsminister zu werden.
Denn wozu braucht man Biochemie, Physik oder jahrzehntelange Erfahrung im Bereich Forschung, wenn ein kurzer Blick aus dem Fenster – am besten bei Sonnenuntergang, mit einem fair gehandelten Kräutertee in der Hand – sämtliche wissenschaftlichen Erkenntnisse der letzten 300 Jahre mühelos ersetzt?
Die Verblödungs-Orgie, wie Sie es so treffend nennen, dankt Ihnen für Ihre Geduld. Sie haben sie offensichtlich nicht verdient.