[Alle Hervorhebungen aus dem Original übernommen]
Jahrelang haben uns die Klimawissenschaftler versichert, dass die homogenisierten Temperaturdaten der NOAA – insbesondere das Global Historical Climatology Network (GHCN) – der Goldstandard für die Erfassung der globalen Erwärmung sind. Was aber, wenn die auf diese Daten angewandten „Korrekturen“ mehr Rauschen als Signal erzeugen? Eine kürzlich in der Fachzeitschrift Atmosphere veröffentlichte Studie hat schockierende Ungereimtheiten in den Anpassungen der NOAA aufgedeckt, die ernsthafte Bedenken hinsichtlich der Zuverlässigkeit der homogenisierten Temperaturaufzeichnungen aufkommen lassen.
Die Studie, durchgeführt von einem Team unabhängiger Klimaforscher unter der Leitung von Peter O’Neill, Ronan Connolly, Michael Connolly und Willie Soon, bietet eine akribische Untersuchung der Homogenisierungs-Verfahren der NOAA. Diese Forscher, die für ihr Fachwissen im Bereich der Klimadatenanalyse und der kritischen Bewertung der gängigen Klimamethoden bekannt sind, haben über mehr als ein Jahrzehnt ein umfangreiches Archiv des GHCN-Datensatzes der NOAA gesammelt. Ihre Forschung umfasste die Verfolgung von über 1800 täglichen Aktualisierungen, um zu analysieren, wie sich die Anpassungen der NOAA an historische Temperaturaufzeichnungen im Laufe der Zeit veränderten.
Ihre Ergebnisse zeigen ein höchst beunruhigendes Muster von Ungereimtheiten und unerklärlichen Veränderungen bei den Temperaturanpassungen, was eine erneute Überprüfung der Art und Weise erforderlich macht, wie die NOAA Klimadaten verarbeitet.
Die Studie analysierte den GHCN-Datensatz der NOAA über ein Jahrzehnt hinweg und stellte fest:
– Die gleichen Temperaturaufzeichnungen wurden an verschiedenen Tagen unterschiedlich angepasst – manchmal sogar dramatisch.
– 64 % der von NOAAs paarweisem Homogenisierungs-Algorithmus (PHA) identifizierten Grenzwerte waren höchst inkonsistent und traten in weniger als 25 % der NOAA-Datensatzläufe auf.
– Nur 16 % der Anpassungen wurden in mehr als 75 % der Fälle konsistent angewandt, was bedeutet, dass die Mehrheit der „Korrekturen“ sich unvorhersehbar verschiebt.
– Weniger als 20 % der von NOAA angegebenen Grenzwerte entsprachen den tatsächlich dokumentierten Stationsänderungen, was darauf hindeutet, dass viele Anpassungen ohne entsprechende Metadaten vorgenommen wurden.
Für den Laien ausgedrückt: Die NOAA verändert wiederholt historische Temperaturaufzeichnungen in einer Weise, die inkonsistent, schlecht dokumentiert und fehleranfällig ist.
Was soll mit der Homogenisierung eigentlich erreicht werden?
Die Homogenisierung ist ein statistischer Prozess, der dazu dient, nichtklimatische Verzerrungen aus den Temperaturaufzeichnungen zu entfernen, wie z. B. Änderungen des Stationsstandorts, des Instrumententyps oder der Beobachtungszeit. Der PHA-Algorithmus der NOAA passt die Temperaturaufzeichnungen auf der Grundlage statistischer Vergleiche mit benachbarten Stationen an, ohne dass die tatsächlichen Metadaten bestätigen müssen, ob eine Anpassung überhaupt notwendig ist.
Dieses Verfahren wird von NOAA-Forschern mit der Behauptung verteidigt, dass sie Verzerrungen wirksam beseitigen. Die neue Studie deutet jedoch darauf hin, dass sie möglicherweise willkürliche und inkonsistente Änderungen vornimmt, welche die Temperaturtrends verzerren könnten.
Wenn die Anpassungen der NOAA inkonsistent sind, wie können wir dann den daraus abgeleiteten langfristigen Klimatrends vertrauen? Aus folgenden Gründen ist dies wichtig:
– Garbage In, Garbage Out: Klimamodelle und politische Entscheidungen stützen sich auf angepasste Temperaturdaten. Wenn diese Anpassungen unzuverlässig sind, sind die darauf basierenden Schlussfolgerungen fragwürdig.
– Künstliche Erwärmung oder Abkühlung? In der Studie wurde nicht speziell untersucht, ob diese Unstimmigkeiten die Daten in Richtung Erwärmung oder Abkühlung beeinflussen, aber frühere Untersuchungen haben gezeigt, dass Homogenisierung die Erwärmungstendenzen tendenziell verstärkt.
Siehe hierzu auch die Meldung von Cap Allon im Anschluss an diese Übersetzung. A. d. Übers.]
– Mangel an Transparenz: Die täglichen Homogenisierungs- Aktualisierungen der NOAA bedeuten, dass die Vergangenheit ständig umgeschrieben wird, ohne dass es eine Rechenschaftspflicht oder eine externe Validierung gibt.
Die Autoren der Studie argumentieren, dass die Homogenisierung nicht blindlings und ohne Verwendung der tatsächlichen Metadaten der Stationen erfolgen sollte. Stattdessen sollten Anpassungen folgendermaßen vorgenommen werden:
1. Wann immer möglich mit Metadaten der Stationen untermauert – nicht nur auf der Grundlage statistischer Modelle.
2. Transparent gemacht – die Nutzer von Temperaturdaten sollten genau darüber informiert werden, wann und warum Anpassungen vorgenommen werden.
3. Neu bewertet auf Verzerrungen – verstärkt die Homogenisierung systematisch den Erwärmungstrend?
Falls die Temperaturaufzeichnungen der NOAA wirklich die besten sind, die wir haben, sollten sie robust, reproduzierbar und überprüfbar sein. Stattdessen deutet diese Studie darauf hin, dass sie ein variables Ziel sind, das je nach Tag unterschiedlich angepasst wird, und das oft ohne einen klaren Grund.
Die Frage, die wir uns stellen müssen, ist folgende: Ist die globale Temperaturaufzeichnung ein zuverlässiger Datensatz oder nur ein statistisches Kartenhaus?
Wir brauchen Transparenz, Rechenschaftspflicht und wissenschaftliche Strenge in der Klimawissenschaft. Bis dahin sollte jeder NOAA-Temperaturdatensatz mit Vorsicht heran gezogen werden.
——————————————–
Auch bei Cap Allon findet sich am 27. Februar 2025 eine entsprechende Kurzmeldung:
Weitere NOAA-Manipulationen
Cap Allon
Ein weiterer Tag, ein weiterer Fall, in dem „die Wissenschaft“ die Klimageschichte der Erde bequem umschreibt.
Der Forscher Tony Heller hat gerade die neuesten NOAA-USHCN-Daten heruntergeladen, und – wieder einmal – wurde die Regierungsbehörde dabei erwischt, wie sie einen Erwärmungstrend künstlich herstellte, indem sie historische Temperaturaufzeichnungen anpasste:
Die „Chef-Klimakorrespondentin“ von ABC News Ginger Zee sagt uns, das sei alles in Ordnung, denn „so macht man Wissenschaft“.
Nein, echte Wissenschaft basiert auf überprüfbaren, reproduzierbaren Daten – und nicht auf der rückwirkenden Veränderung von Zahlen, um sie in ein Narrativ einzupassen. Das ist keine Wissenschaft, das ist staatliche Propaganda.
Wenn sie nicht ganz aufgelöst wird (und ich glaube nicht, dass das das Richtige ist), dann muss die NOAA zumindest mit einem Vorschlaghammer bearbeitet werden.
Beides übersetzt von Christian Freuer für das EIKE

















Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
- Bitte geben Sie Ihren Namen an (Benutzerprofil) - Kommentare "von anonym" werden gelöscht.
- Vermeiden Sie Allgemeinplätze, Beleidigungen oder Fäkal- Sprache, es sei denn, dass sie in einem notwendigen Zitat enthalten oder für die Anmerkung wichtig sind. Vermeiden Sie Schmähreden, andauernde Wiederholungen und jede Form von Mißachtung von Gegnern. Auch lange Präsentationen von Amateur-Theorien bitten wir zu vermeiden.
- Bleiben Sie beim Thema des zu kommentierenden Beitrags. Gehen Sie in Diskussionen mit Bloggern anderer Meinung auf deren Argumente ein und weichen Sie nicht durch Eröffnen laufend neuer Themen aus. Beschränken Sie sich auf eine zumutbare Anzahl von Kommentaren pro Zeit. Versuchte Majorisierung unseres Kommentarblogs, wie z.B. durch extrem häufiges Posten, permanente Wiederholungen etc. (Forentrolle) wird von uns mit Sperren beantwortet.
- Sie können anderer Meinung sein, aber vermeiden Sie persönliche Angriffe.
- Drohungen werden ernst genommen und ggf. an die Strafverfolgungsbehörden weitergegeben.
- Spam und Werbung sind im Kommentarbereich nicht erlaubt.
Diese Richtlinien sind sehr allgemein und können nicht jede mögliche Situation abdecken. Nehmen Sie deshalb bitte nicht an, dass das EIKE Management mit Ihnen übereinstimmt oder sonst Ihre Anmerkungen gutheißt. Wir behalten uns jederzeit das Recht vor, Anmerkungen zu filtern oder zu löschen oder zu bestreiten und dies ganz allein nach unserem Gutdünken. Wenn Sie finden, dass Ihre Anmerkung unpassend gefiltert wurde, schicken Sie uns bitte eine Mail über "Über Uns->Kontakt"Temperaturen, deren Homogenisierung von Programmierer-Laune und Ablesedatum abhängt und ein CO2, das alles kann, zwar überall anders und über Tag-/Nachtmodus verfügt – die Klimamodelle stimmen erst recht nicht. So stelle ich mir „settled science“ vor, mit der uns Politiker ruinieren. Trump, der Lümmel, nennt es Klimaschwindel. Ihr Potsdamer Alarm- und Panikforscher und Politiker, hört ihm gut zu!
So arbeiten politische Organisationen gemäß ihrer Vorgaben, wissenschaftlich, oder?
Was nützen eigentlich zig Tausende Meßstationen weltweit wenn diese ständig wechselnden Umweltbedingungen ausgesetzt sind und die Messungen „homogenisiert“ werden müssen? Da würde in Deutschland eine Station unter nahezu immer gleichen Bedingungen bessere Ergebnisse liefern. Oder muss aus politischen Gründen „homogenisiert“ werden?
Passend zum Thema:
https://tkp.at/2025/02/28/erstmals-zugegeben-historische-wetterdaten-manipuliert/
Bei der Wetterstation Cap Allon: Die Anfangsjahrzehnte wurden nach unten homogenisiert und die letzten 3 Jahrzehnte nach oben. Aus der Schweiz kennen wir das bei der Wetterstation Sitten (Sion).
Allerdings kennen wir in Deutschland keine einzige Wetterstation, bei der vom DWD aus das in gleich krasser Weise ab 1881 geschah. Die starken Korrekturen nach unten beim Hohenpeißenberg geschahen in dem Zeitraum vor 1860.
Fazit: Was in den USA bei manchen Wetterstationen besonders dreist erfolgte, geschah in Deutschland sehr moderat. Wir verwenden für unsere Grafiken die DWD-Originalwerte. Die Grafiken beginnen meist erst ab 1988 und da wurde es nun mal wärmer, – schließlich sind wir auch gute Naturbeobachter- wenn auch nicht so stark wie die Steigungslinien vorgeben.
Die Homogenisierung von Temperaturreihen ist in gewissen Umfang notwendig, um Änderungen von Messgeräten/Messmethoden, Standorten und Auswerteverfahren zu berücksichtigen. Dies kann beispielweise durch parallele Messungen erfolgen. Sie sollten aber keinesfalls ohne Hinweise auf derartige Änderungen aus den Metadaten (bzw. der Dokumentation) erfolgen. Eine auf Break-Point-Detection basierende Homogenisierung ist nicht zulässig, wird aber durch die Software weitgehend so durchgeführt. Es gibt eine Vielzahl von Möglichkeiten, die eine Trendwende hervorrufen können. Im Zweifelsfall sind die Daten eben zu verwerfen und nicht irgendwie anzupassen. Insbesondere bei älteren Temperaturdaten ist hier große Vorsicht geboten. Es lässt sich schlichtweg nicht beweisen, dass die Daten falsch waren (bzw. wie falsch sie waren).
Was kann man tun? Mit unserer Kapazität leider nicht viel. Die neueren Daten sind teilweise in 10 min Abständen oder stündlich verfügbar. Diese kann man zur Auswertung heranziehen. Ist aber ein enormer Aufwand!
So ist es, rein wissenschaftlich gesehen, aber darum scheren sich derzeitige Politik und die Alarmisten einen Scheiß, würde ja den grünen Ablaßhandel und die kruden Zerstörungsziele stören ….
Wer glaubt es gäbe so etwas wie eine „mittlere globale Temperatur der Erde“, die man auch noch schützen muss durch eine „Klimapolitik“, dem ist eh nicht mehr zu helfen… 🥳🥳🤪
Lustig sind besonders die 2 Nachkommastellen, die dabei immer genannt werden! „Wissenschaft“ in höchster Vollendung! 🥳🤪
Wer mißt, mißt Mist! Nie war dieser Spruch wahrer als heute.
Herr Pesch, man muss die „mittlere globale Temperatur der Erde“ schützen, sie ist schließlich das goldene Kalb der Klimakirche. Und Kirche, egal welche Glaubensrichtung, ist eben grundsätzlich zu schützen. Amen!