Teil 2: Temperaturmessung global – sind selbst die Daten der modernen Hightech-Meßgeräte nicht zuverlässig?


Unsere Kollegen von CLINTEL (Climate Intelligence Foundation) veröffentlichten vor kurzem das Buch „Die starren Vorstellungen des Weltklimarates“.

https://clintelwebshop.org/de/product/die-starren-klima-vorstellungen-des-ipcc/

Der niederländische Journalist Marcel Crok und der Geologe Guus Berkhout, die Gründer von CLINTEL, konzentrieren sich mit ihrer kritischen Aufklärungsarbeit auf die Sachstandsberichte des Weltklimarates IPCC (Intergovernmental Panel on Climate Change). Diese „Assessment Reports“ werden in unregelmäßigen Abständen alle paar Jahre veröffentlicht und in den Medien punktuell präsentiert.

„Punktuell“ ist hier der entscheidende Begriff, weil die Berichte mittlerweile über 10.000 Seiten Umfang haben, die von Hunderten Autoren formuliert wurden. Die enorme Menge von Informationen kann natürlich kaum jemand verarbeiten, weswegen es stets stark verkürzte Versionen für politische Entscheider gibt.

Im Abschnitt A – Beobachtungen – berichten die CLINTEL-Autoren von der Technologie der globalen Temperaturmessung und eklatanten Widersprüchen.

Messen mit Meßfehler

Die Messung der Oberflächentemperatur machte in den letzten 150 Jahren bewundernswerte Fortschritte – von den Quecksilber-Thermometern über elektronische Verfahren bis hin zur aktuellen Satellitenmessung. Auch wenn die Weiterentwicklung der Technik grundsätzlich zu begrüßen ist, hat der Fortschritt doch seine Tücken. Meßtechniker wissen, daß jede Messung, ob Genexpression im Labor oder Temperatur im Harz, einen Fehler bis zu 10% enthält. Wenn also der elektronische Meßfühler eines Wetterhäuschens im Harz 10°C anzeigt, kann es auch etwas weniger sein – oder mehr.

Erfahrungsgemäß neigen verschiedene Apparate mehr in die eine oder andere Richtung, was die Vergleichbarkeit alter und neuer Technologie-Daten erschwert. Die Abweichungen liegen meist nicht im relevanten Bereich – ob es morgen 10 oder 10,3°C sind, spielt für Bürger oder Industrie keine Rolle. Da die Klima-Berichterstattung aber auf Erhöhungen der Durchschnittswerte im Nachkommastellenbereich abhebt, können Meßfehler und Technologie-typische Abweichungen sehr wohl eine Rolle spielen.

Etwas Theorie und höchst pikante Praxis zu diesem Thema hören Sie in diesem Video von Michael Limburg, Ingenieur für Meßtechnik:

Drastischer als Abweichungen im Nachkommastellenbereich sind schlecht gewählte Temperatur-Proxys wie die kanadischen Baumringe von Michael E Mann, der die Temperatur des Hochmittelalters für seine berüchtigte „Hockeyschläger“-Kurve mit Daten aus einer offensichtlich stets kühlen kanadischen Region rekonstruierte.

Ein weiteres gern verschwiegenes Beispiel ist der sogenannte städtische Wärmeinsel-Effekt in sich ausbreitenden Siedlungen, der für teils deutlich höhere Durchschnittstemperaturen sorgt, die von alten Meßstationen registriert werden. In dem Zusammenhang müssen auch bewußte Täuschung & Pfusch erwähnt werden, wie der aktuelle Skandal des britischen Meteorologie-Dienstes, die EIKE mit dem Artikel „Geister-Wetterstationen in Großbritannien? Mehr als ein Drittel nicht existent“ beschrieb.

„Welttemperatur“ wirklich weltweit gemessen?

Wahrscheinlich nur halb absichtliche systematische Fehler sind die Verringerung der Zahl terrestrischer Meßstationen ab 1990 und die traditionell grotesk ungleiche Verteilung der Meßpunkte auf dem Planeten. Im 18. und 19. Jahrhundert wurde außerhalb der westlichen Welt, also Europa, Nordamerika und Australien/Neuseeland, nicht flächendeckend gemessen. Dieser Zustand besserte sich erst nach dem Zweiten Weltkrieg allmählich. Das bedeutet, daß die „Weltmitteltemperatur“ der Jahre vor 1950 von Daten der nördlichen Hemisphäre dominiert wird – und auch noch von Daten der damaligen Industrieländer. Das wiederum heißt nicht, daß es nicht mindestens in Europa zwischen 1900 und 1940 etwas wärmer geworden ist, aber die „globalen“ Meßdaten vor 1950 sind nicht global und besitzen nur regionale oder kontinentale Aussagekraft.

Das Wort „kontinental“ deutet an, daß zudem meist nur Daten vom Land vorliegen – die 70% Wasser auf der Erdoberfläche hingegen, wo das Wetter überwiegend gemacht wird, sind historisch kaum erfaßt. Heute sieht es mit den ARGO-Roboterbojen schon etwas besser aus, aber jede Boje deckt im riesigen Pazifik einen riesigen Bereich ab. Heißt, bis heute ist die „globale Mitteltemperatur“ der Meßtechnik am Boden alles andere als global, weil die meisten Daten von zentralen Regionen an Land kommen.

Die Fallstricke des technischen Fortschrittes

Da seit 1979 neben den terrestrischen Meßstationen die Satellitentechnik hinzukam, die unabhängig von abgelegenen Landstandorten oder den Ozeanen überall messen kann, wurde das Problem scheinbar gelöst. Leider können Satelliten die Temperatur gar nicht wirklich messen, sondern nur die Reflexion des Lichts von der Oberfläche. Der erhaltene Wert für einen Ort wird dann mittels Formel in eine Temperatur umgerechnet. Erfahrenen Klimaskeptikern ist diese Methodik nicht neu, da in der offiziösen Klimawissenschaft erstaunlich viel „errechnet“ statt gemessen wird. Das Verfahren ist bestens von den Klima-Computermodellen bekannt, und auch von der jahrezehntelangen Messung des „globalen“ CO2-Gehalts der Atmosphäre von einer Station auf dem aktiven, also CO2 emittierenden Mauna Loa-Vulkan der Hawaii-Hauptinsel. Das störende vulkanische Kohlendioxid wird natürlich „herausgerechnet“.

https://www.nsstc.uah.edu/climate/2024/october/202410_Bar.png

Erderwärmung seit den 1980ern? Satelliten-Daten der Universität von Alabama in Huntsville, wo unser Referent Roy Spencer die Temperaturaufzeichnung managt.

EIKE und CLINTEL behaupten nun nicht, daß der mittlere CO2-Gehalt der Erdatmosphäre heuer nicht 0,042% Stoffmenge (420ppm) beträgt, und daß es im 20. Jahrhundert von 1900-1940 und dann wieder von 1980 bis 2000 nicht etwas wärmer wurde. Allerdings zeigen die genannten Widersprüche und mehr oder minder offenen Betrügereien der Temperaturdatenerhebung, daß die Messungen nicht so präzise und zuverlässig sind wie behauptet, und daß aus politischen oder finanziellen Gründen gefälscht und manipuliert wird.

Heißester Monat x seit 125.000 Jahren

Vor allem historische Vergleiche oder Meßkurven über Jahrhunderte, die in den Massenmedien oder offiziösen Wissenschaftsmagazinen publiziert werden, sind daher mit äußerster Vorsicht zu genießen. Stilblüten wie „heißester Monat x seit 125.000 Jahren“ geben natürlich nicht die Realität wieder, sondern sind politisch motiviert. Und Vergleiche wie „heute höchster CO2-Gehalt seit sechs Millionen Jahren“ könnten zwar grob stimmen, sind aber schlichte Manipulation, weil nicht gleichzeitig offengelegt wird, daß die globale CO2-Konzentration der Erdatmosphäre schon seit Millionen von Jahren im unteren Bereich weit unter 1.000 ppm (1 Promille) liegt. In der Zeit davor hingegen hatte die Atmosphäre nicht selten CO2-Werte im Prozentbereich – in heißen und in kalten (!) Phasen.

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken