Anthony Watts
[Alle Hervorhebungen in diesem Beitrag vom Übersetzer]
Seit Beginn der Debatte über die globale Erwärmung, die heute als „Klimawandel“ bezeichnet wird, gibt es eine unumstößliche, aber wenig bekannte Tatsache: Alle Temperaturmessstationen, die verwendet werden, um Feststellungen über den Zustand der Erdtemperatur zu treffen, werden von Regierungen kontrolliert.
Als Dr. James Hansen, der damalige Direktor des Institute for Space Studies der NASA in Manhattan, im Juni 1988 vor dem Energy and Natural Resources Committee des US-Senats erklärte, dass „die globale Erwärmung begonnen hat“, stützte er sich auf Temperaturdaten, die von Regierungen auf der ganzen Welt von einem Wetterstationsnetz gesammelt wurden, welches nie dazu gedacht war, ein „globales Erwärmungssignal“ zu erkennen.
Tatsächlich musste Dr. Hansen neuartige statistische Verfahren entwickeln, um dieses Signal der globalen Erwärmung aus den Daten herauszukitzeln. Das Problem ist, dass diese Wetterstationsnetze nie dafür ausgelegt waren, ein solches Signal zu erkennen. Sie waren eigentlich für die Überprüfung von Wettervorhersagen gedacht, um festzustellen, ob die Vorhersagen von Behörden wie dem U.S. Weather Bureau (jetzt National Weather Service NWS) korrekt waren. Wenn man Temperatur- und Niederschlagsvorhersagen für einen Ort macht und es keine Rückmeldung über die tatsächlich erreichten Temperaturen und die aufgezeichneten Niederschläge gibt, ist es unmöglich, die Genauigkeit der Vorhersage zu verbessern.
Das ursprüngliche Netz von Wetterstationen, das so genannte Cooperative Observer Program (COOP), wurde 1891 eingerichtet, um ein Ad-hoc-Wetterbeobachtungsnetz zu formalisieren, das seit 1873 vom U.S. Army Signal Service betrieben wurde. Erst später begann man, das COOP-Netz für die Klimabeobachtung zu nutzen, da für die Klimabeobachtung mindestens 30 Jahre an Daten von Wetterstationen erforderlich sind, bevor ein „Normalklima“ für einen Ort ermittelt werden kann. Nachdem das Cooperative Observer Program in den Vereinigten Staaten eingerichtet worden war, folgten andere Länder bald und duplizierten den Aufbau des US-Netzwerks auf globaler Ebene. (Mehr hier und hier).
Das COOP-Netz hat jedoch mehrere schwerwiegende Probleme, wenn es um die Erkennung des Klimawandels auf nationaler und globaler Ebene geht. Die von freiwilligen COOP-Beobachtern in den USA gemessenen Temperaturen werden bei der Aufzeichnung der Daten auf einem Papierformular namens B-91 auf das nächste ganze Grad Fahrenheit gerundet.* Vergleicht man solche grob aufgezeichneten Temperaturdaten mit den Behauptungen über die globale Erwärmung, die seit Ende des 19. Jahrhunderts um 1,8°F (1,0°C) zugenommen haben soll, so stellt sich die Frage nach der Genauigkeit und Präzision der COOP-Temperaturdaten.
[*Einschub des Übersetzers: Bis zum Beginn stündlicher Berechnungen wurde in Deutschland das so genannte „Klimamittel“ nach den „Mannheimer Stunden“ {06, 14, 21 UTC} errechnet, und zwar nach der Formel
Tmittel = (TT06 + TT12 + 2 ● TT21) ÷ 4
Sollte sich bei der Rundung ein Wert n,5 ergeben, wurde grundsätzlich zur geraden Zahl gemittelt. Aus 4,25 wurde 4,2 und aus 4,35 wurde 4,4.
Ende Einschub]
Noch besorgniserregender ist, dass mehr als 90 % der COOP-Stationen in den Vereinigten Staaten, die zur Aufzeichnung von Klimadaten verwendet werden, im Laufe der Zeit durch lokale Verstädterung oder Kontaminierung beeinträchtigt wurden, wobei Hunderte von COOP-Stationen durch die Nähe von Abgasen von Klimaanlagen, Abgasen von Flugzeugen auf Flughäfen sowie Beton, Asphalt und Gebäuden, die in der Nähe der Stationen entstanden sind, stark beeinträchtigt wurden. All diese Wärmequellen und Wärmesenken bewirken nur eines: eine Verzerrung der aufgezeichneten Temperaturen nach oben.
Der Kern des Problems ist folgender: Die NWS-Publikation „Requirements and Standards for Climate Observations“ (Anforderungen und Standards für Klimabeobachtungen) schreibt vor, dass Temperaturmessgeräte „über ebenem Gelände (Erde oder Grasnarbe), das typisch für das Gebiet um die Station ist, und mindestens 30 m von jeder ausgedehnten betonierten oder gepflasterten Fläche entfernt stehen müssen“, und dass „alle Anstrengungen unternommen werden, um Gebiete zu vermeiden, in denen unwegsames Gelände oder Luftabfluss nachweislich zu nicht repräsentativen Temperaturdaten führen“. Wie in diesem Bericht ausführlich dargelegt wird, werden diese Anweisungen jedoch regelmäßig verletzt, und zwar nicht nur im US-amerikanischen Netzwerk, sondern auch im Global Historical Climate Network GHCN.
Dies ist nicht nur ein Problem der USA, sondern ein globales Problem. Es gibt Beispiele für ähnlich beeinträchtigte Stationen in der ganzen Welt, darunter Italien sowie UK nebst China, Afrika und Australien.
„Angesichts dieser weit verbreiteten Verfälschung des Messumfelds kann man sich nicht auf die Temperaturaufzeichnungen als Indikatoren für den globalen Wandel verlassen“, sagte John Christy, Professor für Atmosphärenwissenschaften an der University of Alabama in Huntsville und ehemaliger Hauptautor des IPCC.
Tatsache ist, dass alle globalen Temperaturdaten von Regierungsbehörden aufgezeichnet und zusammengestellt werden, und dass die Daten aufgrund von Korruptionsproblemen, Rundungen und anderen Anpassungen, die auf die Daten angewendet werden, fragwürdig sind. Im Wesentlichen handelt es sich bei den gemeldeten globalen Temperaturen um einen Mischmasch aus gerundeten, angepassten und verfälschten Messwerten und nicht um eine genaue Darstellung der Erdtemperatur. Auch wenn Wissenschaftler behaupten, die Daten seien genau, kann jeder Laie vermuten, dass es sich bei all den aufgezeigten Problemen unmöglich um genaue Daten handeln kann, sondern nur um eine Schätzung mit großer Unsicherheit.
Es existiert nur ein einziger unabhängiger globaler Temperaturdatensatz, der unabhängig von den Erhebungs- und Berichterstattungsmethoden der Regierung ist, und das sind die satellitengestützten globalen Temperaturdaten der University of Alabama in Huntsville (UAH), die von Dr. John Christy und Dr. Roy Spencer verwaltet werden.
Aber selbst der UAH-Satellitendatensatz vermittelt kein vollständiges und genaues Bild der globalen Temperatur, da das Satellitensystem nur begrenzt funktioniert. Gegenwärtig misst das System die atmosphärische Temperatur der unteren Troposphäre bis zu einer Höhe von etwa 8 Kilometern.
Bislang gibt es nur ein Netz von klimafähigen Wetterstationen, das genau genug ist, um ein Signal des Klimawandels vollständig zu erkennen. Dabei handelt es sich um das U.S. Climate Reference Network (USCRN), ein hochmodernes automatisiertes System, das speziell für die genaue Messung von Klimatrends an der Oberfläche entwickelt wurde. Seit seiner Inbetriebnahme im Jahr 2005 hat es keinen signifikanten Erwärmungstrend in den Vereinigten Staaten festgestellt, der auf den Klimawandel zurückgeführt werden könnte.
Leider werden die Daten des USCRN-Netzwerks von der US-Regierung unter Verschluss gehalten und nicht in den monatlichen oder jährlichen globalen Klimaberichten veröffentlicht. Sie wurden auch nicht weltweit eingesetzt.
In Anbetracht des staatlichen Monopols auf die Verwendung verfälschter Temperaturdaten, der fragwürdigen Genauigkeit und der deutlichen Zurückhaltung, der Öffentlichkeit hoch genaue Temperaturdaten des USCRN zur Verfügung zu stellen, ist es an der Zeit, eine wirklich unabhängige globale Temperaturaufzeichnung zu erstellen.
Das ist keine „Raketenwissenschaft“. In Anbetracht der Tatsache, dass die Regierungen Milliarden von Steuergeldern für Programme zur Eindämmung des Klimawandels ausgeben, ist es da nicht sinnvoll, das Wichtigste – die tatsächliche Temperatur – so genau wie möglich zu ermitteln? Sollten wir angesichts der heutigen Technologie nicht mit einem Netzwerk und einer Datenerfassung, die sich nicht auf ein 100 Jahre altes System stützt, die Notwendigkeit bestätigen und validieren? Wenn wir einen Menschen auf den Mond schicken können, können wir doch sicher auch die Temperatur auf unserem eigenen Planeten genau messen.
Anthony Watts is a senior fellow for environment and climate at The Heartland Institute.
Übersetzt von Christian Freuer für das EIKE
Anmerkung: Mit eben dieser Problematik befasst sich ausführlich auch die Dissertation von Dipl.-Ing. Michael Limburg.
Es funktioniert anders herum: Dank unerschütterlichem Klima-Glauben werden heute reale Temperaturdaten durch dauerversagende Modellprognosen ersetzt. Wenn die Wirklichkeit wenig Anlass für Panik bietet, wird sie eben ausgeblendet und durch Alarm-Modelle ersetzt. Die alles ausrechnen, was sich Klima-Alarmisten und unsere Politiker wünschen. Die Klima-Totalverdummung muss unter allen Umständen weitergehen!
Schon recht, aber wärmer wird es ohnehin, kosmisch bedingt. Die letzte Eiszeit ist erst lächerliche 20.ooo Jahre her, die nächste wird in ca. 80.ooo Jahren erwartet. Sollte es aber wider Erwarten kühler werden, eine „kleine Eiszeit“ kommen, dann blasen wir CO2 in die Luft, was die Rohre her geben. Das ist billiger als alles andere. Näheres unter https://de.wikipedia.org/wiki/Milanković-Zyklen
Neben Temperatur-Messdaten brauchten wir endlich auch turnusmäßige über einzelne Zonen verteilte Messdaten des CO2-Zuwachses in der Atmosphäre, um diese mit den propagierten menschlich erzeugten CO2-Mengen pro Zeitspanne (z.B. 1 Jahr) für ausgewählte Zonen auf der Erde vergleichen zu können: Es geht um die Abschätzung der Verweilzeit des menschlich erzeugten CO2 in der Atmosphäre.
Zum Thema der globalen Erwärmung, die heute als „Klimawandel“ bezeichnet wird, soll schon Konfuzius gesagt haben:
„Falsche Wörter führen zu falschen Begriffen und falsche Begriffe zu falschen Entscheidungen und Handlungen.“
Hallo Herr Freuer,
Sie haben den Text von Anthony Watts so übersetzt:
Das lidgt wohl an der zweideutigen Formulierung von Anthony Watts im englischen Original, stimmt so aber nicht. Wie man hier sehen kann.
MfG
Ketterer
https://www.ncei.noaa.gov/access/crn/qcdatasets.html
Das Grundproblem bei der Bestimmung einer Global-Temperatur:
Es werden die momentanen Temperaturwerte einer bestimmten Anzahl über die Welt verteilter Temperaturmesser gemittelt. Angenommen, die Messgeräte sind in Ordnung und es wird nicht ideologisch begründet gepfuscht, dann erhält man mit einfacher Mathematik die sog. Global-Temperatur.
Temperatur beschreibt den kinetischen Zustand bewegter Teilchen, also Geschwindigkeiten.
Jetzt gehen wir an eine Rennstrecke, und stellen entlang der Strecke zwischen Start und Ziel 100 Geschwindigkeitssensoren auf, also am Anfang einer Geraden, in der Mitte, am Ende vor einer Kurve, in der Kurve, nach der Kurve, eben, bis wir alle Messgeräte untergebracht haben. Und jetzt schicken wir den Rennwagen auf die Runde und erhalten die 100 Messwerte, die wir dann mitteln. Ist das jetzt die mittlere Geschwindigkeit?
Zum Vergleich messen wir die Länge der gefahrenen Strecke und die Zeit von Start bis Ziel, dann sind sich bestimmt alle einig, dass aus dem Quotienten Strecke / Zeit die so ermittelte mittlere Geschwindigkeit richtig ist. Es lohnt sich dann, diese mit derjenigen zu vergleichen, die punktuell mit 100 Sensoren ermittelt wurde. Wer glaubt, da kommt derselbe Wert oder einer mit nur geringer Abweichung heraus, der sollte das Experiment wirklich einmal machen. – Danach will er von Global-Temperaturen nichts mehr hören!
Meine Frage ist auch seit eh und je die nach der Verteilung der Meßstationen auf der Erde. Z.B. ergeben 3 Stationen am Nordpol und eine in der Sahara einen anderen Wert als umgekehrt.
Diese sind sehr ungleichmäßig und auch sparsam verteilt. Hier finden Sie mehr dazu.