Validierung von Klimamodellen ist unabdingbar: Die unschätzbar wertvolle Arbeit von Dr. Vincent Gray

Als ein Experten-Begutachter des IPCC seit 18 Jahren, das heißt also von dessen ersten Anfängen an, habe ich tausende Kommentare zu allen Berichten geschrieben. Meine Kommentare zum 4. Zustandsbericht, alle 1898, können beim IPCC (2007) gefunden werden, und meine Meinungen über das IPCC stehen in Gray (2008b).

Seine jüngste Veröffentlichung trägt den Titel [übersetzt] „Der Betrug um die globale Erwärmung und der Superbetrug um den Klimawandel“ [The Global Warming Scam and the Climate Change Super Scam]. Sie ist gewissermaßen eine Fortsetzung seiner sehr effektiven ersten Kritik mit dem Titel „The Greenhouse Delusion: A Critique of “Climate Change 2001“. Wir wissen jetzt, dass der Bericht aus dem Jahr 2001 den Hockeyschläger enthielt sowie Phil Jones‘ globale Temperaturaufzeichnung, zwei Beweisstücke, die grundlegend für die Proklamation anthropogener Gründe für die globale Erwärmung sind. In der Zusammenfassung jenes Buches schreibt er:

Es gibt gewaltige Unsicherheiten in den Modellergebnissen, die erkannt und unermesslich sind. Sie sind so gewaltig, dass Adjustierungen der Modellparameter Modellergebnisse erzeugen kann, die zu fast jedem Klima passen, einschließlich zu einem solchen ohne Erwärmung oder gar mit Abkühlung.

Kein Modell hat jemals irgendeine zukünftige Klimasequenz erfolgreich vorhergesagt. Trotzdem werden Zukunfts-„Projektionen“ bis zu mehreren hundert Jahren im Voraus vom IPCC als plausible Zukunftstrends präsentiert, basierend auf umfangreich verzerrten „Storylines“ in Kombination mit nicht getesteten Modellen.

Das IPCC hat eine Fülle wissenschaftlicher Informationen zum Thema Klima abgeliefert, aber nicht einen einzigen Beweis erbracht, dass ein zunehmender Kohlendioxidgehalt irgendwelche schädlichen Auswirkungen hat.

Auf Seite 58 des Buches beschreibt er eine der ernstesten Grenzen der Computermodelle:

Kein Computermodell ist jemals validiert worden. Ein früher Entwurf von Climate Change 95 enthielt ein Kapitel mit dem Titel „Climate Models – Validierung“ als eine Erwiderung auf meinen Kommentar, dass kein Modell jemals validiert worden ist. Sie änderten den Titel zu „Climate Model – Evaluation“ und ersetzten auch im Text das Wort „Validierung“ mit „Evaluation“. Damit beschrieben sie nichts weniger als was man tun müsste, um ein Modell zu validieren.

Ohne einen erfolgreichen Validierungsprozess sollte man kein Modell als fähig erachten, eine plausible Prophezeiung zukünftigen Verhaltens des Klimas zu liefern.

Was ist Validierung?

Die traditionelle Definition von Validierung involviert, dass man das Modell rückwärts laufen lässt, um bekannte Klimabedingungen abzubilden. Der allgemein angewendete Terminus lautete „Nachhersage“ [hindsight forecasting]. Da gibt es eine wesentliche Begrenzung wegen der Zeit, die ein Computer braucht, um die historischen Bedingungen zu rekonstruieren. Steve McIntyre hat bei ClimateAudit das Problem illustriert:

Caspar Amman sagte, dass GCMs etwa einen Tag Maschinenzeit brauchten, um 25 Jahre abzudecken. Auf dieser Grundlage ist es offensichtlich unmöglich, den Übergang vom Pliozän zum Pleistozän mit einem GCM zu modellieren (also die letzten 2 Millionen Jahre), da dieses dazu 219 Jahre Rechenzeit benötigen würde.

Auch sind Modelle nicht in der Lage, gegenwärtige oder historische Bedingungen zu simulieren, weil wir diesbezüglich keine genauen Kenntnisse oder Messungen haben. Das IPCC räumt dies in Kapitel 9 des Berichtes aus dem Jahr 2013 ein:

Obwohl von grundlegender Bedeutung hat die Evaluierung von Klimamodellen auf der Grundlage von Klimabeobachtungen der Vergangenheit einige wichtige Grenzen. Sie sind begrenzt hinsichtlich der Variablen und Phänomene, für die es Beobachtungen gibt.

Sorgfältige Validierung ist „unabdingbar“, aber ernsthaft begrenzt, weil wir nicht wissen, was historisch los war. Die Reduktion der Anzahl der Variablen umgeht die begrenzte Computer-Kapazität sowie fehlende Daten oder Wissen um die Mechanismen.

Allerdings erklären O’Keefe und Kueter:

Als Folge hiervon gibt es nur sehr wenige GCM-Projektionen in vollem Umfang. Die Modellierer haben eine Vielfalt von Vereinfachungs-Verfahren angewendet, um mehr Ergebnisse erzeugen zu können. Da die Genauigkeit vollumfänglicher GCM-Läufe unbekannt ist, ist es auch nicht möglich abzuschätzen, welche Auswirkung die Anwendung dieser Vereinfachungen auf die Qualität der Modellergebnisse hat.

Ein Problem ist, dass eine Variable, die derzeit als keine Konsequenzen zeitigend angesehen wird, unter anderen Bedingungen von grundlegender Bedeutung ist. Dies Problem tauchte in der Erdwissenschaft auf, wo bestimmte Mineralien, „trace minerals” genannt, als von geringer Bedeutung eingestuft worden waren und in Berechnungen der Bodenfruchtbarkeit keinen Eingang gefunden haben. In den siebziger Jahren lautete die Objektive, mittels massiven Einsatzes von Dünger die Ernteerträge zu verbessern. Anfang der achtziger Jahre gingen die Ernteerträge trotz hinzugefügter Dünger zurück. Offensichtlich konnten die Pflanzen Dünger-Mineralien ohne einige Spuren-Mineralien nicht aufnehmen. Im Beispiel Weizen war es Zink, welches der Katalysator war für die Absorption bedeutender chemischer Dünger.

In der Klimadebatte ist es inzwischen ein Muss, dass eine Person, die durch AGW-Befürworter angegriffen wird, mit der Wahrheit handelt. Es beweist, dass sie die Wahrheit kennen und aus eigenem Willen von diesen Wahrheiten Abstand nehmen aus politisch-ideologischen Gründen. Skepticalscience ist ein perfektes Beispiel, und dessen Versuch, die Validierung von Modellen zu rechtfertigen beginnt mit einem Angriff auf die Beobachtung von Freeman Dyson, dass:

Modelle voller verformbarer Faktoren stecken, die an das bestehende Klima angepasst werden, so dass die Modelle mehr oder weniger mit den gemessenen Daten übereinstimmen. Aber es gibt keinen Grund zu glauben, dass die gleichen verformbaren Faktoren das richtige Verhalten in einer Welt mit unterschiedlicher chemischer Zusammensetzung spiegeln, zum Beispiel in einer Welt mit einem viel höheren CO2-Anteil in der Atmosphäre“.

Sie verwenden „Zuverlässigkeit“ anstelle von Validierung und verwenden den Terminus „Nachhersage“ [hindcasting], aber in einem anderen Zusammenhang:

Falls ein Modell korrekt Trends prophezeien kann ab einem Anfangszeitpunkt irgendwann in der Vergangenheit, können wir erwarten, dass es mit hinreichender Sicherheit prophezeien kann, was in der Zukunft passieren könnte“.

Sie behaupten, dass mittels ihres Systems

die Modelle erfolgreich die globalen Temperaturen seit dem Jahr 1900 reproduzieren können, auf dem Festland, in der Luft und im Ozean.

Und:

Klimamodelle müssen getestet werden um herauszufinden, ob sie funktionieren. Wir können nicht 30 Jahre lang warten, um, zu sehen, ob ein Modell gut ist oder nicht; Modelle werden gegen die Vergangenheit getestet, gegen das, was wir wissen.

Es ist jetzt 25 Jahre her, dass das IPCC seine ersten Modell-Prophezeiungen (Projektionen) veröffentlicht hat, und schon damals wurde die Lüge in Abbildung 1 bloßgestellt:

Abbildung 1. Quelle: Präsentation von John Christy von der University of Alabama [UAH] vor dem Committee on Natural resources des Weißen Hauses am 15. Mai 2015.

Herumfummeln, um Zuverlässigkeit als Validierung zu maskieren

Versuche der Validierung während der 120 Jahre mit Instrumenten-Aufzeichnungen erwiesen sich ebenfalls als problematisch, aus den gleichen Gründen wie bei den historischen Aufzeichnungen. Eine wesentliche Herausforderung war die Abkühlungsphase von 1940 bis 1980, weil diese zusammenfällt mit der stärksten Zunahme der menschlichen CO2-Erzeugung. Dies widersprach der grundlegendsten Hypothese des IPCC, der zufolge eine CO2-Zunahme zu einer Temperaturzunahme führt. Freeman Dyson hat diese Praxis beschrieben als „verbiegen“ [tweaking] und darüber in vielen Beiträgen bei WUWT berichtet. Es ist die Praxis der Fabrikation von Beweisen, um die Lügen zu stützen, die die Computermodelle sind.

Sie trachteten nach einer Erklärung in Einklang mit ihrer Philosophie, dass jedwede Anomalie, oder jetzt Störung, dem Menschen geschuldet ist. Sie verbogen das Modell mit Sulfaten aus anthropogenen Quellen, eine Partikelsorte, die Sonnenlicht blockiert und Abkühlung erzeugt. Sie wendeten das an, bis der Modelloutput zur Temperaturkurve passte. Das Problem war, dass nach 1980 die Erwärmung wieder einsetzte, das Sulfatniveau aber gleich blieb. Alles, was sie tun, leidet unter der von T. H. Huxley ausgesprochenen Wahrheit: „Die Große Tragödie der Wissenschaft ist das Scheitern einer wunderschönen Hypothese an einem hässlichen Faktum“.

Gray erklärte:

Anstelle von Validierung und der traditionellen Anwendung mathematischer Statistik sind die Modelle „evaluiert“ ausschließlich durch die Ansicht derjenigen, die sie erdacht haben. Derartige Ansichten sind parteiisch und verzerrt. Außerdem sind sie nichts weiter als Raten.

Er verwies auch darauf, dass das IPCC im Bericht 2001 im Abschnitt mit der Überschrift Model Evaluation geschrieben hat:

Wir erkennen in vollem Umfang, dass viele Evaluierungs-Statements, die wir abgeben, einen bestimmten Grad subjektiver wissenschaftlicher Vorstellung enthalten sowie viel „allgemeines“ oder „persönliches“ Wissen. Beispiel: Die reine Auswahl von Modellvariablen und Modellierungsprozessen, die untersucht werden, basieren oftmals auf der subjektiven Beurteilung und Erfahrung des modellierenden Teams.

Im Physical Science Basis-Bericht 2013 wird eingeräumt, dass es keine Validierung gibt.

Kapitel 9 des IPCC-Berichtes aus dem Jahr 2013 trägt den Titel Evaluation of Climate Models.Sie machen ein paar Verbesserungen bei der Evaluierung geltend, aber es handelt sich immer noch nicht um Validierung.

Obwohl von grundlegender Bedeutung, hat die auf Klimabeobachtungen der Vergangenheit basierende Evaluation von Klimamodellen einige wichtige Begrenzungen. Sie ist begrenzt auf jene Variablen und Phänomene, für die es Beobachtungen gibt.

In vielen Fällen bilden das Fehlen oder die schlechte Qualität langfristiger Beobachtungen, seien es spezifische Variablen, ein wichtiger Prozess oder ein bestimmtes Gebiet (z. B. Polargebiete, obere Troposphäre/untere Stratosphäre {UTLS} und die Tiefsee) unverändert ein Hindernis. Außerdem sind die beobachteten Aufzeichnungen, mit denen die Modelle verglichen werden, ,mangelhaft‘, und zwar wegen Ungewissheiten bei den Beobachtungen und der Gegenwart interner Variabilität. Diese Begrenzungen können reduziert, aber nicht vollständig eliminiert werden, durch die Verwendung multipler unabhängiger Beobachtungen der gleichen Variable ebenso wie die Verwendung von Modell-Ensembles.

Das in dem Kapitel beschriebene Verfahren zur Modellevaluierung reflektiert die Notwendigkeit der Klimamodelle, dass diese das beobachtete Verhalten des Klimas in der Vergangenheit als eine notwendige Bedingung für Projektionen in die Zukunft in Betracht ziehen müssen. Dies ist jedoch keine Antwort auf die viel schwierigere Frage zu bestimmen, wie sehr ein Modell zu Beobachtungen passen muss, bevor Projektionen durchgeführt werden, die man zuverlässig erachten kann. Seit dem AR 4 gibt es ein paar Beispiele auftauchender Hindernisse, wobei Beobachtungen verwendet werden, um Multimodell-Ensemble-Projektionen zu behindern. Diese Beispiele, die später noch in Abschnitt 9.8.3 zur Sprache kommen, bleiben Bestandteil eines Gebietes aktiver und bislang nicht aufschlussreicher Forschungen.

Ihre Schlussfolgerung

Die heutigen Klimamodelle sind im Prinzip besser als ihre Vorgänger. Allerdings ist jede einzelne hinzugefügte weitere Komplexität auch eine Quelle neuer Fehler (z. B. mittels unsicherer Parameter), obwohl damit einige Aspekte des simulierten Klimas verbessert werden sollen. Außerdem können dadurch neue Wechselwirkungen zwischen Modellkomponenten auftreten, die vielleicht, wenn auch nur zeitweise, die Modellsimulation anderer Aspekte des Klimasystems entwerten können. Und es kommt noch hinzu, dass trotz der erzielten Fortschritte wissenschaftliche Unsicherheiten hinsichtlich der Details vieler Prozesse fortbestehen.

Diese Zitate stammen aus dem Physical Basis Science-Bericht, was bedeutet, dass die Medien und die Politiker sie nicht lesen. Alles, was sie zu Gesicht bekommen, ist ein kleiner Kasten (2.1) auf Seite 56 der Summary for Policymakers SPM. Man hat die Worte sorgfältig gewählt, um zu implizieren, dass alles besser ist als noch im Ar 4. Eröffnet wird das Ganze mit den Worten:

Verbesserungen der Klimamodelle seit dem AR 4 des IPCC sind offensichtlich bei den Simulationen der Temperatur im Maßstab von Kontinenten, hinsichtlich der großräumigen Niederschlagsmenge, des Monsuns, des Arktischen Meereises, dem ozeanischen Wärmegehalt, einigen Extremereignissen, dem Kohlenstoff-Zyklus, der atmosphärischen Zusammensetzung und Aerosole, den Auswirkungen stratosphärischen Ozons und der El Niño-Southern Oscillation.

Das Einzige, was sie einräumen, ist, dass

die Simulation großräumiger Verteilungen des Niederschlags sich seit dem AR 4 etwas verbessert hat, obwohl die Modelle auch weiterhin hinsichtlich des Niederschlags schlechter abschneiden als hinsichtlich der Temperatur. Das Vertrauen in die Repräsentation der Prozesse bzgl. Wolken und Aerosole bleibt gering.

Ironischerweise sind diese Bemerkungen Gegenstand der gleichen Herausforderung der Validierung, weil der Leser den Anfangszeitpunkt nicht kennt. Falls das Modell nicht funktioniert, ist der Terminus „etwas verbessert“ bedeutungslos.

All dies bestätigt die Gültigkeit der Kommentare von Dr. Gray, dass die Validierung für ein Klimamodell unabdingbar ist und dass

kein Computer-Modell jemals validiert worden ist“.

Und: Ohne einen erfolgreichen Validierungsprozess sollte kein Modell als fähig erachtet werden, eine plausible Vorhersage des zukünftigen Verhaltens des Klimas zu liefern.

Link: http://wattsupwiththat.com/2015/08/08/validation-of-a-climate-model-is-mandatory-the-invaluable-work-of-dr-vincent-gray/

Übersetzt von Chris Frey EIKE




Relative Homogenität der Mittelalterlichen Warmzeit MWP und der Kleinen Eiszeit LIA

Bild rechts: Quelle: Abbildung 7c im FAR des IPCC.

Bei den mit dieser Abbildung verbundenen drei Problemen handelte es sich um Folgende:

● Die Mittelalterliche Warmzeit MWP widersprach ihren Behauptungen, dass das 20. Jahrhundert das Wärmste jemals war.

● Die Kleine Eiszeit LIA zeigte, dass der gegenwärtige Erwärmungstrend schon deutlich vor den wesentlichen Einflüssen der industriellen Revolution begonnen hatte. Signifikante CO2-Mengen wurden von den Menschen erst nach dem 2. Weltkrieg emittiert.

● Der Erwärmungstrend seit etwa 1650, dem Tiefpunkt der LIA, lag deutlich innerhalb der natürlichen Variabilität.

Die Hockeyschläger-Graphik kümmerte sich um all diese Punkte, indem sie die MWP ebenso wie die LIA kurzerhand eliminierte. Sie zeigte ungerechtfertigterweise lediglich wie das Blatt des Schlägers einen scharfen Knick nach oben hinsichtlich der Temperatur des 20. Jahrhunderts. Phil Jones erzeugte diesen Knick nach oben, der eine Erwärmung von 0,6°C ± 0,2°C während 120 Jahre behauptete. Sie behaupteten weiter, dass diese Rate weit jenseits jeder natürlichen Erwärmung lag, wobei sie bequemerweise den Fehlerfaktor von 33% ignorierten.

Ein zweiter Aspekt ihres Problems involvierte eine Studie von Soon und Baliunas mit dem Titel „Proxy climatic and environmental changes of the past 1,000 years“ (Climate Research 23, S. 89-110). Darin wurde detailliert das weltweite Auftreten der MWP nachgewiesen. Die persönlichen Angriffe auf Soon und Baliunas sind jetzt bekannt geworden, vor allem die Rolle, die John Holdren während seiner Zeit an der Harvard dabei gespielt hat.

Ein dritter Aspekt involvierte die Behauptung, dass Abbildung 7c die Temperatur der Nordhemisphäre zeigte und dass weder die MWP noch die LIA globale Ereignisse waren. Das Argument, dass eine Klimaperiode regional aufgetreten war oder in einem gegebenen Zeitraum einer Aufzeichnung wurde dazu verwendet, dem Problem zu begegnen, dass das Optimum des Holozäns wärmer war als das 20. Jahrhundert. Steve McIntyre untersuchte die Antwort der AGW-Unterstützer einschließlich einer Aussage der NOAA, nämlich:

Zusammengefasst: im Mittlere Holozän vor etwa 6000 Jahren war es allgemein wärmer als heute, aber nur im Sommer und nur auf der Nordhemisphäre.

Timing der Ereignisse

Das Problem, um das es hier geht, ist ein Klassisches und unabdingbar zum Verständnis von Klima. Es involviert eine Standardpraxis im Bereich Klimatologie namens Relative Homogenität. Falls man ein Muster des Klimawandels etablieren will, muss man zuvor festlegen, ob dieses Muster lokal, regional, hemisphärisch oder global auftrat. Es geht um die genaue Definition von Klimatologie, welche das Studium des Klimas in einer Region oder dessen Änderung mit der Zeit ist.

Ich habe mich mit diesem Thema befasst, während ich die These meiner Doktorarbeit vorbereitete, in der es um die Rekonstruktion des Klimawandels in der Stadt Churchill in Manitoba an der Hudson Bay ging, und zwar von 1714 bis 1850. Mein Doktorvater Dr. Bruce Atkinson legte mir nahe, die Klimaänderungen bei der Ortschaft York Factory zu rekonstruieren, ebenfalls an der Hudson Bay, aber 200 km entfernt. Der Vergleich ergab lokale Änderungen in Churchill, während die Untersuchung im regionalen, hemisphärischen und globalen Maßstab einen größeren Zusammenhang zeigte.

Zwei wesentliche Hypothesen komplizieren die Bestimmung von Länge und Ausmaß der Änderung. Die erste lautet, dass ein Ereignis wie die MWP [überall?] gleichzeitig beginnt und endet.* Die zweite lautet, dass durch externe Antriebe ausgelöste Änderungen in allen Aufzeichnungen klar hervortreten. Ich habe beide Hypothesen ausführlich mit Hubert Lamb diskutiert, weil der von mir untersuchte Zeitraum den Übergang von der LIA zur modernen Warmzeit abdeckt. Lamb hat den Terminus Mittelalterliche Warmzeit (MWP) nicht verwendet, und Jean Grove ordnet den Begriff Kleine Eiszeit (LIA) Mathes (1939) zu, aber Lamb legte viel Gewicht auf die Zeitpunkte von Beginn und Ende beider Perioden. In Ausgabe 2 seiner Climatic History and the Future: Climate Present, Past and Future benutzte er die traditionellen Termini „the medieval warm epoch or Little Climatic Optimum“. Dies war die Unterscheidung zwischen Epochen und Ereignissen, wie sie bei magnetischen Umkehrungen üblich ist. Zu jener Zeit war das Optimum des Holozäns das ,Klima-Optimum‘ genannt worden, und die MWP wurde zum ,Kleinen Klima-Optimum‘.

[*Einfügung in [ ]vom Übersetzer zum Verständnis. Ohne diese Einfügung wäre der Satz wohl missverständlich. Oder ist etwas anderes gemeint? Anm. d. Übers.]

Lamb wies darauf hin, dass trotz des globalen Auftretens des Ereignisses dessen Zeitpunkt von Beginn, Höhepunkt und Ende deutlich variierte, abhängig von unterschiedlichen Umständen auf allen Ebenen von lokal über regional bis hemisphärisch. Er zeigte auch, dass der zeitliche Unterschied Dekaden ausmachen konnte. Man kann eine einzelne Station oder sogar mehrere Stationen in einer Region betrachten und würde keine Beweise eines Trends finden wie der MWP oder der LIA. Lamb schrieb:

Beweise, die in dieser Ausgabe schon an verschiedenen Stellen erwähnt worden sind zeigen, dass das Klima im Mittelalter ein paar Jahrhunderte lang in den meisten Gebieten der Welt sich den wärmsten nacheiszeitlichen Epochen annäherte. Der Höhepunkt der Warmzeit trat nicht überall zur gleichen Zeit auf … In den zentralen Gebieten von Nordamerika ebenso wie im europäischen Teil Russlands und in Grönland kann die wärmste Zeit von 950 bis 1200 datiert werden. In den meisten Gebieten von Europa scheinen aber die wärmsten Perioden zwischen 1150 und etwa 1300 gelegen zu haben mit nennenswerter Wärme auch in den 900er-Jahren“.

In der Legende zur Abbildung 7c (hier oben rechts) im FAR des IPCC hieß es:

Die gepunktete Linie repräsentiert nominell die Bedingungen zu Beginn des 20. Jahrhunderts“.

Vermutlich hat irgendjemand diese Linie hinzugefügt und dabei eine allgemeine Bandbreite für die MWP und die LIA eingeführt. Nach Augenschein überdeckt die MWP den Zeitraum 950 bis 1350 und die LIA den von 1350 bis 1900. Dies passt nicht zu den Angaben im Text, besonders hinsichtlich der LIA mit Zahlen, die Grove von 1540 bis 1840 zugeordnet werden, also vor 150 bis 450 Jahren. Es gibt ein paar interessante Kommentare, die der Korrektur bedurften für den politisch motivierten IPCC-Bericht 2001. Mit Bezug auf die MWP wird angemerkt:

Diese Zeit verbreiteter Wärme ist bemerkenswert hinsichtlich des Umstands, dass es keine Beweise gibt, dass diese Warmzeit mit einer Zunahme von Treibhausgasen einher gegangen war.

Bei der Diskussion der zahlreichen Erklärungen für die LIA schrieb man:

Einige haben vorgebracht, dass eine Zunahme des explosiven Vulkanismus‘ Ursache der Abkühlung war (z. B. Hammer 1977 oder Porter 1986). Andere behaupten eine Verbindung zwischen Gletschervorstößen und Reduktionen der solaren Aktivität (Wigley und Kelly 1989). Beispiele sind die Maunder- und Sporer-Minima (Eddy 1976) und auch Pittock 1983.

Man beachte, dass diese gleichen Argumente vorgebracht werden zur Erklärung des gegenwärtigen „Stillstands“ der Temperatur. Man beachte auch den Namen von Tom Wigley, ehemaliger Direktor der CRU und eine zentrale Figur im IPCC-Bericht 2001, der die Abkühlung der Sonnenaktivität zuschrieb. Folgende Referenz wird zitiert:

Wigley, T M L , and PM Kelly, 1989 Holocene climatic change, 14C wiggles and variations in solar irradiance Phil. Trans. Royal Society London (im Druck).

Offensichtlich ist der Artikel, gelistet als „im Druck“ niemals erschienen, weil er in Wigleys Veröffentlichungs-Liste nicht aufgeführt ist.

Auf Seite 203 des IPCC-Berichtes beobachten sie:

Folglich könnte ein Teil der globalen Erwärmung seit 1850 einer Erholung aus der Kleinen Eiszeit geschuldet sein und nicht einer direkten Folge menschlicher Aktivitäten. Es ist daher wichtig zu erkennen, dass natürliche Variationen des Klimas hervortreten und jede zukünftige, vom Menschen induzierte Änderung modulieren.

All diese Punkte konfrontierten die politische Agenda und widersprachen dieser, dass menschliches CO2 für die globale Erwärmung und später den Klimawandel verantwortlich sei. Die Widerlegung begann 1995 im Zweiten Zustandsbericht (SAR) des IPCC und erreichte ihren Höhepunkt im Dritten Zustandsbericht (TAR) 2001 mit seiner zentralen Abbildung, dem „Hockeyschläger“. Die genaue Bestimmung der Zeitpunkte von Beginn und Ende von MWP und LIA, die Relative Homogenität, war unabdingbar zur Identifikation der zugrunde liegenden Mechanismen. Der Hockeyschläger ,löste‘ dieses Problem, indem er beide Ereignisse kurzerhand eliminierte und die Gestalt eines modernen Schlägers annahm mit einem Fehlerfaktor, der die Zahlen bedeutungslos machte.

Willkommen bei der Klimawissenschaft des IPCC!

Link: http://wattsupwiththat.com/2015/03/22/relative-homogeneity-of-the-medieval-warm-period-mwp-and-the-little-ice-age-lia/

Übersetzt von Chris Frey EIKE




Was ist ein „normales“ Klima?

Al Gores Märchenfilm Eine Unbequeme Wahrheit behauptete, dass die globale Temperatur „genau richtig“ sei. Das ist ähnlich der Firma Goldilock, die über Porridge sagte „nicht zu heiß, nicht zu kalt, sondern gerade richtig“. Der Film hat den Oscar mehr als verdient, weil es ein in Hollywood produzierter Märchenfilm war, dem Land unbegrenzter Phantasie. Das große Gorakel erklärt: wir müssen diesen Normalzustand erhalten, weil das böse Hexen-CO2 diesen bedroht. Auf welchem Schloss auch immer er derzeit residiert, er diktiert, den Status Quo zu erhalten, so dass er seinen „normalen“ Lifestyle* weiterleben kann einschließlich der Profite aus dem Verkauf seines Märchens. Mit diebischer Freude bezieht er sich auf Menschen der Vergangenheit wie Arrhenius, Callendar oder Roger Revelle, wobei er bequemerweise die Tatsache ignoriert, dass sie alle in anderen „Normalzuständen“ lebten. Er ignoriert auch die „normalen“ Bedingungen seiner Vorfahren während der Eiszeit.

[*An sich mag ich diesen Begriff, der sich leider auch im Deutschen breit macht, überhaupt nicht. Aber weil ich nicht sicher bin, ob die Übersetzungen „Lebensstil“ oder „Lebensweise“ hier den Nagel auf den Kopf treffen, übernehme ich den Begriff mal. Anm. d. Übers.]

Gore möchte sein „Normal“ erhalten sehen durch die Reduktion der CO2-Menge in der Atmosphäre auf ein vorindustrielles Niveau. Das IPCC sagt, dass die Menge damals 270 ppm betragen hatte. Das ist zwar nicht korrekt, aber nehmen wir einmal an, dass es stimmt, um die Konsequenzen bei Erreichen dieses Niveaus zu betrachten. Nehmen wir also an, dass das IPCC recht hat und dass nahezu die gesamte Zunahme der globalen Temperaturen vom Höhepunkt der Kleinen Eiszeit [dem CO2 geschuldet] ist*, vor allem seit 1950. Dem IPCC zufolge liegt das gegenwärtige Niveau bei 400 ppm, so dass vermutlich das Erreichen des vorindustriellen Niveaus eine Reduktion um 130 ppm erforderlich macht. Dem IPCC und dem Nobelpreis-Gewinner Al Gore zufolge bestimmt das CO2-Niveau die Temperatur, so dass eine solche Reduktion eine Rückkehr zu den Bedingungen während der Kleinen Eiszeit nach sich ziehen würde. Eine Vielzahl von Quellen spezifiziert diese Bedingungen, besonders The Little Ice Age von Jean Grove sowie Links bei CO2Science.org und das Nongovernmental International Panel on Climate Change (NIPCC).

[*Der Satz lautet im Original: Assume also that the IPCC is correct and that virtually all the increase in global temperatures from the nadir of the Little Ice Age, especially since 1950. M. E. ist das kein Satz, weil das Prädikat fehlt. Ich habe meine Vorstellung des ganzen Satzes in eckigen Klammern hinzugefügt. Anm. d. Übers.]

Das IPCC und Gore betrachten nur die Temperatur-Implikationen von CO2, aber es ist unabdingbar für das Pflanzenleben, welches wiederum das Sauerstoff-Niveau bestimmt, das für alle Lebensformen unabdingbar ist. Wie viel Vegetation würde verloren gehen bei einer Reduktion um 130 ppm? Es ist lediglich die Berechnung eines Computermodells, aber das Abstract [einer Studie von] Donohue et al. erklärt:

Satellitenbeobachtungen zeigen ein Ergrünen des Planeten während der letzten Jahrzehnte. Die Rolle des „CO2-Düngungs-Effektes“ – also die gesteigerte Photosynthese infolge des zunehmenden CO2-Niveaus – muss aber noch untersucht werden. Die direkte Auswirkung des CO2-Effektes auf die Vegetation sollte sich am deutlichsten in warmen, ariden Umgebungen zeigen, wo Wasser das dominante Limit des Pflanzenwachstums ist. Mittels der Gas-Austausch-Theorie [gas exchange theory?] sagen wir voraus, dass die Zunahme des atmosphärischen CO2-Gehaltes im Zeitraum von 1982 bis 2010 zu einer Zunahme um 5% bis 10% der Bedeckung mit grünen Pflanzen in warmen, ariden Umgebungen geführt hat. Satellitenbeobachtungen, analysiert um die Effekte variierender Niederschläge zu entfernen, zeigen, dass die Bedeckung dieser Umgebungen um 11% zugenommen hat. Unsere Ergebnisse bestätigen, dass der vermutete CO2-Düngungseffekt stattfindet zusammen mit fortgesetzten anthropogenen Störungen des Kohlenstoff-Zyklus‘, und dass der Düngungseffekt inzwischen zu einem signifikanten Prozess auf dem Festland geworden ist.

Nimmt man erneut an, dass die IPCC-Zahlen korrekt sind, führte eine Zunahme des CO2-Gehaltes um 14% zu einer Zunahme der Vegetation um 11%. Welche Auswirkung würde eine Reduktion um 130 ppm haben? Wie würde der Einfluss reduzierter CO2-Düngung und zurückgehender Temperatur zusammen aussehen? Grove und Andere zeigten die Auswirkung sinkender Temperaturen, nicht CO2.

Als in den siebziger Jahren Konsens hinsichtlich einer globalen Abkühlung bestanden hatte, fertigte Martin Perry Studien über den Einfluss von Abkühlung im Verlauf der Kleinen Eiszeit (Abbildung 1):

Abbildung 1

Abbildung 1 zeigt den Landkreis [county] Berwickshire in der Borders-Region in UK mit einer hohen Prozentzahl von Land, dass der Kultivierung während dieser Zeit verloren gegangen war. Was war normal für die Menschen, die während dieser Zeit gelebt haben? Die Antwort lautet, was immer sie erlebt haben.

Die WMO hat die Normalperiode von 30 Jahren eingeführt mit der Begründung, dem Problem abzuhelfen, was normal ist oder um Mittelwerte für Planungen und andere Anwendungen zur Verfügung zu stellen. Sie erklären:

Die Standard-Klima-Normalwerte unterstützen viele Klima-Serviceleister und Anwendungen einschließlich Klimatologien. Sie komprimieren auch die Referenzperiode für die Evaluierung von Anomalien der Klimavariabilität und -änderung“.

Ein Problem taucht auf, wenn man historische Aufzeichnungen wie z. B. für den Zeitraum von 1781 bis 1810 mit den modernen Normalzeiträumen vergleicht. Welchen modernen Zeitraum würde man heranziehen, 1931 bis 1960 oder den jüngsten 1981 bis 2010? William Wright führte über dieses Problem eine Studie durch, in der er…

…für einen dualen Normalstandard plädierte. CCI-MG konkurriert mit der Schlussfolgerung, dass es die Notwendigkeit häufiger Aktualisierungen bei der Berechnung der Normalwerte für Klima-Applikationen gibt (Vorhersage und Belange der Klimatologie). Dies basiert auf der Notwendigkeit, grundlegende Planungsentscheidungen auf die Grundlage mittlerer und extremer Klimabedingungen zu stellen bei nicht stationären Klimabedingungen“.

Und da haben wir den Kopf des Nagels: „nicht stationäre Klimabedingungen“.

Dann gibt es da noch das Problem der endemischen Adjustierungen all der „offiziellen“ Daten. Die NOAA sagt:

Viele Änderungen und Zusätze wurden den Normalwerten von 1981 bis 2010 hinzugefügt. Monatliche Temperatur- und Niederschlags-Normalwerte basieren auf zugrunde liegenden Datenwerten, die einer zusätzlichen Qualitätskontrolle unterzogen worden sind. Monatliche Temperaturen wurden ebenfalls standardisiert, um den Auswirkungen von Stationsverlagerungen, Änderungen der Instrumentation usw. Rechnung zu tragen“.

Vermutlich bedeutet dies, dass man die Ergebnisse nicht mit jenen früherer „Normalwerte“ vergleichen kann.

Die NOAA informiert uns darüber, dass

Normalwerte eine große Zusammenstellung von Datenprodukten sind, die den User viele Tools zum Verständnis typischer Klimabedingungen zur Verfügung zu stellen. Und zwar für tausende Orten in den gesamten USA“.

Nein, das tun sie nicht! Es sind lediglich 30-Jahres-Mittelwerte, die nichts zum Verständnis typischer Klimabedingungen an irgendeiner Stelle beitragen. Da sich die 30-jährigen Mittelwerte ändern im Zuge von Verfahren, die in Zeiträumen länger als 30 Jahre ablaufen, sagen sie uns einfach nur etwas über das Klima während jenes Zeitraumes. Das Problem illustriert die Auslassung der Milankovitch-Mechanismen seitens des IPCC. Wie berichtet, hat Prof. Lindzen im jüngsten APS-Workshop erklärt:

Die IPCC-Schätzung des anthropogenen Einflusses lautet etwa 2 W/m² im AR 5, und das ist viel weniger als der Milankovitch-Effekt von 100 W/m² auf 65°N, siehe Edvardson et al.

Abbildung 2 zeigt die 100 W/m²-Variabilität auf 65°N, berechnet von Berger 1978 und diskutiert in meinem Beitrag Important But Little Known “Earth “ scientists.”

Abbildung 2: Variationen der Einstrahlung (einfallende Solarstrahlung) auf 65°N.

Quelle: Berger 1978. Langzeitliche Variationen der täglichen Einstrahlung und quaternäre [quaternary?] klimatische Änderungen. J. Atmos. Sci. 35: 2362–2367.

Ein IPCC-Modellierer sagte mir einmal, dass man Milankovitch ausgelassen hätte, weil man den zeitlichen Maßstab als ungeeignet angesehen hatte.

Offensichtlich stellen die Menschen Planungen und Management-Entscheidungen auf die Grundlage dieser „Normalwerte“. NOAA berichtet:

Zusätzlich zu den Wetter- und Klima-Vergleichen werden Normalwerte in scheinbar zahllosen Anwendungen in einer ganzen Palette von Bereichen verwendet. Darunter sind: Vorschriften von Energieunternehmen, Energie-Lastvorhersagen, Ernteauswahl und Pflanzzeiten, die Planung von Konstruktionen, das Design von Gebäuden und viele andere.

Sie nehmen an, dass all diese Bedingungen fortbestehen. Das erinnert mich an eine Präsentation von Michael Schlesinger auf einer Konferenz in Edmonton zur Zukunft des Klimas in der kanadischen Prärie. Ein Bürokrat sagte, man plane die Aufforstung in Teilen des südlichen Alberta, und Ihre Daten zeigen, dass diese Gebiete in 50 Jahren Wüste sind. Wie genau ist diese Vorhersage? Schlesinger erwiderte etwa 50%. Der Bürokrat sagte: „Mein Minister verlangt 98%“.

Das ist heute kein bisschen besser. Abbildung 3 ist eine Karte der Genauigkeit der Niederschlagsvorhersage für 12 Monate in Kanada. Sie liegt in 95% des Gebietes von Kanada unter 40%, wenn man es mit dem 30-jährigen Normalwert 1981 bis 2010 vergleicht.

Abbildung 3

Ich habe es so verstanden, dass man einen Zeitraum von 30 Jahren gewählt hat, weil 30 Jahre eine statistisch signifikante Größe (n) für eine Testreihe für irgendeine Bevölkerung (N) ist. Der Zeitraum ist für Klimaverteilungen wertlos, und die Ursachen, die zu diesen Klimaverteilungen führen, erstrecken sich über viel längere Zeitperioden. Die NOAA räumt dies auch ein, wenn sie schreibt:

Tatsächlich war es so: als die weit verbreitete Praxis der Berechnung von Normalwerten in den dreißiger Jahren begonnen hatte, lautete die allgemein akzeptierte Auffassung des Klimas, dass zugrunde liegende langfristige Mittelwerte der Klima-Zeitreihen konstant wären.

Dieser Gedanke setzte sich durch und wurde zur fundamentalen Auffassung der Öffentlichkeit, dass das Klima konstant ist, was die gegenwärtige Änderung als etwa Anomales erscheinen ließ. Auch wurde die 30-jährige Normalperiode zum Mittelwert für die Wetterleute in Radio und Fernsehen. Die NOAA bestätigt diese Übernahme.

Meteorologen und Klimatologen verwenden Normalwerte regelmäßig für die Übertragung jüngster Klimabedingungen in einen historischen Zusammenhang. Die NOAA-Normalwerte sieht man allgemein bei lokalen Wetternachrichten als Vergleich zu den täglichen Wetterbedingungen.

Wenn Medien-Meteorologen sagen, dass eine Wettervariable heute über dem Normalwert liegt, gilt das üblicherweise nur für den 30-jährigen Mittelwert, nicht aber für die Gesamtdauer der Aufzeichnung an der Station. Dies engt die Bandbreite erheblich ein und erzeugt ein verzerrtes Bild davon, wie stark das Klima variiert. Dies wiederum verstärkt die Effektivität der Behauptungen von Gore und Anderen, dass das gegenwärtige Wetter anomal ist. Der Klima-„Normalwert“ ist jetzt genauso verzerrt wie Goldilocks Gores „Normalwert“. Bei Porridge und Märchen mag es ja funktionieren, aber für das aktuelle Klima funktioniert es nicht. Die Behauptung, dass das Normale anomal ist, ist wirklich eine Absurdität.

Link: http://wattsupwiththat.com/2015/03/17/what-is-a-normal-climate/

Übersetzt von Chris Frey EIKE




2014: Unter den 3 Prozent der kältesten Jahre innerhalb der letzten 10.000 Jahre?

Bild rechts: Abbildung1
Wir wissen, dass sich die Schlagzeile auf die NOAA-Projektion bezieht, aber die Öffentlichkeit verinnerlicht nur den Terminus „wärmstes Jahr“. Das ist von Anfang an die Routine der Manipulation von Schlagzeilen durch Bürokraten und IPCC-Unterstützer. Die Behauptung kam nicht überraschend, weil die NOAA schon im Januar angefangen hat, das Jahr 2014 mit der Schlagzeile NOAA: January 2014 fourth-warmest on record zu apostrophieren. Verschiedene Monate des Jahres wurden benannt, zum Beispiel „NOAA: August 2014 Was The Warmest On Record,” mit dem Zusatz, dass er ein kleines bisschen zu warm war. Aber da hatte die NOAA schon berichtet:
Der Sommer des Jahres 2014 ist offiziell der wärmste seit Beginn moderner instrumenteller Aufzeichnungen vor über 130 Jahren. Dies geht aus dem jüngsten Klimastatusbericht des National Climatic Data Center der NOAA hervor.
Im Oktober hatte man das Jahr zusammengefasst:
Dies macht die ersten zehn Monate des Jahres 2014 zur wärmsten Januar-bis-Oktober-Periode jemals und schiebt das Jahr 2014 auf den Weg, das wärmste, in den bis zum Jahr 1880 zurück reichenden NOAA-Archiven verzeichnete Jahr zu werden.
Bob Tisdale schrieb eine exzellente Zusammenfassung der „ Anticipation [Erwartung] der beiden Reihen vom GISS und vom NCDC. Er war nicht überrascht, als diese Aufzeichnungen erschienen und zeigten, dass das Jahr 2014 um 0.02°C über dem bisherigen Rekord lag. Man erinnere sich, dies stammt aus einer Reihe, die in historischen Aufzeichnungen beschränkt war auf 0,5°C. Wir kennen auch die beiden Satelliten-Datenreihen, RSS und UAH, und beide zeigen, dass es nicht das wärmste Jahr war.
Um der Schlagzeile zu begegnen bräuchte man etwas sehr Dramatisches, weil es hinsichtlich der Temperatur 2014 nichts Signifikantes gibt, wie Tisdale in einem Beitrag mit dem Titel The Uptick in Global Surface Temperatures in 2014 Doesn’t Help the Growing Difference between Climate Models and Reality zu beweisen plant. Er ist daran interessiert zu sehen, wie Gavin Schmidt, Nachfolger von James Hansen am Goddard Institute for Space Studies (GISS) die Fackel weiterträgt. Die Historie zeigt, dass die GISS-Werte stets höher lagen als die Werte aus allen anderen Quellen. Das ist nur ein Indikator der Temperatur-Adjustierungen, die vorgenommen worden waren, um die AGW-Hypothese passend zur politischen Agenda zu machen.
Herausforderungen und Festlegungen [fixes] des IPCC
Wie belastbar ist die Behauptung bzgl. 2014? Im Kontext der letzten 10.000 Jahre ist das bedeutsam, weil sich das Jahr unter den 3 Prozent der kältesten Jahre befindet, was viel bedeutsamer ist, als die von den Warm-Alarmisten proklamierten 100 Jahre. Es gibt zwei wesentliche Gründe: Die höchsten Temperaturen wurden in den letzten Jahren steigender Temperatur abgelesen. Jede Veränderung, Adjustierung und Kurzfassung der Aufzeichnung bislang wurde vorgenommen, um zunehmend höhere Temperaturen zu erzeugen und zu verkünden
1. Die instrumentellen Daten sind räumlich und zeitlich unzureichend. Wetterdaten an der Oberfläche sind praktisch nicht existent und ungleich über 85% der Erdoberfläche verteilt. Über 70% der Ozeane gibt es praktisch gar keine. Auf dem Festland gibt es praktisch keine Daten aus den 19% Berge, 20% Wüste, 20% boreale Wälder, 20% Prärien und 6% tropischer Regenwald. Um die Lücken „aufzufüllen“, stellte das GISS die lächerliche Behauptung auf, dass eine einzige Stations-Temperaturmessung repräsentativ sei für ein Gebiet um die Station mit einem Radius von 1200 km. Die initialen AGW-Behauptungen basierten auf Festlandsdaten. Die Daten sind vollkommen ungeeignet als Grundlage für die Konstruktion der Modelle.
2. Die meisten Stationen konzentrieren sich im östlichen Nordamerika und in Westeuropa. Sie wurden schon früh zu Beweisen für die vom Menschen verursachte globale Erwärmung. IPCC-Advokaten haben lange Zeit die Tatsache ignoriert, dass diese Stationen fast alle vom städtischen Wärmeinsel-Effekt UHI betroffen waren.
Der UHI war eine der ersten Herausforderungen der aus den instrumentellen Messungen abgeleiteten AGW-Behauptung. Zwei von Warwick Hughes erzeugte Graphiken waren die Effektivsten und erschienen im Jahre 1991 kurz nach Veröffentlichung des 1. IPCC-Berichtes 1990. Abbildung 2 zeigt die Temperatur an sechs großen australischen Städten.

Abbildung 2
Eine höchst wahrscheinliche Erklärung des UHI ist die Ausdehnung der Stadtgebiete, bis ursprünglich außerhalb der Stadt liegende Wetterstationen an Flughäfen davon eingeschlossen worden waren. Das Automobil hat dies möglich gemacht. Abbildung 3 zeigt einen Vergleich mit 26 ländlichen Stationen:

Abbildung 3
Der Unterschied ist markant. Genauso interessant ist, dass die Temperaturen im ersten Teil der Zeitreihe von 1880 bis 1900 höher lagen.
3. Es gibt eine konstante Revision der Aufzeichnungen hin zu niedrigeren historischen Werten. Dies lässt den Gradienten der vermeintlichen Erwärmung zunehmen. Offensichtlich wird dies in den Aufzeichnungen von Neuseeland (Abbildung 4):

Abbildung 4
Eine Suche bei WUWT nach dem Terminus „Temperature adjustments” ergibt eine Unmenge von Beweisen. Jedwede vorgenommene Anpassung diente dazu, den Gradienten der Kurve so zu verändern, dass es heute wärmer ist als in der Vergangenheit. Erklärungen, wenn überhaupt abgegeben, bieten gewöhnlich kaum eine Rechtfertigung für diese Adjustierungen. Das andere Leuchtzeichen ist, dass nahezu alle Adjustierungen vorgenommen worden waren, bevor die UAH-Satelliten-Temperaturaufzeichnung im Jahre 1991 begann.
4. Die Politik hatte erwartet, dass Satellitendaten die Wetterstationen am Erdboden ersetzen würden. Als Folge wurden viele Wetterstationen stillgelegt (Abbildung 5) oder zumindest nicht in die Berechnung des globalen Mittelwertes aufgenommen.
Die Abbildungen unten zeigen:
a) die Anzahl von Stationen mit einer Aufzeichnungsdauer von mindestens N Jahren als eine Funktion von N,
b) die Anzahl messender Stationen als eine Funktion der Zeit,
c) die Prozentzahl hemisphärischer Gebiete, die sich innerhalb des Radius‘ von 1200 km um eine messende Station befindet.

Abbildung 5
Die Anzahl von Bodenstationen war im Jahre 1960 unzureichend und wurde im Jahre 1990 noch weiter reduziert. Man beachte, dass nur etwa 1000 Stationen einen Zeitraum von 100 Jahren überdecken.
Aber wie genau kann man die globale Temperatur ermitteln, wenn der antarktische Kontinent ausgelassen wird? Man betrachte die IPCC-Schlussfolgerung:
Der größte Teil der beobachteten Zunahme der globalen mittleren Temperaturen seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich der beobachteten Zunahme der anthropogenen Treibhausgas-Konzentrationen geschuldet. Es ist wahrscheinlich, dass es während der letzten 50 Jahre eine signifikante anthropogene Erwärmung gemittelt über jeden Kontinent (außer der Antarktis) gegeben hat.
Antarktika ist 14 Millionen km² groß, also fast so groß wie Russland (17 Millionen km²), dem größten Land der Erde.
Man füge dem die 14 Millionen km² des Arktischen Ozeans hinzu, aus dem keine Daten vorliegen, wie das Arctic Climate Impact Assessment (ACIA) anmerkt (Abbildung 6)

Abbildung 6
Die Ausdehnung dieser Gebiete ist das Eine, ihre Rolle bzgl. des Weltklimas das Andere und weitaus wichtiger als die Rolle fast aller anderen Regionen.
Abbildung 7 zeigt, dass weniger Stationen ein beitragender Faktor zu höheren Temperaturen sind:

Abbildung 7
Die Stationen, die die NOAA aus dem GHCN in Kanada übernommen hat, illustrieren das Problem (Abbildung 8).

Abbildung 8
Es gibt 100 Stationen nördlich des Polarkreises, aber die NOAA zieht nur die Station Eureka, eine bekannte Wärmeinsel heran, um ein Drittel des zweitgrößten Landes der Erde zu repräsentieren. Selbst der 1200-km-Radius zählt hier nicht mehr.
7. Abänderungen der historischen Aufzeichnungen enthalten auch den infamen Hockeyschläger. Dabei wird von einem Mitglied der Climatic Research Unit CRU berichtet, dass er Prof. David Deming gesagt hat: „Wir müssen die Mittelalterliche Warmzeit loswerden!“ Mit dieser Äußerung im Hintergrund wurde der Hockeyschläger erzeugt. Das Blatt [des Hockeyschlägers] wurde geformt von CRU-Direktor Phil Jones‘ Daten, die eine Zunahme von 0,6°C innerhalb von etwa 120 Jahren zeigten. Das Problem war der Fehlerfaktor: ±0.2°C oder ±33 Prozent.
8. Die Temperaturtrends des 20. Jahrhunderts beginnen mit einer Erwärmung von 1900 bis 1940, der eine Abkühlung von 1940 bis 1980 folgte, gefolgt von einer erneuten Erwärmung von 1980 bis 1998 sowie einem leichten Abkühlungstrend danach bis 2014. Die Alarmisten haben die Abkühlung den menschlichen Emissionen von Sulfaten zugeordnet, aber das stellte sich als falsch heraus, als die Temperaturen wieder zu steigen begannen ohne dass die Sulfate abnahmen.
9. Falls wir die Erwärmung alles in allem ab 1900 akzeptieren, was vernünftig wäre, kam doch die Erde aus der Kleinen Eiszeit (LIA), dann treten die höchsten Temperaturen erst in den jüngsten Aufzeichnungen auf (Abbildung 9)

Abbildung 9
Der Umstand, dass 2014 einen winzigen Betrag wärmer war als jedes andere Jahr in der Aufzeichnung ändert nicht den Trend des „Stillstands“. Er verstärkt nicht die CO2-Kausalitäts-Behauptung.
10. Die Behauptung lautet, dass das Jahr 2014 um 0,02°C wärmer ist als jedes andere Jahr. Es ist vernünftig zu vermuten, dass die US-Temperaturaufzeichnung unter den Besten ist. Anthony Watts zeigte, dass nur 7,9 Prozent der US-Stationen auf <1°C genau ist (Abbildung 10).

Abbildung 10
Eine Gegenschlagzeile muss eine Perspektive bieten
Der Titel zu diesem Beitrag könnte auch lauten [übersetzt] 2014: unter den 3 Prozent kältester Jahre in 10.000 Jahren“. Abbildung 11 zeigt die Temperatur der Nordhemisphäre für den Zeitraum, der bezeichnet wird als „Klimaoptimum, Hypsithermal und Holozän-Optimum“.

Abbildung 11
Die dem Originaldiagramm hinzugefügte rote Linie vergleicht die genäherten Temperaturen des 20. Jahrhunderts (rechte Seite) mit denen der letzten 10.000 Jahre. Bei CO2Science wird von Dahl-Jensen (1998) angemerkt:
Nach dem Ende der Eiszeitperiode haben die Temperaturen bis zum klimatischen Optimum (vor 4000 bis 7000 Jahren) stetig zugenommen, bis die Temperatur maximal um 2,5°C über den heutigen Werten lagen.
Der Schlüssel-Terminus in der 2014-Behauptung ist „in der Aufzeichnung“, aber die überdeckt lediglich etwa 100 Jahre. Im Zusammenhang mit dem klimatologisch viel bedeutenderen Zeitraum von 10.000 Jahren ist es eines der kältesten Jahre.
Die Behauptung, dass 2014 das wärmste Jahr jemals war, war politisch wichtig für die Befürworter der IPCC-Story, dass menschliches CO2 die Ursache der globalen Erwärmung sei. In der Mitte dieser Argumentation stand die Notwendigkeit zu beweisen, dass die Temperaturen zum Ende des 20. Jahrhunderts die „wärmsten jemals“ waren. Dies ist der Grund, warum die 2014-Behauptung so bequem vor dem COP-Treffen in Lima auftauchte, auf dem die falsche IPCC-Behauptung verzweifelt beworben wurde.
Die Beweise widersprechen weiterhin hartnäckig den wesentlichen Hypothesen der AGW-Hypothese. T. H. Huxley (1825 bis 1895) drückte das so aus:
Die große Tragödie der Wissenschaft – eine wunderschöne Hypothese wird durch eine hässliche Tatsache geschlachtet.
Das Problem ist, dass die Fakten immer weiter anwachsen und die AGW-Befürworter diese weiterhin ignorieren, umgehen oder sie verfälschen. Wir wissen, dass die Wissenschaft falsch ist, weil die IPCC-Projektionen falsch sind. Normale Wissenschaft verlangt verlangt immer aufs Neue das Überdenken einer Hypothese und deren Implikationen. Das IPCC hat diese Option entfernt, als sie den Beweis für die Hypothese ausschlossen. Dies packt das IPCC auf die Tretmühle, die Ergebnisse zu fixieren, vor allem die Temperaturaufzeichnung. Der chinesische General Tao Kan drückte es so aus: „Es ist wie der Ritt auf einem Tiger, von dem abzusteigen sehr schwierig ist“.
Link: http://wattsupwiththat.com/2015/01/21/2014-among-the-3-percent-coldest-years-in-10000-years/
Übersetzt von Chris Frey EIKE
Hinweis des Übersetzers: Im Original ist der Autor Tim Ball vermutlich mit der Zählung seiner Abbildungen durcheinander gekommen. Die Abbildung 6 taucht im Original zweimal auf, obwohl es sich um ganz verschiedene Graphiken handelt. Danach geht die Zählung mit 7 weiter.
Ich habe die Zählung daher korrigiert. Die zweite als „Abbildung 6“ bezeichnete Graphik habe ich zu Abbildung 7 gemacht. Aus Abbildung 7 im Original wurde hier Abbildung 8, usw bis zum Ende des Beitrags.




Eine einfache Wahrheit: Computer-Klimamodelle können nicht funktionieren

Bild rechts (Abbildung 1): Wigley und H.H.Lamb, Gründer der CRU. Quelle
IPCC-Computer-Klimamodelle sind die Zugpferde bei der Irreführung der Öffentlichkeit hinsichtlich AGW mit der Behauptung, dass menschliches CO2 die globale Erwärmung verursacht. Sie erzeugen die Ergebnisse, für die sie konstruiert worden sind.
Das Akronym GIGO (Garbage In, Garbage Out) reflektiert den Umstand, dass die meisten an Computermodellen Arbeitenden das Problem kannten. Einige schlagen vor, dass es in der Klimawissenschaft tatsächlich steht für Gospel In, Gospel Out [etwa: Prinzip hinein, Prinzip heraus. Ich belasse es wegen der vielen Bedeutungen beim Original. Anm. d. Übers.]. Die Gospel Out-Ergebnisse sind die IPCC-Vorhersagen (Projektionen), und sie sind konsistent falsch. Das ist für mich keine Überraschung, weil ich von Anfang an die Unzulänglichkeit der Modelle betont habe. Ich habe beobachtet, wie die Klimamodellierer die Klimakonferenzen als Präsentatoren von Schlüsselbemerkungen gekapert und dominiert haben. Es waren Modellierer, die die CRU dominiert haben und mittels der CRU auch das IPCC. Die Gesellschaft ist immer noch fasziniert von Computern, so dass sie diesen eine Aura der Genauigkeit und Wahrheit zugebilligt wird, die durch nichts gerechtfertigt ist. Pierre Gallois erklärt dazu:
Falls man Albernheiten in einen Computer füttert, kommt nichts außer Albernheiten heraus. Aber diese Albernheiten hier sind durch eine sehr teure Maschine gelaufen und wurden irgendwie geadelt, und niemand wagt es, sie zu kritisieren.
Michael Hammer fasst es so zusammen:
Es ist wichtig, sich daran zu erinnern, dass der Modelloutput vollständig und exklusiv bestimmt wird durch die in den Input-Fragen enthaltenen Gleichungen. Der Computer bewirkt kein Hinterfragen, bringt keine neuen Informationen und keine größere Sicherheit im Output. Er liefert nur Rechenleistung.
Es ist ein guter Artikel, der jedoch den wichtigsten aller Punkte nicht anspricht, nämlich dass ein Modell nur so gut ist wie die Struktur, auf dem es konstruiert wurde, nämlich Wetteraufzeichnungen.
Die IPCC-Lücke zwischen Daten und Modellen beginnt
Dieses Auslassen ist keine Überraschung. Der CRU-Gründer Hubert Lamb definierte das grundlegende Problem, und sein Nachfolger Tom Wigley besorgte die Transition zum größeren Problem von politisch dirigierten Klimamodellen.
Der Grund von Lamb, die CRU zu gründen, wird auf Seite 203 seiner Autobiographie genannt mit dem Titel: Through all the Changing Scenes of Life: A Meteorologists Tale”:
…es war klar, dass die erste und größte Notwendigkeit darin bestand, die Fakten von Aufzeichnungen des natürlichen Klimas aus der Vergangenheit zu etablieren, bevor irgendwelche Nebeneffekte menschlicher Aktivitäten wichtig geworden sein könnten“.
Lamb wusste, was los war, wenn er kryptisch schreibt:
Mein direkter Nachfolger Professor Tom Wigley war zuallererst an den Aspekten einer Veränderung des Weltklimas interessiert als Folge menschlicher Aktivitäten, primär durch das Verbrennen von Holz, Kohle, Öl und Gasvorräten…“ – „Nach nur wenigen Jahren wurde fast die gesamte Arbeit an der historischen Rekonstruktion von Klima- und Wettersituationen der Vergangenheit, die die CRU zunächst so bekannt gemacht hatte, aufgegeben“.
Lamb erklärte des Weiteren, wie eine Zuwendung der Rockefeller Foundation zu einem völligen Fehlschlag wurde:
…eine verständlicherweise unterschiedliche wissenschaftliche Beurteilung zwischen mir und dem Wissenschaftler Dr. Tom Wigley, den wir damit beauftragt haben, die Verantwortung für die Forschung zu übernehmen“.
Wigley trieb die Anwendung von Klimamodellen voran, aber Lamb wusste, dass diese nur so gut waren wie die Daten, die für ihre Konstruktion verwendet worden waren. Lamb liegt immer noch richtig. Die Modelle beruhen auf Daten, die entweder gar nicht existieren oder hinsichtlich aller Messungen ungeeignet sind.

Abbildung 2
Das Konstrukt von Klimamodellen
Modelle reichen von einfachen maßstäblich verkleinerten Kopien mit erkennbaren individuellen Komponenten bis zu Abstraktionen wie mathematische Formeln, die weit entfernt sind von der Realität, wobei Symbole die individuellen Komponenten repräsentieren. Abbildung 2 ist ein einfaches schematisches Modell mit den für ein Computermodell notwendigen Gliederungen. Der Abstand der Gitterpunkte (gezeigt hier 3° mal 3°) variiert, und es wird behauptet, dass eine Reduktion des Abstandes der Gitterpunkte verbesserte Genauigkeit liefert. Das spielt aber keine Rolle, weil es so wenige Stationen mit angemessener Länge oder Zuverlässigkeit gibt. Die mathematische Gleichung für jeden Gitterpunkt kann nicht genau sein.

Abbildung 3: Anzahl der Stationen nach NASA GISS
Diese Karte ist betrügerisch, weil jeder Punkt eine einzelne Wetterstation repräsentiert, aber im Maßstab der Karte jeweils ein paar Hundert Quadratkilometer überdeckt. Aber unabhängig davon ist es Realität, dass es in riesigen Gebieten der Welt überhaupt keine Wetterstationen gibt. Möglicherweise gibt es an über 85% der Gitterpunkte keine Daten. Das tatsächliche Problem ist sogar noch größer als NASA GISS, vielleicht unwissentlich, und wird in Abbildung 4 illustriert:

Abbildung 4
Abbildung 4(a) zeigt die Länge der Aufzeichnung. Nur 100 Stationen reichen 100 Jahre zurück, und fast alle von ihnen liegen in dicht besiedelten Gebieten im Nordosten der USA oder Westeuropa und sind Schauplatz des städtischen Wärmeinseleffektes (UHI). Abbildung 4(b) zeigt den Rückgang der Anzahl von Stationen um das Jahr 1960. Teils erfolgte dieser Rückgang wegen der vermuteten besseren Abdeckung durch Satelliten. Effektiv war das aber erst 2003-2004 der Fall. Die Messungen an der Erdoberfläche blieben der Standard für die IPCC-Berichte. Abbildung 5 zeigt eine von der CRU erstellte Karte für den Arctic Climate Impact Assessment (ACIA)-Bericht [etwa: Bericht zur Abschätzung von Klimaauswirkungen in der Arktis].

Abbildung 5.
Es ist eine stereographische Projektion über den Zeitraum 1954 bis 2003 und zeigt für den Arktischen Ozean (14 Millionen km², also fast die Größe von Russland) „no data“. Trotz des signifikanten Rückgangs der Anzahl von Stationen in Abbildung 4(b) zeigt die Graphik 4(c) nur einen leichten Rückgang der abgedeckten Gebiete. Dies liegt daran, dass man annimmt, dass jede Station einen Umkreis von 1200 km um die Station repräsentiert. Das ist absurd. Man zeichne einen Kreis mit einem Radius von 1200 km um irgendeine Station an Land oder auf See und schaue, was darin eingeschlossen ist. Die Behauptung ist sogar noch dümmer, wenn der Umkreis teilweise Wasser überdeckt.
Abbildung 6a zeigt den direkten Abstand zwischen Calgary und Vancouver, der 670 km beträgt und in etwa auf der gleichen geographischen Breite liegt.

Abbildung 6a

Abbildung 6b: Distanz zwischen London und Bologna 1154 km.

Abbildung 6c: Distanz zwischen Trondheim und Rom 2403 km. Man beachte, dass dieser Kreis mit Durchmesser 2400 km fast ganz Europa einschließt.
Ein Beispiel der Probleme, die sich aus der 1200-km-Behauptung ergeben, zeigte sich vor ein paar Jahren in Saskatchewan. Der Ombudsmann der Provinz suchte meinen Rat hinsichtlich Behauptungen einer Frostversicherung, die sinnlos schienen. Die Landwirtschafts-Versicherung der Regierung entschloss sich, Versicherungen gegen Frost anzubieten. Jeder Landwirt wurde aufgefordert, die nächstliegende Wetterstation als Basis für Entscheidungen heranzuziehen. Schon im allerersten Jahr kam es zu Frost bereits Ende August. Mittels der Aufzeichnungen von Wetterstationen erhielt die Hälfte aller Landwirte keinen Ausgleich, weil ihre Station +0,5°C gemessen hatte, obwohl sie alle von „schwarzem Frost“ betroffen waren. Die Bezeichnung „schwarzer Frost“ deswegen, weil vormals grüne Blätter nach dem Frost schwarz waren. Die andere Hälfte wurde ausbezahlt, obwohl es dort keine Beweise für physischen Frost gab, die Station aber eine Temperatur von -0,5°C angezeigt hatte. Der Ombudsmann konnte dieses Missverhältnis und die Ungenauigkeit der Temperaturmessungen nicht glauben, vor allem in einem nahezu isotropen Gebiet. Vor allem, nachdem ich darauf hingewiesen hatte, dass die Temperaturmessungen von einer Stevenson Wetterhütte (Screen) stammten, zumeist 1,25 bis 2 m über Grund und damit über dem Getreide. Die Temperaturen unterhalb dieses Niveaus sind markant unterschiedlich.
Empirischer Test der Temperaturdaten
Eine Gruppe, die ein Kartographie-Projekt durchführte und dabei versuchte, Daten für die praktische Anwendung zu verwenden, brachte die Unzulänglichkeit der Temperaturaufzeichnung ans Licht:
Die Story dieses Projektes beginnt mit Kaffee, wir wollten Karten erstellen, die zeigten, wo in der Welt Kaffee am besten gedeiht und wohin er nach der Ernte geht. Wir erkundeten Daten der weltweiten Kaffeeproduktion und besprachen, wie man die optimalen Wachstumsgebiete auf der Grundlage entscheidender Umweltbedingungen kartographieren könnte: Temperatur, Niederschlag, Höhe, Sonnenlicht, Wind und Bodenqualität.
Den ersten extensiven Datensatz, den wir finden konnten, enthielt Temperaturdaten vom National Climatic Data Center NCDC der NOAA. Also begannen wir eine Karte der Erde zu zeichnen auf der Grundlage der historischen monatlichen Temperatur. Der Datensatz enthielt Messungen bis zum Jahr 1701 zurück von über 7200 Wetterstationen auf der ganzen Welt.
Jede Klimastation konnte an einem bestimmten Punkt auf dem Globus platziert werden aufgrund der geographischen Koordinaten. Nordamerika und Europa wiesen dicht gedrängt Messpunkte auf, während die räumliche Verteilung von Stationen in Südamerika, Afrika und Ostasien ziemlich spärlich ist. Die Stationsliste veränderte sich von Jahr zu Jahr, wobei einige Stationen neu online gingen und andere verschwanden. Dies bedeutete, dass man nicht einfach die Temperatur an einem bestimmten Punkt mit der Zeit plotten konnte.

Abbildung 7
Die von ihnen erstellte Karte illustriert die Lücken sogar noch stärker, aber das war nicht das einzige Phänomen.
An dieser Stelle hatten wir eine Karte mit einer passablen Approximation der globalen Temperatur (Abbildung 7), aber es war schwierig, Daten hinsichtlich Niederschlag, Höhe über NN, Sonnenlicht, Wind und Bodenqualität zu finden. Die Temperaturdaten allein lieferten uns keine überzeugende Story.
UK mag genaue Temperaturmessungen haben, aber das ist ein kleines Gebiet. Viel größere Länder weisen ungeeignete Instrumentation und Messungen auf. In den USA gibt es möglicherweise das beste, mit Sicherheit aber das teuerste Netzwerk. Forschungen von Anthony Watts zeigten, dass die US-Aufzeichnungen nur 7,9 Prozent Wetterstationen mit einer Genauigkeit unter 1°C aufweisen.
Daten bzgl. Niederschlag sind das größere Problem
Wasser in allen Aggregatzuständen ist kritisch für den Energietransport durch die Atmosphäre. Der Transfer von zusätzlicher Energie aus den Tropen, um Defizite in Polargebieten auszugleichen (Abbildung 8) erfolgt zum größten Teil in Gestalt latenter Wärme. Niederschlag ist lediglich eine Art, diese grundlegende Variable zu messen.

Abbildung 8
Es ist eine nur sehr schwer genau zu messende Variable, und die Aufzeichnungen sind räumlich und zeitlich völlig ungeeignet aufgelöst. Ein Beispiel dieses Problems zeigte sich in Versuchen, Computermodelle zu verwenden, um den afrikanischen Monsun vorherzusagen (Science, 4. August 2006):
Alessandra Giannini, eine Klimawissenschaftlerin an der Columbia University: „Einige Modelle sagen eine nassere Zukunft vorher, andere eine trockenere. Sie können nicht alle richtig sein“.
Ein ausgemachter Schuldiger hierfür war die Unzulänglichkeit der Daten.
Ein offensichtliches Problem ist das Fehlen von Daten. Das afrikanische Netzwerk von 1152 Wetterstationen, die Daten in Echtzeit übermitteln und Eingang in internationale Klimaarchive finden, enthält nur ein Achtel der minimalen Stationsdichte, wie sie von der WMO verlangt wird. Außerdem fallen die tatsächlich bestehenden Stationen oftmals aus.
Wahrscheinlich erfüllen nur sehr wenige Gebiete die von der WMO vorgegebene Dichte. Das Problem ist komplexer, weil sich die Temperatur relativ einheitlich ändert, allerdings mit Sicherheit nicht in einem Radius von 1200 km. Die Niederschlagsmenge jedoch variiert schon im Abstand einiger Meter. Viel Niederschlag wird von Schauern geliefert aus sich im Tagesverlauf entwickelnden Cumulus-Wolken. Viele Farmer in den USA sind bestens vertraut damit, dass Teile ihrer Ländereinen einen Wolkenbruch abbekommen, während es in anderen Teilen trocken bleibt.
Temperatur und Niederschlagsmenge, die beiden wichtigsten Variablen, sind vollkommen ungeeignet, um die Bedingungen zu schaffen und damit die Formel für irgendein Gitterpunktsnetz im Modell. Im jüngsten Zustandsbericht des IPCC, AR5, heißt es in zwei klassischen Understatement-Bemerkungen:
Die Fähigkeit der Klimamodelle, die bodennahe Temperatur zu simulieren, hat sich in vielen, aber nicht allen wichtigen Aspekten verbessert relativ zu der Erzeugung der Modelle wie im AR 4 beschrieben.
Die Simulation großräumiger Verteilungen des Niederschlags hat sich seit dem AR 4 etwas verbessert, obwohl die Modelle hinsichtlich des Niederschlags weiterhin viel schlechter sind als hinsichtlich der Temperatur.
Aber die Atmosphäre ist dreidimensional, und die Anzahl der Daten über der Oberfläche ist fast nicht existent. Nur ein Beispiel soll diese Probleme hier illustrieren. Es gab einmal alle 60 Meter Instrumente an einem 304 Meter hohen Turm außerhalb der städtischen Wärmeinsel der Stadt Winnipeg. Die Änderungen auf dieser kurzen Distanz waren bemerkenswert und zeigten viel mehr Inversionen als wir erwartet hatten.
Mancher glaubt, dass die Parametrisierung erfolgt, um grundlegende Daten wie Temperatur und Niederschlag zu ersetzen. Das ist nicht der Fall. Es ist eine Methode, um Prozesse zu ersetzen, die zu kleinräumig oder zu komplex sind, um physikalisch durch einen vereinfachten Prozess im Modell repräsentiert werden zu können.
Selbst dann räumt das IPCC Grenzen und Varianzen ein:
Die Differenzen zwischen Parametrisierungen sind eine wichtige Ursache, warum sich die Ergebnisse von Klimamodellen unterscheiden.
Daten für die dynamische Atmosphäre sogar noch unzulänglicher
Sie „füllen“ die Lücke mit der Behauptung der 1200 km, was zeigt, wie bedeutungslos das alles ist. Sie haben wenige oder gar keine Daten in irgendeinem der Kreise, und doch sind diese die mathematischen Fundamente der Computermodelle. Wahrscheinlich gibt es Daten zwischen der Oberfläche und der freien Atmosphäre nur für etwa 10% des atmosphärischen Volumens. Diese Bemerkungen gelten für eine statistische Situation, aber die Volumina ändern sich konstant täglich, monatlich, jahreszeitlich und jährlich in einer dynamischen Atmosphäre, und all dies ändert sich mit dem Klimawandel.
Ockhams Rasierer zeigt, dass jede Diskussion über die Komplexität der Klimamodelle einschließlich der Verfahren, Prozesse und Prozeduren irrelevant ist. Sie können nicht funktionieren, weil die einfache Wahrheit lautet, dass die Daten, das Fundament der Modelle, vollständig unzulänglich sind. Tolstoi hat über das Phänomen einer einfachen Wahrheit Folgendes gesagt:
Ich weiß, dass die meisten Menschen einschließlich jener, die Problemen größter Komplexität entspannt gegenüber stehen, selten auch nur die einfachsten und offensichtlichsten Wahrheiten akzeptieren können, falls diese sie dazu zwingen würden, die Fehlerhaftigkeit von Schlussfolgerungen einzuräumen, die sie so erfreut ihren Kollegen erklärt haben, die sie stolz gelehrt haben und die sie Faden für Faden mit ihrem Leben verwoben haben“.
Eine andere einfache Wahrheit lautet, dass ein Modelloutput niemals als Basis für irgendetwas benutzt werden sollte, und schon gar nicht für die globale Energiepolitik.
Link: http://wattsupwiththat.com/2014/10/16/a-simple-truth-computer-climate-models-cannot-work/
Übersetzt von Chris Frey EIKE