Ein weiterer falscher Alarm bzgl. Anstieg des Meeresspiegels und Antarktischer Eisschmelze

Berichte in den Medien

Dazu ein Beispiel vom Weather Channel:

Ein antarktischer Gletscher von der Größe von drei Vierteln der Fläche von Texas schmilzt unverändert, und falls er vollständig verschwindet, wird der Meeresspiegel auf der ganzen Welt dramatisch steigen, wie aus einer neuen Studie hervorgeht. Der Totten-Gletscher in der östlichen Antarktis schmilzt rasch und droht zu einem weiteren Sorgenkind zu werden angesichts der steigenden globalen Temperaturen. Die Studie wurde in dem Journal Nature veröffentlicht. Er ist bereits nahe an einen „Kipp-Punkt“, und – der Studie zufolge – falls er ganz kollabiert, könnte der globale Meeresspiegel um fast 10 Fuß steigen [ca. 3 m]… „Ich prophezeie, dass vor Ende dieses Jahrhunderts die großen Städte unseres Planeten in Küstennähe zwei bis drei Meter hohe Deiche um sich herum haben werden“. Das sagte der Autor der Studie Martin Siegert der French Press Agency (Hervorhebung vom Autor).

Aus Science Daily stammt dieser Auszug aus einer Presseerklärung des Imperial College London:

Gegenwärtige Raten des Klimawandels könnten einen großen Gletscher der Antarktis instabil werden lassen, was ultimativ einen Anstieg des Meeresspiegels über 2 Meter nach sich ziehen würde. Bei der Erforschung der Historie der Rückzüge und Vorstöße des Totten-Gletschers haben die Forscher entdeckt, dass falls sich der Klimawandel ohne Abschwächung fortsetzt, der Gletscher eine kritische Grenze während des nächsten Jahrhunderts überschreiten und eine irreversible Periode eines rapiden Rückzugs erleiden könnte. Dies würde ihn sich während der folgenden Jahrhunderte bis zu 300 Kilometer landeinwärts zurückziehen lassen, wobei riesige Wassermengen frei werden würden, die um 2,9 Meter zum globalen Anstieg des Meeresspiegels beitragen könnten. (Hervorhebung vom Autor).

Und schließlich noch die reißerische Schlagzeile von Chris Mooneys Beitrag in der Washington Post vom 18. Mai: ,Fundamental instabil‘: Wissenschaftler bestätigen ihre Befürchtungen hinsichtlich des größten Gletschers der Antarktis.

Aus der Studie

Den größten Teil der Studie macht eine komplexe Analyse der detaillierten gravimetrischen und magnetischen Daten aus, die aus Messungen eines tief fliegenden Flugzeuges gewonnen wurden, das wichtige Komponenten der Geologie unter dem Totten-Gletscher kartographiert hatte.

Es ist hilfreich, den Zusammenhang zu verstehen hinsichtlich eines alarmierenden Meeresspiegel-Anstiegs (SLR). Siehe dazu meinen früheren Beitrag hier. Der SLR beschleunigt sich nicht, weshalb die Warmisten nach zukünftigen Eisschild-,Kipp-Punkten‘ suchen mussten, die einen abrupten SLR auslösen könnten, was dringende Maßnahmen zur Abschwächung der CO2-Emissionen erforderlich machen würde. Grönland stand ursprünglich im Mittelpunkt, aber Grönland kooperiert nicht aufgrund seiner schüsselförmigen Geologie.

Der Westantarktische Eisschild (WAIS) war der nächste Konzentrationspunkt. Das Ronne-Eisschelf erwies sich als fest und stabil, wie in dem oben verlinkten Beitrag zu den Tipping Points beschrieben. ANDRILL zeigte, dass das Ross-Schelfeis ebenso stabil ist, hat sich doch dessen Aufsetzlinie [grounding line] seit vier Jahrtausenden nicht verändert. Die Aufmerksamkeit wandte sich dann der Amundsen-Bucht zu, wo im Jahre 2014 viel Aufhebens gemacht wurde um den fließenden Pine Island-Gletscher (PIG) – bis sich herausstellte, dass der PIG auf einem aktiven Vulkan saß, was nichts mit der globalen Erwärmung zu tun hatte. (Eingelagert in den PIG sind Schichten vulkanischer Asche). Auch der WAIS hat nicht kooperiert. Also verlagerte sich die Aufmerksamkeit jetzt zum Ostantarktischen Eisschild (EAIS), bei dem der Totten-Gletscher das größte Einzugsgebiet hat, welches etwa die Hälfte des von der NASA definierten geologischen Sektors einnimmt (siehe folgernde Karte.Darin auch eingezeichnet ist der Eisschild der Moscow University und der Frost-Gletscher).

Wo der Totten den Südlichen Ozean erreicht, liegt er zumeist in flachen Gewässern auf Grund, die weniger als 500 m tief sind. Dies beeinträchtigt nicht dessen Stabilität (genauso wie beim Ross-Eisschelf), liegt doch die Wassertemperatur der oberen rund 500 m der Antarktischen Küstengewässer um den Gefrierpunkt. Aber wärmeres Meerwasser unterhalb von etwa 500 m schmilzt die Basis des Totten-Gletschers über einem tiefen untermeerischen Tal (hier), das etwa 5 km breit und etwa 800 m tief ist. Es wurde im Jahre 2015 entdeckt (hier). Dieses Abschmelzen verursachte ein langsames Zurückweichen der Aufsetzlinie hinter dem Tal. Der jährliche Rückzug der Aufsetzlinie beträgt gegenwärtig etwa 100 Meter pro Jahr. (Jedoch sind es Aitken in der Washington Post zufolge an manchen Stellen 175 m pro Jahr). Dazu muss man wissen, dass Aitken ein Mit- aber nicht der Leitautor der Studie 2015 war, in der es um das Tal gegangen war.

Dieser Schmelzprozess in der Tiefsee könnte sich im Verlauf von etwa 1500 Jahren etwa 150 km landeinwärts zurückziehen durch das unter dem Gletscher liegende Sabrina-Becken (in der folgenden Abbildung aus der Studie 2015 dunkelblau markiert), bevor er eine Felsenbarriere unter dem Eis erreicht, die lotrecht zum Gletscher nur etwa 200 Meter unter der Meeresoberfläche liegt. Dies würde das Abschmelzen zum Stoppen bringen (befindet sich doch das das Schmelzen verursachende Wasser in Tiefen unter 500 m). Aitken et al. 2016 schätzen, dass dies den Meeresspiegel um 0,9 Meter oder ~6 cm pro Jahrhundert steigen lassen könnte. Keinerlei Grund für Alarm.

Wovon Aitken et al. 2016 berichten, ist ein anderer Fjord-artiger ,Einschnitt‘ in diesem blockierenden Rücken, welcher (im Falle einer unveränderten Schichten-Abfolge der Wassertemperatur) es möglich machen würde, dass sich das Schmelzen an der Basis durch das innere Aurora-Becken unter dem Eis hinter dem Rücken fortsetzt. Dieser Prozess würde sich weitere 350 km lang fortsetzen oder etwa um 40% in das Totten-Becken hinein. Aitken et al haben auch Eis durchdringendes Radar eingesetzt zur Untersuchung des Meeresgrundes sowohl im Sabrina- als auch im Aurora-Becken, um zu bestätigen, dass der Totten-Gletscher tatsächlich durch beide Becken hindurch schon vor 3 Millionen Jahren im Pliozän (vor dem Einsetzen der gegenwärtigen Eiszeiten) geschmolzen war, wobei der CO2-Gehalt etwa 400 ppm betragen hatte. Dies wurde in den PR-Alarm hinein geworfen – es geschah zuvor bei 400 ppm!!! Mit den gegenwärtigen Schmelzraten würde dies etwa 3 Jahrtausende in Anspruch nehmen, was den Meeresspiegel um 2,9 Meter steigen lassen könnte – eine keineswegs alarmierende Rate von 10 cm pro Jahrhundert. Auch das ist möglicherweise noch viel zu hoch gegriffen, müsste doch das gesamte wärmere Wasser aus dem Aurora-Becken ungestört durch den gerade entdeckten Einschnitt im Rücken strömen.

Dies ist KEIN fundamental instabiler Kollaps, der 2 bis 3 m SLR bis zum Ende dieses Jahrhunderts implizieren würde, was die Autoren in ihren Presseerklärungen auch klar bekannt gegeben hatten.

Wie bekommt man einen SLR von 3 Fuß [ca. 0,9 m] durch das Schmelzen im Sabrina-Becken bis zu dem Rücken? Man nehme einfach an, dass das gesamte Eis in dem zurückhaltenden Becken verschwindet, auch das oberhalb des Meeresspiegels, das nicht durch warmes Meerwasser schmilzt. Bis zum Rücken ist das Rückhalte-Becken etwa 200 bis 250 km breit, der Gletscher etwa 100 km breit, dessen Zunge und der vorstehende Eisschild etwa 145 km breit. Diese Annahme ist dubios, aber nicht unplausibel. Es würde einen Eisfluss implizieren von ähnlicher Größenordnung wie bei den Gletschern im nordöstlichen Grönland heutzutage (ein weiterer Favorit der Übertreibung durch Alarmisten) außer dort, wo es heute keine solchen fließenden Gletscher gibt und wo die Temperatur im antarktischen Sommer niemals über den Gefrierpunkt steigt (in den meisten Gebieten von Grönland ist dies sommers kurzzeitig der Fall).

Wie bekommt man 2,9 Meter SLR aus dem roten Oval? Einfach! Just use the same entire catchment assumption to that deeper recessional melting point. [Verzeihung! Eine sinnvolle Übersetzung dieses Satzes habe ich nicht hinbekommen! Mag jemand einen Vorschlag machen? Anm. d. Übers.]

Wie bekommt man ~4 Meter (Washington Post)? Man nehme einfach an, dass falls das Aurora-Becken hinter den Rücken abschmilzt via Eindringens wärmeren Meerwassers durch den Einschnitt, dann wird das gesamte Rückhalte-Becken all sein Eis verlieren because it lost its Totten ‘plug’ (up catchment ice is about 2.5 km thick). [Gleiches Problem! Anm. d. Übers.]

Dies ist die gleiche Hypothese, die Rignot bei seinem PIG-Alarm aufgestellt hat hinsichtlich des Verlustes des gesamten Eises in der Amundsen-Bucht, obwohl sogar seine eigene Studie zeigte, dass dies unmöglich ist.

Dies ist die gleiche Hypothese, die Greenbaum et al. 2015 in der oben genannten Studie aufgestellt haben (bei der Aitken Mitautor war), aufgrund derer Aitken et al. 2016 aufbauen (hier; Abschnitt 8)

Schlussfolgerungen

Die alarmistischen Schätzungen dieser neuen Nature-Studie, vor allem wie sie in den Medien repräsentiert werden, sind ganz schwer falsch, sowohl hinsichtlich der Größenordnung als auch der Rate des Meeresspiegel-Anstiegs, der mit dem Schmelzen des Totten-Gletschers einher gehen könnte.

In den Presseerklärungen und den Interviews der Autoren gibt es völlig ungerechtfertigte Übertreibungen. Es wurden Hypothesen zugrunde gelegt, die niemals erwähnt worden sind außer als Referenz auf zuvor zurück gewiesene Studien durch Rignot. Ein gewebtes Netz des Betruges!

Link: https://judithcurry.com/2016/05/22/another-antarctic-sea-level-rise-false-alarm/

Übersetzt von Chris Frey EIKE




Die „Karlisierung“ der Temperatur der Erde

Im Jahre 2013 hat Jim Hansen angekündigt, dass GISS zum Datensatz ERSST3.0 übergehen werde. Dies bedeutet, dass Gavin Schmidt diesen verwendet haben musste für seine PR zum Januar 2014 als des „Wärmsten jemals“. Es empörte ihn, dass unmittelbar danach darauf hingewiesen wurde, dass aus seinem eigenen Bericht hervorgeht, dass die Chance, dass diese Aussage stimmt, nur 32% betrug.
Noch mehr lange Gesichter (und Futter für das Congressional Oversight Committee) gab es, weil NASA GISS die Karlisierten ERSST4.0-Daten für ihre PR vom 20 Januar 2016 verwendet hatten, mit der sie alarmistisch proklamierten, dass 2015 das wärmste Jahr jemals sei, und zwar mit Abstand!!! (Immerhin handelt es sich um ein Jahr mit einem starken El Nino, ähnlich wie 1998).
Zunächst das Jahr 2014 von der aktuellen NASA-Website, archiviert, um es vor dem Verschwinden im Nirwana zu bewahren. Die NASA postete ihre PR mit dieser Graphik vom 16. Januar 2015:

Die GISS-Anomalie des Jahres 2014 beträgt glatt 0,64°C (wird im PR-Text nicht erwähnt).
Man beachte, dass GISS 2014 den Stillstand zeigt, der auch in den Satelliten- und Radiosonden-Beobachtungen hervortritt. Auf der gemeinsamen Pressekonferenz der NASA und der NOAA 2016 wurde diese Graphik gezeigt (vielleicht im Hinblick auf die Anhörung von Senator Cruz im Dezember ,Daten vs. Dogma‘). 2015 ist nicht das wärmste Jahr.

Zweitens, von der gleichen Website stammt die NASA-Version der gemeinsam von NOAA/NASA posaunten PR des wärmsten Jahres jemals (mit Abstand), gepostet am 20. Januar 2016:

Die global gemittelten Temperaturen 2015 brachen den bisherigen Rekord des Jahres 2014 mit 0,13°C. Nur einmal zuvor, nämlich 1998, war der neue Rekord derartig höher als der alte.
Einfach gesagt, es gab über das Jahr 2014 eine Zunahme der GISS-Anomalie von 0,13°C.
Dies sollte bedeuten, dass der alarmierende Rekord 2015 (0,64 + 0,13) 0,77°C betragen sollte.
Aber nicht in der Welt der Befürworter der globalen Erwärmung.
Von der gemeinsamen Pressekonferenz am 20.Januar 2016:

Es ist schlimmer als wir dachten. Die offizielle NASA GISS-Anomalie 2015 beträgt 0,87°C!!!
Anders illustriert hier die Anomalie-Aufzeichnung der NOAA 2014 von ihrer Website (archiviert) im Vergleich zur gleichen Darstellung für das Jahr 2015, also der, die Adm. Tetley an prominenter Stelle in der Daten-vs.-Dogmen-Anhörung vorgestellt hatte, um den Stillstand herunter zu spielen:

Vor der Karlisierung: Stillstand! Nach der Karlisierung: Kein Stillstand!
Dies ist alarmierende globale Erwärmung. Aber sie ist nicht von CO2 verursacht. Es ist offensichtlich nur die Folge davon, dass regierungsamtliche ,Wissenschaftler‘ die ,offiziellen‘ Temperaturaufzeichnungen verändert haben. Ein Sprung von 0,1C in dem, was die GISS-Anomalie 2014 vermeintlich sein soll, gefingert während des Jahres 2015. Er ist nur bemerkbar durch das gewaltige Mediengetöse, das die NOAA und die NASA losgetreten haben und welches sie jetzt nicht wieder rückgängig machen können. Es gibt viele zusätzliche Beispiele.
„O, what a tangled web we weave when first we practice to deceive“
– Marmion, canto 6 stanza 17, by Sir Walter Scott#
Tom Karl und Gavin Schmidt bei der NASA haben ein verworrenes Netz gesponnen.
Vielleicht können Senator Cruz und Repräsentant Smith dieses Netz entwirren.
Link: http://wattsupwiththat.com/2016/01/21/the-karlization-of-earths-temperature/
Übersetzt von Chris Frey EIKE




Die Schwierigkeiten mit den Klimamodellen

§D.1 Klimamodelle sind seit dem AR4 verbessert. Die Modelle reproduzieren die beobachtete Temperaturverteilung in räumlicher Größenordnung von Kontinenten sowie deren Trends über viele Jahrzehnte einschließlich der rascheren Erwärmung seit Mitte des 20. Jahrhunderts sowie der Abkühlung unmittelbar nach großen Vulkanausbrüchen (sehr hohes Vertrauen).

§D.2 Beobachtete und modellierte Studien der Temperaturänderung, Klima-Rückkopplungen sowie Änderungen des Energiehaushaltes der Erde zusammen schaffen Vertrauen in die Größenordnung der globalen Erwärmung als Reaktion auf Antriebe in Vergangenheit und Zukunft.

Keines dieser Statements entspricht der Wahrheit, wie die inzwischen berüchtigte Divergenz zwischen CMIP5 und dem Stillstand beweist (siehe unten Abbildung 7). Der CO2-Gehalt ist weiter gestiegen, die Temperatur nicht.

Die interessante Frage lautet: Warum ist das so? Ein ursächlicher Grund ist so fundamental unlösbar, dass man sich aus gutem Grunde fragen kann, warum die Multimilliarden Dollar schwere Klimamodell-„Industrie“ jemals ohne Nachfrage darauf eingehen konnte. (1)

GCMs sind das Klima-Äquivalent der den Ingenieuren vertrauten Modellen für die Finite-Elemente-Analyse (FEA). FEA wird  in diesen Tagen für fast alles genutzt, um  Brücken, Flugzeuge, um Motorkomponenten zu konstruieren ([FEA unterstützt Lösungen für [Material-] Spannungen, Dehnung, Biegung, Hitze, Alterung, …).

 

In der FEA Technik [[ im Sinne von Berechnungs-Verfahren]] werden die Eingangsparameter durch wiederholtes Messen der tatsächlichen Materialien im Labor bestimmt.

Auch die nicht-linearen „unlösbaren“ Parameter der Navier-Stokes-Fluiddynamik (Luftströme bei Flugzeugen werden drag-modelliert mit Hilfe der CFD-Untergruppe von FEA ) werden durch Prüfung im Windkanal verifiziert.

(wie Auto- / Flugzeug-Designer es  mit 1:1 und/oder skalierten Modellen tun).

 

Hinsichtlich des Klimas der Erde ist dies nicht möglich.

GCMs überziehen die Welt mit abgesteckten Gitterquadraten (die ,finite elements‘ der Ingenieure). Jedes Gitterquadrat hat einen Satz Anfangsbedingungen. Dann wird eine Änderung angebracht (wie z. B. zunehmender CO2-Gehalt nach IPCC RCP8.5). Das entspricht der zunehmenden Stresskomponente einer Brücke durch zunehmenden Verkehr oder die zusätzliche Erwärmung durch Reibung an einem Flugzeug, das immer schneller fliegt. Das GCM berechnet dann, wie sich die Eingangswerte mit der Zeit ändern (2). Die Berechnungen basieren auf etablierter Physik wie der Clausius-Clapeyron’schen Wasserdampfgleichung, Strahlungstransport durch das Frequenzband (d. h. Treibhauseffekt) oder die Navier-Stoke’schen Gleichungen zur Dynamik von Flüssigkeiten für konvektive Zellen.

Das CMIP5-Archiv verwendet UCAR zufolge bis zu 30 atmosphärische Schichten, bis zu 30 Ozeanschichten und Zeitschritten von 30 Minuten.

Die horizontale räumliche Auflösung der CMIP5-Modelle ist typischerweise ~2.5° Breite/Länge am Äquator (etwa 280 km). Die feinste horizontale CMIP5-Auflösung betrug ~1,1° oder etwa 110 km. Dieses Limit ist den Rechenleistungen der Computer geschuldet. Eine Verdoppelung der Auflösung durch eine Halbierung des Gitterquadrates (xy) vervierfacht die Anzahl der Quadrate. Es halbiert auch in etwa den Zeitschritt aufgrund der Courant-Friedrichs-Lewy-Bedingung CFL. (Die Erklärung von CFL für numerisch gelöste partielle Differantialgleichungen würde zu weit vom Thema dieses Beitrags wegführen). Die Verdoppelung der Auflösung auf ein ~55 km-Gitternetz ist ~4 X 2 so rechenintensiv für die Computer. Die University Corporation for Atmospheric Research UCAR sagt, dass die GCM-Faustregel einer verdoppelten räumlichen Auflösung gleich ist einer 10 mal so hohen Anforderung an die Computer. Eine Größenordnung pro Verdoppelung der Auflösung.

Die räumliche Auflösung moderner numerischer Wettervorhersage-Modelle ist notwendigerweise viel feiner. Der neueste, 2012 installierte Wetter-Supercomputer des UK Met.-Office und deren assoziierte Modelle verwenden eine grobe Auflösung von 25 km (NAE) für Prädiktanten wie Druckgradienten {Wind} und frontale Grenzschichten sowie eine Feinauflösung (UKV) von 1,5 km für Parameter wie Niederschlag (für regionale Überschwemmungs-Warnungen). Die Website des UKMO zeigt stolz dieses Beispiel:

Dies ist möglich, weil die UKMO-Wettermodelle nur das Wetter für das Gebiet von UK und nur ein paar Tage im Voraus simulieren – und nicht den Planeten für viele Jahrzehnte im Voraus. Die Simulation von ΔT bis zum Jahr 2100 mit dem ,groben‘ Wettermodell mit 25 km des UKMO liegt um zwei Größenordnungen (≈4x4x2x2x[10/8]) jenseits der derzeitigen Fähigkeiten. Die Simulation von ΔT mit einer Auflösung von 1,5 km bis zum Jahr 2100 zur Erfassung tropischer konvektiver Zellen (sowie deren ,Eschenbach‘-Konsequenzen) liegt um 7 Größenordnungen (110-55-27-13-7-3-1,5) jenseits derzeitiger Computer-Fähigkeiten. Die heutigen besten Supercomputer brauchen für einen einzigen GCM-Lauf rund 2 Monate (fünfzig aufeinander folgende Tage pro UCAR sind typisch). Ein einziger Lauf bei einer Auflösung von 1,5 km würde 1,4 Millionen Jahre dauern. Darum heißt es im AR5 WG1 im Kapitel 7 (hinsichtlich Wolken bei §7.2.1.2):

Wolkenbildungs-Prozesse umfassen Größenordnungen von kleinsten Wolken-Kondensationskernen bis zu Wolkensystemen mit einer Ausdehnung von tausenden Kilometern. Diese Bandbreite der Größenordnungen kann unmöglich mit numerischen Gleichungen von Computern aufgelöst werden, und das wird noch Jahrzehnte lang so bleiben“.

Das fundamental unlösbare Problem der Auflösung in den GCMs wird sehr gut illustriert in Gestalt eines Gewitterclusters bei seinem Weg über Arizona. 110 X 110 Quadrate sind die feinstmögliche computertechnische Auflösung in CMIP5. Nutzlos zur Auflösung konvektiver Prozesse.

Grundlegende Klimaprozesse wie tropische konvektive Zellen (Gewitter) mit der damit assoziierten Freisetzung latenter Wärme in der oberen Troposphäre, von wo die Wärme leichter in den Weltraum entweichen kann, sowie dem damit verbundenen Niederschlag, der Wasserdampf aus der Luft entfernt und damit dessen Rückkopplung erniedrigt, können einfach von GCMs nicht simuliert werden. Klimaphänomene kleiner als das Gitterquadrat können nicht von der Physik simuliert werden. Sie müssen parametrisiert werden.

Und das ist das zweite unlösbare Problem. Es ist unmöglich, etwas zu parametrisieren ohne Kenntnis der Zuordnungen (wie viel der beobachteten Änderung in der Vergangenheit ist Treibhausgasen geschuldet, und wie viel der ,natürlichen‘ Variation?). Die Zuordnung der Parameter im AR5(CMIP5 des IPCC) war hauptsächlich AGW geschuldet. Dazu in der SPM:

§D.3 Diese Beweise für den menschlichen Einfluss haben seit dem AR4 zugenommen. Es ist extrem wahrscheinlich, dass menschlicher Einfluss die dominante Ursache der beobachteten Erwärmung seit Mitte des 20. Jahrhunderts ist.

Die CMIP5-Parametrisierungen wurden in zwei grundlegenden Schritten bestimmt. Seit dem Jahr 2002 hat DoE das CAPT-Programm gesponsert, welches multiple Kurzfrist-Vergleiche zwischen den GCMs bei der Modellierung einiger Tage (bei grober Auflösung) und deren Brüdern, den numerischen Wettervorhersagemodellen sowie dem tatsächlich eingetretenen Wetter anstellt. Die vorgegebene Logik lautet, dass die kurzfristige Divergenz zwischen GCMs und Wettermodellen einer falschen Parametrisierung geschuldet sein muss, von denen die Wettermodelle nicht so viele brauchen (3). Dies funktioniert gut bei ,schnellen‘ Phäomenen wie einer irrtümlich von GCMs modellierten Aufsplitterung der ITC in zwei innerhalb von zwei Tagen, aber nicht bei ,langsamen‘ Phänomenen wie Änderungen der hochtroposphärischen Feuchtigkeit oder der Wolkenbedeckung mit steigendem CO2-Gehalt mit der Zeit.

Der zweite Schritt bestand darin, längerfristige beobachtete Daten zu verschiedenen Zeiten mit den Parametrisierungs-Ergebnissen zu vergleichen und die Parameter zu ,frisieren‘, um die Beobachtungen über längere Zeiträume zu reproduzieren. Dieses Verfahren wurde angewendet von der NOAA MAPP CMIP5-Arbeitsgruppe (4). Es ist sehr schwierig, Faktoren zu frisieren wie Änderungen der Wolkenbedeckung, Albedo, Ozean-Wassertemperaturen oder die sommerliche arktische Meereis-Ausdehnung. Hiervon gibt es nämlich kaum längerfristige beobachtete Daten zum Vergleich. Und das Tuning erfordert immer noch die Annahme einer Verbindung der Zuordnungen zwischen den Prozessen (Modelle), dem gewünschten Phänomen-Output (z. B. Wolkenbedeckung, arktisches Meeres) sowie Beobachtung.

CMIP5-Parametrisierungen wurden frisiert, um Temperatur-Nachhersagen in bestmöglicher Weise von 2005 bis zurück zum Jahr 1975 durchzuführen (die verpflichtende Nachhersage über drei Jahrzehnte), erklärt durch das experimentelle Design der CMIP5-Modelle selbst (5). Dies geht eindeutig hervor von der ,Gottheit der Anpassung‘.

[Original: „CMIP5 parameterizations were tuned to hindcast temperature as best possible from 2005 back to about 1975 (the mandatory three decade hindcast), explained by the CMIP5 experimental design itself.[5] This is circumstantially evident from the ‘goodness of fit’“]

Die Hypothese von hauptsächlich anthropogenen Ursachen bedeutet, dass die GCMs falsch parametiridert worden sind (vor dem Hintergrund des Stillstands). Darum laufen sie derzeit heiß, wenn sie ,natürliche‘ Änderungen einer Abkühlung wie z. B. von 1945 bis 1975 hinweg rechnen. Graphisch wurde dies im Jahre 2010 von Dr. Akasofu aufbereitet, ehemaliger Leiter des International Arctic Research Center – und vom IPCC komplett ignoriert (6).

Akasofus einfacher Gedanke erklärt auch, warum sich das arktische Eis erholt, was die Alarmisten immer mehr alarmiert. Die Eiskarten des Dänischen Wetteramtes DMI und Larsens Durchfahrt der Nordwest-Passage im Jahre 1944 legen einen natürlichen Zyklus der Eisentwicklung in der Arktis nahe, mit einem Minimum in den vierziger Jahren und einem Maximum in den siebziger Jahren. Allerdings konnte das arktische Eis nicht gut erfasst werden bis zum Beginn der Vermessung mittels Satelliten im Jahre 1979, etwa um den Zeitpunkt eines möglichen natürlichen Spitzenwertes. Die gesamte beobachtete Aufzeichnung bis zum Jahr 2013 könnte einfach nur der abnehmende Zweig einer natürlichen Eis-Variation sein. Die Erholung des Eises hinsichtlich Ausdehnung, Volumen und mehrjährigem Eis seit dem Jahr 2012 könnte der Beginn eines natürlichen 35 Jahre langen Eisbildungszyklus‘ sein. Aber die GCM-Zuordnung ist hauptsächlich AGW geschuldet.

Fast niemand ist willens, über das fundamental unlösbare Problem der GCMs zu diskutieren. Ungeeignete Klimamodelle wären eine sehr schlechte Nachricht für alle, die glauben, dass die Klimawissenschaft settled ist.

—————————————

References:

[1] According to the congressionally mandated annual FCCE report to Congress, the US alone spent $2.66 billion in 2014 on climate change research. By comparison, the 2014 NOAA NWS budget for weather research was $82 million; only three percent of what was spent on climate change. FUBAR.

[2] What is actually calculated are values at cell corners (nodes), based on the cell’s internals plus the node’s adjacent cells internals.

[3] Philips et. al., Evaluating Parameterizations in General Circulation Models, BAMS 85: 1903-1915 (2004)

[4] NOAA MAPP CMIP5 Task Force white paper, available at cpo.NOAA.gov/sites.cop/MAPP/

[5] Taylor et. al., An Overview of CMIP5 and the Experimental Design, BAMS 93: 485-498 (2012).

[6] Akasofu, On the recovery from the Little Ice Age, Natural Science 2: 1211-1224 (2010).

Link: http://wattsupwiththat.com/2015/08/09/the-trouble-with-global-climate-models/

Übersetzt von Chris Frey EIKE. Ich bedanke mich bei meinem Übersetzer-Kollegen Herrn Andreas Demmig für seine Hilfe.