UN-Organisation stellt fest: Keine Strahlenschäden auf Bevölkerung in und um Fukushima

..Als eigentliches Drama gilt die schwere Beschädigung des Atomkraftwerkes in Fukushima, was zur Kernschmelze in drei Reaktoren führte und radioaktives Material in die Atmosphäre und den Pazifischen Ozean freisetzte. Der „Gau“ wurde zur Zäsur: In Windeseile hat die damalige schwarz-gelbe Regierung eine Energiewende ausgerufen: Sonne und Wind statt tödlichen Atoms, lautete die Devise…


….Dazu hat das „Wissenschaftliche Komitee der Vereinten Nationen zur Untersuchung der Auswirkungen der atomaren Strahlung (Unscear)“ in der vergangenen Woche seinen lang erwarteten, umfangreichen Abschlussbericht vorgelegt. Das verstörende Ergebnis: Die in Fukushima frei gewordene Strahlung hatte keine unmittelbaren Auswirkungen auf die Gesundheit der Bevölkerung; es gab und gibt kein erkennbar höheres Krebsrisiko. Mehr noch: Auch für die Zukunft rechnet das Unscear nicht mit statistisch nachweisbaren Gesundheitsfolgen durch Fukushima.

In Japan ereignete sich eine Flutwelle gigantischen Ausmaßes; trotzdem haben die Kraftwerke kein einziges Menschenleben gefordert. Wer meint, der Unscear-Bericht habe hierzulande nun eine heftige Debatte über möglicherweise falsche Voraussetzungen der flächendeckenden Atomabschaltung ausgelöst, täuscht sich. Die Meldung ging im großen Rauschen unter; was übrig blieb, wurde von ein paar atomkritischen Nichtregierungsorganisationen klein geschreddert. Das teure Großprogramm „Energiewende“ darf nicht gestört werden. Dabei lässt sich das Unscear vergleichen mit dem Weltklimarat IPCC, wo regelmäßig selbst nachrangige Nebensätze vom grünen Mainstream kanonisiert werden…Weiter in der FAS




Forscher fordern- Es ist OK, beim Klima zu lügen!

Die Studie scheint eine Formel zur Verfügung zu stellen oder zu unterstützen, warum Lügen oder „Manipulationen von Informationen“ in der Lage sind, den Fall der vom Menschen verursachten globalen Erwärmung voranzutreiben und das „globale Wohlergehen zu erhöhen“.

Die Autoren, die Wirtschafts-Assistenzprofessoren Fuhai Hong und Xiaojian Zhao beschreiben, wie die Medien und Umweltgruppen die globale Erwärmung „übertreiben“ und dann in ihrer Studie „für diese Tendenz eine Rationale zur Verfügung stellen“. Tenor: Das Ziel heiligt das Vorgehen. Die Studie wurde am  24. Februar 2014  veröffentlicht.

Die Autoren schreiben im Abstract ihrer Studie mutig, dass die „Nachrichten-Medien und einige Umweltaktivisten die Tendenz zeigen, den von der Klimaänderung verursachten Schaden überzubetonen oder sogar zu übertreiben. Dieser Artikel beschreibt eine Rationale für diese Tendenz“.

„Wir finden, dass die Manipulation von Informationen einen instrumentellen Wert hat, da sie aus nachträglicher Sicht (ex post) mehr Länder dazu bringt, internationalen Umweltabkommen (IEA) beizutreten, die das globale Wohlergehen stärken“.

Auszüge aus den Schlussfolgerungen: „Dieser Artikel bietet eine Rationale für das Phänomen der Betonung oder Übertreibung der Klimaänderung seitens der internationalen Main-Stream-Medien oder andere Pro-Umwelt-Bewegungen. – Wir zeigen, dass die zuvor erwähnte Übertreibung der Klimaschäden das Problem der unzureichenden Teilnahme an IEA lindern können. Tatsächlich impliziert unser zentrales Ergebnis – dass übermäßiger Pessimismus das Problem mangelnder Teilnahme an entsprechenden Projekten lindern könnte – dass die Propaganda der Klimaskeptiker schädlich für die Gesellschaft ist“, schreiben die Autoren auf Seite 2, Fußnote 5.

Autoren der Studie sind Fuhai Hong, Assistenzprofessor an der Division of Economics,  Nanyang Technological University sowie Xiaojian Zhao, Assistenzprofessor im Department of Economics, Hong Kong University of Science and Technology. (fhhong@ntu.edu.sg)

Das vollständige Abstract der Studie liest sich so:

„Es scheint, dass die Nachrichtenmedien und einige Umweltgruppen die Neigung haben, den durch die Klimaänderung verursachten Schaden besonders herauszustellen oder sogar zu übertreiben. Dieser Beitrag bietet eine Rationale für diese Neigung in Gestalt eines modifizierten internationalen Umweltabkommens IEA, ein Modell mit asymmetrischer Information. Wir finden, dass die Manipulation von Informationen einen instrumentellen Wert hat, da sie mehr Länder dazu bringt, einem IEA beizutreten, das eventuell das globale Wohlergehen stärken könnte. Aus der Vorabperspektive (ex ante) jedoch kann die Auswirkung von Informations-Manipulationen auf das Niveau der Teilnahme an einem IEA und des Wohlergehens mehrdeutig sein“.

Die Reaktionen auf die Studie waren sehr kritisch. Craig Rucker vom Committee for a Constructive Tomorrow CFACT (Climate Depot’s parent company) schrieb in einem Beitrag vom 4. April: Was einen wirklich schockiert ist, dass zwei Professoren nicht nur offen zugeben, sondern sogar in einer in einem begutachteten Journal veröffentlichen Studie untermauern, welche vorteilhaften Auswirkungen Lügen haben, die Nationen dazu bringen sollen, einem UN-Klimaabkommen im nächsten Jahr in Paris beizutreten!“

Rucker fügt hinzu: „Die Autoren glauben nicht nur, dass ihre zweifelhaften Ergebnisse ihre unseriösen Mittel rechtfertigen, sie institutionalisieren auch ‚Informations-Manipulation‘ als eine Taktik, empfehlen diese auf Klimakonferenzen und veröffentlichen sie in Journalen. Sie sind schamlos“.

David Rothbard von CFACT schreibt: „Die Skeptiker der globalen Erwärmung haben schon lange geargwöhnt, dass die Alarmisten die Gefahren der Klimaänderung übertreiben. Jetzt kommt hier eine neue Studie von zwei Ökonomen in Singapore und Hongkong, die tatsächlich befürwortet, die Ängste vor der globalen Erwärmung zu übertreiben, um Länder in das Boot internationaler Umweltabkommen zu holen“.

Kevin Gloss von Townhall.com zufolge behauptet die Studie, dass die Dringlichkeit der Klimaänderung es sanktioniert, die Öffentlichkeit hinsichtlich der projizierten Konsequenzen der globalen Erwärmung in die Irre zu führen. Zwar verwenden sie nicht das Wort „lügen“, rufen aber nach „informeller Manipulation und Übertreibung“. Sie glauben allen Ernstes, dass die Ergebnisse diese sehr fragwürdigen Mittel rechtfertigen“.

Allerdings ist es nicht das erste Mal, dass den Befürwortern der globalen Erwärmung vorgeworfen wird, betrügerisch zu sein. So schrieb Professor Stephen Schneider im Jahre 1989: „Also müssen wir ängstigende Szenarien an die Wand werfen sowie vereinfachte, dramatische Feststellungen treffen, und wir dürfen eventuelle Zweifel, die wir haben, nicht herausstellen. Diese ‚doppelte ethische Bindung‘, in der wir uns oftmals wiederfinden, kann nicht durch irgendeine Formel gelöst werden. Jeder von uns muss für sich selbst entscheiden, die richtige Balance zu finden zwischen effektiv oder ehrlich zu sein. Ich hoffe, das bedeutet beides“. In: Discovery Magazine, Oktober 1989, S. 45 bis 48.

Der ehemalige Wissenschaftler der globalen Erwärmung bei der NASA James Hansen gab in einer Ausgabe des Natural Science aus dem Jahr 2003 zu, dass die Propagierung „extremer Szenarien“ zur Dramatisierung der globalen Erwärmung „zu gegebener Zeit angebracht gewesen sein könnte“, um die Aufmerksamkeit der Öffentlichkeit auf dieses Thema zu lenken (hier).

Aktualisierung

Der ehemalige Physiker an der Harvard University Dr. Lubos Motl war von der Studie ‚erschlagen’ und fasste die Aussage der Studie so zusammen: Es ist verdienstvoll, im Namen von AGW zu lügen und zu schummeln (hier).

Motl führt aus: „In der Studie geht es um ein einfaches mathematisches Modell der ‚Spiele-Theorie‘. Sie kommt zu dem Ergebnis: wenn man möglichst viele Länder dazu bringen möchte, den hysterischen Klimaabkommen beizutreten, ist es eine tolle Idee zu lügen und die Informationen zu manipulieren oder zu lackieren. Sie stellen explizit fest, dass ‚Al Gore, das IPCC und die Main-Stream-Medien ihre Berichte tendenziös abfassen, um die Schäden der Klimaänderung zu betonen‘, und sie fragen, warum das so ist. Die schockierende Antwort lautet: ‚Derartige Information-Manipulationen haben einen hohen instrumentellen Wert‘. Ja, sie lügen, wie Hong und Zhao schreiben, und es ist großartig, dass sie das tun! Genauer, sie sagen, dass die Lügen sind kalkulierbar effektiv, wenn erst einmal eine hinreichende Zahl von Ländern den hysterischen Klimaabkommen bereits beigetreten ist. Für die ursprünglichen Länder kann man den Effekt im Moment nicht von Null unterscheiden. Diese beiden unterschiedlichen Vorhersagen werden mit den lateinischen Begriffen ‚ex ante‘ und ‚ex post‘ aufgemotzt, damit die Autoren smarter klingen“.

Motls Schlussfolgerung: „Die Autoren der IPCC-Berichte oder Al Gore haben in den Berichten niemals zugegeben, dass die Berichte oder Filme eine Ansammlung von Lügen und Müll sind. Das haben Hong und Zhao jetzt endlich nachgeholt“.

Link: http://tinyurl.com/p9ak84g

Übersetzt von Chris Frey EIKE

Bemerkungen des Übersetzers hierzu: Das Ganze erinnert an einen Grundsatzbeitrag des Chefideologen der ehemaligen DDR, einem gewissen Kurt Hager, der darin Anfang der Siebziger Jahre auf fünf Seiten (!) ausgeführt hat, warum die Demokratie die schlimmste Regierungsform überhaupt ist. Ich habe seine Tiraden damals inhaltlich nicht verstanden (vermutlich weil die Vernebelung Absicht war), erinnere mich aber noch an das Medienecho, dass diese Äußerungen zwar verdammte, aber dennoch ernst genommen hat.

Der einzige Unterschied zwischen der Propaganda damals und heute ist das Ziel: Damals sollte der ‚furchtbare kapitalistische Westen‘ vorgeführt werden, heute geht es nur noch darum, dass man zahlen soll, um Ungemach zu vermeiden. Wir alle sollen einfach zahlen, und zwar ohne zu murren, und das ist m. E. wohl fast schon alles, was dahinter steckt.

Unterstrichen wird diese Annahme durch eine Studie von Marietta Fuhrmann-Koch an der Ruprecht-Karls-Universität Heidelberg, die sich mit der Frage befasst, was die ‚Bereitschaft der Bürger in Deutschland bestimmt, freiwillig etwas gegen den Klimawandel zu tun‘. Dazu gibt es auch eine Pressemitteilung vom 3.4.2014: http://idw-online.de/de/news581074

Freiwilliger Klimaschutz ist eine Frage des Informations- und Bildungsstandes

Marietta Fuhrmann-Koch Kommunikation und Marketing
Ruprecht-Karls-Universität Heidelberg

Was bestimmt die Bereitschaft der Bürger in Deutschland, freiwillig etwas gegen den Klimawandel zu unternehmen? Von großer Bedeutung ist dabei eine Mischung aus Faktenwissen, subjektiven Annahmen und Hörensagen. Das zeigen Untersuchungen mit 2.000 Bundesbürgern, die Umweltökonomen der Universität Heidelberg durchgeführt haben. Sie sind in einem Forschungsprojekt am Alfred-Weber-Institut für Wirtschaftswissenschaften der Frage nachgegangen, welche Einflussgrößen die sogenannte Zahlungsbereitschaft beim individuellen Schutz des Klimas bestimmen.


Um die Zahlungsbereitschaft beim individuellen Schutz des Klimas zu untersuchen, haben die Heidelberger Wissenschaftler ein verhaltensökonomisches Experiment durchgeführt. Deutschlandweit waren daran mehr als 2.000 Probandinnen und Probanden aus allen Gruppen der Bevölkerung beteiligt. Die Teilnehmer hatten die Wahl zwischen einem monetären Verdienst und einer realen Einsparung von Kohlendioxid-Emissionen. Die Emissionssenkungen realisierten die Forscher über das Emissionshandelssystem der Europäischen Union. Zugleich fragten sie nach dem Wissensstand und den Erwartungen der Probanden, etwa über die Auswirkungen von Emissionssenkungen oder den persönlichen Anteil am Kohlendioxid-Ausstoß.
„Zahlungsbereitschaften für Umweltgüter, wie zum Beispiel den Klimaschutz, sind alles andere als festgefügt“, sagt Prof. Goeschl. „Sie werden zum Beispiel stark durch den individuellen Informationsstand beeinflusst. Dieser speist sich aber nicht nur aus realen Fakten, sondern auch aus subjektiven Annahmen und vermeintlichem Wissen.“ Wer besser Bescheid weiß oder auch nur glaubt, präziser informiert zu sein, beispielsweise über den eigenen Beitrag zum Klimawandel, hat eine höhere Zahlungsbereitschaft.
Ein weiterer entscheidender Einflussfaktor der Zahlungsbereitschaft für den individuellen Klimaschutz ist der Bildungsstand, wie die Heidelberger Forscher berichten. „Menschen aus höheren Bildungsschichten sind eher bereit, auf Geld zugunsten einer Emissionssenkung zu verzichten, unabhängig von ihrem Einkommen und auch von ihrem Wissen über den Klimawandel und die damit verbundenen Zusammenhänge“, so Prof. Goeschl.
Auf einen unerwarteten Effekt stießen die Wissenschaftler, als sie die Entscheidungen der Probanden mit regionalen Wetterdaten verbanden: Bei höheren Außentemperaturen am Wohnort waren die jeweiligen Teilnehmer eher bereit, sich für die Emissionssenkung zu entscheiden und auf das Geld zu verzichten. „Dieser Effekt wird noch Gegenstand weiterer Untersuchungen sein“, betont Prof. Goeschl.
Informationen im Internet:
http://www.uni-heidelberg.de/fakultaeten/wiso/awi/professuren/umwelt/index.html
Dazu schreibt der Energiefachmann Burckhard H. Adam:
Es ist doch erstaunlich, womit sich Universitäten beschäftigen. Da gib es ein Forschungsprojekt, das folgendes untersucht hat: Was bestimmt die Bereitschaft der Bürger in Deutschland, freiwillig etwas gegen den Klimawandel zu unternehmen? Oder anders ausgedrückt, es sollte die Zahlungsbereitschaft der Bürger beim „individuellen Schutz des Klimas“ untersucht werden.

Wie die Heidelberger Forscher unter Leitung von Prof. Goeschl berichten, kam während der Untersuchungen doch Erstaunliches zu Tage: „Ein weiterer entscheidender Einflussfaktor der Zahlungsbereitschaft für den individuellen Klimaschutz ist der Bildungsstand. Menschen aus höheren Bildungsschichten sind eher bereit, auf Geld zugunsten einer Emissionssenkung zu verzichten, unabhängig von ihrem Einkommen und auch von ihrem Wissen über den Klimawandel und die damit verbundenen Zusammenhänge“.

Übrigens:

Der Mensch ist das einzige Lebewesen, dem man ständig mehrfach das Fell über die Ohren ziehen kann.“ Sean O’Brian (engl. Autor *1952 London)

Das irritiert mich gewaltig, sollte es tatsächlich so sein, dass sich Menschen mit höherem Bildungsgrad durch scheinwissenschaftliches Wissen, eher manipulieren lassen, als das „gemeingebildete Volk“? Das würde, so meine ich, z. B. auch die Existenz der Wutbürger, die ja auch meist besser Gebildete sind, erklären! Aber sicherlich wird diese Studie aus Fördermitteln reichlich finanziert und ist für die Uni Heidelberg wie ein warmer Regen!

Mit Verlaub, es bleibt trotzdem für mich verwunderlich, dass sich eine Universität, vor den Karren des „Klimaschutzes“ spannen lässt. Obwohl den Ökonomen dort eigentlich auch bekannt sein sollte, dass sich der abstrakte Begriff Klima, der dem statistischen Mittelwert aller meteorologischen Erscheinungen, an einem bestimmten geografischen Ort über mindestens 30 Jahre darstellt.  KLIMA kann sich weder erwärmen noch kann es geschützt werden – man kann es nicht einmal unterstellen, damit es nicht so sehr verstaubt.  Und es müsste auch bekannt sein, dass CO2 weder ein „Luftschadstoff“, noch ein „Klimakiller“ ist. Sondern im Gegenteil, CO2 ist ein wichtiger Grundstoff im Kohlenstoffkreislauf der Erde für den Prozess der Photosynthese der Pflanzen. Ohne CO2 keine Pflanzen; ohne Pflanzen kein Futter für die Tiere und keine Nahrung für uns Menschen und – ganz wichtig: Ohne CO2 kein Sauerstoff!

Burckhard H. Adam

Dipl.-Ing.(FH) für rationelle Energieanwendung

Energieberatung – Projektentwicklung – Öffentlichkeitsarbeit

„Den Wind können wir nicht ändern – „wir können nur die Segel richtig setzen.“ (Aristoteles 384 – 322 v.d.Z.)




Die Sonne bringt Licht ins dunkel – Was die Erdtemperaturen wirklich bestimmt, Teil 3

Teil 3: Warum und wie El Niño das Wettergeschehen in Europa und Nordamerika steuert

Teil 3 zeigt, wie die Sonne ihre Energie auf die irdischen Wettersysteme einprägt. Die physikalischen Grundlagen werden dargelegt, über die die Auswirkungen von El Niño-Ereignissen global wirken und wie das Wettergeschehen (über die NAO) in Europa und Nordamerika diesen Parametern folgt.

 

Bleibt noch die Frage zu klären, wie die in den Teilen 1 und 2 gezeigte Sonnenaktivität ihren Einfluss sozusagen umsetzt? Hier geben die Antwort, die Passatwinde (englisch: Trade Winds), also die Großraumwetterlage, die durch die Hadley-Zellen bestimmt wird. Die Passatwinde sind ein beständiges Windsystem, welches sich auf beiden Seiten des Äquators bis zum 24. Breitengrad ausbildet. Es liegt damit im Bereich der Hadley-Zellen und unterteilt sich in den Nordost-Passat (Nordhalbkugel) und in den Südost-Passat (Südhalbkugel). In der Wissenschaft ist unstrittig, dass die Passatwinde durch die Sonne entstehen und ihre Ausbildung und Stärke von der Sonnenscheindauer und -Stärke abhängt. Durch erwärmte, aufsteigende Luftschichten (Tiefdruckgebiet entlang der innertropischen Konvergenzzone) die an der Tropopause vom Äquator weg strömt und ca. 30° Nord oder Süd wieder zu Boden fällt (Hochdruckgebiet) entsteht ein Druckgefälle, wodurch sich Ausgleichströmungen zwischen den Hoch-/Tiefdruckgebieten bilden. Durch die Corioliskraft werden sie entsprechend abgelenkt.

 

Abb.23 (Quelle) zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark gibt es eine These, wie die solare Aktivität die Bewölkung beeinflusst. Den Einfluss des Polfeldes (Hale-Zyklus) auf die Wolkenbedeckung hat der Autor in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ gezeigt.

Da die Passatwinde Ausdruck der Hadley-Zellen sind und diese in einem Band zwischen ±30° um den Globus verlaufen, wird der unmittelbare solare Einfluss auf die Hadley-Zellen untersucht.

Die Hadley-Zelle ist ein wesentlicher Bestandteil der atmosphärischen Zirkulation. Sie entsteht durch die meridional unterschiedliche Sonneneinstrahlung und dem daraus resultierenden Energietransport von den Tropen zu den Polen. Diese thermisch angeregte Zirkulation reicht jedoch im ersten Schritt nur bis zum 30-Breitengrad, weil dort die Strahlungsenergie der Sonne deutlich abfällt (Abb.25). Die daraus entstehende Hadley-Zelle ist als globale (verläuft um den ganzen Globus) Vertikalzirkulation zwischen dem Hochdruckgürtel der Subtropen und der äquatorialen Tiefdruckrinne ausgebildet. Die Hadley-Zelle kann näherungsweise als ein in sich abgeschlossenes System betrachtet werden (Abb.24).

 

Abb.24: Über der ITCZ (Innertropische Konvergenzzone) steigt aufgrund der Konvektion warme und feuchte Luft auf, wobei dort ein Tiefdruckgebiet entsteht. Die Luft expandiert, kühlt dabei ab, was zur Wolkenbildung führt. Durch die Corioliskraft wird die Luft abgelenkt. Im Bereich des Subtropenhochdruckgürtels sinkt die kalte und trockene Luft (schwerer) ab, wodurch am Boden ein Hochdruckgebiet entsteht. Die sich dabei erwärmende Luft nimmt über den Ozeanen große Mengen an thermischer Energie in Form von fühlbarer und latenter Wärme (Luftfeuchte) auf und fließt als Nord/Ost-Passat zum Äquator zurück. Der übrige meridionale Energietransport findet über die sich anschließenden Zellen durch horizontale zyklonale (entgegen dem Uhrzeigersinn drehende) und antizyklonale (mit dem Uhrzeigersinn drehende) Zirkulation statt. In der Ferrel-Zelle wird die Energie durch die Westwinddrift abgeführt. Diese entsteht aus thermodynamischen Gründen wegen des Temperaturgegensatzes der Luft von ca. 20K zwischen 30° und 60°-Breite.

Wie Untersuchungen zeigen, hat sich die Hadley-Zelle im Zeitraum der moderaten Erwärmung zwischen 1979 und 2005 (Anstieg des Hauptsonnenzyklus und dem Brückner-Zyklus) um 5-8 Breitengrade ausgedehnt und sich deren Volumen, da auch die Tropopause wegen der erhöhten Konvektion durch die Wärmeflüsse um einige Zehnmeter erhöhte, um ca. 5% vergrößert, D. J. Seidel et al. (2008), ”Widening of the tropical belt in a changing climate“, Nature Geoscience 1, 21-24.

 

Abb.25 zeigt das Jahresmittel der Energieflüsse der Atmosphäre in Abhängigkeit von der geographischen Breite nach Häckel, 1990. Neben der Strahlungsbilanz dominieren die Flüsse von sensibler und latenter Wärme (Luftfeuchte). Die Advektion von Wärme durch die Luft, verhindert die Auskühlung der Pole. Gut zu sehen, wie Energie meridional transportiert wird, Quelle: Häckel, 1990, “Meteorologie“. Bis etwa zum 25. Breitengrad ist die Strahlungsenergie konstant und am größten. Ab dem 30-Breitengrad fällt der Energiestrom der Strahlungsbilanz deutlich ab.

Die Wissenschaftler Xiao-Wei Quan et al. untersuchten, wie sich die Hadley-Zelle seit den 1950-Jahren veränderte “Change of the Tropical Hadley Cell Since 1950“. Abb.26 entstammt ihrer Untersuchung. Dieser wird aus der gemittelten Windgeschwindigkeit der 200 hpa-Höhe, minus der gemittelten Windgeschwindigkeit in der 850 hpa-Höhe gebildet und ist somit ein Maß für die Luftmassengeschwindigkeit und des Luftmassenstroms in der Hadley-Zelle.

 

Abb.26 zeigt den Hadley-Zirkulations-Index. Dies ist die Abweichung vom Mittel der zonalen Meridiangeschwindigkeit in der 200 hpa-Höhe minus des Mittels der zonalen Meridiangeschwindigkeit in 850 hpa-Höhe und steht für die Luftmassenströmungen in der Hadley-Zelle. Y-Achse = 1010 kg/s. Während die südliche Hadley-Zelle (unten) eine Schwingung von ca. 23 Jahren zeigt, was der Länge des Polaritätszyklus (Hale-Zyklus) der Sonne entspricht, steigt der Index auf der Nordhalbkugel bis zur Jahrtausendwende stetig an. Die Erklärung für das unterschiedliche Verhalten könnte in der Zellgröße und den Landmassen liegen. So ist die nördliche Zelle fast doppelt so groß (kleine Abbildung), was wiederum mit der größeren Landfläche auf der Nordhalbkugel zusammenhängen könnte, die sich mit dem Ansteigen des Hauptsonnenzyklus direkter und schneller erwärmt, als die großen Wasserflächen unter der südlichen Hadley-Zelle.

Da die Untersuchungsergebnisse von Xiao-Wei Quan et al. auf solare Einflüsse hindeuten, sollen diese mit den gezeigten Untersuchungen des Autors in Relation gesetzt werden (Abb.27).

 

Abb.27 bestätigt, dass die El Niño-Ereignisse unmittelbar mit der Aktivität in der Hadley-Zelle gekoppelt sind. Wie bereits gezeigt, sind die Auswirkungen von El Niño um den ganzen Globus zu verzeichnen, insbesondere in einem Band von ±30° nördlicher und südlicher Breite, was dem Gebiet der Hadley-Zellen entspricht. Wie die Gesamtabbildung zeigt, ist jeder El Niño einem Hadley-Ereignis direkt zugeordnet (rote gestrichelte Linien) und damit, wie bereits bewiesen, der solaren Aktivität unmittelbar zuzuordnen. Die Abbildung zeigt ganz deutlich, dass mit Eintreten eines El Niño-Ereignisses und des entsprechenden solaren Parameters, die Windgeschwindigkeiten in der Höhe zunehmen. Dies ist auch der Schlüssel zu der Erkenntnis, dass die El Niño-Auswirkungen nicht nur zonal (zwischen ±30° geographischer Breite), sondern global auftreten.

Abb.25 zeigt schematisch, wie der Energietransport zwischen der Hadley-Zelle und den nördlichen Breiten verläuft, sowie der Luftmassenstrom über die Hadley-Zelle zu den nördlichen Breiten. Daraus wird ersichtlich, dass El Niño-Ereignisse über den Bereich der Hadley-Zelle Einfluss auf das Wettergeschehen haben, wie dies aus den Untersuchungen von Prof. Brönnimann und des MPI-M und der University of Cambridge (“Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“, Journal of Geophysical Research, Vol. 117, D01102, 10 PP., 2012), sowie Prof. Malberg (erschienen in der Berliner Wetterkarte e.V. am 31.01.2012) hervorgeht. Die Erklärung ist im Drehimpulserhaltungssatz zu finden.

 

Abb.28 zeigt das Druckverteilungsmuster und die Windverhältnisse der bodennahen Troposphäre. Im Absinkbereich der Hadley-Zelle bilden sich Hochdruckgebiete, wodurch dort trockenes Klima vorherrscht. So liegen in ihrem Bereich die Wüstengebiete der Erde. Durch die Passatwinde fließt ein stetiger Rückstrom (Oststrom) in Richtung Äquator. In der IPCZ fließt daher ein schwacher Ostwind. In der Westwinddrift der Ferrel-Zelle fließen die Frontensysteme der Tiefdruckgebiete nach Osten und zwar entlang des Polarfrontjet, an dem sich fortwährend Tiefdruckgebiete bilden. An der sich angrenzenden Polar-Zelle entsteht an der absinkenden schweren Kaltluft ein Hochdruckgebiet. Zwischen dem Druckgradient und der Corioliskraft bildet sich dort ein Gleichgewicht, welches einen schwachen Ostwind verursacht. Sowohl die Ostwinde der Subtropen/Tropen, als auch die Ostwinde der Polargebiete und der Westwind der mittleren Breiten sind mit einem Drehimpuls verbunden. Aus Gründen der Drehimpulserhaltung muss deren Summe Null ergeben.

Drehimpuls

Der Drehimpuls (Einheit: Nms) wirkt bei einer Kreisbewegung in Richtung Zentrum und gibt die Drehachse der Bewegung an. Er steht damit senkrecht zur Ebene, in der sich die Masse bewegt. Der Drehimpuls ist abhängig von der Geschwindigkeit, der Masse, sowie dem Abstand zur Drehachse. Bei Zunahme einer der drei vorgenannten Parameter, wächst der Drehimpuls an. Der Drehimpulserhaltungssatz gibt an, dass der Gesamtdrehimpuls in abgeschlossenen Systemen konstant ist.

Verändert sich z.B. der Drehimpuls auf Grund einer Geschwindigkeitszunahme der Luftströmungen in der Hadley-Zelle, so muss dies wegen dem Drehimpulserhaltungssatz Auswirkungen auf die Luftströmungen in den beiden anderen Zellen (Ferrel- und/oder Polar-Zelle) haben. Wird die Geschwindigkeit der Luftströmungen durch ein solares Ereignis in der (oberen) Hadley-Zelle erhöht, so sind durch die Kopplung über den Drehimpuls auch die anderen Zelle(n) beeinflusst. In der Ferrel/Polarzelle stellen sich dann geringere Drehimpulse ein, was zu einem ruhigen, kalten Winter führt (siehe Untersuchungen von Prof. Brönnimann).

Da die Hadley-Zelle zeitlich begrenzt, als geschlossenes System betrachtet werden kann, gilt natürlich, wie für jedes geschlossene System, der Energieerhaltungssatz. D.h. eine Erhöhung der Windgeschwindigkeiten in der Höhe muss mit einer zeitlich begrenzten Verringerung der Windgeschwindigkeiten in niedriger Höhe verbunden sein, wodurch bei einem El Niño die Passatwinde erschlaffen.

 

Abklingen des El Niño-Ereignisses

Stellt sich noch die Frage, warum das El Niño-Ereignis nicht bestehen bleibt? Dies ist bei El Niño-Ereignissen, die vom magn. Maximum des jeweiligen Schwabe-Zyklus oder durch die Polarfeldaktivitäten ausgelöst werden, recht einfach zu begründen: Weil die solare Aktivität und damit die Energiezufuhr dann am höchsten ist und anschließend wieder abfällt. Die mit einem Ereignis unter den Punkten 2 oder 3 erfolgte Energiezufuhr baut sich also wieder ab.

Diese Begründung kann jedoch nicht für die El Niño-Ereignisse unter Punkt 1 heran gezogen werden, weil nach der integralen Zunahme der Koronatemperatur (der integralen Zunahme der Korona-Aktivität) die solare Aktivität nicht abnimmt, sondern weiter zunimmt, bzw. die Korona-Temperatur in der Fläche auf ihrem hohen Wert von nahezu 2 Mio. Kelvin verbleibt. Also müsste das El Niño-Ereignis bestehen bleiben.

Der Gund, warum ein El Niño-Ereignis letztendlich entsteht (ausgelöst wird), besteht in den Änderungen von Energiedifferenzen zwischen den oberen Atmosphärenschichten und den unteren Atmosphärenschichten. Wie die Untersuchungen von Xiao-Wei Quan et al., “Change of the Tropical Hadley Cell Since 1950“ und die Korrelation mit der solaren Aktivität zeigen, wird durch die Aktivitätszunahme der Sonne die Luftmassenströmung zwischen oberen und unteren Atmosphärenschichten deutlich erhöht. Auch bei der Aktivitätszunahme der Korona. Die Änderung in der Aktivitätszunahme löst die Erhöhung des Luftmassenstromes und der Luftgeschwindigkeit in den oberen Atmosphärenschichten aus.

Xiao-Wei Quan et al. konnten zeigen, dass durch die entstandenen Energiedifferenzen zwischen oberen und unteren Atmosphärenschichten, die Erhöhung des Luftmassenstromes, damit verbunden, der Drehimpulsänderung und dem Erschlaffen der Passatwinde, entsteht. Obere und untere Atmosphärenschichten gelangen durch die Änderung (Impuls) aus ihrem vorherigen relativen Gleichgewichtszustand und zwar so lange, bis die Energie der oberen Atmosphäre, die die Erhöhung des Luftmassenstroms zwischen 200 hPa und 800 hPa bewirkt, an die unteren Atmosphärenschichten (und die übrigen Zellen – Ferrel- und Polarzelle) abgegeben wird. Also der Energieausgleich stattfindet. Ist dieser Energieaustausch abgeschlossen, also das vor dem Ereignis gültige relative Gleichgewicht wieder hergestellt, ist das El Niño-Ereignis beendet. Eine weitere gleichbleibend hohe Aktivität (Koronatemperatur bleibt auf 2 Mio. Kelvin) kann dann keine weitere Zustandsänderung hervorrufen. Der stabile Zustand zwischen oberen und unteren Atmosphärenschichten ist allerdings jetzt auf einem höheren Niveau und zwar für beide Luftschichten, die oberen und unteren, was keinen Einfluss mehr auf Änderungen der Luftmassenströmungen zwischen beiden Schichten (daher relatives Gleichgewicht) haben kann, also auch kein El Niño-Ereignis bestehen lassen oder entstehen lassen kann.

Vereinfacht dargestellt: Das System wird durch den Aktivitätsschub der Sonne vorrübergehend aus seinem Gleichgewicht gebracht, wodurch der El Niño entsteht. Dieser bleibt so lange bestehen, bis sich das vorherige relative Gleichgewicht wieder einstellt. Dies ist auch der Grund, warum das El Niño-Ereignis unter Punkt 1 stärker ausgeprägt ist, als die El Niño-Ereignisse, die durch Punkt 2 oder 3 ausgelöst werden. Zum einen, ist das System zwischen oberen und unteren Atmosphärenschichten durch das solare Minimum in seinem energieärmsten Zustand (eine „plötzliche“ Aktivitätssteigerung der Sonne kann also ein starkes Ungleichgewicht auslösen) und zum anderen, verhindert die weiter ansteigende solare Aktivität, den schnellen Energieabbau und damit das Einstellen des vorherigen relativen Gleichgewichts zwischen oberen und unteren Atmosphärenschichten, wogegen der Abfall der Energiezufuhr der Sonne bei den El Niño-Ereignissen unter Punkt 2 oder 3 das einstellen des vorherigen relativen Gleichgewichts unterstützt.

Weiter steht die Hadley-Zelle, wie gezeigt, mit der Ferrel-Zelle im Energieaustausch, so dass die Energiezunahme, die ein solares Ereignis auslöst, über diese und den Jetstream wieder abgebaut wird, wodurch sich die „normalen“ Bedingungen wieder einstellen und die Passatwinde an Kraft gewinnen. Dieser Energieaustausch (Abbau) beschleunigt den vorgenannten Energieangleich und damit den Abbau des El Niño-Ereignisses.

Soweit zur Theorie, die sich erst noch anhand der Realität bestätigen oder verworfen werden muss. Dies wird Ende dieses Jahres sein.

Wenn ein El Niño sich so verhält und auf diese Weise seine Auswirkungen an Ferrel- und/oder Polarzelle weitergibt, dann sollte sich auch sein „Fingerabdruck“ dort finden lassen. Exakt, der Verlauf des El Niño 3.4 (oder seiner größeren „Schwester“, der ENSO) sollten sich auch in den Parametern der Ferrel-Zelle abzeichnen. Daher soll die NAO, die unser Wettergeschehen in Europa maßgeblich beeinflusst, mit der ENSO in Relation gesetzt werden, Abb.29.

 

Abb.29 zeigt, dass NAO und ENSO zusammenhängen und deren Extrema weitgehend identisch sind. Wobei die Ereignisse in der NAO mit einem zeitlichen Versatz von ca. 1 Jahr auftreten. Markante Ereignisse in der ENSO (rote und grüne Ovale) hinterlassen in der NAO regelrecht ihren Fingerabdruck.

Wie eingangs gezeigt, lässt sich der gesamte Temperaturgang der letzten 35 Jahre, der Zeitraum also, der für die solare Abkopplung der Temperaturen und dem Temperaturantrieb durch Treibhausgase stehen soll, mit den El Niño-Ereignissen und damit der solaren Aktivität erklären. Diesem Beweis und der Logik, dass El Niño über die Drehimpulskopplung auf die anderen Zellen unmittelbaren Einfluss ausübt, müsste sich der Temperaturgang der letzten 35 Jahre genauso in der Ferrelzelle, ihren Parametern, abzeichnen und wie in Abb.30 gezeigt, zeitversetzt.

 

Abb.30 zeigt die NAO mit dem El Niño 3.4, der in Abb.7 den Beweis zum Temperaturgang erbrachte. Wie unschwer zu erkennen, tritt in der NAO jedes Maxima des El Niño 3.4 auf und mit einem Versatz von im Mittel 1 Jahr.

Abb.31 zeigt die Gesamtabbildung, aus der die NAO in Teilbereichen für den Vergleich in Abb.29 und Abb.30 stammt.

 

Abb.31 zeigt die verwendete Zeitreihe der NAO.

Wer die Wetter- und deren Klimageschehen verstehen will, der muss sich der Natur zuwenden. Insofern betrachtet der Autor die sog. Klimarealisten, als die Naturforscher unter den Klimaforschern, die das Erbe Alexander von Humboldts, einem der größten Naturforscher, leben. Das Zentrum zum Verständnis der Wetter- und Klimavorgänge, sofern ein statistischer Mittewert überhaupt als wissenschaftliches Refugium betrachtet werden darf, ist unser Zentralgestirn, die Sonne. Ihr gilt es, die Forschungsanstrengungen zu konzentrieren und die notwendigen Mittel dazu bereitzustellen, als diese für sinnlose Forschung in pseudowissenschaftlichen Bereichen, wie der von Treibhausgasen zu vergeuden und für "Forscher" bereitzustellen, die sich in immer aberwitzigeren Theorien und Horrorgeschichten verstricken, die sie dann einer unwissenden Presse- und Politikerschar verkaufen. Lenin nannte Journalisten einst "nützliche Idioten". Er hätte gewiss seine Freude, würde er sehen, wie ein Großteil der heutigen deutschen Journalistenschar seine Aussage immer wieder aufs Neue bestätigt.

El Niño – ein Rätsel. Wie beschrieben, Nein! Die Natur kennt keine Rätsel. Das Rätsel sind allein wir Menschen. Betrachten wir die Natur doch immer nur mit unseren eigenen Augen und spiegeln damit lediglich die Natur an uns selbst, wodurch zwangsläufig ein Zerrbild entsteht (was übrigens durch die Quantentheorie begründet ist, aber dies ist ein anderes Thema). Dabei gilt es, sich diesem bewusst zu sein und es zu erkennen. Dies gelingt einzig durch unseren Verstand und unsere Fähigkeit zu denken. So entsteht „Blindheit“, wenn Verstand und Denken abgeschaltet und/oder durch ideologische Vorgaben außer Kraft gesetzt werden. Insofern wird das Verhalten des IPCC und ihrer nahestehenden Institute erkenn- und begründbar und insbesondere das der deutschen Presse, bei der es aussieht, als ob der Verstand und das Denken durch ideologische „Blindheit“ außer Kraft gesetzt ist und daher solche Artikel entstehen, wie der eingangs genannte von Fokus. In Kenntnis der kurz angerissenen menschlichen Eigenschaften geht der Autor davon aus, dass der deutsche Leser von ideologischen Zerrbildern in der Wissenschaft und ihrer Berichterstattung, auch in Zukunft nicht verschont bleiben wird. Um das entstandene Zerrbild wieder der Natur anzugleichen und damit der Realität zuzuführen, gibt es die Wissenschaftler von EIKE. Wir werden unseren Lesern die Natur zeigen, wie sie ist. Ohne Zerrbilder und ohne ideologische Verblendung. Einfach nur schön anzusehen…

 

Raimund Leistenschneider – EIKE

 




Energiegipfel – AfD sieht keine Reform und fordert Abschaffung des EEG

Der Energiegipfel am Dienstag im Bundeskanzleramt verfehlte seine Ziele. Die geplante, ohnehin nur gering wirkende Deckelung der Zubauraten bei Wind- und Solar wurde mit Auslegungstricks erheblich aufgeweicht. Der Anstieg der Erneuerbaren-Energien-Gesetz-Umlage wird so gut wie ungebremst weiter gehen, das folgerte selbst ein Befürworter der Energiewende, Holger Krahwinkel vom Verbraucherverband. Die Aktie des Windkraftanlagenbauers Nordex schoss prompt zeitweise um 7 Prozent in die Höhe.

Die EEG-Umlage treibt die Stromkosten der deutschen Verbraucher dramatisch in die Höhe,“ erklärt Dr. Alexander Gauland, stellvertretender Sprecher Alternative für Deutschland, „Schon jetzt gehören sie zu den höchsten in Europa. Seit Beginn des EEG summierten sich die Zahlungen deutscher Netzbetreiber an die Besitzer von Erneuerbaren Energien auf über 120 Milliarden Euro – von den Verbrauchern bezahlt. Allein in 2013 waren es 23 Milliarden Euro – Tendenz stark steigend.“

Gauland resümiert: „Deswegen ist jede zaghafte „Korrektur“ oder „Reform“ nur ein sinnloses herumdoktern an Symptomen. Die Kostenbelastung der deutschen Verbraucher ist schon jetzt immens und für über 600.000 Haushalte nicht mehr tragbar. Gleichzeitig wandern immer mehr Industriearbeitsplätze ins billigere Ausland ab. Deren Zahl liegt bereits bei einigen zehntausend. Auch da ist die Tendenz stark steigend. Deswegen fordert die AfD die sofortige und ersatzlose Abschaffung des EEG. Und hat diese Forderung in seinem Europawahlprogramm festgeschrieben.“




Meeresspiegelanstieg und Frischwasserzufluss?

[*Beim Anklicken des Artikels habe ich ihn ohne Zahlschranke bekommen. A. d. Übers.]

In Cazenave14 heißt es, das parallel zum Stillstand bei der globalen Erwärmung auch die Rate des globalen Meeresspiegel(GMSL)-Anstiegs geringer geworden ist. Obwohl irgendwie andere Zahlen genannt werden, geht dies aus den Ergebnissen aller fünf Gruppen hervor, die die Satellitendaten bzgl. des Meeresspiegels bearbeitet haben, wie der obere Teil „a“ der Abbildung 1 zeigt:

Abbildung 1: Original-Bildunterschrift: GMSL-Rate über fünf Jahre lange übergreifende Ausschnitte [Original: five-year-long moving windows]. a: zeitweilige Evolution der GMSL-Rate berechnet über übergreifende 5-Jahres-Zeiträume, verschoben um 1 Jahr (Anfangsjahr: 1994). b: zeitweilige Evolution der korrigierten GSML-Rate (nomineller Fall), berechnet über übergreifende 5-Jahres-Zeiträume, verschoben um ein Jahr (Anfangsjahr: 1994). Die GMSL-Daten von jeder der fünf Gruppen werden gezeigt.

Nun darf es natürlich keine Verlangsamung der Rate des Meeresspiegel-Anstiegs geben, das würde nicht zur gewünschten Linie passen. Also haben sie sich entschlossen, die zwischenjährlichen Variationen in den beiden Komponenten heraus zu subtrahieren, die den Meeresspiegel ausmachen – die Massenkomponente und die „räumliche“ Komponente. Der untere Teil der Abbildung zeigt, was sie danach herausbekommen haben, nachdem sie die zwischenjährlichen Variationen berechnet und von jedem der fünf Ergebnisse der jeweiligen Gruppen subtrahiert hatten.

Bevor es weitergeht, möchte ich eine Frage in den Raum stellen, die ich später beantworten werde: Was genau in Abbildung 1 hat mich dazu veranlasst, diese Arbeit genauer unter die Lupe zu nehmen?

Bevor ich darauf eingehe, möchte ich noch etwas detaillierter erklären, was sie gemacht haben. Siehe dazu die Sekundärinformationen. Sie haben begonnen mit dem mittleren Meeresspiegel, der von den fünf Gruppen gezeigt wurde. Dann haben sie das trendbereinigt. Als Nächstens verwendeten sie eine Vielfalt von Beobachtungen und Modellen, um die zwei Komponenten abzuschätzen, die die Variationen im Anstieg des Meeresspiegels ausmachen.

Die Massenkomponente ist die Gesamtmenge an Wasser, die den Ozeanen entweder zugeführt oder entnommen wird durch die Launen des hydrologischen Zyklus‘ – Eisschmelze und Gefrieren, Verteilung der Regenmenge zwischen Festland und Ozeanen, und so weiter. Die räumliche Komponente (Dichte-Komponente) des Meeresspiegels andererseits ist die Änderung des Meeresspiegels infolge Änderungen der Dichte des Ozeanwassers durch unterschiedliche Temperatur und Salinität. Die Summe der Änderungen dieser beiden Komponenten ergeben die Gesamtänderungen des Meeresspiegels.

Als Nächstens haben sie die Summe der beiden Komponenten vom Mittel der Ergebnisse der 5 Gruppen subtrahiert. Damit bekamen sie die „Korrektur“, die sie danach jeweils auf die Schätzungen der fünf Gruppen angewendet haben. Sie beschreiben den Prozess in der Bildunterschrift unter ihrer Graphik:

Abbildung2: Dies ist Abbildung S3 aus den Ergänzenden Informationen. Original-Bildunterschrift: Schwarze Kurve: mittlere trendbereinigte GMSL-Zeitreihe (Mittel der fünf altimetrischen Satelliten-Datensätze) von Januar 1994 bis Dezember 2011 sowie Unsicherheitsgrenzen (in grau; basierend auf der Verteilung jeder Zeitreihe um das Mittel). Hellblaue Kurve: zwischenjährliche Massenkomponente basierend auf dem hydrologischen Modell ISBA/TRIP für Wasserspeicherung auf dem Festland plus atmosphärische Wasserdampf-Komponente von Januar 1994 bis Dezember 2002 sowie GRACE CSR RL05 Ozeanmasse von Januar 2003 bis Dezember 2011 (Hybrid-Fall 1). Die rote Kurve ist die Summe der zwischenjährlichen Massen- plus der thermosterischen Komponente. Dies ist das aus den ursprünglichen GMSL-Zeitreihen entfernte Signal. Vertikale Balken repräsentieren die Unsicherheit der monatlichen Massenabschätzung (hellblau) und monatlichen Gesamtverteilung (Massen- plus thermosterische Komponente; rot). Einheiten: mm.

Was also berechnen sie denn nun, wenn sie die rote Linie von der schwarzen Linie subtrahieren? Hier begannen die Dinge falsch zu laufen. Von der blauen Linie wird gesagt, dass sie die trendbereinigte Massen-Fluktuation sei einschließlich der zwischenjährlichen Speicherung auf dem Festland und in Wasserdampf. Von der schwarzen Linie sagen sie, dass sie das trendbereinigte Mittel des GMSL darstellt. Die rote Linie markiert die blaue Linie plus die „räumliche“ Änderung durch thermische Expansion. Hier liegen die Schwierigkeiten, die ich sehe, mit steigender Rangfolge der Wichtigkeit. Allerdings ist jede einzelne der folgenden Schwierigkeiten ausreichend, ihre Ergebnisse zu falsifizieren.

Unsicherheit

Ich habe obige Graphik so digitalisiert, dass ich sehen kann, wie ihre Korrektur wirklich aussieht. Abbildung 3 zeigt das Ergebnis in blau einschließlich des 95%-Vertrauens-Intervalls in der Korrektur.

Abbildung 3: Die in Cazenavel angebrachte Korrektur der GMSL-Daten der fünf bearbeitenden Gruppen (blau)

Die „Korrektur”, die sie an jeden der fünf Datensätze angebracht haben, ist statistisch nur in 10% aller Datenpunkte von Null unterschiedlich. Dies bedeutet, dass 90% ihrer „Korrektur“ nicht vom Rauschen unterscheidbar ist.

Trend

In der Theorie schauen sie lediglich auf zwischenjährliche Variationen. Sie beschreiben den Prozess, um diese zu erhalten. Die schwarze Kurve in Abbildung 2 wird beschrieben als „mittlere trendbereinigte GMSL-Zeitreihe“ (Hervorhebung von mir). Die blaue Kurve in Abbildung 2 beschreiben sie so (Hervorhebung von mir):

Da wir uns auf die zwischenjährliche Variabilität konzentrieren, wurden die Massen-Zeitreihen trendbereinigt.

Und die rote Kurve in Abbildung 2 ist die kombinierte Massen- und räumliche Komponente. Ich kann nirgendwo finden, dass sie die räumliche Komponente trendbereinigt hätten.

Das Problem ist, dass in Abbildung 2 keine der drei Kurven trendbereinigt ist, obwohl alle dicht beieinander liegen. Die schwarze Kurve zeigt einen aufwärts gerichteten und die anderen beiden einen abwärts gerichteten Trend.

Die schwarze GMSL-Kurve weist immer noch einen leichten Trend auf, etwa +0,02 mm pro Jahr. Die blaue räumliche Kurve geht um -0,06 mm pro Jahr in die andere Richtung. Die rote Kurve übertreibt dies noch etwas, so dass sich ein Gesamttrend der beiden von -0,07 mm pro Jahr ergibt. Und das bedeutet, dass die „Korrektur“, also der Unterschied zwischen der roten Kurve (Massen- + räumliche Komponente) und der schwarzen GSML-Kurve, ebenfalls einen Trend aufweist, nämlich die Summe der beiden oder etwa ein Zehntel eines Millimeters pro Jahr.

Wie gesagt, ich kann nicht ergründen, was damit gesagt werden soll. Sie sprechen von trendbereinigten Werten zur Bestimmung der zwischenjährlichen Unterschiede, die aus den Daten entfernt werden sollen … aber falls sie das wirklich getan hätten, hätte die Korrektur keinen Trend haben können. Und ihren Graphen zufolge ist nichts vollständig trendbereinigt, und die Korrektur hat ganz bestimmt einen Trend.

Logik

Die Studie enthält auch die folgende Beschreibung hinsichtlich der Informationsquelle zur Massenbilanz:

Um die Massenkomponente infolge Änderungen der globalen Wasserspeicherung zu schätzen, benutzen wir das Interaction Soil Biosphere Atmosphere (ISBA)/Total Runoff Integrating Pathways (TRIP) globale hydrologische Modell, das von MétéoFrance22 entwickelt worden ist. Das ISBA-Verfahren auf Landoberflächen berechnet die zeitlichen Variationen der Budgets von Oberflächen-Energie und Wasser in drei Bodenschichten. Der Wassergehalt einer Bodenschicht variiert mit dem Wassereintrag von der Oberfläche, der Verdunstung, der Pflanzen-Transpiration und der Drainage. ISBA ist gekoppelt mit dem TRIP-Modul, das den täglichen, vom ISBA simulierten Abfluss konvertiert in ein globales Fluss-System mit der Auflösung 1. In der jüngsten Version verwendet ISBA/TRIP als meteorologischen Antrieb Daten mit einer Auflösung von 0,5 der ERA Interim reanalysis des Europäischen Zentrums für Mittelfristrige Wettervorhersage (hier). Speicherungsergebnisse von Wasser auf dem Festland werden in monatlichen Intervallen angegeben von Januar 1950 bis Dezember 2011. Der Beitrag des atmosphärischen Wasserdampfes wurde aus der ERA Interim reanalysis geschätzt.

So weit, so gut. Sie benutzen also die Ergebnisse der historischen Reanalyse um zu modellieren, wie viel Wasser in jedem Monat an Land gespeichert worden ist und sogar in der Luft.

Jetzt nehmen wir einmal an, dass ihr Modell der Massenbilanz perfekt wäre. Weiter wollen wir annehmen, dass die Daten des Meeresspiegels perfekt sind und dass ihr Modell der räumlichen Komponente ebenfalls perfekt ist. Wäre die „Korrektur“ in diesem Falle nicht Null? Ich meine, die „Korrektur“ ist nichts als der Unterschied zwischen dem modellierten Meeresspiegel und dem gemessenen Meeresspiegel. Falls die Modelle perfekt wären, würde die Korrektur zu allen Zeiten Null sein.

Was zwei Schwierigkeiten aufwirft:

1. Wir haben keine Sicherheit, dass der Unterschied zwischen den Modellen einerseits und den Beobachtungen andererseits nur Modellfehlern geschuldet ist, und

2. falls die Modelle korrekt sind, woher kommt das Wasser und wohin geht es? Die „Korrektur“, die uns von den modellierten zu den beobachteten Werten bringt, muss eine riesige Menge Wasser repräsentieren, die kommt und geht … aber von wo und wohin? Vermutlich sind El Nino-Effekte in ihrem Modell enthalten, welches Wasser bewegt sich da also?

Die Autoren erklären das folgendermaßen:

Studien aus neuerer Zeit haben gezeigt, dass die kurzfristigen Fluktuationen des mit Satelliten gemessenen Meeresspiegels hauptsächlich Variationen der Wasserspeicherung auf dem Festland geschuldet sind (hauptsächlich in den Tropen) mit einer Tendenz zu einem Wasserdefizit an Land (und einem zeitweiligen Steigen des Meeresspiegels) während El Nino-Ereignissen und der entgegen gesetzten La Ninas. Dies resultiert direkt aus Regen-Exzessen über den tropischen Ozeanen (meist dem tropischen Pazifik) und Regendefizit an Land (meist in den Tropen) während eines El Nino. Bei einer La Nina ist die gegenteilige Lage vorherrschend. Die Abfolge von La Nina-Ereignissen während der letzten Jahre hat im vorigen Jahrzehnt zu vorübergehenden negativen Anomalien von mehreren Millimetern beim GMSL geführt. Diese Reduktion war Anlass für diese Studie.

Aber … Aber wenn das so ist, warum wird diese Variation der Regenmenge nicht durch das komische Modell „Interaction Soil Biosphere Atmosphere (ISBA)/Total Runoff Integrating Pathways (TRIP) global hydrological model” gezeigt? Ich meine damit: das Modell läuft mit tatsächlichen Messungen der Regenmenge einschließlich der Daten aktueller El Nino-Ereignisse.

Und wenn man Davon ausgeht, dass ein so großer und ausgedehnter Effekt nicht durch das Modell gezeigt wird, warum sollen wir dann in diesem Fall annehmen, dass das Modell etwas taugt?

Der einzige Weg, auf dem wir ihre Logik anwenden können wäre, FALLS das Modell perfekt genau ist, außer dass es irgendwie vollständig die atmosphärischen Änderungen durch ein El Nino ignoriert … aber das Modell wird mit tatsächlichen Daten gefüttert, und wie kann es da wissen, was es ignorieren soll?

Alles in allem

Was also haben sie schlussendlich getan? Nun, sie haben die Differenz gemessen zwischen den Modellen und dem Mittel der Beobachtungen der fünf Arbeitsgruppen.

Dann haben sie diese Differenz auf die individuellen Ergebnisse der fünf Arbeitsgruppen angewendet.

Mit anderen Worten, sie haben die Daten von den Modellen subtrahiert … und haben dieses Ergebnis dann zu den Daten addiert. Das wollen wir mal mathematisch ausdrücken:

Daten + „Korrektur“ = Daten + (Modelle –Daten) = Modelle

Wie unterscheidet sich das von der einfachen Aussage, dass die Modelle korrekt und die Daten falsch sind und man auf dieser Basis einfach weiter macht?

Schlussfolgerungen

1. Selbst wenn die Modelle genau und die Korrekturen echt sind, erhebt sich die Größenordnung nicht über das Rauschen.

2. Trotz der Behauptung, dass sie trendbereinigte Daten für ihre Berechnungen der Korrekturen verwendet haben, zeigt die graphische Darstellung jener Daten, dass alle drei Datensätze (GMSL, Massenkomponente sowie Massen- + räumliche Komponente) Trends aufweisen.

3. Wir haben keine Sicherheit, dass „Korrektur“, was nichts anderes ist als der Unterschied zwischen Beobachtungen und Modellen, etwas anderes ist als Modellfehler.

4. Alles in allem wollten sie mit ihrer Prozedur Beobachtungsergebnisse in modellierte Ergebnisse umwandeln. Zur Erinnerung, wenn man ihre „Korrektur“ auf den mittleren Meeresspiegel anwendet, bekommt man die die modellierten Ergebnisse zeigende rote Kurve. Also  ist die Anwendung auf die fünf individuellen Datensätze, die den mittleren Meeresspiegel ausmachen … nun … das Wort, das einem sofort in den Sinn kommt, ist ‚bedeutungslos‘. Sie haben einen großen Kreis geschlagen, um dorthin zu kommen, aber am Ende sagen sie lediglich, dass die Modelle richtig und die Daten falsch sind…

P.S. Nach guter Gewohnheit möchte ich jeden, der nicht mit mir übereinstimmt, auffordern, in den Kommentaren genau jene Worte anzuführen, mit denen man nicht übereinstimmt.

P.P.S. Ich habe oben gefragt, was mir an den Graphiken in Abbildung 1 so komisch vorgekommen war, dass ich näher hingeschaut habe. Nun, in ihrer Studie sagen sie, dass die gleiche Korrektur an die Daten jeder einzelnen Arbeitsgruppe angebracht worden war. Wenn ich das richtig verstehe (was durchaus nicht immer der Fall sein muss), sollte dies in einer linearen Transformation der Daten in jedem Monat führen. Mit anderen Worten, die Anpassung in jedem Monat war in allen Datensätzen die Gleiche, egal ob es nun +0,1 oder -1,2 oder was auch immer war. Sie wurde gleichermaßen auf jeden bestimmten Monat in den Datensätzen aller fünf Gruppen angebracht.

Nun, es gibt etwas Seltsames bei dieser Art von Transformation, also bei der Addition oder Subtraktion eines bestimmten Betrages in jedem Monat. Sie kann keine Linien in der Graphik begradigen, wenn sie gekrümmt beginnt, und umgekehrt. Wenn sie ungekreuzt beginnen, kann ihre Art der „Korrektur“ sie nicht kreuzen. Mit dem im Hinterkopf folgt hier noch einmal Abbildung 1:

Ich konnte immer noch keinen Grund finden, warum sie das gemacht haben, also bin ich für Hinweise dankbar.

DATA AND CODE: Done in Excel, it’s here.

Link: http://wattsupwiththat.com/2014/03/28/sea-water-level-fresh-water-tilted/

Übersetzt von Chris Frey EIKE, der inhaltlich nicht immer alles verstanden hat.