Die Sonne im August 2018 und atmosphärische Konflikte

Die Sonne war also im letzten Monat weniger als 1/3 so aktiv wie im Mittel. An 13 Tagen des Monats war überhaupt kein Fleck zu beobachten, an den übrigen Tagen sah man diesmal die Südhemisphäre zu 74% zu den wenigen kleinen Flecken beitragen.

Abb.1: Die Fleckenaktivität des aktuellen SC (für SolarCycle) 24 im Vergleich zu einem mittleren Zyklus (blau) und dem im letzten Zyklusdrittel sehr ähnlichen SC5 ( schwarz).

 

Vieles spricht dafür, dass der Zyklus seine letzten rechnerischen 14 Monate sehr ruhig beendet. Das ist einigermaßen beruhigend  wenn man weiß, dass die Sonne auch anders könnte und wohl auch schon konnte. Super-Explosionen auf der Sonne kamen schon vor: der berühmte „Carrington Event“ am 1.September 1859 ist ein Beispiel. Damals gab es einen Flare (eine Sonneruption),  der erdgerichtet war und um ein Vielfaches stärker als alles, was wir in dieser Beziehung im Satellitenzeitalter beobachten konnten. Vor wenigen Wochen erschienen Arbeiten, die Ereignisse im Jahre 774 und 993 ( wir wissen von Ihnen durch globale Nachweise in Proxies) unzweifelhaft der Sonne zuordneten, und die noch etwa 20 mal so stark waren wie der „Carrington Event“.

Auch im Jahre 2012 ereignete sich ein potentiell gefährlicher Flare, der jedoch nicht erdgerichtet war. Für die heutige Infrastruktur mit ihren langen Leitungen für Energieversorgung und Kommunikation wäre ein Treffer schon sehr gefährlich, vermutlich würde auch jede Satellitennavigation ausfallen. Eine Vorhersage ist noch relativ unsicher. Mehr als 1…2 Wochen vor einem möglichen Event hätten wir vielleicht nur die Gelegenheit, uns zu wappnen, wie diese aktuelle Arbeit zeigt.  Und wann ein großer energiereicher Sonnenfleck wohin genau explodiert- für solche Vorhersagen gibt es noch keine ausreichenden Modelle. Also ist bei allen Fortschritten im Wissen um die Eigenschaften unserer Sonne immer noch ein wenig Glück dabei, dass wir noch keine fundamentalen Schäden durch Sonnenstürme erleben mussten: Großflächige Blackouts, Netzwerkausfälle auf lange Zeiten, kaum noch funktionierende Navigation.

Zurück zur aktuell sehr ruhigen Sonne. Der Vergleich der Zyklen untereinander bestätigt das:

Abb.2: Die aufsummierten Abweichungen der einzelnen Zyklen vom mittleren Zyklus  (blau in Abb.1). Sehr gut sichtbar: die Clusterbildung. Seit dem Zyklus 5 tauchen immer mindestens 3 Zyklen in Reihe auf, die entweder unter- oder übernormal stark waren. Einzelne Ausreißer sind nicht zu verzeichnen.

 

Die Vorausschau auf den Zyklus 25 wird nun immer verlässlicher: die maximale Stärke der polaren solaren Felder ist mit hoher Sicherheit erreicht. Recht wahrscheinlich ist ein nächster Zyklus, der etwa so stark ist wie der SC14, der zwischen 1902 und 1913 beobachtet wurde. Also weiterhin eine (magnetfeldtechnisch) schwache Sonne bis in die 30er Jahre der 2000er.

 

Atmosphärische Konflikte

Gemeint ist hier nicht das bekannte und vergnügliche Gedicht von Erich Kästner, mit dem er die interne Variabilität des Überganges Winter/ Frühjahr in Deutschland vor genau 90 Jahren mit Humor und Tiefgang beschrieb, als noch keiner  verfrühte/verspätete Wärme dem Klimawandel zuschreiben wollte. Die einzigen, die blass wurden, waren die Oberkellner!

Vielmehr geht es uns um eine aktuelle Arbeit von McKitrick/Christy, in der die Autoren mit den bestmöglichen Beobachtungen seit 1958 aus Ballonaufstiegen die Erwärmung der tropischen oberen Atmosphäre auswerten. Die Temperaturen in einer Höhe von 10-13km ( 300mb-200mb), so sagen es die Modelle, erwärmen sich deutlich schneller bei jedem Temperaturanstieg als die am Boden, also auch den durch die Wirkung von Treibhausgasen. Es ist die Region in unserer Atmosphäre, die am heftigsten auf diesen Antrieb reagiert. Daher nennt man es auch den „tropischen Hotspot“.

 

Abb.3: Der „tropische Hotspot“ in einem Klimamodell. Über den Tropen (Latitude -25°…25°) in der Höhe von 200-300mb soll sich die Troposphäre mit ca. 0,5°C/ Dekade erwärmt haben zwischen 1958 und 2017. Quelle: Fig.1 aus McKitrick et al. (2018).

 

Das ist doch super, sollte man meinen. Wir haben damit eine „Vorwarnung“, die Erwärmung ist dort noch heftiger als am Boden und wir können sehr gut ablesen, wie stark es sich aufheizt, noch bevor es am Boden so manifest wird. Ganz so einfach ist es nicht! Die Luft ist recht dünn auf Reiseflughöhe der modernen Jets und daher auch sehr empfindlich auf interne Schwankungen des Klimasystems. So haben da  ElNinos viel größere Ausschläge, ebenso wie Vulkanereignisse. Sie erkennen die starken Einflüsse von ENSO in Abb.4: sowohl 1997/98 als auch 2015/16/17 sieht man Ausbrüche nach oben. Bleibt ein solch starker Ausreißer aus, wird der Trend wieder auf das Niveau der letzten 40 Jahre zurückkehren. Diese Empfindlichkeit auf natürliche Schwankungen  macht die Trends unsicherer.

Mit Satellitenmessungen ist es auch schwierig: Um nur die fragliche troposphärische Schicht zu treffen ist eine Trennschärfe zu der darüber liegenden Stratosphäre -sie kühlt sich ab,  (vgl. Abb. 3 über 100mb) bei Erwärmung der Troposphäre, u.a. weil sie durch ihre Ausdehnung in größere Höhen gerät-  zu realisieren, die nicht durchgängig gegeben ist. Ballons steigen nicht überall auf und daher braucht es mit ihnen viel länger, um zu gesicherten Aussagen zu kommen. Nun haben sich also die Autoren von McKitrick et al. (2018) die recht langen Messreihen von verschiedenen Anbietern vorgenommen und die letzten 60 Jahre ausgewertet. Das Ergebnis: Die Erwärmung der oberen tropischen Troposphäre ist nicht im Entferntesten so stark, wie es alle Modelle, die für den 5. Sachstandbericht (AR5) des IPCC in 2013 entwickelt (CMIP5) wurden, antizipierten. Sehr gut erkennt man das in dieser Abbildung der Arbeit:

Abb.4: Die Entwicklung der Temperaturen im Bereich aus Abb.3 über die Zeit. Seit etwa 1995 laufen die Modellwerte den Beobachtungen zunehmend nach oben weg. Quelle: Fig. 3 aus McKitrick et al. (2018)

 

Die Autoren stellen denn auch mit großer statistischer Sicherheit fest, dass die Modelle inkonsistent zu den Beobachtungen sind. Um die Entwicklung der Diskrepanzen noch etwas genauer zu untersuchen, haben wir die Abb.4 digitalisiert und mit den gewonnen Daten Trendberechnungen angestellt:

Abb.5: Die linearen Trends ( in °C/ Jahr)  der Beobachtungen (blau) und des Modellmittels (rot).

 

Die kürzeste Trendlänge ab 1958 beträgt 30 Jahre, daher beginnt das Diagramm mit dem Jahr 1987. Der längste Trend geht von 1958 bis 2017. Mit jedem neuen Jahr ergibt sich ab Ende der 90er Jahre eine größere Abweichung der Modellberechnungen vom beobachteten realen Klimasystem. Während diese einen recht konstanten Anstieg von ca. 0,15°C/ Dekade seit 1958 aufweisen, erwärmt sich die Modellwelt immer schneller.

Über die Ursachen der Abweichungen lässt sich nur vermuten. Die Autoren der Arbeit jedenfalls spielen den Ball den Schöpfern der Modelle ins Feld. Ein möglicher Grund für die um ca. 100% zu hohe Erwärmung bis 2017, die ab etwa 2000 ihren Lauf nimmt, könnte eine zu hoch gerechnete Abkühlung durch Aerosole sein. Die nämlich flacht global ab Mitte der 90er in der realen Welt ab und geht sogar zurück seit Ende der 90er Jahre bis in die jüngste Vergangenheit. Auch eine fehlerhafte Berücksichtigung von tropischen Wolken in den Modellen ist zu vermuten, wie diese aktuelle Arbeit von  Allison Kolly et al. zeigt. Eine Arbeit von John Christy (der Co-Autor der hier ausgewerteten Studie von McKitrick) und Kollegen aus dem Frühjahr nutzte  Satelliten-und Ballondaten ab 1979 und kommt zu nahezu identischen Ergebnissen: Modelle zeigen zu viel Erwärmung in der tropischen Troposphäre. Die Autoren vermuten weitere Modellfehler beim modellierten Wasserkreislauf und in der Physik von Niederschlägen.

Wie auch immer: die Empfindlichkeit der Modelle gegenüber der weitgehend CO2-bedingten Erwärmung ist auch beim „Hotspot“, also in der Region mit dem modellierten stärksten Anstieg der Temperaturen weltweit, um bis zum Faktor 2 zu hoch. Und die Diskrepanz wird weiter wachsen, das legt Abb. 5 nahe. Alle Prognosen, die mit viel zu heiß laufenden Klimamodellen begründet werden, müssen immer mehr hinterfragt werden. Die empirische Wissenschaft zeigt die Grenzen der Modell-Apokalyptiker auf. Wir freuen uns auf jeden Fortschritt in der Wetter-u. Klimabeobachtung!

Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier




Murry Salby Vortrag Helmut-Schmidt-Universität zum Thema „What is Really Behind the Increase of Atmospheric CO2? New Research“ abgesagt!

Der angekündigte Vortrag von Prof. Murry Salby an der Helmut-Schmidt-Universität zu dem Thema „What is Really Behind the Increase of Atmospheric CO2? New Research“ muss leider ausfallen.

Prof. Salby ist bekannt für seine klare Position zum anthropogen verursachten Klimawandel, von dem er sich eindeutig distanziert. Die Universitätsleitung hatte deshalb vorgesehen, neben Prof. Salby einen weiteren Vortragenden zu Wort kommen zu lassen, der insbesondere die Sichtweise und Interpretation des IPCC vertritt, um dies zu einer interessanten, ausgewogenen Veranstaltung werden zu lassen. Bis zu dem angesetzten Vortragstermin konnte allerdings kein zweiter geeigneter Vortragender gefunden werden.

Von der üblichen Gepflogenheit, dass eine Veranstaltung auch dann stattfindet, wenn nur eine Seite der Einladung folgt, wurde hier leider abgewichen. Bei einem Vortrag nur von Prof. Salby sieht offensichtlich die Universität ihre Außenwirkung gefährdet.

Anmerkung der Redaktion 

Was uns wundert ist, dass die Universitätsleitung nicht sieht, dass  sie damit einer unverschämten Erpressung  nachgibt, denn wir haben noch nie gehört, dass irgendein alarmistischer Wissenschaftler wie Schellnhuber oder Rahmstorf bis hin zum Alleswisser Harald Lesch, jemals dazu angehalten wurden, bei ihren Vorträgen auch die andere Meinung zu Wort kommen zu lassen. Das ist erschütternd und sagt viel über den Zustand der Meinungsfreiheit und Freiheit der Wissenschaft in diesem Lande.
Da die alarmistischen Wissenschaftler die direkte offene Diskussion mit Klimarealisten scheuen, wie der Teufel das Weihwasser, weil sie sicher wissen, dass sie jede Debatte verlieren, wird keiner ihrer Vertreter zu einer solchen offenen Diskussion bereit sein. Insofern ist diese Forderung nach einem Parallelvortrag der die Sichtweise und Interpretation des IPCC vertritt, niichts weiter als eine verschleierte aber wirksame dauerhafte Absage
Es ist damit gleichzeitig defacto und ohne Beschönigung: Eine Bankrotterklärung für die Freiheit der Wissenschaft.



Rechnungshof: Vernichtendes Urteil über die „Energiewende“

Krachend gescheitert. Das Urteil des Bundesrechnungshofes überrascht nicht. Außer gigantischen Kosten hat die Energiewende nichts produziert. Das ist nicht sonderlich neu, nur hat das jetzt auch der Bundesrechnungshof in seinem Sonderbericht »Koordination und Steuerung zur Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft und Energie« erhebliche Defizite festgestellt und eine sonderbare Empfehlung ausgesprochen.

»In den letzten fünf Jahren wurden für die Energiewende mindestens 160 Milliarden € aufgewendet.« Die Prüfer haben sich die Strukturen im zuständigen Bundeswirtschaftsministerium angesehen und verpassen dem Minister und seinem teuren Apparat eine deftige Klatsche:

»Allein im BMWi sind 34 Referate in vier Abteilungen damit befasst, die Energiewende umzusetzen. Dazu sind fünf weitere Bundesministerien und alle Länder an der Umsetzung der Energiewende beteiligt. Dennoch hat das BMWi nicht festgelegt, was die Koordination der Energiewende umfasst. Eine gesamtverantwortliche Organisationsform gibt es bis heute nicht.«

Sie listen Details einer horrenden Bürokratie auf: »Es gibt derzeit 26 Gesetze und 33 Verordnungen, die mit teils hohem Detaillierungsgrad Erzeugung, Speicherung, Übertragung, Verteilung und Verbrauch von Energie regeln. Die mit Blick auf die Umsetzung der Energiewende notwendigen Änderungen dieser Normen sind zeitaufwendig. Dies erschwert eine flexible Anpassung von Steuerungsmaßnahmen an die dynamische Entwicklung, die die Energiewende mit sich bringt.«

Welche Energiewenden-Aktion was bewirkt und wieviel sie kostet, weiß niemand im Berlin der Neuzeit. Sie können nichts außer die Infrastruktur eines Landes im Blindflug außer Gang zu setzen und Landschaften mit Windradmüll zerstören. Die Prüfer des Rechnungshofes bringen das Kunststück fertig und fragen nicht zum Beispiel bei Physikern danach, ob solch eine Verrücktheit wie die Energiewende physikalisch-technisch möglich ist, sondern kritisieren nur mangelnde Steuerung. Sie fordern, Wahnsinn mit noch größerem Wahnsinn zu erschlagen: Eine was – natürlich Steuer – könnte helfen, jetzt eben eine auf CO2.Großartig: nicht nur Autos und Heizungen und Atmen, sondern auch jeden Baum, jeden Strauch auf seinen Output an CO2 zu besteu-ern. Denn auch die benötigen nicht nur CO2 als Baumaterial für Stämme, Äste und Blätter, sondern sie geben CO2 ab. Denn es muß ja gerecht zugehen.

Claudia Kemfert, die ständig laut Durchhalteparolen hinausposaunende »Energieökonomin«, hat schon früh (2012) einen CO2 Preis von 60 Euro pro Tonne »ausgerechnet«. Wirtschaftsminister Altmaier lehnt eine solche CO2 Steuer ab. Bisher.

Das Wirtschaftsministerium wiederum weist die Kritik des Bundesrechnungshofes zurück und meint, die EEG-Umlage könnte nicht den Kosten der Energiewende zugerechnet werden. Also das, was für den Stromverbraucher die exorbitanten Kosten ausmacht, seien keine Kosten der Energiewende. Auf so etwas kommt man nur noch in Berlin.

In Bonn beim Bundesrechnungshof wiederum befürchtet man Staatsversagen, sollte es so weitergehen mit der Energiewende: »Steigen die Kosten der Energiewende weiter und werden ihre Ziele weiterhin verfehlt, besteht das Risiko des Vertrauensverlustes in die Fähigkeit von Regierungshandeln.«

Als ob es das überhaupt noch gibt. Nur noch die letzten Hardcore Grünen glauben an die Notwendigkeit einer Energiewende, träumen immer noch davon, dass es notwendig ist, CO2 zu reduzieren und diesem Ziel alles unter zu ordnen. 160 Milliarden € mir nichts dir nichts verpulvert. Auf der anderen Seite ist Strom zum Luxusgut avanciert und zur Mangelware verkommen. Zu teuer, zu schlechte Qualität beeinträchtigt empfindliche Steueranlagen in der Industrie, Unternehmen verlagern energieintensive Produktion ins Ausland.Dennoch, das ist das Erstaunliche, glauben viele Bürger an die Notwendigkeit und Machbarkeit einer Energiewende – befeuert von öffentlich-rechtlichen Propagandasendern, die diese Ideologie in die Köpfe blasen und jubeln, wenn die EU Klimaziele erhöhen und Treibhausgase senken will.

Es ist eine Mafia, an der zu viele mit verdienen, vor allem auch viele Politiker, die sich wie in Kassel über Windkraft die Taschen voll machen mit ihren politischen Entscheidungen, Wälder für Winterräder abzuholzen.

Nachtrag der EIKE Redaktion:

Zwei wesentliche Probleme geht der umfangreiche Rechnungshofbericht überhaupt nicht an.

  1. Er stellt nicht die Frage, um wie viel Grad denn die globale Mitteltemperatur sinken würde, wenn Deutschland seine CO2 Senkungsziele erreicht hätte. Täte e das, was mit 100 % Sicherheit zu seinen primären Aufgaben gehört, dann käme der ganze Irrsinn der „Energiewende“ noch viel plastischer zutage. Nur die AfD hat sich bisher dieser Frage dahingehend angenommen, dass sie die -nur hypothetische- Minderung des Anstiegs der globalen Mitteltemperatur für 100 % Minderung des deutschen Anteiles anhand vorliegender IPCC Werte und nach der gängigen Formel für diese Minderung berechnet hat. Es sind nur 0,000.653 °C; irgendwann in ferner unbestimmter Zukunft. Den AfD Antrag finden Sie hier in dem der Rechenweg angegeben ist

  2. Völlig unerwähnt bleibt auch die Tatsache, dass es mit der einfachen Aufsummierung der bis jetzt entstandenen Kosten seit dem Jahre 2013 bei weitem nicht getan ist. Denn das EEG gibt es bereits seit dem Jahre 2000 und es verpflichtet die Versorger mit Vorrang den per EEG erzeugten Strom auf 20 Jahre zum anfangs festgelegten Preis in jeder lieferbarbaren Menge abzunehmen. „Planungssicherheit“ nennen das zynisch die Protagonisten der Energiewende“ Zwangswechselschulden nennt man das als Normalsterblicher. Bis 2013 hat allein das EEG den FakeEnergiebetreibern 100 Mrd € in die Taschen gespült. Die kommen auf die genannten 160 Mrd € noch drauf. Insgesamt sind das bis Ende 2017 also bereits 260 Mrd €. Für buchstäblich nichts! Schlimmer jedoch sind die heute bereits entstandenen zukünftigen Zahlungsverpflichtungen, die das EEG erzeugt. Es sind für die nächsten 20 jahre allein durch das EEG ca. 765 Mrd. €. D.h wenn ab sofort keine einzige FakeEnergieanlage hinzugebaut würde, das Ausscheiden der bald 20 jährigen Fördermengen bereits berücksichtigt. Kostet uns die jetzt bereits gezahlte und noch kommende Förderung rd. 1 Billion €. Im Jahre 2022 erhöhte sich die Summe auf dann knapp 1,4 Billionen.

Der Beitrag erschien zuerst bei TE hier




Die vorherrschenden Zyklen des globalen Klimas scheinen mit der Sonneneinstrahlung übereinzustimmen

Abstrakt

Wir finden eine enge Übereinstimmung zwischen den Spektren des globalen Klimas und der Sonnenstrahlung während der letzten Jahrtausende und zeigen, dass das Klima der Erde bis heute auf Sonnenaktivität zurückzuführen ist

Die Mechanismen und der Ursprung der Klimavariationen der Erde werden in der Literatur ausführlich diskutiert. Viele Modellberechnungen schreiben den Klimawandel seit 1850 dem menschlichen Einfluss zu, z.B. den industriellen CO2-Emissionen. Diese Modellrechnungen stimmen nicht mit den Messungen überein, insbesondere mit den Klimaschwankungen vor dem industriellen Zeitalter, d. h. dem Zeitraum vor ~ 1850. Analysen von Temperaturproxys, finden andererseits Hinweise auf den Einfluss von zyklischen Variationen mit langen Perioden.

Es wurde kürzlich gefunden / 1 /, dass das Klima der Erde in den letzten 2000 Jahren im Wesentlichen nur durch 3 Zyklen bestimmt wurde: Je ein Zyklus von ~ 1000 Jahren, ~ 460 Jahren, ~ 190 Jahren. Diese 3 Zyklen erzeugen insbesondere den Temperaturanstieg von ca. 1850 bis heute, der offiziell als (einziger) Beweis für den Klimawandel durch industriell emittiertes CO2 bezeichnet wird. Diese Erwärmung ist also nicht auf den Einfluss des Menschen zurückzuführen, und CO2 kann für das Klima der Erde nur eine untergeordnete Rolle spielen. Bild 1 zeigt das Spektrum einer großen Anzahl weltweiter Temperaturproxies der letzten 2000 Jahre / 1 /. Wie für Spektren üblich, ist in Abb. 1 die Spektralleistung gegen die Frequenz aufgetragen (d. H. Anzahl der Zyklen pro Jahr). Da die Zyklen viele Jahre lang sind, sind die Häufigkeiten Bruchteile von 1.

C.O. Weiss

Abb. 1: Spektrum der globalen Temperatur für die letzten 2000 Jahre. Die spektrale Leistung ist gegen die Frequenz aufgetragen, d.h. e. Anzahl der Zyklen pro Jahr. Da die Zyklen eine Dauer von vielen Jahren haben, sind die Häufigkeiten Bruchteile von 1. Die 3 dominanten Zyklen haben eine Dauer von ~ 1000, ~ 460 und ~ 190 Jahren.

 

Der Ursprung und Mechanismus von Klimazyklen wurde ausführlich diskutiert. Siehe z.B. / 2 /

C.O. Weiss

Abb. 2 zeigt die Sonnenbestrahlungszyklen aus den Isotopenhäufigkeiten von 10Be und 14C. für die letzten 8000 Jahre / 3 /. Im Gegensatz zu den Spektren, wie in Fig. 1, zeichnet das Periodogramm Fig. 2 die spektrale Leistung gegen die Dauer der Zykluszeit. Ansonsten sind Spektren und Periodogramme äquivalent. Man bemerkt die Dominanz von drei Zyklen, deren Perioden ziemlich gut mit den vorherrschenden Klimazyklen der Erde von Fig. 1 übereinstimmen.

Abb. 2: Periodogramm (entspricht dem Spektrum) von 8000 Jahren Sonnenstrahlung / 3 /. Die dominanten Zyklen sind 978, 499, 207 Jahre Zyklusdauer / 3 /.

Obwohl die Zeiträume der Klimazyklen und der Sonnenbestrahlungszyklen nicht genau übereinstimmen, würde man angesichts der Dominanz in beiden Fällen folgern, dass die Klimazyklen auf solaren Einfluss zurückzuführen sind. Insbesondere, wenn man berücksichtigt, dass die Klima-Zyklusperioden aufgrund von Rauschen in den Temperaturproxydaten und begrenzter spektraler Auflösung, wie in / 1 / beschrieben, zu einem gewissen Grad unsicher sind, würden die Klimazyklen der Erde und die Solarzyklen einander entsprechen . Diese Sonnenzyklen wurden durch ein Modell erklärt, das den Einfluss der Gezeitenkräfte der Planeten Jupiter und Saturn auf den Solardynamo beschreibt, der das solare Magnetfeld erzeugt / 2 /.

So scheint es, dass die wesentlichen klimatischen Veränderungen auf der Erde bisher auf den Einfluss der Sonne und der Hauptplaneten und nicht auf den Einfluss des Menschen zurückzuführen sind. Ein kleiner Beitrag des menschlichen Einflusses (vielleicht in der Größenordnung von 10%) kann angesichts der begrenzten Genauigkeit dieser Analyse offensichtlich nicht allein durch diese Analyse ausgeschlossen werden.

/1/ Luedecke, H. J., Weiss, C. O. The Open Atm. Sci. Journ. 11 (2017) 44

/2/  Scafetta, N.  Journ. Atm. and Solar-Terrestrial Physics 80 (2012) 296

/3/ Steinhilber, F., Beer, J., Froelich,C.  Geophys. Res. Lett. 36, L 19704

Übersetzt durch Andreas Demmig




Der „Trick“ anomaler Temperatur-Anomalien

In den meisten Fällen ist die Anomalie sehr gering, und die Änderung wird aufgemotzt, indem die Y-Achse so gestreckt wird, bis diese geringe Änderung daherkommt wie ein steiler Anstieg (oder Fall). Die vermeintliche Aussagekraft der Graphiken wird durch die behauptete Genauigkeit der Anomalie verstärkt – bei der globalen mittleren Temperatur werden oftmals Zehntel- oder sogar Hundertstel Grad Celsius angegeben. Verschlimmert wird das Ganze, indem die Anomalien ohne oder nur mit sehr geringen „Fehler“-Bandbreiten gezeigt werden. Sollte das doch einmal der Fall sein, sind es nicht Fehler- oder Unsicherheits-Balken, sondern tatsächlich die statistische Standardabweichung (und nur selten wird das so angegeben).

Vor vielen Wochen habe ich dazu einen Beitrag geschrieben mit dem Titel [übersetzt] „Fast wie die Erde. Wir sind sicher!“ [Almost Earth-like, We’re Certain]. In dem Beitrag, der vom Weekly News Roundup des Science and Environmental Policy Project als „leicht lesbar“ charakterisiert worden ist, verlieh ich meiner Meinung Ausdruck, dass man Anomalien verwendet und so tut, als ob die Unsicherheit verringert worden wäre. Es ist nichts als Vortäuschung. Es ist ein Trick, um bekannte große Unsicherheiten zu verdecken.

Mit dem Eingeständnis, dass sich diese meine Meinung bis heute nicht geändert hat, denke ich, dass es gut ist, genauer zu erklären, wie ich zu dieser Ansicht gekommen ist – und was für einen umfangreichen Bereich in der Welt der Klimawissenschaft ziemlich kränkend sein wird. Zwei Dinge müssen wir betrachten:

1.Warum nenne ich das einen „Trick“?

2.Wer wird da ausgetrickst?

Zu Punkt 1: Warum nenne ich die Verwendung von Anomalien einen „Trick“?

Was genau ist das „Auffinden einer Anomalie“? Nun, nicht das, was man allgemein denkt. Die vereinfachte Antwort lautet, dass man die jährlich gemittelte Temperatur heranzieht und diese von jenem 30-Jahre-Klimamittel subtrahiert. Was übrig bleibt, ist „Die Anomalie“.

Das ist das, was sie sagen, aber nicht wirklich das, was sie tun. Sie fangen mit dem Auffinden von Anomalien auf einem niedrigen Niveau an und arbeiten sich empor bis zur Globalen Anomalie. Selbst wenn Gavin Schmidt den Gebrauch von Anomalien erklärt (hier), erkennen sorgfältige Leser, dass er sich rückwärts bewegen muss zu Absoluten Globalen Mittelwerten in Grad – indem die allgemein vereinbarte Anomalie dem 30-Jahre-Mittel hinzugefügt wird:

„… wenn wir versuchen, die absolute globale Mitteltemperatur für, sagen wir, das Jahr 2016 abzuschätzen. Die Klimatologie gibt im Zeitraum 1981 bis 2010 einen Wert von 287,4 ± 0,5K, und die Anomalie für 2016 (nach der GISTEMP-Grundlage) beträgt 0,56 ± 0,05°C. Folglich ist unsere Schätzung des absoluten Wertes 287,96 ±0,502 K, und bei Heranziehen des zweiten reduziert sich das zu 288,0 ± 0,5 K“.

Aber hier wollen wir einfach nur betrachten, dass die Anomalie einfach das von der berechneten GAST* subtrahierte 30-Jahre-Mittel in Grad ist.

Wie Schmidt freundlicherweise erklärt, ist die korrekte Angabe einer GAST in Grad irgendetwas auf der Linie 288,0 ± 0,5 K – das ist die Gradzahl bis auf ein Zehntel Grad genau mit einer Unsicherheits-Bandbreite von ± 0,5 K. Wenn eine Zahl auf diese Art und Weise angegeben wird, bedeutet das, dass der tatsächliche Wert nicht genau bekannt ist, aber es ist bekannt, dass er innerhalb der Bandbreite der Plus/Minus-Angabe liegt.

[*GAST = Global Averaged Surface Temperature]

Die Abbildung zeigt dies als aktuelle Praxis mit den Temperaturaufzeichnungen … die gemessenen Temperaturen sind auf ganze Grad Fahrenheit gerundet – eine Angabe, welche IRGENDEINE der unendlichen Zahl kontinuierlicher Werte zwischen 71,5 und 72,499999… repräsentiert.

Es ist kein Messfehler, es ist die gemessene Temperatur dargestellt als eine Bandbreite von Werten 72 +/– 0,5. Es ist eine Unsicherheits-Bandbreite – hinsichtlich der tatsächlichen Temperatur sitzen wir immer noch im Dunklen – wir kennen lediglich die Bandbreite.

Nun ist die Ein-Grad-Bandbreite für normale Menschen als Information ausreichend. Knifflig wird es in manchen Fällen, wenn sich die Temperatur dem Gefrierpunkt nähert – Temperaturen über oder unter dem Gefrierpunkt sind klimatisch bedeutsam für Landwirte, bei der Straßenausbesserung und Wartung von Flugzeugen.

Egal was wir mit Temperaturaufzeichnungen machen, müssen wir uns mit der Tatsache befassen, dass die tatsächliche Temperatur nicht aufgezeichnet worden ist – wir haben lediglich Bandbreiten aufgezeichnet, innerhalb derer die tatsächliche Temperatur lag.

Dies bedeutet, dass wenn diese Temperaturen für Berechnungen herangezogen werden, müssen sie Bandbreiten bleiben und als solche behandelt werden. Was nicht ausgesondert werden kann ist die Bandbreite des Wertes. Die Mittelung eliminiert die Bandbreite nicht – der Wert hat immer die gleiche Bandbreite. (Siehe Durable Original Measurement Uncertainty).

Auf der Grundlage einfacher Logik, wenn wir schließlich zur Globalen Mittleren Temperatur kommen, ist immer noch die originale Unsicherheit vorhanden – wie Dr. Schmidt korrekt illustriert, wenn er die Absolute Temperatur für das Jahr 2016 mit 288,0 ± 0,5 K angibt.

Der Trick kommt dort ins Spiel, wo die tatsächliche berechnete Temperatur zu einer Anomalie von Mittelwerten konvertiert. Wenn man ein Mittel berechnet (ein arithmetisches Mittel – Summe aller Werte geteilt durch die Anzahl der Werte), bekommt man eine sehr genaue Antwort. Wenn man das Mittel von Werten heranzieht, welche Bandbreiten sind, wie etwa 71 +/- 0,5, dann ist das Ergebnis eine sehr präzise Zahl mit einer hohen Wahrscheinlichkeit, dass das Mittel nahe dieser präzisen Zahl liegt. Während also das Mittel ziemlich genau ist, sind die tatsächlichen Temperaturen der Vergangenheit immer noch unsicher bis +/-0,5.

Drückt man das Mittel mit der gebräuchlichen „+/-2 Standardabweichung“ aus, sagt uns das nur, welchen Mittelwert wir erwarten können – wir können ziemlich sicher sein, dass das Mittel innerhalb jener Bandbreite liegt. Die tatsächliche Temperatur, wenn wir sie ehrlicherweise in Grad darstellen wie in der folgenden Graphik, immer noch behaftet sein mit der Messungenauigkeit: +/-0,5 Grad.

Diese Graphik wurde (ohne meine Anmerkungen) von Dr. Schmidt in seinem Beitrag über Anomalien (hier) gezeigt. Ich habe die erforderlichen I-Balken für +/-0,5 Grad hinzugefügt. Man beachte, dass die Ergebnisse der verschiedenen Re-Analysen selbst einen Spread von 0,4 Grad aufweisen – man könnte darüber sprechen, die Gesamtzahl von 0,9 Grad als die Unsicherheit der Globalen Mittleren Temperatur zu verwenden auf der Grundlage der Unsicherheiten oben (siehe die beiden grünen Unsicherheits-Balken, einer über dem anderen).

Dies illustriert die wahre Unsicherheit der Globalen Mittleren Temperatur – Schmidts eingeräumte +/-0,5 und die Unsicherheits-Bandbreite zwischen den Re-Analyse-Produkten.

Im Sinne der realen Welt sollte die oben dargestellte Unsicherheit als die Minimum-Unsicherheit betrachtet werden – die Unsicherheit der Originalmessungen plus die Unsicherheit der Re-Analyse. Es gibt noch viele andere Unsicherheiten, die man eigentlich hinzufügen müsste – wie sie etwa auftreten, wenn man Lücken in den Messungen mit berechneten Temperaturwerten füllt.

Der Trick besteht nun darin, dass der gleiche Datensatz als Anomalien präsentiert und behauptet wird, dass die Unsicherheit folglich auf 0,1 Grad reduziert ist (wenn sie überhaupt angegeben wird) – BEST halbiert diesen Wert nochmals und proklamiert 0,05 Grad!

Die Herabstufung des Datensatzes zu einem statistischen Produkt, Anomalie genannt, informiert uns nicht über die wahre Unsicherheit im tatsächlichen Parameter selbst – die Globale Mittlere Temperatur – jedenfalls nicht mehr als der Blick rückwärts auf eine Bergkette mittels eines speziellen Fernglases, das die Berge kleiner erscheinen lässt, wie stark das Auge auch immer getäuscht wird.

Hier folgt eine Stichprobe der Daten, welche dier Graphik ganz oben in diesem Beitrag ausmachen. Die Spalten bedeuten: Jahr – GAST-Anomalie – Glättung nach dem Lowess-Verfahren:

2010  0.7    0.62
2011  0.57  0.63
2012  0.61  0.67
2013  0.64  0.71
2014  0.73  0.77
2015  0.86  0.83
2016  0.99  0.89
2017  0.9    0.95

Die Vergrößerung der Graphik im Bereich 2000 bis 2017 sieht so aus:

7

Wir sehen globale Anomalien, dargestellt bis zu einer Genauigkeit von Hundertstel Grad Celsius. Unsicherheit wird nicht gezeigt – keine einzige ist erwähnt auf der NASA-Website, auf der die Graphik zu finden ist (hier). Auf dieser NASA-Website, zu finden im Abschnitt Vital Signs – Global Climate Change, heißt es weiter, dass „diese Forschungen im Wesentlichen konsistent sind mit ähnlichen Konstruktionen durch die Climatic Research Unit und die National Oceanic and Atmospheric Administration.” Schauen wir mal:

Von der CRU:

Hier sehen wir die Globale Temperatur nach CRU (Referenz-Zeitraum 1961 bis 1990) – ärgerlicherweise also mit einem anderen Referenz-Zeitraum als bei der NASA 1951 bis 1980. Die Differenz bietet ein paar Einblicke in den Umstand, welche gewaltigen Unterschiede diese verschiedenen Referenz-Zeiträume bzgl. der Ergebnisse ausmachen.

2010   0.56 0.512
2011 0.425 0.528
2012   0.47 0.547
2013 0.514 0.569
2014   0.579  0.59
2015 0.763 0.608
2016   0.797 0.62
2017 0.675 0.625

Die offizielle CRU-Anomalie für das Jahr 2017 beträgt 0,675°C – präzise bis zu einem Tausendstel Grad. Sie zeichnen das dann mit 0,68°C in die Graphik ein. CRU bringt es fertig, die gleiche Präzision in ihren geglätteten Werten zu zeigen – 2015 = 0,608.

Und der Vollständigkeit halber, die NOAA bietet folgende Werte an, präzise bis auf ein Hundertstel Grad:

2010,   0.70
2011,   0.58
2012,   0.62
2013,   0.67
2014,  0.74
2015,  0.91
2016,  0.95
2017,  0.85

Wir sehen, dass diese Anomalien anders als absolute globale Temperaturen wie jene von Gavin Schmidt bei RealClimate gezeigten (hier) mit überhaupt keiner Unsicherheit gezeigt werden. Keine SDs [Standard-Abweichungen], keine 95% CIs, keine Fehlerbalken, nichts. Und das präzise bis zu einem Hundertstel eines Grades Celsius.

Zusammengefasst: Die großen Klima-Institutionen der Welt informieren uns über den Zustand des Klimas, indem sie uns Graphiken der Anomalien der Globalen Mittleren Temperatur [GAST] anbieten. Diese zeigen einen stetigen und alarmierenden starken Anstieg seit etwa 1980. Dieser alarmierende Anstieg besteht aus einer globalen Änderung von etwa 0,6°C. Nur das GISS liefert irgendeine Art Unsicherheits-Schätzung, und auch das nur in der Graphik mit dem grünen 0,1°C-Balken wie oben gezeigt. Betrachten wir ein einfaches Beispiel: Wir folgen Gavin Schmidt gemäß diesem seinem Beitrag vom August 2017 und verwenden GAST-Absolutwerte in Grad Celsius mit seiner angenommenen Unsicherheit von 0,5°C.

Wie sieht das Mittel der beiden GAST-Werte aus, eine für die Nord- und eine für die Südhemisphäre? Um ein wirklich einfaches Beispiel zu geben, wollen wir einmal jeder Hemisphäre den gleichen Wert zuordnen von 20 +/-0,5 Grad Celsius. Unsere Rechnung: 20 +/- 0,5 plus 20 +/- 0,5 geteilt durch 2 ergibt … Das Mittel ist genau 20. (Nun, das nennt man Präzision…).

Was ist mit der Bandbreite? Sie beträgt +/- 0,5 – ist also 1 Grad breit. Das Mittel mit der Bandbreite beträgt 20 +/- 0,5.

Aber was ist mit der Unsicherheit? Nun, die Bandbreite legt die Unsicherheit fest: wir sind sicher, dass das Mittel zwischen 20,5 und 19,5 liegt.

Schauen wir die Wahrscheinlichkeiten – hier gleiten wir in den Bereich „Statistik“.

Hier folgen einige der Werte für die Nord- und Südhemisphäre aus einer unendlichen Anzahl von Möglichkeiten, die sich aus 20 +/- 0,5 ergeben. Wenn wir gleiche Werte heranziehen, ist das Mittel natürlich das gleiche. Aber wir wollen Wahrscheinlichkeiten haben – wie viele Wege gibt es also, dass das Ergebnis 20,5 oder 19,5 beträgt? Jeweils einen Weg.

NH           SH
20.5 —— 20.5 = 20.5 einzig mögliche Kombination
20.4         20.4
20.3         20.3
20.2         20.2
20.1         20.1
20.0         20.0
19.9         19.9
19.8         19.8
19.7         19.7
19.6         19.6
19.5 —— 19.5 = 19.5 einzig mögliche Kombination

Aber wie ist das mit 20,4? Es können 20,4-20,4 oder 20,5-20,3 oder 20,3-20,5 sein – drei mögliche Kombinationen. 20,3? 5 Kombinationen. 20,2? 7 Kombinationen. 20,1? 9 Kombinationen. 20,0? 11 Kombinationen. Jetzt sind wir über den Buckel gesprungen: 19,9? 9 Kombinationen. 19,8? 7 Kombinationen. 19,7? 5 Kombinationen. 19,6? 3 Kombinationen und 19,5? 1 Kombination.

Man erkennt, wie die Verteilung aussieht:

Da wir lediglich 11 Werte für jede der gemittelten Temperaturen verwendet haben, bekommen wir eine wenig pointierte Kurve. Es gibt zwei Kleine Graphiken … die zweite (unten) zeigt, was passieren würde, falls wir das Mittel von zwei identischen Zahlen gefunden hätten, jede mit einer Unsicherheits-Bandbreite von +/-0,5, falls sie gerundet worden wären auf das nächste halbe Grad anstatt auf das normale ganze Grad. Das Ergebnis ist intuitiv – Das Mittel besitzt immer die höchst mögliche Wahrscheinlichkeit, dass es der zentrale Werte ist.

Nun, dass scheint so offensichtlich, dass es selbst Dummies einsehen. Schließlich sollte ein Mittel mathematisch immer der zentrale Wert sein. Der Punkt ist aber: mit unseren gleich verteilten Werten um das Mittel – und wir erinnern uns, wenn wir einen Temperaturrekord sehen, angegeben als XX +/- 0,5, sprechen wir über eine Bandbreite von gleichmäßig verteilten möglichen Werten – wird das Mittel immer der zentrale Wert sein, ob wir nun das Mittel einer einzelnen Temperatur oder das von tausend Temperaturwerten mit dem gleichen Wert finden. Die Unsicherheits-Bandbreite ist jedoch immer die Gleiche! Natürlich! Muss doch so sein.

Hierin liegt der Trick – wenn sie die Anomalie des Mittels heranziehen, lassen sie die Unsicherheits-Bandbreite insgesamt fallen und konzentrieren sich einzig auf die zentrale Zahl, das Mittel, welches immer präzise ist und nahe dieser zentralen Zahl liegt. Wenn überhaupt einmal eine Unsicherheit genannt wird, wird sie als die Wahrscheinlichkeit angegeben, wie nahe das Mittel der zentralen Zahl liegt – und ist getrennt von der tatsächlichen Unsicherheits-Bandbreite der Originaldaten.

William Briggs sagt dazu: „Diese Ergebnisse sind keine Statements bzgl. der tatsächlichen Temperaturen in der Vergangenheit, die wir bis auf die Messgenauigkeit bereits kennen“.

Wir kennen bereits die berechneten GAST (siehe die Re-Analysen oben). Aber wir wissen nur, dass sie irgendwo innerhalb deren bekannten Unsicherheits-Bandbreiten liegt, welche laut Dr. Schmidt +/- 0,5 Grad betragen. Berechnungen der Anomalien der verschiedenen Mittelwerte sagen uns nichts über die tatsächlichen Temperaturen der Vergangenheit – die kannten wir bereits – und wir wissen, wie unsicher das war.

Es ist ein TRICK zu behaupten, dass mittels der Überleitung jährlicher Globaler Mittlerer Temperaturwerte zu Anomalien wir die bekannte Unsicherheit UNBEKANNT machen können.

Zu Punkt 2: Wer wird ausgetrickst?

Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Sie kennen bereits die GAST so genau wie sie dieselben mit ihren gegenwärtigen Verfahren zu berechnen in der Lage sind. Sie kennen die involvierte Unsicherheit – Dr. Schmidt räumt ein, dass sie um 0,5 K liegt. Folglich ist ihre Verwendung von Anomalien (oder die Mittelwerte von Anomalien…) einfach ein Weg, sich selbst zum Narren zu halten, indem die bekannte Unsicherheit irgendwie auf magische Weise einfach verschwindet, äquivalent zu „falls wir auf diese Weise blinzeln und unseren Kopf nach einer Seite neigen…“.

Viel Glück dabei!

——————————-

Schlussbemerkungen des Autors:

Dieser Beitrag wird einem gewissen Segment der Leserschaft hier nicht gefallen, aber das verringert nicht dessen Validität. Jene, die sich selbst zum Narren halten wollen mit dem Verschwinden lassen der bekannten Unsicherheit der Globalen Mittleren Temperatur werden den einfachen, hier dargestellten Argumenten widersprechen. Das ist deren Minus.

Ich verstehe das Argument der Statistiker, welche darauf bestehen, dass das Mittel wirklich viel genauer ist als die Originaldaten. Aber sie lassen zu, dass jene Tatsache ihnen die Erlaubnis gibt, die Unsicherheits-Bandbreite der Originaldaten aus der realen Welt zu ignorieren. Man verstehe mich nicht falsch, sie versuchen nicht, uns auszutricksen. Sie sind sicher, dass dies wissenschaftlich und statistisch korrekt ist. Sie halten sich jedoch selbst zum Narren, weil im Endeffekt alles, was sie tun, die Veränderung der Werte auf der Y-Achse ist (von ,absolute GAST in K‘ zu ,absolute GAST in K minus dem Klimamittel in K‘) und die Unsicherheit fallen lassen – mit viel Rechtfertigung aus der Statistik-/Wahrscheinlichkeits-Theorie.

Link: https://wattsupwiththat.com/2018/09/25/the-trick-of-anomalous-temperature-anomalies/

Übersetzt von Chris Frey EIKE