Es darf ruhig noch kälter und schlimmer werden – der April war immer noch zu warm

DWD Pressemitteilung: Deutschlandwetter im April 2017
Anfangs für die Jahreszeit zu warm, dann verbreitet Spätfröste
… Die Durchschnittstemperatur im April 2017 entsprach mit 7,5 Grad Celsius (°C) fast genau dem Soll der international gültigen Referenzperiode 1961 bis 1990 von 7,4 °C. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung -0,8 Grad …

Die Konsequenz daraus liest sich wie eine mittelalterliche Unwetterbeschreibung zu Beginn eines Hungerjahres:
DWD Pressemitteilung:
Niedersachsen und Bremen: Hagel verwandelte dabei die Stadt Wunstorf und ihre Umgebung vorübergehend in eine weiße Landschaft.
Sachsen: Gebietsweise große Schäden verursachten Spätfröste in der Nacht zum 20. April in der Landwirtschaft, vor allem an Weinreben und Obstbaumblüten.
Hessen: In der Nacht zum 20. entstanden an Weinreben und Obstbaumblüten erhebliche Frostschäden.
Rheinland-Pfalz: Spätfröste bis -6 °C führten in der Nacht zum 20. zu erheblichen Frostschäden an Weinreben und Obstbaumblüten.
Saarland: Spätfröste bis zu -7 °C führten am 20. zu Frostschäden an Weinreben. Ungewöhnlich: Die Station Perl-Nennig verzeichnete insgesamt 21 Frosttage im April.
Baden-Württemberg: Große Schäden richteten Spätfröste in den Nächten zum 20. und 21. an Weinreben und Obstbaumblüten an. Im Südschwarzwald, so in Singen und Buchenbach, gab es örtlich neue Rekorde bei den April-Tiefstwerten.
Bayern: Spätfröste verursachten in den Nächten zum 20. und zum 21. Schäden am Frankenwein und an Obstbaumblüten.

Andere Meldungen:
Topagrar.com, 22.04.2017: Frostschäden: Ausfallrate bei Weinreben zwischen 10 und 95 Prozent
MDR JUMP 21.04.2017: Obstbauern und Winzer bangen um die Ernte
proplanta: Österreich: Enorme Frostschäden im Obstbau
Klagenfurt – Heftiger Schneefall hat einen «Jahrhundertschaden» für Österreichs Landwirte ausgelöst. Auf rund 100 Millionen Euro schätzte allein das Agrarministerium der Steiermark den Schaden in den Obstplantagen durch Schnee und Frost.
Zum Glück sind Bauern in Deutschland ziemlich überflüssig geworden, außer sie produzieren vorwiegend Mais zur EEG-Biogasanlagen-Fütterung, der nicht so sensibel auf das geforderte, kalte Wetter reagiert. Und die Biobauern, denen ein solches Wetter noch weit schlimmer zusetzt, „ernähren“ sich sowieso vorwiegen über Subventionen [3], deshalb stört es diese (dass unsere Regierung ihnen noch mehr Kälte vorschreibt) wohl nicht so sehr.
Und so darf man konsequent und mit viel, viel Geld weiter daran „arbeiten“, auf dass es noch etwas kälter würde, denn wie Bild 1 zeigt, sind zur Erreichung der „glücklichen“-vorindustriellen Temperaturen noch einige Grad Celsius Luft nach unten.

Bild 1 DWD Märztemperaturen seit 1750. Linke Skala Temperaturen, rechte Skala 30-Jahre Mittel. Grafik vom Autor anhand der DWD-Daten erstellt


Allerdings hatte der gerade vergangene April schon einmal die Temperatur wie um 1750, und war zum „Üben“, was Kälte für die Landwirtschaft bedeutet – und warum damals so viele Hungersnöte waren – ein kleiner Fingerzeig. Es führte damals in der Not zu einer tiefen Volks-Frömmigkeit und das wird heute von unseren „Eliten“ gegenüber der alles wissenden Ökokirche schmerzlich vermisst:
Professor Ernst-Peter Fischer von der Universität Heidelberg (Wissenschaftsgeschichte) fordert: [1] Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.“
Anhand des Aprilverlaufs lässt sich wieder (wie beim Märzrückblick [2]) sehen, dass der Temperaturanstieg entgegen den Verkündigungen unserer „Klimawissenschaftler“ vor der Industrialisierung begann und damit wenig mit dem anthropogenen CO2 zu tun hat. Doch wem erzählt man das immer wieder [4]? So lange es nur für die gegenteilige
„Er-“Kenntnis Fördermittel gibt und dafür sogar das Volk, angeführt von „Intelligenz“, zum Beispiel auch Claudia Kemfert:
Klimaretter.Info: Aufbruchstimmung im Elfenbeinturm,
alternativ EIKE: Betreff: March for Science am 22.4.2017,
auf die Straße geht, wird sich so schnell nichts daran ändern.
Ergänzend, wie bei jedem Monatsrückblich, die dankenswerter Weise beim DWD hinterlegte Vorschau bis zum Jahr 2100. Die Grafik ist zwar noch vom letzten Jahr, hat sich aber nur insoweit verändert, als dass der aktuell April um 0,4 °C kälter wurde. Wenn die Computer richtig rechnen (was sie bisher beim Klimavorhersehen seltenst taten) können zumindest die verbliebenen Bauern etwas aufatmen.

Bild 2 DWD-Klimaatlas Märztemperatur-Verlauf 1881 bis 2016 mit Simulation bis zum Jahr 2100


Etwas längerfristig in die Zukunft geschaut, sieht es dann jedoch kritischer aus, außer der ganz große „Klimahellseher“ und Papstberater, Prof. Schellnhuber behält recht und die zyklisch bereits anstehende, nächste Eiszeit fällt erstmals seit 500.000 Jahren wirklich aus [5] [6].

Bild 3 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt


Quellen
[1] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut
[2] EIKE 07.04.2017: Ist der März in Deutschland endlich wieder so warm wie vor 1000 Jahren?
[3] EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
[4] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
[5] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
[6] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein




Neue Studie: ,Stillstand‘ bestätigt – und das Scheitern der Klimamodelle

Macht nichts, diese heute in Nature Climate Change veröffentlichte Studie von Hedemann et al. bestätigt nicht nur den „Stillstand“ der globalen Temperatur, sondern zeigt auch einen Grund dafür auf: „… der Stillstand könnte auch der internen Variabilität des Energie-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) geschuldet sein“.

Das ist eine wichtige Aussage, zeigt sie doch, dass trotz vieler Behauptungen des Gegenteils ein CO2-getriebener Antrieb der planetarischen Temperatur nicht der Kontrollknopf ist und dass die natürliche Variabilität nach wie vor im Spiel ist.

Beachten sollte man auch den Rückgang, markiert durch die beiden farbigen ,X‘ in Abbildung 1:

Modelle und Beobachtungen fangen nicht einmal an, irgendwelche Übereinstimmungen zu zeigen.

Die spitzfindigen Ursprünge von Erwärmungs-Stillständen

Christopher Hedemann, Thorsten Mauritsen, Johann Jungclaus & Jochem Marotzke
AffiliationsContributionsCorresponding author
Nature Climate Change (2017) doi:10.1038/nclimate3274
Received 12 July 2016 Accepted 17 March 2017 Published online 17 April 2017

Während der ersten Dekade des 21. Jahrhunderts erwärmte sich die Erdoberfläche langsamer als von den Klimamodellen simuliert (1). Dieser Stillstand der Erwärmung wird in manchen Studien Modellfehlern bei den externen Antrieben zugeschrieben (2, 3, 4), während Andere auf Wärme-Umverteilungen in den Ozeanen hinweisen (5, 6, 7, 8, 9, 10), für welche die interne Variabilität ursächlich ist. Das Timing derselben kann von den Modellen nicht vorhergesagt werden (1). Allerdings sind sich Analysen von Beobachtungen nicht einig, welche Region der Ozeane dafür in Frage kommt (11, 12, 13, 14, 15, 16). Hier zeigen wir, dass der Stillstand seine Ursache auch im Energie-Ungleichgewicht an der Obergrenze der Atmosphäre haben könnte. Eine Energie-Budgetierung der Oberflächenschicht der Ozeane mittels eines 100 Member zählenden historischen Ensembles zeigt, dass Stillstände verursacht werden durch Abweichungen der Energieflüsse, die so gering wie 0,08 W/m² sein können. Sie können ihren Ursprung an der Obergrenze der Atmosphäre, im Ozean oder in beidem haben. Die Budgetierung mittels bestehender Beobachtungen kann den Ursprung des gegenwärtigen Stillstandes nicht belegen, weil die Unsicherheit in den Beobachtungen die geringen Abweichungen der Flüsse marginalisiert, welche einen Stillstand verursachen können. Die Sensitivität dieser Fluss-Abweichungen in den Beobachtungs-Datensätzen und im Energiehaushalt helfen zu erklären, warum frühere Studien einander widersprechen, und zeigt, dass der Ursprung des gegenwärtigen Stillstandes vielleicht niemals herausgefunden werden kann.

http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3274.html
(paywalled)

Aus der Introduction:

Die Temperatur der Erde hat sich von 1998 bis 2012 langsamer erwärmt als man aus Untersuchungen der meisten Modell-Projektionen oder des langzeitlichen Erwärmungstrends erwarten konnte. Selbst obwohl einige Studien jetzt die Abweichung vom langzeitlichen Trend Mess-Verzerrungen zuordnen, bleibt die Lücke zwischen Beobachtungen und Modellen bestehen. Die beobachteten Abweichungen des Trends bis zu -0,17°C pro Dekade von den CMIP5-Projektionen sind zwei bis vier mal größer als der beobachtete Trend. Der Stillstand ist daher nach wie vor eine Herausforderung für die Klimawissenschaft.

Die wichtigsten Auszüge aus der Studie:

Der Input des gekoppelten Klimamodells MPI-ESM1.1 besteht aus dem vom CMIP5 vorgegebenen historischen Antrieb von 1850 bis 2005 und wurde erweitert bis 2015 mit dem RCP4.5-Szenario. Liegt die rote Linie über der grauen Linie zeigt mindestens ein Ensemble-Member einen Stillstand, definiert als eine Abweichung von über 0,17°C pro Dekade unter dem Ensemble-Mittel. Diese Abweichung ist die gleiche wie die Lücke zwischen dem Ensemble-Mittel des CMIP5 (schwarzes Kreuz) und den beobachteten GMST-Trends (gelbes Kreuz) für den Zeitraum 1998 bis 2012. Die Linien repräsentieren die Anzahl der Ensemble-Mitglieder in Bündeln von 0,05°C pro Dekade.

Aus unserer Analyse der Beobachtungen sind wir nicht in der Lage, eine TOA-Anomalie als mögliche Ursache des gegenwärtigen Stillstandes auszuschließen. Bezieht man die Beobachtungen auf ein alternatives Energie-Budget (anstatt auf dasjenige des großen Ensembles), könnte sich die absolute Position des grünen und gelben Kreuzes verschieben. Allerdings würde sich der relative Abstand voneinander und die Größe ihrer Fehlerbalken nicht ändern.

Die Rolle der TOA und des Ozeans in jedem Stillstand kann bestimmt werden mittels Vergleich ihrer Relativ-Beiträge zur Anomalie der Fluss-Divergenz. Für Stillstände im großen historischen Ensemble ist die negative (Abkühlungs-) Anomalie in 12% aller Fälle vollständig durch die TOA verursacht und durch den Ozean in 24% aller Fälle. In den verbleibenden Fällen (64%) wird die negative Anomalie verursacht durch TOA und Ozean zusammen (unterer linker Quadrant in der Abbildung). Die Variabilität der TOA ist folglich in 76% aller Fälle von Stillstand involviert.

Wir kommen zu dem Ergebnis, dass die TOA eine Quelle signifikanter interner Variabilität während des Stillstands sein kann. Unsere Ergebnisse sind nicht ein Artefakt der vom Modell erzeugten TOA-Variabilität, erzeugt doch das große Ensemble eine TOA-Variabilität, die den Mess-Aufzeichnungen ähnlich ist. Vielmehr stehen unsere Ergebnisse auf der Grundlage eines einfachen, aber dennoch robusten Prinzips, nämlich dass die Oberflächenschicht der Erde eine geringe Wärmekapazität aufweist. Die Temperatur an der Oberfläche kann daher durch kleine Variationen der großen, sich teilweise gegenseitig aufhebenden Flüsse beeinflusst werden, welche dieses größere Energie-Budget ausmachen. Vergleicht man die geringe Variabilität des TOA-Ungleichgewichtes mit dem Gesamt-Ungleichgewicht der TOA im Zuge der globalen Erwärmung, wird die Bedeutung dieser geringen Variationen bzgl. des Stillstandes verschleiert.

Dies ist das wahre Dilemma im Zentrum der Debatte um den Stillstand: Die Variabilität des ozeanischen Wärmegehaltes kann den Stillstand nicht erklären, und die Messung, die es könnte – die Fluss-Divergenz in der Oberflächen-Schicht – wird durch die Beobachtungs-Unsicherheit marginalisiert. Zwar gibt es Versuche, die Lücken bei den Beobachtungen mit Ozean-Reanalysen aufzufüllen, doch sind die resultierenden Daten während des Stillstandes von fragwürdiger Integrität und – wie wir zeigen – stimmen nicht mit dem auf CERES21 und WOA22 basierenden Budget überein. Selbst wenn diese Nicht-Übereinstimmungen beigelegt werden können, macht es das Verfahren, Satellitenbeobachtungen mit der Wärmeaufnahme der Ozeane zu verbinden, schwierig, die Beiträge von der TOA und vom Ozean zu entflechten, weil deren absolute Differenz unbekannt ist. Solange die Unsicherheit in den beobachteten Schätzungen nicht deutlich reduziert werden kann, kann daher der wahre Grund des jüngsten Stillstandes vielleicht niemals herausgefunden werden.

(Hervorhebung von mir [Watts])

Striche
Code availability.
The MPI-ESM1.1 model version was used to generate the large ensemble and is available at http://www.mpimet.mpg.de/en/science/models/mpi-esm.html. Computer code used in post-processing of raw data has been deposited with the Max Planck Society: http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695.

Data availability.
Raw data from the large ensemble were generated at the Swiss National Computing Centre (CSCS) and Deutsches Klimarechenzentrum (DKRZ) facilities. Derived data have been deposited with the Max Planck Society (http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695). Supplementary Fig. 7 uses TOA flux reconstructions provided by R Allan40 (http://www.met.reading.ac.uk/~sgs01cll/flux) and satellite observations provided by the NASA CERES project31 (http://ceres.larc.nasa.gov). For observational estimates in Fig. 3c, we make use of data provided by the NOAA World Ocean Atlas22(https://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT) and by the ECMWF Ocean Reanalysis System 4 (ref. 9; http://icdc.zmaw.de/projekte/easy-init/easy-init-ocean.html).

PDF files
Supplementary Information (3,616 KB)

Link: https://wattsupwiththat.com/2017/04/17/new-karl-buster-paper-confirms-the-pause-and-models-failure/#comment-2478621
Übersetzt von Chris Frey EIKE




Ehemaliger Obama-Funktionär: Büro­kraten manipu­lieren Klima-Statistiken, um Politik zu beein­flussen

Unterstaatssekretär Steven Koonin im Energieministerium sagte dem Wall Street Journal, dass Funktionäre innerhalb der Regierung von Präsident Barack Obama wissenschaftliche Daten verfälscht haben, um die öffentliche Meinung zu manipulieren.

Was man zu den Presseerklärungen bzgl. Klimadaten und Klima-Analysen sagen kann ist, dass sie irreführend, manchmal einfach falsch waren“, sagte Koonin unter Verweis auf Elemente innerhalb der Obama-Regierung, welche für die Manipulation von Klimadaten verantwortlich waren.

[Ob das jemals in einer Zeitung hierzulande gemeldet wird? Der „Süddeutschen Zeitung“ vielleicht? Anm. d. Übers.]

Er verwies auf eine Nationale Klima-Einschätzung aus dem Jahr 2014, welche eine Zunahme der Hurrikan-Aktivität seit 1980 als Illustration heranzieht, wie öffentliche Agenturen Klimadaten verfälscht haben. Koonin sagte, dass die Einschätzung fachlich falsch war.

Was man Ihnen nicht gesagt hat und was Sie nicht erfahren werden, wenn Sie nicht vollständig das Kleingedruckte lesen ist, dass die Aktivität in den Jahrzehnten zuvor abgenommen hat“, sagte er. Die UN veröffentlichten im Jahre 2014 Berichte, die Koonins Aussagen im Wesentlichen spiegelten.

Das IPCC der UN berichtete:

…es gibt einige Beweise von Änderungen hinsichtlich der Extreme in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts“, und aktuelle Daten zeigen „keine signifikanten beobachteten Trends hinsichtlich der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts“.

Pressefunktionäre arbeiten mit Wissenschaftlern zusammen innerhalb von Organisationen wie NOAA und NASA. Sie sind verantwortlich für irreführende Presseerklärungen über das Thema Klima, fügte er hinzu.

Koonin ist nicht der einzige, der von Fehlverhalten spricht. Das Committee on Science, Space and Technology beispielsweise leitete ein Ermittlungsverfahren gegen die NOAA ein, nachdem ein Whistleblower bekannt gemacht hatte, dass die Wissenschaftler der Agentur mit Hochdruck eine Studie zur globalen Erwärmung verfälscht haben, um politische Entscheidungsträger zu beeinflussen.

Der Abgeordnete der Republikaner Lamar Smith (Texas), der Vorsitzende des Komitees, wird „so bald wie möglich“ anordnen, dass die NOAA Dokumente übergibt, welche in einer Vorladung zu potentiellen Klimadaten-Verfälschungen enthalten waren.

Koonin, der von 2009 bis 2011 unter Obama bedienstet war, fuhr fort, sich über die Politisierung der Wissenschaft zu beklagen und sagte, dass es der Ethos gebiete, „zu sagen, wie es ist. Sie sind ein Wissenschaftler, und es liegt in Ihrer Verantwortung, die Fakten auf den Tisch zu legen“.

Die Aktivitäten von NASA und NOAA, sagte er, sind problematisch, weil „sich die öffentliche Meinung mittels der Daten bildet, welche diese Organisationen zusammenstellen und welche in den Zeitungen erscheinen“.

Keine der Agenturen war vom Daily Caller für eine Stellungnahme erreichbar.
Mehr: http://dailycaller.com/2017/04/24/former-obama-official-says-climate-data-was-often-misleading-and-wrong/#ixzz4fGS3GICc
Link: https://wattsupwiththat.com/2017/04/25/former-obama-official-bureaucrats-manipulate-climate-stats-to-influence-policy/
Übersetzt von Chris Frey EIKE




Bedeutung und Nutzen von Mittel­werten bei der Anwen­dung auf Klima

[Bemerkung: Im folgenden Beitrag hat der Autor bei allen Temperaturangaben (in °F) die Zehntel-Ziffer unterstrichen. Ich habe sämtliche Angaben in Grad Celsius umgerechnet, aber auf die Unterstreichung der Zehntel-Ziffern verzichtet. Aus dem Beitrag geht eindeutig hervor, was der Autor damit hervorheben will. Anm. d. Übers.]

Mittelwerte

Mittelwerte sind vielfach nützlich. Ein allgemeiner Nutzen ist es, die Berechnung einer fest vorgegebenen Beschaffenheit genauer und präziser zu machen, wie etwa eine physikalische Dimension. Dies wird erreicht durch die Eingrenzung aller zufälligen Fehler beim Prozess der Messung. Unter geeigneten Umständen wie etwa der Berechnung des Durchmessers eines Balles mittels einer Schublehre können multiple Messungen einen präziseren mittleren Durchmesser ergeben. Grund hierfür ist, dass sich die Zufallsfehler bei der Ablesung auf der Schublehre gegenseitig herausmitteln und die Präzision durch die Standardabweichung gegeben wird, welche invers abhängig ist von der Quadratwurzel der Anzahl der Messungen.

Ein anderer allgemeiner Zweck ist es, die Eigenschaften einer Variablen zu charakterisieren, indem man multiple repräsentative Messungen durchführt und die Häufigkeitsverteilung der Messungen beschreibt. Dies kann graphisch erfolgen oder mittels statistischer Parameter wie Mittelwert, Standardabweichung und Asymmetrie/Wölbung [skewness/kurtosis]. Da jedoch die gemessenen Eigenschaften variieren, wird es problematisch, die Fehler bei den Messungen von der Variabilität der Eigenschaften zu trennen. Folglich erfahren wir mehr darüber, wie die Eigenschaft variiert, als über die Verteilung des zentralen Wertes. Und doch konzentrieren sich Klimatologen auf die arithmetischen Mittel sowie die daraus errechneten Anomalien. Mittelwerte können Informationen verschleiern, sowohl absichtlich als auch unabsichtlich.

Damit im Hinterkopf müssen wir untersuchen, ob zahlreiche Messungen der Temperaturen auf dem Festland, den Ozeanen und der Luft uns wirklich einen präzisen Wert für die „Temperatur“ der Erde vermitteln können.

Die „Temperatur“ der Erde

Der Konvention zufolge ist das Klima üblicherweise definiert als das Mittel meteorologischer Parameter über einen Zeitraum von 30 Jahren. Wie können wir die verfügbaren Temperaturdaten verwenden, welche zum Zwecke der Wetterüberwachung und -vorhersage ermittelt werden, um das Klima zu charakterisieren? Das gegenwärtig angewendete Verfahren ist die Berechnung eines arithmetischen Mittels für eine willkürliche Referenzperiode und dann die Subtraktion tatsächlicher Temperaturmessungen (entweder individuelle Werte oder Mittelwerte) von dieser Referenzperiode, um etwas zu erhalten, was man Anomalie nennt. Was jedoch bedeutet es, alle Temperaturdaten zu sammeln und das Mittel zu berechnen?

Befände sich die Erde im thermodynamischen Gleichgewicht, würde es nur eine Temperatur geben, die zu messen recht einfach wäre. Die Erde hat aber nicht nur eine Temperatur, sondern eine unendliche Vielfalt von Temperaturen. Tatsächlich variiert die Temperatur ununterbrochen horizontal, vertikal und mit der Zeit, was eine unendliche Anzahl von Temperaturen ergibt. Die offensichtliche Rekord-Tiefsttemperatur beträgt -135,8°F [ca. -93,2°C] und die aufgezeichnete Höchsttemperatur 159,3°F [ca. 70,7°C]. Die maximale Bandbreite beträgt also 295,1°F, die geschätzte Standardabweichung etwa 74°F, dem Empirischen Gesetz zufolge. Änderungen von weniger als einem Jahr sind sowohl zufällig als auch saisonal, längere Zeitreihen enthalten periodische Änderungen. Die Frage lautet, ob das Sammeln [von Daten an] einigen tausend Stellen über eine Periode von Jahren uns einen Mittelwert geben kann, welcher einen vertretbaren Wert beim Aufzeigen einer geringen Änderungsrate liefert?

Eines der Probleme ist, dass Wassertemperaturen dazu neigen, geschichtet aufzutreten. Die Wassertemperatur an der Oberfläche neigt dazu, die wärmste Schicht zu sein, darunter nimmt die Temperatur mit der Tiefe ab. Oftmals gibt es eine abrupte Änderung der Temperatur, Thermokline genannt. Außerdem kann aufwallendes Tiefenwasser kaltes Wasser an die Oberfläche bringen, vor allem entlang von Küsten. Daher ist die Lokalisierung und Tiefe der Datenproben entscheidend bei der Berechnung so genannter Meeresoberflächen-Temperaturen (SST). Des Weiteren muss berücksichtigt werden, dass – weil Wasser eine um 2 bis 5 mal höhere spezifische Wärme aufweist als normale Flüssigkeiten und eine vier mal höhere als Luft – es sich viel langsamer erwärmt als das Festland! Es ist unangebracht, SSTs mit Festlandstemperaturen zu mitteln. Das ist ein klassischer Fall eines Vergleiches von Äpfeln und Birnen. Falls jemand Trends der sich ändernden Temperatur erkennen will, können sie auf dem Festland offensichtlicher hervortreten als über den Ozeanen, obwohl Wassertemperaturen dazu neigen, Zufalls-Fluktuationen zu unterdrücken. Es ist vermutlich am besten, SSTs mit einer Skala zu plotten, die vier mal so groß ist wie bei den Festlandstemperaturen und beide in die gleiche Graphik einzutragen zum Vergleich.

Bei Temperaturen auf dem Festland ergibt sich oftmals das ähnlich gelagerte Problem von Temperatur-Inversionen, das heißt, es ist in den bodennahen Luftschichten kälter als in größerer Höhe darüber. Dies ist das Gegenteil dessen, was die Adiabate vorgibt, dass nämlich die Temperatur in der Troposphäre mit der Höhe abzunehmen hat. Aber dies stellt uns vor ein weiteres Problem. Temperaturen werden in Höhen aufgezeichnet, die in einem Bereich von unter dem Meeresspiegel (Death Valley) bis über 3000 Metern Seehöhe liegen. Anders als es die Allgemeine Gasgleichung vorgibt, welche die Eigenschaften eines Gases bei Standard-Temperatur und -Druck festlegt, werden alle Wetter-Temperaturmessungen bei der Mittelung in einen Topf geworfen, um ein arithmetisches Mittel der globalen Temperatur zu erhalten ohne Berücksichtigung der Standard-Drücke. Dies ist wichtig, weil die Allgemeine Gasgleichung vorgibt, dass die Temperatur eines Luftpaketes mit abnehmenden Druck abnimmt, was das Temperaturgefälle steigen lässt.

Historische Aufzeichnungen (vor dem 20.Jahrhundert) sind besonders problematisch, weil Temperaturen nur auf das nächste ganze Grad Fahrenheit abgelesen wurden – von Freiwilligen, die keine professionellen Meteorologen waren. Außerdem war die Technologie von Temperaturmessungen nicht ausgereift, besonders hinsichtlich standardisierter Thermometer.

Klimatologen haben versucht, die oben beschriebenen zusammengewürfelten Faktoren zu umschreiben mit der Überlegung, dass Genauigkeit und damit Präzision verbessert werden kann durch Mittelbildung. Als Grundlage ziehen sie 30-Jahres-Mittel jährlicher Mittel monatlicher Mittel heran, womit sie die Daten glätten und Informationen verlieren! Tatsächlich besagt das ,Gesetz über Große Zahlen‘, dass die Genauigkeit gesammelter Stichproben verbessert werden kann (falls keine systematischen Verzerrungen präsent sind!). Dies gilt besonders für probabilistische Ereignisse wie etwa das Werfen einer Münze. Falls jedoch jährliche Mittelwerte aus monatlichen Mittelwerten abgeleitet werden anstatt aus täglichen Mittelwerten, dann sollten die Monate gewichtet werden der Anzahl der Tage in jenem Monat gemäß. Es ist unklar, ob dies gemacht wird. Allerdings werden selbst tägliche Mittelwerte extrem hohe und tiefe Temperaturen glätten und somit die vorhandene Standardabweichung reduzieren.

Jedoch selbst wenn man die oben beschriebenen Probleme nur vorübergehend ignoriert, gibt es das fundamentale Problem zu versuchen, Lufttemperaturen an der Erdoberfläche präziser und genauer zu erfassen. Anders als der Ball mit im Wesentlichen einem Durchmesser (mit minimaler Exzentrizität) ändert sich die Temperatur an jedem Punkt der Erdoberfläche ständig. Es gibt keine einheitliche Temperatur für irgendeine Stelle zu irgendeinem Zeitpunkt. Und man hat nur eine Gelegenheit, jene vergängliche Temperatur zu messen. Man kann nicht multiple Messungen durchführen, um die Präzision einer bestimmten Messung der Lufttemperatur präziser machen!

Temperatur-Messungen

Höhlen sind dafür bekannt, stabile Temperaturen aufzuweisen. Viele variieren um weniger als ±0,5°F jährlich. Allgemein wird angenommen, dass die Temperatur der Höhle eine mittlere jährliche Lufttemperatur an der Oberfläche reflektieren, jedenfalls an der Stelle, an der sich die Höhle befindet. Während die Lage ein wenig komplexer ist, ist es doch eine gute Approximation erster Ordnung. (Zufälligerweise gibt es einen interessanten Beitrag von Perrier et al. (2005) über einige sehr frühe Arbeiten in Frankreich hinsichtlich Temperaturen im Untergrund. Zur Illustration wollen wir einmal annehmen, dass ein Forscher die Notwendigkeit sieht, die Temperatur einer Höhle während einer bestimmten Jahreszeit zu bestimmen. Der Forscher möchte diese Temperatur mit größerer Präzision ermitteln als es ein durch die Gänge getragenes Thermometer vermag. Der Wert sollte nahe dem nächsten Zehntelgrad Fahrenheit liegen. Diese Situation ist ein ziemlich guter Kandidat für multiple Messungen zur Verbesserung der Präzision, weil es über einen Zeitraum von zwei oder drei Monaten kaum Temperaturänderungen geben dürfte und die Wahrscheinlichkeit hoch ist, dass die gemessenen Werte normalverteilt sind. Die bekannte jährliche Bandbreite gibt an, dass die Standardabweichung unter (50,5 – 49,5)/4 oder etwa 0,3°F liegen sollte. Daher ist die Standardabweichung der jährlichen Temperaturänderung von gleicher Größenordnung wie die Auflösung des Thermometers. Weiter wollen wir annehmen, dass an jedem Tag, wenn die Stelle aufgesucht wird, der Forscher als Erstes und als Letztes die Temperatur abliest. Nach 100 Temperaturmessungen werden die Standardabweichung und der Standardfehler des Mittelwertes berechnet. Unter der Voraussetzung, dass es keine Ausreißer gibt und das alle Messungen um wenige Zehntelgrad um den Mittelwert verteilt sind, ist der Forscher zuversichtlich, dass es gerechtfertigt ist, den Mittelwert bekanntzugeben mit einer signifikanten Zahl mehr als das Thermometer direkt zu messen in der Lage war.

Jetzt wollen wir dies mit der allgemeinen Praxis im Bereich Klimatologie kontrastieren. Klimatologen verwenden meteorologische Temperaturen, die vielleicht von Individuen abgelesen werden mit geringerem Interesse an gewissenhaften Beobachtungen als die einschlägige Forscher haben. Oder Temperaturen wie etwa von den automatisierten ASOS können zum nächsten ganzen Grad Fahrenheit gerundet und zusammen gebracht werden mit Temperaturwerten, die zum nächsten Zehntelgrad Fahrenheit gerundet sind. (Zu allermindest sollten die Einzelwerte invers zu ihrer Präzision gewichtet werden). Weil die Daten eine Mittelung (Glättung) durchlaufen, bevor das 30-Jahre-Referenzmittel berechnet wird, scheint die Datenverteilung zusätzlich weniger verzerrt und mehr normalverteilt, und die berechnete Standardabweichung ist kleiner als sie es bei Verwendung der Rohdaten wäre. Es ist nicht nur die Mitteltemperatur, die sich jährlich ändert. Die Standardabweichung und Verzerrung ändert sich mit Sicherheit ebenfalls, aber dazu werden keine Angaben gemacht. Sind die Änderungen der Standardabweichung und der Verzerrung zufälliger Natur oder gibt es einen Trend? Falls es einen Trend gibt, was ist dafür die Ursache? Was bedeutet das, falls es überhaupt etwas bedeutet? Da sind Informationen, die nicht untersucht und bekannt gegeben werden, obwohl sie Einsichten in die Dynamik des Systems vermitteln können.

Man gewinnt sofort den Eindruck, dass die bekannten höchsten und tiefsten Temperaturen (siehe oben) zeigen, dass die Datensammlung eine Bandbreite bis zu 300°F haben kann, wenngleich auch näher bei 250°F. Wendet man zur Schätzung der Standardabweichung die Empirische Regel an, würde man einen Wert über 70°F dafür vorhersagen. Geht man konservativer vor und zieht man das Tschbycheff’sche Theorem heran und teilt durch 8 anstatt durch 4, ergibt sich immer noch eine Schätzung über 31°F. Außerdem gibt es gute Gründe für die Annahme, dass die Häufigkeitsverteilung der Temperaturen verzerrt ist mit einem langen Schwanz auf der kalten Seite. Im Kern dieses Arguments steht die Offensichtlichkeit, dass Temperaturen unter 50°F unter Null normaler sind als Temperaturen über 150°F, während das bekannt gemachte Mittel der globalen Festlands-Temperaturen nahe 50°F liegt.

Im Folgenden wird gezeigt, wie meiner Ansicht nach die typischen jährlichen Rohdaten aussehen sollten, wenn sie als Häufigkeitsverteilung geplottet werden, wobei man die bekannte Bandbreite, die geschätzte Standardabweichung und das veröffentlichte Mittel berücksichtigt:

Die dicke, rote Linie repräsentiert die typischen Temperaturen eines Jahres, die kurze grüne Säule (in der Skala eingeordnet) repräsentiert die Temperatur in einer Höhle bei obigem Temperatur-Szenario. Ich bin zuversichtlich, dass das Mittel der Höhlentemperatur bis zu einem Hundertstel Grad Fahrenheit präzise ist, aber trotz der gewaltigen Anzahl von Messungen der Temperatur auf der Erde bringe ich Gestalt und Verteilung der globalen Daten längst nicht die gleiche Zuversicht für die globalen Temperaturen auf! Es ist offensichtlich, dass die Verteilung eine erheblich größere Standardabweichung aufweist als die Höhlentemperatur, und die Rationalisierung mittels Teilung der Quadratwurzel der Anzahl kann nicht gerechtfertigt sein, um Zufallsfehler zu eliminieren, wenn der gemessene Parameter niemals zweimal den gleichen Wert aufweist. Die multiplen Schritte der Mittelung der Daten reduziert Extremwerte und die Standardabweichung. Die Frage lautet: „Ist die behauptete Präzision ein Artefakt der Glättung, oder ergibt das Glättungsverfahren einen präziseren Wert?“ Darauf weiß ich keine Antwort. Es ist jedoch mit Sicherheit etwas, das diejenigen beantworten und rechtfertigen sollten, die die Temperatur-Datenbasis erstellen!

Zusammenfassung

Die Theorie der anthropogenen globalen Erwärmung prophezeit, dass man die stärksten Auswirkungen nachts und im Winter sehen wird. Das heißt, der kalte Schwanz in der Kurve der Häufigkeitsverteilung sollte sich verkürzen und die Verteilung symmetrischer werden. Dies würde die berechnete globale Mitteltemperatur zunehmen lassen, selbst wenn sich die Temperaturen im hohen und mittleren Bereich gar nicht ändern. Die Prophezeiungen zukünftiger katastrophaler Hitzewellen basieren auf der unausgesprochenen Hypothese, dass mit der Zunahme des globalen Mittels sich die gesamte Kurve der Häufigkeitsverteilung hin zu höheren Temperaturwerten verschieben würde. Das ist keine gewünschte Hypothese, weil die Differenz zwischen täglichen Höchst- und Tiefsttemperaturen während des 20. Jahrhunderts nicht konstant war. Sie bewegen sich nicht in Stufen, möglicherweise weil es unterschiedliche Faktoren gibt, welche die Höchst- und Tiefstwerte beeinflussen. Tatsächlich waren einige der tiefsten Tiefsttemperaturen in der Gegenwart gemessen worden! In jedem Falle ist eine globale Mitteltemperatur keine gute Maßzahl für das, was mit den globalen Temperaturen passiert. Wir sollten die Trends der täglichen Höchst- und Tiefsttemperaturen in allen Klimazonen betrachten, wie sie durch physikalische Geographen definiert worden sind. Wir sollten auch die Form der Häufigkeits-Verteilungskurven für verschiedene Zeiträume analysieren. Der Versuch, das Verhalten des ,Klimas‘ der Erde mit einer einzelnen Zahl zu charakterisieren, ist keine gute Wissenschaft, ob man nun an Wissenschaft glaubt oder nicht.

Link: https://wattsupwiththat.com/2017/04/23/the-meaning-and-utility-of-averages-as-it-applies-to-climate/

Übersetzt von Chris Frey EIKE




Teil 2: Schnee statt Frühlings­wärme – geht der Klima­erwärmung nun auch im April die Puste aus?

Aus den Temperaturdiagrammen im Teil 1 dieses Beitrages war ersichtlich, dass der Monat April sich in den letzten 30 Jahren noch leicht erwärmte, trotz der Abkühlung im letzten Jahrzehnt. Der DWD hat den April 2017 mit 7,4 C angeben. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung -0,8 Grad. Das hört sich kalt an, ist aber Immer noch relativ mild im Vergleich zu den Aprilmonaten vor 50 Jahren, doch die Abwärtstendenz scheint bereits vorgegeben zu sein. Der April macht eben doch nicht was er will, sondern sein Temperaturverlauf ist von vielen Einflussfaktoren abhängig, von denen wir hier in Teil 2 einige benennen wollen. Doch zunächst nochmals zur Erinnerung der Temperaturverlauf seit 1943. Anschließend werden wir einige Gründe beschreiben, die in Mitteleuropa das Klima bestimmen.

Grafik 1: Aprilverlauf in Deutschland seit 75 Jahren, momentan mit Abwärtstrend.


engl. atlantic multidecadal oscillation) ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird.

Grafik 2: Das Diagramm des Klimaforschers Stefan Kämpfe zeigt: Mit dem Ende der aktuellen AMO- Warmphase könnte auch für den Monat April ein Temperaturrückgang einsetzen, und der deutet sich (möglicherweise) schon an. Auch wegen des überall zunehmenden Wärmeinseleffektes sind die Apriltemperaturen der letzten 20 Jahre noch auf einem hohen Niveau.


Grafik 3: Langfristig nahm die Häufigkeit der Großwetterlagen mit nördlichem Strömungsanteil nach HESS/BREZOWSKY leicht ab, was die leicht steigenden Apriltemperaturen in Deutschland seit 1881 mit erklären kann. Der Zusammenhang ist, bezogen auf die Einzeljahre, deutlicher als bei der AMO. Nachdem von den späten 1990er bis zu den frühen 2000er Jahren viele milde Aprilmonate mit wenig Nordwetter vorherrschten, scheint neuerdings wieder mehr Nordwetter mit leichter Abkühlung einzutreten.


Der deutlichste Zusammenhang fand sich jedoch zwischen April- Sonnenscheindauer und Apriltemperaturen, wofür die Werte von Potsdam untersucht werden mussten, weil ein langfristiges Mittel der Sonnenscheindauer für ganz Deutschland erst ab 1951 vorliegt:

Grafik 4: Enge Verzahnung von Sonnenschein- Dauer und Apriltemperaturen, sowohl langfristig, als auch in Einzeljahren. Sonnige Aprilmonate sind deutlich wärmer. Die Sonnenscheindauer beeinflusst die Variabilität der Apriltemperaturen zu 35% und damit signifikant. Wesentlich größer ist der Zusammenhang nur in den 3 Sommermonaten.


Ob auch die Ausdehnung des arktischen Meereises Einfluss ausübt? Viel Eis bedeutet, dass sich mehr und länger Kaltluft im Polargebiet trotz des Polartages hält, die dann bei Nordlagen südwärts ausbrechen kann. Leider liegen erst seit 1979 halbwegs zuverlässige Daten zur Ausdehnung des Arktis- Meereises vor:

Grafik 5: Mäßiger Zusammenhang zwischen der vom Meereis der Arktis bedeckten Fläche und den Apriltemperaturen in Deutschland. Viel Eis bedeutet tendenziell niedrigere Temperaturen (negative Korrelation), allerdings ist dieser Zusammenhang wegen der Kürze der Zeit zu unsicher. So war die Eisausdehnung 2017 die geringste seit Aufzeichnungsbeginn; aber der erhoffte milde April blieb aus.


Auch wegen des zunehmenden Wärmeinseleffektes in Deutschland uns somit in den Daten des DWD sind die Apriltemperaturen noch auf einem hohen Niveau, wie Grafik 1 uns zeigt. Eine wärmeinselarme Station wie Neugersdorf (sprich Neu-Gersdorf) im Osten Sachsens zeigt bereits einen deutlichen Rückgang in den letzten 20 Jahren.

Grafik 6: Messstation in kleinen Ortschaften, deren Umgebung sich im Betrachtungszeitraum wenig verändert hat, zeigen bereits seit 20 Jahren eine deutliche Aprilabkühlung. Die DWD-Trendlinie ist im gleichen Zeitraum eben. (siehe Grafik 4 im Teil 1)


Kurzum, wärmeinselfreie Orte gibt es in Deutschland nicht mehr.
Welchen Einfluss weitere Faktoren, so etwa die Sonnenaktivität auf die Apriltemperaturen haben, muss noch intensiver erforscht werden. Es deutet sich aber an, dass bei stark nachlassender Sonnenaktivität, so wie momentan, die ausgleichend wirkenden Westwetterlagen in ihrer Intensität schwächer und seltener werden, was zu Extremwetter neigende Nord-, Süd- und Ostlagen begünstigen könnte.
Zusammenfassung: Wir haben uns in den beiden Teilen die Frage gestellt, wie sich die Apriltemperaturen über 200, über 75, die letzten 30 und die letzten 20 Jahre entwickelt haben.
200 Jahre: Anfang und Ende etwa gleich
75 Jahre: Eine Sinusschwingung, der letzte Höhepunkt wurde vor 10 Jahren überschritten, seitdem geht’s wieder abwärts.
30 Jahre: derzeit noch wärmer wie vor 30 Jahren, steigende Trendlinie.
20 Jahre: ebenes Niveau beim DWD, bei ländlichen Stationen schon seit 25 Jahren eben.
nächste 20 Jahre: das weiß niemand, wahrscheinlich vorerst Abkühlungstrend wie die Monate Januar, Februar, März, …. Mai usw.
im Jahre 2100: Und das weiß nicht einmal der liebe Gott, braucht er auch nicht zu wissen, denn die Erde ist voll mit falschen Propheten und CO2-Erwärmungsgläubigen.

Kohlendioxid kann jedoch entweder gar keine oder kaum eine erwärmende Funktion haben. Andere Faktoren bestimmen das Klima. Diese herauszufinden und vor allem das ständige Wechselspiel zu begreifen, ist eine Aufgabe der seriösen Klimawissenschaft, zu der wir uns bekennen.
Es wird Zeit, dass endlich wieder der Natur- und Umweltschutz in den Mittelpunkt des Handelns gestellt werden und nicht das Geschäftsmodell Klimaschutz mit seinem unnützen, teuren und bürokratischen Auswüchsen, die am Klimaverlauf der Erde nichts ändern, aber die Natur oftmals zerstören.
Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher
Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher