Wenn etwas schlechter wird, hat die Schuld immer der Klimawandel …

Deutsche Stromversorgung bleibt verlässlich, aber …

Die Pressemitteilung der Bundesnetzagentur [2] dient dem Zweck, den deutschen Untertanen zu vermitteln, dass das EEG ein Segen für unser Energiesystem ist und alle bösen Stimmen, welche Probleme vermitteln wollen, Unrecht haben. Wenn es überhaupt Probleme gibt, dann ist es der Klimawandel mit seinen unerbittlichen Folgen:
BNetzA: [2] Vizepräsident Franke: „Deutsche Stromversorgung bleibt verlässlich“ … Die Energiewende und der steigende Anteil dezentraler Erzeugungsleistung haben weiterhin keine negativen Auswirkungen auf die Versorgungsqualität“, so Franke weiter …

Allerdings wurde auch festgestellt, dass zwischen dem Jahr 2017 und dem Jahr 2016 die Länge der Ausfallzeiten angestiegen ist:
BNetzA: [2] Im Jahr 2017 lag die durchschnittliche Unterbrechungsdauer je angeschlossenem Letztverbraucher in der Nieder- und Mittelspannung bei 15,14 Minuten. Im Jahr 2016 lag sie bei 12,80 Minuten ...
Doch liegt das selbstverständlich nicht am EEG, sondern dem bekannten Erdzerstörer (AGW-)Klimawandel, der wie allgemein bekannt, auch Deutschland mit zunehmendem Extremwetter „geißelt“ [3]:
BNetzA: [2]Anstieg wegen extremer Wetterereignisse
… Ausfallzeiten im Verteilnetz, deren Ursache in Wetterereignissen liegen, haben sich gegenüber dem Vorjahr mehr als verdoppelt. Hierunter fallen beispielsweise Stürme, Hochwasser oder Schnee …
„Ursache für den Anstieg der Versorgungsunterbrechung in Mittel- und Niederspannungsebene sind vor allem die Zunahme extremer Wettereignisse.

Was die Bahn vormacht – bei schlechtem Wetter den Zugverkehr einzustellen – weil man ihr solches nicht zumuten kann, scheint man bei der Stromversorgung wohl auch anzudenken.

Nun gibt es in Deutschland aber keine Zunahme von Extremwetter …

Und so stellt sich die Frage: wie kommt die Bundesnetzagentur auf ihre Aussage, dass der Anstieg der Länge der Ausfallzeiten vom Jahr 2016 auf das Jahr 2017 zunehmenden, extremen Wetterereignissen geschuldet ist?
Vergleichen wir dazu die Extremereignisse dieser beiden Jahre.

Wetterrückblick Deutschland zum Jahr 2016

DWD 29.12.2016: Deutschlandwetter im Jahr 2016
… Weit überdurchschnittliche Niederschlagssummen im Januar und Februar 2016 beendeten die große Trockenheit, die 2015 vor allem im Süden und in der Mitte Deutschlands geherrscht hatte. Während Deutschland in den vorangegangenen Aprilmonaten oft mit frühsommerlichen Temperaturen verwöhnt worden war, brachte diesmal ein Kaltlufteinbruch im letzten Drittel Schnee bis ins Flachland. Ende Mai und im Juni entluden sich schwere Gewitter mit extremen Regenfällen, die örtlich zu katastrophalen Überflutungen führten. Damit war in der ersten Jahreshälfte 2016 an zahlreichen DWD-Stationen schon mehr Niederschlag gefallen als im ganzen Jahr 2015. Dann stellte sich die Großwetterlage um: Die folgenden Monate blieben teils erheblich zu trocken, ab Juli rollten mehrere Hitzewellen heran. Der September gehört zu den drei wärmsten seit Aufzeichnungsbeginn 1881, der Oktober und November blieben zu kühl. Der Dezember verlief zwar deutlich kälter als im Jahr 2015, aber fast genauso schneearm.

Wetterrückblick Deutschland zum Jahr 2017

2017 war ein Jahr der Wetterextreme
02.01.2018 – 2017 war erneut ein sehr warmes Jahr, unbeständig und oft extrem. Vizepräsident Dr. Becker berichtet darüber unter anderem in Tagesschau und Tagesthemen.
Das Wettergeschehen zeigte im Jahresverlauf oft wenig Beständigkeit, dafür aber immer wieder extreme Ausprägung. Der Januar begann mit teilweise strengen Nachtfrösten, die zahlreiche Gewässer zufrieren ließen. Im Februar schien der Winter bereits auf dem Rückmarsch zu sein: Im Flachland fiel verbreitet keine einzige Schneeflocke. Der März war sogar der wärmste seit Messbeginn 1881. Im April folgte dann jedoch ein jäher Kälterückfall mit Minusgraden, der sich katastrophal auf die schon sehr weit fortgeschrittene Vegetation auswirkte. Nach nass-kühlem Beginn rollte bereits Ende Mai die erste Hitzewelle heran. Der Sommer präsentierte sich im Süden sehr heiß, im Norden eher kühl. Dabei herrschte zunächst Trockenheit, im Juli und August fiel dann oft reichlich Niederschlag. Auch der September verlief nass und dabei etwas zu kühl. Der Oktober gehörte dann wieder zu den wärmsten seit 1881. Die Orkane „Xavier“ und „Herwart“ forderten Menschenleben und verursachten große Schäden. Anfang November begann eine längere Niederschlagsperiode mit nur wenigen trockenen Tagen, die bis zum Jahresende anhielt. In der Adventszeit fiel gelegentlich auch im Flachland etwas Schnee, der jedoch bei Tauwetter immer wieder rasch verschwand.

Was sagte ein Versicherer dazu:
GDV 27.12.2017: Naturgefahrenbilanz 2017
… Wie bereits im Jahr 2016 fällt die Naturgefahrenbilanz 2017 mit erneut 2 Milliarden Euro Versicherungsleistung
unterdurchschnittlich aus: Es wüteten nur wenige, regional begrenzte Unwetter. Schon diese Wetterlagen können hohe Schäden verursachen; große Naturkatastrophen blieben 2017 allerdings aus.

Bild 1.1 Verlauf jährlicher Schadensaufwand durch Umweltereignisse. Quelle: GDV

Bild 1.2 Verlauf Sturmereignisse in Deutschland. Quelle: MunichRE NatCatSERVICE

Bild 1.3 Verlauf Sturmereignisse in Westeuropa. Quelle: MunichRE NatCatSERVICE

Was war dazwischen der Extremwetter-Unterschied?

Die Bundesnetzagentur berichtet als Ursache der „Probleme“:
BNetzA: [2]Hierunter fallen beispielsweise Stürme, Hochwasser oder Schnee …

Nun gab es Hochwasser und Schnee nicht im Jahr 2017, sondern im Jahr 2016. Nur bei den Stürmen war das Jahr 2017 extremer. Das vom DWD für 2017 gemeldete „Jahr der Wetterextreme“ bezog sich vor allem auf Temperatursprünge und „reichlich Niederschlag“, der allerdings keinesfalls extrem war.
Die Obstbäume haben darunter – vor allem von der Frühjahrskälte – sehr, teils extrem gelitten. Dass ein elektrisches Versorgungssystem auch davon beeinflusst würde, ist aber kaum anzunehmen.
Und somit bleibt, dass von den drei gemeldeten „Extremeinflüssen“ zwei im Jahr 2016 heftiger waren. Das dritte – Stürme – im Jahr zwar stärker, im längerfristigen Verlauf aber nicht herausragend (Bild 1.2).

Dabei ist diese Betrachtung, kurze Zeiträume, hier sogar nur eine Jahresdifferenz, als Anstieg wegen extremer Wetterereignisse“ deuten zu können, vollkommen unsachlich, aber inzwischen leider in der Berichterstattung von (politisch gelenkten) Organisationen Standard. Solche Betrachtungen sind jedoch zur Generierung von „Extremen“ erforderlich, da auch in Deutschland mittel- und langfristig keinerlei Zunahme von AGW-Klimawandel-bedingten Extremereignissen messbar ist:
EIKE 6. Oktober 2018: Das FAZ-Klima-Interview vom 2.10.2018: Nachdem sie das Ziel endgültig aus den Augen verloren hatten, verdoppelten sie ihre Anstrengungen
EIKE 09. September 2018: [3] Deutschland in den Klauen des Klimawandels
kaltesonne
Unwetter in Europa: Nicht mehr Überflutungen als früher (3.6.2018)
Hessischer Starkregen aus dem Juli 2014 eine Folge des Klimawandels? Eher unwahrscheinlich. Statistiken zeigen eine Abnahme schwerer sommerlicher Regengüsse während der letzten 100 Jahre (21.8.2014)
Deutscher Wetterdienst: Es gibt in Deutschland keinen Trend zu heftigeren Regenfällen (8.6.2016)
Eine unbequeme Wahrheit: Während der Kleinen Eiszeit waren die Stürme in Europa stärker als heute (5.8.2012)
PIK endlich einmal mit guten Nachrichten: Sturmaktivität der nördlichen mittleren Breiten hat signifikant abgenommen (3.10.2016)
Neue begutachtete Studie in Nature Climate Change: Klimawandel lässt Hochwasser in Europa wohl in Zukunft seltener werden (11.6.2013)

Wie sehen die Versorgungsdaten eigentlich aus?

Interessant wird es (wieder), wenn man sich die Versorgungsdaten bei der Bundesnetzagentur selbst ansieht, grafisch aufbereitet und betrachtet, welche Aussagen daraus abgeleitet werden können.

Für die Grafiken vorab die Erklärung der verwendeten Kenndaten:
Die Bundesnetzagentur ermittelt aus den von den Netzbetreibern übermittelten Daten zu Versorgungsunterbrechungen mit einer Dauer über drei Minuten bestimmte Kennzahlen.
Kennzahlen bzw. Indizes
SAIDIEnWG (System Average Interruption Duration Index)
Spiegelt die durchschnittliche Versorgungsunterbrechung je angeschlossenen Letztverbraucher innerhalb eines Kalenderjahres wieder.
ASIDIEnWG (Average System Interruption Duration Index)
Spiegelt die durchschnittliche Versorgungsunterbrechung je angeschlossenen Bemessungsscheinleistungen innerhalb eines Kalenderjahres wider.
SAIDIEnWG-Gesamt
Summe aus dem SAIDI
EnWG und dem ASIDIEnWG

Zuerst das Gesamtbild, wie es die BNetzA zeigt. Die Darstellung der Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 zeigt keinen verschlimmernden Einfluss durch einen „Anstieg wegen extremer Wetterereignisse“. Nur ist richtig zu erkennen, dass das Jahr 2017 gegenüber dem Vorgängerjahr leicht schlechter ist, der Gesamttrend aber seit dem Jahr 2006 deutlich zu niedrigeren Versorgungsunterbrechungen zeigt. Ein negativer Trend, oder eine signifikante Trendumkehr ist daraus nicht ableitbar.

Bild 2 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006. Quelle: BNetzA

Im folgenden Bild 3 sind anhand der verfügbaren Einzeldaten die Unterbrechungen nach Netzart dargestellt. Man sieht, dass Die Ausfallzeiten im Niederspannungsnetz fast durchgehend gleich bleiben, eher abnehmen, nur im Mittelspannungsnetz nahmen sie das eine Jahr von 2016 auf 2017 etwas deutlicher zu.
Trotzdem textet die BNetzA;
BNetzA: [2]„Ursache für den Anstieg der Versorgungsunterbrechung in Mittel- und Niederspannungsebene sind vor allem die Zunahme extremer Wettereignisse.

Bild 3 Durchschnittliche Versorgungsunterbrechungen seit 2006. Grafik vom Autor erstellt. Datenquelle: BNetzA

Von der BNetzA lassen sich auch die Daten der einzelnen Bundesländer laden. Dann sehen die Verläufe wie im folgenden Bild 4 aus. Dabei ist zu beachten, dass die BNetzA-Daten anstelle mit dem Jahr 2006 wie in der vorhergehenden Übersichtsgrafik, erst mit dem Jahr 2008 beginnen. Dann hat das Jahr 2017 einen „Zuwachs“ seit 2008 von 2,8 % (was nicht mehr als statistisches Rauschen ist). Seit dem Jahr 2011 aber eine Verringerung von -24 %!
Ergänzt man jedoch die fehlenden, zwei Anfangsjahre, dann weist das Jahr 2017 plötzlich eine Verringerung um -19,6 % aus!

Bild 4 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 mit prozentualer Normierung auf das Jahr 2006 (Y-Achse: % Abweichung). Die Daten von 2006/2007 für den Mittelwert sind vom Autor zugefügt. Grafik vom Autor erstellt. Datenquelle: BNetzA

Schlägt der Klimawandel nur im (falsch wählenden) Osten zu?

Auffallend am Bild 4 ist, dass sich herausragend schlechte Netzdaten auf wenige, ausschließlich im Osten gelegene Länder konzentrieren, von denen aber trotzdem die meisten von 2016 auf 2017 eine Verbesserung zeigen. Und es fällt natürlich auch auf, dass trotzdem in Summe eine Verbesserung und vor allem weder langfristig, noch kurzfristig, keinerlei Verschlechterungstendenz vorliegt.

Es kann aber unmöglich sein, dass sich der „schlimme Einfluss“ der „Zunahme extremer Wettereignisse“ ausgerechnet auf wenige, im Osten konzentrierte Bundesländer beschränken sollte.
Nimmt man die Ost-Versorgungsgebiete (welche ausschließlich im Bereich des Betreibers 50herz liegen) weg (Bild 5), verhalten sich die Schwankungen der Versorgungsstabilität auf einmal vollkommen normal und in einer „sinnvollen“ Schwankungsspanne. Wirklich nichts – auch nicht die geringste Spur – lässt auf den signifikanten Einfluss oder eine signifikante Einfluss-Zunahme von Extremereignissen schließen.

Die Frage stellt sich, wie der unerbittliche Klimawandel mit seinem angeblich schon zunehmendem Extremwetter sich so konsequent auf die Ost-Versorgungsgebiete eines Betreibers „beschränkt“.

Bild 5 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 mit prozentualer Normierung auf das Jahr 2006 (Y-Achse: % Abweichung). Daten von Bild 4 ohne die Ost-Versorgungsgebiete (außer Berlin), Maßstab wie Bild 4. Grafik vom Autor erstellt. Datenquelle: BNetzA

Dafür muss – und wird – es ganz andere Erklärungen geben. Zum Beispiel könnte die Folgende ein kleiner Hinweis sein:
energatemessenger 02.01.2018 [4]Dass der Netzausbau zur Stabilisierung der Kosten für Redispatch- und Einspeisemanagement-Maßnahmen beiträgt, zeigt das Beispiel „Thüringer Strombrücke“. Die Kuppelleitung wurde im November 2017 vollständig in Betrieb genommen und ist ein wesentlicher Faktor, warum sich die Engpasskosten im Netzgebiet des ostdeutschen Übertragungsnetzbetreibers 50 Hertz stabilisiert haben.

Und somit kann man schon einmal über die BNetzA-Pressemitteilung eine Aussage treffen:
Die BNetzA in Vertretung durch ihren Vizepräsidenten Franke, hat in ihrer Pressemitteilung wie üblich, in vorauseilendem Gehorsam bewusst eine politisch gewünschte Klimawandel-Tendenzaussage „dazugedichtet“.
Der Autor hat dazu bei deren Pressestelle nachgefragt und ist auf die Antwort gespannt.

Wenn es nicht am Klimawandel liegt, wer könnte trotzdem einen Trend hervorrufen?

Die bisherige Darstellung zeigt, dass die Netzstabilität – bezogen auf die Länge der Ausfallzeiten – stetig besser geworden ist.
Allerdings kaschieren diese Darstellungen vollständig bereits im System erkennbare und wirklich stetig zunehmenden Probleme, welche die BNetzA in ihrer Pressemitteilung allerdings verschwiegen hat. Es gibt sie bereits massiv und bald werden Blackouts folgen.

Die Kosten haben wir schon, die Verschlechterung kommt noch

Allerdings nicht wegen eines sich ständig verändernden Klimas, sondern genau wegen dem, was offiziell nicht sein darf:
BNetzA: [2]Die Energiewende und der steigende Anteil dezentraler Erzeugungsleistung haben weiterhin keine negativen Auswirkungen auf die Versorgungsqualität“, so Franke weiter …

Dass es bisher keine negativen Auswirkungen hat, ist ausschließlich der gerade noch technisch möglichen Netzstabilisierung zu verdanken und diese kostet schon aktuell (den privaten Strombeziehern, die es fast ausschließlich bezahlen müssen) eine Menge Geld:
energatemessenger: [4] Bayreuth/Berlin (energate) – Die Kosten zur Stabilisierung des Stromnetzes sind auf ein Rekordniveau gestiegen. Beim Übertragungsnetzbetreiber Tennet belaufen sich die Kosten für netzstabilisierende Maßnahmen für das Jahr 2017 auf voraussichtlich mehr als eine Mrd. Euro, gab das Unternehmen bekannt. Dieser Höchstwert entspreche einem Zuwachs von etwa 50 Prozent gegenüber 2016 (660 Mio. Euro). Im bisherigen Rekordjahr 2015 betrug der Wert 710 Mio. Euro … „Wir haben mehr denn je damit zu tun, das Netz zu stabilisieren“, sagte Tennet-Geschäftsführer Lex Hartman. Grund für den hohen Einsatz von Netz- und Systemsicherheitsmaßnahmen sei der unzureichende Netzausbau, der mit dem Erneuerbarenumbau nicht Schritt halte. „Bis das Energiewende-Netz gebaut ist, werden wir das Stromnetz weiter mit teuren Notmaßnahmen stabilisieren müssen“, so Hartman. Besserung sei nicht in Sicht: „Ich sehe für die nächsten Jahre keine Entspannung. Bevor es besser wird, wird es erst einmal schlechter.“

Bild 6 Entwicklung der Redispatch-Maßnahmen im deutschen Stromnetz. Quelle: BNetzA

Die Versorger und die Politik wissen um die kommende Problematik und bauen schon für den ersten Blackout (und die folgenden) vor:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Die Süddeutsche Zeitung meldete es am 6./7.Oktober 2018 als eine grandiose, dem Fortschritt dienende Maßnahme:
SZ: Intelligenter Strom – Bayernwerk weiht Europas modernste Energieanlage ein
… hat die Bayernwerk AG am Freitag in Dachau ihre neue Leitstellen-Technologie in Betrieb genommen. Sinn und Zweck der 22 Millionen teuren Hard- und Software ist es, künftig flexibel und effizient auf ein Zuviel oder Zuwenig an eingespeistem Strom und Bedarf reagieren zu können … somit haben die Betreiber die Kontrolle über Einspeisung und Verbrauch, Zustand der Leitungen, Störungen und sogar über Wind und Wetter … Personal spart sich das Bayernwerk dadurch nicht. „Geht die Entwicklung so weiter, müssen wir sogar noch mehr Techniker einstellen“ ..
.

Intelligenz“ beginnt in Deutschland, wenn ein Schalter betätigt werden kann

Die im SZ-Artikel von der Redakteurin, dem Staatssekretär Pschierer und dem Bayernwerk als Betreiber hochgelobte, „modernste Energieanlage Europas“ liefert also „Intelligenten Strom“.
Dazu muss man seine eigene schon sehr stark reduzieren (so man sie vorher hatte), um dem Strom eine Intelligenz zu geben. Denn diese „Energieanlage“ liefert keine Energie, sondern macht nichts weiter, als Strom zu- und abzuschalten, wenn zu wenig, oder zu viel vorhanden ist. Und natürlich ermittelt und verrechnet sie die Kosten, mit denen die Verbraucher zu belasten und die Profiteure zu belohnen sind.
Der Autor kann dem Zu- und Abschalten von Strom trotzdem nach wie vor keine besondere „Intelligenz“ einräumen und schon gar nicht feststellen, dass der Strom dank dieser „Schulung“ irgendwie eine Intelligenz bekommen hätte.

Spinnt man diese „Intelligenz“ nämlich weiter, dann haben die Mangel-Stromversorgungen in Afrika weltweit die größte Intelligenz. Da die (Strommangel-)Schaltungen dort nicht von teuren Computersystemen, sondern direkt von Menschen „gelenkt“ und ausgeführt werden, sind diese wohl auch die intelligentesten auf der Welt ….

Aber Intelligenz durch Schaffen eines in sich stabilen Versorgungssystems – wie es über viele Jahrzehnte in Deutschland weltweit beispielhaft war – ist „langweilig“ und entspricht nicht mehr modernen Zeiten. Vor allem konnte am früheren, inhärent stabilen Energiesystem kein Wählerklientel verdienen:
EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern
EIKE 14.04.2018: Die wundersame Speicherung des EEG-Zappelstroms, oder: Die nächste Abzocke privater Stromkunden durch die EEG-Energieernter
Von einem modernen System erwartet „man“ keine Stabilität, sondern fordert, dass es hip ist:
EIKE 27.07.2017: Der letzte Enabler hat ja einen super Elevator-Pitch hingelegt, aber ohne Blockchain sehe ich da keine scalability

Damit Deutschland Intelligenz ausreichend bekommt, wird entsprechend ausgebildet

Die Wahl-Werbeslogans der Parteien sind inzwischen so schlecht und nichtssagend, dass man fast Beliebiges in sie hineininterpretieren kann. Bei einer Partei könnte man interpretieren, dass sie einen Slogan, der aus der Maobibel – oder modifiziert, aus der ehemaligen DDR – stammen könnte verkündet: „Übersetzt“: Zuerst indoktrinieren wir die Kinder, dann indoktrinieren diese die Welt, nun auch in Bayern umsetzen will.

Bild 7 Wahlplakat zur Bayernwahl. Foto vom Autor

Dazu passt, was man im Bund angeblich vorhat: Den Untertanen soll die Nutzung alternativer Information endlich eingeschränkt werden. Zu Viele Untertanen zeigen inzwischen „eingeschränkte Kompetenz“, was die Politik zunehmend beunruhigt:

Bild 8 News-Information (Auszug). Quelle: Zeitschrift Smartphone 7/18 Okt. Nov. 2018

Die Lokalzeitung des Autors hat das auch schon festgestellt. Die unter 18 dürfen inzwischen ja wählen üben. Das erste Ergebnis zeigte, dass die 12- bis 17jährigen in Bayern doppelt so oft GRÜN wählen (würden), als die Erwachsenen und nur verschwindend die AFD. Die Lokalredaktion konnte sich im Bericht vor Begeisterung über die politische Sachkunde der heutigen Jugendlichen und deren vorbildliches Wahlverhalten kaum bremsen.

Quellen

[1] ZDF 05.10.2018 : Bundesnetzagentur – Weniger Stromausfälle gemeldet

[2] BNetzA 05.10.2018: Versorgungsunterbrechungen Strom 2017

[3] EIKE 09. September 2018: Deutschland in den Klauen des Klimawandels

[4] energatemessenger 02.01.2018:Netzstabilität Kosten für Netzeingriffe auf Rekordniveau




Brandaktuell: Untersuchung des Globale-Erwärmung-Daten­satzes zeigt, dass er von Fehlern wimmelt

Vom IPCC:

Globale Erwärmung um 1,5°C – ein Sonderbericht des IPCC zu den Auswirkungen einer globalen Erwärmung um 1,5°C über das vorindustrielle Niveau und damit zusammenhängende Treibhausgas-Emissionen im Zusammenhang mit der Intensivierung der globalen Bemühungen gegen die Bedrohung des Klimawandels, nachhaltige Entwicklung und Bemühungen zur Bekämpfung der Armut.

Das hat man nun von Konsens-Wissenschaft – groupthink ohne Qualitätskontrolle.

HadCRUT4 ist der primäre, vom IPCC herangezogene globale Temperatur-Datensatz für dessen dramatische Behauptungen über eine „vom Menschen verursachte globale Erwärmung“. Es ist auch der Datensatz im Mittelpunkt von „Klimagate 2009“, gemanagt von der Climate Research Unit (CRU) an der East Anglia University.

Die Überprüfung ergab über 70 bedenkliche Bereiche – bedenklich hinsichtlich der Qualität und der Präzision der Daten.

Einer Analyse des australischen Forschers John McLean zufolge ist der Datensatz viel zu schlampig, um selbst von Klimawissenschaftlern ernst genommen werden kann, geschweige denn von einer so einflussreichen Institution wie dem IPCC oder von den Regierungen der Welt.

Wesentliche Punkte:

Die Hadley-Daten sind unter den von den wichtigsten Datensätzen am meisten angeführten Daten zur Klima-Modellierung und damit für politische Maßnahmen, bei denen Milliarden von Dollars involviert sind.

Mclean fand sonderbar unglaubwürdige Daten sowie systematische Adjustierungs-Fehler, große Lücken ohne irgendwelche Daten, Fehler bei der Zuordnung von Standorten, Grad Fahrenheit, die als Grad Celsius angegeben worden sind, und Rechtschreibfehler.

Es wurden keinerlei Qualitätskontrollen durchgeführt: Ausreißer, welche offensichtliche Fehler sind, wurden nicht korrigiert – eine Stadt in Kolumbien soll im Jahre 1978 drei Monate lang eine mittlere tägliche Temperatur von über 80°C aufgewiesen haben. Eine Stadt in Rumänien sprang direkt aus dem Sommer des Jahres 1953 in einem Frühlingsmonat mit minus 46°C. Dies sind vermeintlich „mittlere“ Temperaturen für einen ganzen Monat insgesamt. Aus St. Kitts, einer Insel in der Karibik, wurde einen ganzen Monat lang eine Temperatur von 0°C aufgezeichnet – und das zwei mal!

Die Temperaturen der gesamten Südhemisphäre im Jahre 1850 und der folgenden drei Jahre beruhen auf einer einigen Station in Indonesien und einigen zufälligen Schiffsbeobachtungen.

Wassertemperaturen der Ozeane repräsentieren 70% der Erdoberfläche, aber einige Messungen stammen von Schiffen, welche von Standorten 100 km landeinwärts geortet wurden. Andere Meldungen stammen von Schiffen in Häfen, wo die Wassertemperatur kaum repräsentativ für den offenen Ozean sein dürfte.

Wenn ein Thermometer an einer anderen Stelle aufgestellt wird, lässt die Adjustierung vermuten, dass die alte Messstelle immer zugebaut war und „aufgeheizt“ wurde durch Beton und Gebäude. In Wirklichkeit kam die künstliche Erwärmung schleichend daher. Mittels einer Korrektur aufgrund von Gebäuden, die im Jahre 1880 noch gar nicht existierten, wurden alte Aufzeichnungen künstlich kälter gemacht. Adjustierungen von nur wenigen Änderungen der Messorte können ein ganzes Jahrhundert lang künstliche Erwärmungstrends erzeugen.

Details der schlimmsten Ausreißer

Im April, Juni und Juli 1978 meldete die Station Apto Uto (Kolumbien, ID:800890) eine mittlere monatliche Temperatur von jeweils 81,5°C; 83,4°C und 83,4°C.

Die Monats-Mitteltemperatur vom September 1953 in der rumänischen Stadt Paltinis wird mit -46,4°C angegeben (in anderen Jahren betrug das September-Mittel etwa 11,5°C).

Am Golden Rock Airport auf der Karibikinsel St. Kitts werden für Dezember 1981 und 1984 mittlere monatliche Temperaturen von 0,0°C gemeldet. Aber von 1971 bis 1990 betrug das Mittel in allen anderen Jahren 26,0°C.

Mehr dazu bei Jo Nova.

Der Report

Unglücklicherweise liegt der Report hinter einer Zahlschranke. Aber die beträgt nur 8 Dollar.

Der Forscher John McLean führte seine Forschungen ausschließlich auf eigene Kosten durch, so dass ihm die Zahlschranke ein wenig Ausgleich bietet für die Zeit und Mühe, die er aufgebracht hat. Er schreibt:

Dieser Report basiert auf einer Aufgabenstellung für meine PhD-Arbeit. Ich erhielt meinen PhD im Dezember 2017 von der James Cook University in Townsville, Australien. Die Aufgabenstellung beruhte auf dem HadCRUT4-Datensatz und damit zusammenhängenden Datensätzen mit Stand von Ende Januar 2016. Dabei wurden 27 bedenkliche Umstände hinsichtlich des Datensatzes erkannt.

Die Versionen vom Januar 2018 der Datensätze enthielten nicht nur Aktualisierungen für die inzwischen vergangenen 24 Monate, sondern auch zusätzliche Messpunkte und daraus resultierende Änderungen der monatlichen globalen mittleren Temperatur-Anomalie bis zurück zum Beginn des Datensatzes im Jahre 1850. Der Report zieht die Daten vom Januar 2018 heran und überarbeitet die Analyse der ursprünglichen These bzw. erweitert diese, manchmal mit dem Weglassen unbedeutender Dinge, manchmal mit der Aufteilung wichtiger Themen und manchmal mit der Analyse neuer Bereiche. Die Ergebnisse werden in diesem Report beschrieben.

Die These wurde von Experten außerhalb der Universität unter die Lupe genommen, mit Bezug auf die Kommentare der Inspektoren überarbeitet und dann von der Universität akzeptiert. Der Prozess war zumindest äquivalent zu einem „peer review“, wie es von wissenschaftlichen Journalen durchgeführt wird.

Ich habe eine Ausgabe gekauft und daraus die folgende executive summary erstellt. Ich empfehle jedem dringend, ebenfalls eine Ausgabe zu kaufen und seine Arbeit zu unterstützen.

EXECUTIVE SUMMARY

Soweit ich weiß, ist dies das erste Audit des HadCRUT4-Datensatzes, also des Haupt-Datensatzes, der die Grundlage bildet für Klimazustands-Berichte des IPCC. Regierungen und das UNFCCC stützen sich schwer auf die IPCC-Berichte, so dass unabdingbar ist, dass die Temperaturdaten präzise und zuverlässig sind.

Diese Überprüfung zeigt, dass nichts dergleichen der Fall ist.

Über 70 Bereiche wurden untersucht, welche den gesamten Prozess abdecken von der Messung der Temperaturen bis zur Erstellung des Datensatzes, den daraus abgeleiteten Daten (wie etwa Mittelwerte) und deren eventueller Veröffentlichung. Die Ergebnisse (in kompakter Form in Anhang 6 gezeigt) enthalten sogar einfache Dinge wie offensichtlich falsche Daten, beschönigte Mängel von Daten, bedeutende, aber fragwürdige Hypothesen und Temperaturdaten, die unrichtig auf eine Art und Weise adjustiert worden sind, dass sie Erwärmung übertreiben.

So wurden beispielsweise Stationen gefunden, aus denen mittlere monatliche Temperaturen über 80°C vorlagen, zwei Beispiele einer Station in der Karibik mit gemeldeten mittleren Dezember-Temperaturwerten um 0°C und eine Station in Rumänien mit einer Meldung über ein September-Temperaturmittel um -45°C, wo doch das typische Septembermittel etwa 10°C beträgt. Als Clou des Ganzen gibt es auch Meldungen von Schiffen, die Standorte angaben, welche über 80 km landeinwärts liegen.

Es scheint, dass die Lieferanten der Temperaturdaten von Land und See keinerlei Checks auf grundlegende Fehler durchgeführt haben, und die Personen, welche den HadCRUT4-Datensatz erzeugten, haben diese Fehler nicht gefunden und auch keinerlei Fragen gestellt.

Das Verfahren zur Erstellung des Datensatzes hat einige Fehler entfernt, aber es wurde ein Satz von zwei Werten verwendet, berechnet aus einem Teil der Daten, aus denen jedoch vor der Berechnung die Fehler nicht korrigiert worden waren.

Datenmangel ist ein reales Problem. Der Datensatz beginnt im Jahre 1850, aber über zwei Jahre lang zu Beginn der Aufzeichnungen stammten die Festlands-Daten der Südhemisphäre von einer einzigen Station in Indonesien. Nach fünf Jahren gab es in jener Hemisphäre ganze drei Stationen. Globale Mittelwerte werden aus den Mittelwerten von jeder der beiden Hemisphären berechnet, so dass diese wenigen Stationen einen enormen Einfluss auf das haben, was vermeintlich „global“ genannt wird. Bezogen auf die Anzahl der Daten ist der Prozentsatz der Welt (oder der Hemisphäre) welche die Daten abdecken. Dem Verfahren der Berechnung der Abdeckung mit Daten in dem Datensatz zufolge wurden 50% der globalen Abdeckung erst im Jahre 1906 erreicht und 50% der Südhemisphäre erst im Jahre 1950.

Im Mai 1861 betrug die globale Abdeckung gerade mal 12% – weniger als ein Achtel. In vielen der Jahre von 1860 bis 1880 bestand die vermeintlich globale Abdeckung nur aus Europa sowie den Haupt-Schiffsrouten und Häfen, also nur etwa 13% der Erdoberfläche. Um aus diesen Daten Mittelwerte zu berechnen und sich auf diese als „globale Mittelwerte“ zu berufen muss man schon sehr leichtgläubig sein.

Ein weiteres bedeutendes Ergebnis dieses Audits ist, dass viele Temperaturwerte unsachgemäß adjustiert worden sind. Die Adjustierung von Daten zielt darauf ab, eine Temperaturaufzeichnung zu erzeugen, welche sich ergeben hätte, falls man an den gegenwärtigen Messpunkten und mit der Ausrüstung derselben die Temperatur vor Ort gemessen hätte. Adjustierungen werden typischerweise vorgenommen, wenn eine Station oder deren Instrumentierung verändert wurde.

Ein typisches Verfahren der Daten-Adjustierung ist es, alle zuvor gewonnen Messdaten um den gleichen Betrag zu verändern. Die Anwendung dieses Verfahrens Fälle mit graduellen Änderungen (wie etwa eine wachsende Großstadt die wahre Temperatur zunehmend beeinflusst), ist sehr falsch und führt dazu, dass die früheren Daten stärker adjustiert werden als man es hätte tun sollen. Messpunkte können häufig versetzt worden sein, und wenn man alle Daten zuvor jedes Mal adjustiert, können die frühesten Daten weit unter ihrem korrekten Wert liegen, womit der ganze Datensatz einen übertriebenen Erwärmungstrend zeigt.

Unter dem Strich lautet die Schlussfolgerung, dass die Daten in keiner Weise für globale Studien geeignet sind. Daten vor 1950 leiden unter geringer Abdeckung und sehr wahrscheinlichen falschen Adjustierungen der Stationsdaten. Daten nach jenem Jahr wiesen zwar eine bessere Abdeckung auf, haben aber immer noch das Problem der Daten-Adjustierung sowie die ganze Vielfalt der anderen, in dem Audit untersuchten Dinge.

Eine Berechnung der korrekten Temperaturen würde eine riesige Menge detaillierter Daten, Zeit und Mühe erfordern, was über diese Untersuchung hinausgehen würde und vermutlich unmöglich ist. Die primäre Schlussfolgerung des Audits lautet jedoch, dass der Datensatz eine übertriebene Erwärmung zeigt und dass globale Mittelwerte viel weniger sicher sind als behauptet.

Eine Implikation der Untersuchung ist, dass Klimamodelle frisiert wurden, damit deren Ergebnisse zu falschen Daten passen. Das verfälscht ihre Prophezeiungen zukünftiger Temperaturen und Schätzungen des menschlichen Einflusses auf die Temperatur.

Eine weitere Implikation ist, dass die Prämisse des Pariser Klima-Abkommens, nämlich die Mittelwerte der Jahre 1850 bis 1899 als „indikativ“ für die Temperaturen in vorindustrieller Zeit anzusehen, grundfalsch ist. Während jenes Zeitraumes war die globale Abdeckung mit Daten gering – nicht mehr als 30% über jenen Zeitraum – und viele Temperaturwerte vom Festland sind sehr wahrscheinlich exzessiv adjustiert worden und daher falsch.

Eine dritte Implikation ist, dass selbst falls die Behauptung des IPCC korrekt wäre, dass also die Menschheit für den größten Teil der Erwärmung seit 1950 verantwortlich ist, dann wäre die Größe einer solchen Erwärmung über die vergangenen 70 Jahre immer noch vernachlässigbar. Dann erhebt sich die Frage, ob die Mühen und Kosten, dieser zu begegnen, überhaupt in irgendeiner Weise Sinn machen.

Die Meinung des Autors ist ultimativ, dass der HadCRUT4-Datensatz und jedwede darauf beruhende Berichte oder Behauptungen in keiner Weise eine glaubwürdige Grundlage sind für Klimapolitik oder internationale Abkommen hinsichtlich der Gründe des Klimawandels.

Der ganze Report steht hier

Link: https://wattsupwiththat.com/2018/10/07/bombshell-audit-of-global-warming-data-finds-it-riddled-with-errors/

————————————

Auch der Karikaturist Josh, dessen Karikaturen verwendet werden dürfen, hat sich schon gedanken zum jüngsten IPCC-Bericht gemacht:

Josh: Der neue IPCC-Bericht ist ein Kunstwerk

Anthony Watts

Der Karikaturist Josh konnte schon vor der Veröffentlichung des IPCC SR 15-Berichtes darin Einblick nehmen und meint, dass ein technisches Wert hoch moderner Kunst ist:

Ich frage mich, was ist dieser Report wert?

Link: https://wattsupwiththat.com/2018/10/07/josh-the-new-ipcc-report-is-a-work-of-art/

Übersetzt von Chris Frey EIKE




Colorado sollte seinen riskanten Energie-Plan noch einmal überdenken

Wir würden es sehr begrüßen, wenn uns Andere folgen. Die Kommentarfunktion des PUC findet sich hier.

Dem Energieplan zufolge sollen zwei Kohleenergie-Erzeugungseinheiten mit einer kombinierten Kapazität von 660 MW vorsorglich abgeschaltet und durch verschiedene Windparks ersetzt werden. Während viele [US-]Staaten die Hinwendung zu erneuerbarer Energie vorgeschrieben haben, ist Colorado der erste Staat mit der Forderung, Kohle vollständig durch Windkraft zu ersetzen. Das kann so nicht funktionieren und gibt daher ein denkbar schlechtes Vorbild.

Es gibt drei große Bereiche, die zu erheblichen Bedenken Anlass geben, nämlich (1) riskante Angebote, (2) das offensichtliche Fehlen eins fairen Wettbewerbs und (3) das Risiko eines längeren Stromausfalls bei schwachem Wind zu Zeiten der stärksten Nachfrage.

Hier folgen nun die drei spezifischen Forderungen von CFACT. Sie werden danach kurz erklärt:

1.Wir fordern mit allem Respekt, dass das PUC eine sorgfältige Überprüfung der Angebote eines jeden Anbieters vornimmt bzgl. der Projekte, die sie anbieten. Außerdem sollte das PUC angemessene Notfallpläne entwickeln für den Fall des Scheiterns.

2.Wir fordern mit allem Respekt, dass das PUC genau unter die Lupe nimmt, ob das Pueblo County fälschlich bevorzugt worden ist im Verlauf der Angebots-Prozedur.

3.Wir fordern mit allem Respekt, dass das PUC einen detaillierte Notfall-Analyse durchführt für den Fall, dass Zeiten mit einer Spitzen-Nachfrage nach Strom mit Zeiten schwachen Windes zusammenfallen. Der Plan muss zuverlässige Reserve-Kapazitäten enthalten, um angemessen auf solche Fälle reagieren zu können.

[Es folgt eine kurze Diskussion der einzelnen Punkte mit Verweis auf die Petition, in der ausführlicher darauf eingegangen wird. Die Anfragen 1 und 2 von CFACT sind mehr ein inneramerikanisches Problem, weshalb hier nur die Begründung zu Punkt 3 übersetzt wird. Anm. d. Übers.]

Das Risiko eines längeren Blackouts bei schwachem Wind in Zeiten der stärksten Nachfrage

Wenn es um die Deckung der Spitzennachfrage geht, kann man nicht einfach Kohle durch Wind ersetzen, wie es der Colorado Energy Plan fordert. Die wärmsten und kältesten Perioden erzeugen Spitzenbedarf, doch gehen diese Perioden oftmals mit schwachem Wind einher. Sie kommen nämlich oft durch lang dauernde Hochdrucklagen zustande, bei denen der fehlende Druckgradient keine Windbewegungen zulässt.

In der Regel ist eine stabile Windgeschwindigkeit von 10 bis 15 km/h* erforderlich, um die Turbinen überhaupt in Drehung zu versetzen, aber selbst dann wird fast noch kein Strom erzeugt. Für eine signifikante Stromerzeugung ist eine Windgeschwindigkeit von 50 bis 80 km/h erforderlich. Sowohl bei Hitze- als auch bei Kältewellen fehlt es aber an diesem Wind.

Als Beispiel sei hier der aktuelle Fall von Denver genannt. Die folgende Graphik zeigt den Wetterverlauf vom 16. bis zum 22. Juli 2018. Es herrschte eine Hitzewelle, in welcher die Windgeschwindigkeit kaum einmal über 18 km/h hinausging. Bei dieser geringen Geschwindigkeit kann kaum oder gar kein Strom erzeugt werden, während die Nachfrage nach Strom auf dem höchsten Niveau liegt.

Wetterverlauf Denver vom 16. bis 22. Juli 2018. Quelle

Daher erfordert ein Ersatz der Kohle durch Wind Speichermöglichkeiten, um die Nachfrage bei einem solchen Spitzenniveau decken zu können. Die einzige Speichermöglichkeit betrifft Solar, nicht Wind, und ist relativ gering im Vergleich zur Windkapazität. Außerdem muss die Speicherung von Windstrom sehr groß sein, um den Bedarf über 7 Tage oder noch länger decken zu können. Der Punkt ist, dass ein derartig großes Speichervolumen außerordentlich teuer ist bis hin zur Unbezahlbarkeit – vor allem, wenn man es mit dem Gebrauch der bestehenden Kohlekraftwerke vergleicht.

[*Die Angaben im Original sind mph und werden hier gleich in km/h umgerechnet genannt. Anm. d. Übers.]

Kurz gesagt, der Colorado Energy Plan ist vernichtend gescheitert, falls Kohle durch Wind ersetzt wird. Er ist ein Rezept für großmaßstäbliche Stromausfälle bei Hitze- oder Kältewellen. In Zeiten der Spitzennachfrage kann Kohle nicht durch Wind ersetzt werden. Das war gerade der Fall in Australien, vor Ort bekannt als „die Woche ohne Wind“. Längere Stromausfälle müssen auf jeden Fall vermieden werden, koste es, was es wolle, weil der Schaden für die Stromzahler potentiell katastrophal ist. Stromausfälle sind viel schlimmer als höhere Preise oder fortgesetzte Emissionen.

Zusammengefasst: Durch die Genehmigung des Colorado Energy Plans seitens des PUC erheben sich eine Anzahl sehr ernster Fragen. So ernst, dass sie dem Fortbestehen der Genehmigung widersprechen. Dessen Aufhebung muss von den Ergebnissen dieser Untersuchungen und nachfolgender Analysen abhängig gemacht werden.

David Wojick is a journalist and policy analyst. He holds a doctorate in epistemology, specializing in the field of Mathematical Logic and Conceptual Analysis.

Link: http://www.cfact.org/2018/10/05/colorado-should-rethink-its-risky-energy-plan/

Übersetzt von Chris Frey EIKE




Jahr 2018: Geringste Anzahl von Tornados seit Beginn von Aufzeich­nungen vor 65 Jahren

Und jetzt das: Bislang in diesem Jahr wurden 759 Tornados in den USA registriert, das ist eine rekord-niedrige Anzahl. Den SPC-Daten zufolge waren das zwei weniger als das bisherige Rekord-Minimum von 761.

Überhaupt war die Tornado-Aktivität während der letzten Jahre ungewöhnlich gering, wenn man die Aufzeichnungen betrachtet, die bis zurück zu Anfang der fünfziger Jahre reichen.

Dr. Roy Spencer von der UAH schreibt auf seiner Website:

Dieses Fehlen von Tornado-Ereignissen während der letzten Jahre sollte allgemein auch mit geringerer Gewitter-Aktivität in den USA korrelieren, sind doch die atmosphärischen Bedingungen zur Bildung von Tornados, Hagel und schweren Sturmböen genau die Gleichen …

Die Graphik mit den jährlichen Tornado-Trends ist das Ergebnis eines Verfahrens, welches von Harold Brooks, NSSL, und Greg Carbin, SPC, auf die beobachteten Daten bzgl. Tornados angewendet worden ist. Da eingehende Tornado-Berichte immer begutachtet werden, wird die tatsächliche oder „geglättete“ Anzahl von Tornados der Graphik hinzugefügt.

Im Zusammenhang damit schreibt der Meteorologe Steve Bowen auf Twitter:

Heute ist der 1961-te aufeinanderfolgende Tag ohne einen F5-Tornado in den USA. Das ist bis dato der zweitlängste Zeitraum ohne ein solches Ereignis seit 1950.

Er fügte folgende Graphik hinzu:

Übersetzung: Anzahl der Tage zwischen Tornados der Stärke F5

Das lässt die Behauptungen der Alarmisten zerplatzen, dass Klimawandel Extremwetter immer schlimmer macht.

Und der Trend, wenn man ihn adjustiert nach der Zunahme der Bevölkerung, besseren Beobachtungen und verbesserter Technologie, verläuft einfach flach, wie diese vom SPC erstellte Graphik zeigt:

Diese Graphik reicht leider nur bis zum Jahr 2007. Hoffentlich kommt bald eine Aktualisierung.

Link: https://wattsupwiththat.com/2018/10/04/2018-us-tornadoes-lowest-in-65-years-of-record-keeping/

Übersetzt von Chris Frey EIKE




Tägliche Averages? Vorsicht, nicht so schnell…

Im Kommentarbereich meines jüngsten Beitrages zu den GAST (Global Average Surface Temperature)-Anomalien (und warum es ein Verfahren ist, mit dem die Klimawissenschaft sich selbst austrickst) kam (erneut) zur Sprache, dass das, was die Klimawissenschaft als die Tägliche Average Temperatur von irgendeiner Wetterstation angibt, nicht das ist, was wir denken, nämlich das Average der Temperaturen über den Tag (indem alle gemessenen Temperaturen addiert werden und die Summe durch die Anzahl der Werte dividiert wird). Stattdessen werden einfach die tägliche Maximum- bzw. Minimum-Temperatur addiert und durch zwei dividiert. Das kann man übersetzt in die Sprache der Mathematik so schreiben: (Tmax + Tmin)/2.

Jeder, der hinsichtlich der verschiedenen Formen von Averages versiert ist, wird erkennen, dass Letzteres in Wirklichkeit der Median von Tmax und Tmin ist – also die Mitte zwischen beiden Werten. Dies ist offensichtlich auch gleich dem Mean der beiden Werte – aber da wir nur ein tägliches Maximum bzw. Minimum für eine Aufzeichnung heranziehen, in welcher heutzutage viele Messungen einen Tagessatz bilden, finden wir einen Median, wenn wir alle Messungen nach ihrer Magnitude angleichen und den Mittelpunkt zwischen dem höchsten und dem tiefsten Wert finden (allerdings machen wir das unter Ignoranz aller anderen Messungen zusammen, und wir kommen auf den Median eines Datensatzes aus zwei Werten, der nur aus Tmax und Tmin besteht).

Das ist sicher kein Geheimnis und das Ergebnis der historischen Tatsache, dass Temperaturaufzeichnungen in irgendeiner entfernten Vergangenheit vor Einführung automatisierter Wetterstationen auf diese Weise erstellt wurden – beispielsweise mit einem Max-Min-Thermometer wie diesem hier:

Jeden Tag zu einer festgesetzten Zeit würde ein Beobachter zum Stevenson screen* gehen, ihn öffnen und darin befindliche Thermometer ablesen. Man würde die durch die Marker angezeigten Maximum- und Minimum-Temperaturen ablesen und dann den Reset-Schalter drücken (in der Mitte), um die Messung neu laufen zu lassen.

[*Einschub des Übersetzers: Mit ,Stevenson Screen‘ bezeichnen die Amerikaner eine simple Wetterhütte wie die unten Abgebildete, welche im DWD bis vor einigen Jahren in Gebrauch waren. Darin befinden sich links ein Thermo-/Hygrograph, rechts quer liegend ein Maximum- und ein Minimum-Thermometer, darunter noch ein weiteres Minimum-Thermometer, das abends vor der Hütte über dem Boden abgelegt wird, um das nächtliche Minimum in Bodennähe zu ermitteln. Dahinter befinden sich senkrecht zwei Thermometer, links zur Messung der Feuchttemperatur {bitte googeln, falls nicht bekannt}, rechts zur Messung der aktuellen Temperatur.

Abbildung: Schau-Wetterhütte, wie sie bis vor einigen Jahren im DWD gebräuchlich war. Bild: © der Übersetzer.

Es entzieht sich der Kenntnis des Übersetzers, ob der im Original vorgestellte, verlinkte ,Stevenson Screen‘, welcher ja nur mit Thermometern der Art aus Abbildung 1 bestückt ist, exemplarisch für alle Stationen in den USA oder ein hier vorgestellter Sonderfall ist.

Ende Einschub]

Mit lediglich diesen beiden aufgezeichneten Messwerten lässt sich nur die tägliche Average-Temperatur berechnen, die dem Median der beiden am nächsten liegt. Um heutige Temperaturwerte mit solchen aus der Vergangenheit vergleichen zu können, war es erforderlich, das gleiche Verfahren anzuwenden, um das tägliche Average von heutigen Temperaturen zu erhalten, obwohl von automatisierten Messpunkten alle sechs Minuten eine neue Messung vorliegt.

Nick Stokes schrieb einen Beitrag über die Verwendung von Min-Max-Thermometern nebst deren Problemen in Relation zu Adjustierungen bzgl. der Beobachtungszeit. In jenem Beitrag schreibt er:

Ab und zu erscheint ein Beitrag wie dieser, in welchem jemand entdeckt, dass die Messung der täglichen Temperatur mittels (Tmax + Tmin)/2 nicht genau dem entspricht, was man mit einer Integration der Temperatur über die Zeit erhält. Na und? Beides sind einfach Messungen, und man kann damit Trends abschätzen.

Und da hat er absolut recht – man kann jede Zeitreihe von irgendwas heranziehen, alle Arten von Averages finden – Means, Mediane, Modes – und deren Trends auffinden über verschiedene Zeiträume.

[Einschub des Übersetzers: Am Meteorologischen Institut der Freien Universität Berlin wurde seit seiner Gründung durch Prof. Richard Scherhag im Jahre 1953 ein Klimamittel errechnet, aber nicht nach der hier beschriebenen, vorsintflutlich anmutenden Methode. Es wurden jeweils täglich die Temperaturwerte von 7 Uhr, 14 Uhr und 2 x 21 Uhr (MEZ; MESZ 1 Stunde später) gemessen (das sind die sog. ,Mannheimer Stunden‘) und durch 4 dividiert. Vermutlich wurde dieses Verfahren auch beim DWD so durchgeführt. Wie es in anderen europäischen Ländern gehandhabt wird, ist nicht bekannt, zumindest in einigen Ländern ist es aber wohl das hier von Kip Hansen beschriebene Verfahren.

Seit den achtziger Jahren werden am Institut auch stündliche Temperaturwerte ermittelt und durch 24 dividiert. Seit Jahr und Tag werden die so gewonnen Mittelwerte mit dem der Mannheimer Stunden verglichen. Es ergeben sich Differenzen bis 1°C. Da wir es aber hier mit Zehntel oder sogar Hundertstel Grad (!) zu tun haben, ist das natürlich erheblich.

Weiteres hierzu kann man über die Website des Instituts erfahren.

Ende Einschub]

In diesem Falle müssen wir die Frage stellen: Was ermitteln sie eigentlich? Ich musste immer wieder diesen Beitrag heranziehen, wenn ich etwas über aktuelle wissenschaftliche Forschung schrieb, welche irgendwie einen bedeutenden ,roten Faden‘ wahrer Wissenschaft verloren zu haben scheint – dass wir extreme Vorsicht walten lassen müssen bei der Definition dessen, was wir erforschen – welche Messungen von welcher Eigenschaft welcher physikalischen Größe uns das zeigen wird, was wir wissen möchten.

Stoke schreibt, dass jedwede Daten von Messungen irgendwelcher Temperatur-Averages offenbar genauso gut sind wie jede andere – dass der Median von (Tmax+Tmin)/2 genauso brauchbar für die Klimawissenschaft als wahres Average ist wie häufigere Temperaturmessungen wie etwa heutige Messungen alle sechs Minuten.

Damit haben wir mindestens drei Frage aufgeworfen:

1. Was versuchen wir mit Temperaturaufzeichnungen zu messen? Wenn wir die Berechnungen monatlicher und jährlicher Means nebst deren Trends sowie den Trends von deren Anomalien berechnen – was werden wir daraus erkennen? (Mit Anomalien sind hier immer Anomalien von irgendwelchen klimatischen Means gemeint).

2. Was wird mit (Tmax+Tmin)/2 wirklich gemessen? Ist es quantitativ unterschiedlich zur Mittelung [averaging] von alle sechs Minuten (oder stündlich) gemessenen Temperaturen? Sind die beiden qualitativ unterschiedlich?

3. Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren alles, um Frage Nr. 1 beantworten zu können?

Ich werde diese Fragen im Folgenden beantworten. Jeder kann aber in Kommentaren seine eigenen Antworten kundtun.

Was versuchen wir zu messen?

Die Antworten auf Frage 1 sind davon abhängig, wer man ist und in welchem Bereich der Wissenschaft man arbeitet.

Meteorologen messen die Temperatur, weil es in ihrem Bereich ein Schlüsselparameter ist. Ihre Aufgabe ist es, Temperaturen der Vergangenheit zu kennen und diese dazu heranzuziehen, um zukünftige Temperaturen im Kurzfrist-Zeitraum vorherzusagen – Höchst- und Tiefstwerte für morgen, Wochenend-Wetter und Jahreszeiten-Prognosen für die Landwirtschaft. Vorhersagen von Extremtemperaturen sind ein wichtiger Bestandteil ihrer Aufgabe – und „vor Wetterereignissen zu warnen, die zu einer Gefahr für die öffentliche Sicherheit und Ordnung führen können“*

[*Das ist keine Übersetzung, sondern ein Original-Auszug aus dem deutschen Wetterdienst-Gesetz. Anm. d. Übers.]

Klimatologen befassen sich mit langzeitlichen Averages sich ständig verändernder Wetterbedingungen für Gebiete, Kontinente und den Planeten als Ganzes. Mit diesen langfristigen Averages wollen sie die verschiedenen Gebiete der Welt in die 21 Zonen der Klima-Klassifikation nach Köppen einteilen und nach Änderungen in diesen Regionen Ausschau halten. [Statt des Links lieber nach „Köppen Klimazonen“ googeln. Anm. d. Übers.] In Wikipdedia findet sich eine Erklärung, warum dieser Studienbereich schwierig ist:

Klimaforschung ist schwierig wegen der Größenordnung der Gebiete, der langen Zeiträume und der komplexen Prozesse, welche das Klima steuern. Klima wird gesteuert durch physikalische Gesetze, die man als Differentialgleichungen darstellen kann. Diese Gleichungen sind gekoppelt und nichtlinear, so dass angenäherte Lösungen nur erhalten werden können mittels numerischer Verfahren, um globale Klimamodelle zu konstruieren. Klima wird manchmal modelliert als ein stochastischer (Zufalls-)Prozess, aber es ist allgemein als eine Approximation von Prozessen akzeptiert, welche anderenfalls zu kompliziert sind, um analysiert werden zu können. (Hervorhebung von mir {dem Autor}).

Die Temperaturen der Ozeane und die verschiedenen Schichten der Atmosphäre sowie die Unterschiede zwischen Regionen und atmosphärischen Schichten sind zusammen mit einer langen Liste anderer Faktoren Treiber des Wetters, und die langfristigen Unterschiede der Temperatur folglich von Interesse für die Klimatologie. Der momentane Gleichgewichtszustand des Planeten hinsichtlich Ein- und Ausstrahlung ist gegenwärtig einer der Brennpunkte in der Klimatologie, und Temperaturen sind ein Teil davon.

Wissenschaftler der anthropogenen globalen Erwärmung (IPCC-Wissenschaftler) befassen sich mit der Beweisfindung, dass anthropogenes CO2 dazu führt, dass das Klimasystem der Erde zunehmend einfallende Solarstrahlung zurückhält, und berechnen globale Temperaturen allein aufgrund dieser Objektive. Folglich konzentrieren sich die AGW-Wissenschaftler auf regionale und globale Temperaturtrends sowie die Trends der Temperatur-Anomalien und anderer klimatischer Faktoren, die ihre Position stützen könnten.

Welche Aussagen erhoffen wir uns von Berechnungen monatlicher und jährlicher Means nebst deren Trends?

Meteorologen sind an Temperaturänderungen bzgl. ihrer Prognosen interessiert und verwenden „Means“ von Temperaturen der Vergangenheit, um eine zu erwartende Bandbreite der Temperatur-Variabilität zu erhalten und vorherzusagen, wenn es Temperatursprünge nach außerhalb dieser Bandbreite gibt. Temperaturunterschiede zwischen Örtlichkeiten und Regionen treiben das Wetter, was diese Aufzeichnungen für ihre Arbeit bedeutsam macht.

Klimatologen wollen wissen, wie sich das längerfristige Bild ändert – Erwärmt es sich in dieser Region wirklich, kühlt sie ab, gibt es immer mehr/weniger Regen? Und das alles über Zeiträume von Jahrzehnten oder auch 30 Jahren. Dafür brauchen sie Trends. (Anmerkung: Nicht einfach dümmliche, selbst generierte ,Trendlinien‘ in Graphiken, die von ihren Beginn- und Endpunkten abhängen – sie wollen reale Änderungen der Bedingungen mit der Zeit erkunden).

AGW-Wissenschaftler müssen in der Lage sein zu zeigen, dass sich die Erde erwärmt und ziehen Temperaturtrends heran – regional und global, als Absolutwerte und Anomalien – in dem Bemühen, die AGW-Hypothese zu beweisen, der zufolge das Klimasystem der Erde mehr Energie von der Sonne zurückhält infolge zunehmender CO2-Konzentrationen.

Was wird mit (Tmax+Tmin)/2 wirklich gemessen?

(Tmax+Tmin)/2, die tägliche Tmittel [Tavg] der Meteorologen, ist das Median der täglichen Höchst- und Tiefsttemperatur (man klicke auf den Link, falls man nicht so genau weiß, warum das der Median und nicht das Mean ist). Die monatliche Tavg ist tatsächlich das Median des Monatlichen Means täglicher Höchsttemperaturen und des monatlichen Means der Täglichen Tiefsttemperatur. Die Monatliche Tavg ist der grundlegende Eingangswert für alle daraus abgeleiteten Berechnungen regional, staatenweit, national, kontinental und global der Average-Temperatur (in 2 m Höhe auf dem Festland). Mit dieser Berechnung will man den Median der Means von Tmax und Tmin finden für den Monat an der Station, indem man all die täglichen Tmax und Tmins jeweils addiert und ihr Mean (arithmetisches Average) berechnet, um dann den Median jener zwei Werte zu finden. (Dies so zu definieren war nicht einfach – ich musste zu den Original-GHCN-Aufzeichnungen gehen und mich per E-Mail an den Customer Support von NCEI wenden, um Klarheit zu bekommen).

Wenn wir jetzt also wissen, wie die Zahl zustande gekommen ist, die wir die monatliche Tavg nennen, können wir jetzt einmal betrachten, was damit eigentlich gemessen wird.

Ist es eine Maßzahl für das Average der Temperatur für den Monat? Eindeutig nicht. Dieses würde man berechnen mittels Addition von Tavg für jeden Tag und Division der Summe durch die Anzahl der Tage des jeweiligen Monats. Dieses Verfahren könnte einen Wert ergeben, der überraschend nahe der aufgezeichneten monatlichen Tavg liegt – unglücklicherweise haben wir aber schon gesagt, dass die täglichen Tavgs nicht die Average-Temperaturen für ihre jeweiligen Tage sind, sondern die Mediane der täglichen Höchst- und Tiefsttemperatur.

Das in diesem Beitrag behandelte Problem illustriert das Bild ganz oben. Hier folgt es vergrößert:

Diese Abbildung stammt aus einem Beitrag, in welchem Means und Medians definiert werden. Man erkennt, dass falls die violetten Einzelschritte für die Temperatur über einen Tag stehen, wäre der Median für stark unterschiedliche Temperaturprofile identisch, aber das wahre Average, das Mean wäre sehr unterschiedlich. (Man beachte: das rechte Ende der Graphik ist abgeschnitten, aber beide Einzelwerte enden am gleichen Punkt rechts – das Äquivalent einer Höchsttemperatur für den Tag). Falls das Profil dicht an einer „Normalverteilung“ liegt, liegen Median und Mean dicht beieinander – falls nicht, sind beide ziemlich unterschiedlich.

Ist es quantitativ unterschiedlich zum Averaging der Temperatur des Tages alle sechs Minuten (oder stündlich)? Sind die beiden qualitativ unterschiedlich?

Um eine Antwort zu finden, müssen wir zu den täglichen Tavgs zurückkehren. Wodurch ändert sich die Tägliche Tavg? Jedwede Änderung der täglichen Höchst- oder Tiefsttemperatur, falls die tägliche Tavg 72 beträgt, können wir dann die Höchst- und Tiefsttemperatur daraus ablesen? Nein, können wir nicht. Die Tavg des Tages sagt uns wenig über diese beiden Tagesextrema. Auch erfahren wir durch die Tavg nicht viel darüber, wie sich die die Temperatur im Tagesverlauf entwickelt und geändert hat.

Tmax 73, Tmin 71 = Tavg 72
Tmax 93, Tmin 51 = Tavg 72
Tmax 103, Tmin 41= Tavg 72*

[*Das sind natürlich Grad Fahrenheit. Da es um das Prinzip und nicht um die Werte als solche geht, spare ich mir die Umwandlung. Anm. D.Übers.]

Der erste Tag wäre ein milder Tag und eine sehr warme Nacht, der zweite ein heißer Tag und eine Nacht mit normaler Temperatur. Dabei könnte es ein wolkiger warmer Tag gewesen sein, wobei eine Stunde purer Sonnenschein die Temperatur auf einen Momentanwert von 93 hätte steigen lassen oder auch ein durchweg sonniger Tag mit Erwärmung auf 93 Grad bis 11 Uhr und Verharren der Temperatur über 90 bis Sonnenuntergang mit einem nur sehr kurzen Zeitraum am frühen Morgen, in welchem es 51 Grad kühl geworden ist.

Unser drittes Beispiel, wie es für die Hochwüsten im Südwesten der USA typisch ist, zeigt einen sehr heißen Tag mit einer nachfolgenden kalten Nacht. Ich selbst habe Tage mit Temperaturwerten über 90°F [34°C] erlebt mit Frost während der folgenden Nacht. (Tmax+Tmin)/2 ergibt nur den Median zwischen zwei Temperatur-Extrema, von denen jedes Einzelne mehrere Stunden oder auch nur ein paar Minuten erreicht haben kann.

Die tägliche Tavg, der Median von Tmax und Tmin, sagt uns nichts über den „Wärmegehalt“ oder das Temperaturprofil des Tages. Wenn das so ist, weist die monatliche Tavg die gleiche Schwäche auf – ist sie doch der Median der Means der Tmaxs und Tmins.

Vielleicht hilft eine Graphik bei der Veranschaulichung des Problems:

Diese Graphik zeigt die Differenz zwischen der täglichen Tavg (mittels des (Tmax+Tmin)/2-Verfahrens) einerseits sowie dem wahren Mean der täglichen Temperatur Tmean andererseits. Man erkennt Tage mit einer Differenz von drei oder mehr Grad mit einem Augenschein-Average von einem Grad oder so, mit ziemlich vielen Tagen mit einer Differenz von ein oder zwei Grad. Man kann eine ähnliche Graphik für die monatliche TAVG und den wahren monatlichen Means plotten, entweder von tatsächlichen täglichen Means oder durch averaging aller Temperaturaufzeichnungen für den jeweiligen Monat.

Die gegenwärtig gebräuchlichen Tavg und TAVG (täglich und monatlich) sind nicht das Gleiche wie tatsächliche Means der Temperaturen über den Tag oder den Monat. Sie sind beide quantitativ und qualitativ unterschiedlich – und sagen uns unterschiedliche Dinge.

Also: JA, die Daten sind qualitativ und quantitativ unterschiedlich.

Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren die Zwecke jedweder Antwort auf Frage 1?

Betrachten wir dazu mal wieder die Forschungsbereiche:

Meteorologen messen Temperaturen, weil es einer der zentralen Bereiche ihrer Arbeit ist. Die Wetterleute sind zufrieden mit Temperaturmessungen nahe des nächsten ganzen Grads. Ein Grad mehr oder weniger war nicht groß von Belang (außer bei Temperaturwerten um den Gefrierpunkt). Average Wetter kann auch eine Unsicherheit von ein oder zwei Grad aushalten. Also denke ich, dass das Verfahren (Tmax+Tmin)/2 für die Wetterleute ausreichend ist – auch hinsichtlich des Wetters und der Wettervorhersage. Bzgl. Wetter weiß der Meteorologe, dass die Temperatur auf natürliche Weise um ein oder zwei Grad variiert.

Klimatologen befassen sich mit den langzeitlichen, sich immer ändernden Wetterbedingungen in Regionen, auf Kontinenten und den Planeten als Ganzes. Klimatologen wissen, dass Wetterbeobachtungen der Vergangenheit nicht gerade präzise waren – sie akzeptieren, dass (Tmax+Tmin)/2 keine Maßzahl der Energie im Klimasystem ist, sondern sie damit nur einen Hinweis von Temperaturen an einer Station, in einem Gebiet oder auf kontinentaler Basis bekommen, ausreichend um sich ändernde Klimate zu beurteilen – ein Grad mehr oder weniger der average Sommer- bzw. Wintertemperatur für eine Region ist möglicherweise keine klimatologisch bedeutende Änderung – es ist einfach jährliches oder vieljähriges Wetter. Die meisten Klimatologen wissen, dass nur Temperaturmessungen aus jüngster Zeit auf ein oder zwei Grad präzise sind.

AGW-Wissenschaftler (IPCC-Wissenschaftler) befassen sich damit zu beweisen, dass das Klimasystem der Erde durch menschliche CO2-Emissionen Energie von der Sonne zurückhält. Und hier kommen die Differenzen in den quantitativen und qualitativen Werten ins Spiel zwischen (Tmax+Tmin)/2 bzw. einer wahren täglichen/monatlichen Mean-Temperatur.

Es gibt Leute, die (korrekt) argumentieren, dass Temperatur-Averages (mit Sicherheit die GAST genannte Größe) keine genauen Indikatoren der Energie-Rückhaltung im Klimasystem sind. Aber bevor wir uns dieser Frage annehmen können, müssen wir korrekte quantitative und qualitative Messwerte der Temperatur haben, welche die sich ändernde Wärmeenergie an Wetterstationen reflektiert. Aus (Tmax+Tmin)/2 geht nicht hervor, ob wir einen heißen Tag und eine kühle Nacht hatten oder einen kühlen Tag und eine relativ warme Nacht. Temperatur ist eine intensive Eigenschaft (in diesem Fall von Luft und Wasser) und nicht wirklich geeignet für Addition, Subtraktion und Averaging im normalen Sinne – die Temperatur einer Luft-Stichprobe (wie etwa in einer automatischen Wetterstation ASOS) – steht in Beziehung zu, ist aber nicht das Gleiche wie die Energie (E) in der Luft an jener Stelle und steht in Relation zu, ist aber nicht das Gleiche wie die Energie im lokalen Klimasystem. Verwendet man (Tmax+Tmin)/2 bzw. TMAX und TMIN, um eine monatliche TAVG zu erhalten, reflektiert dies nicht einmal genau, wie die Temperaturen waren und kann und wird uns daher nicht (akkurat und präzise) informieren über die Energie im lokal gemessenen Klimasystem. Daher kann sie uns auch nicht, wenn man sie über Regionen und Kontinente kombiniert, (akkurat und präzise) über die Energie im regionalen, kontinentalen oder globalen Klimasystem informieren – nicht quantitativ in Absolutwerten und nicht in Gestalt von Änderungen, Trends oder Anomalie-Trends.

In der AGW-Wissenschaft geht es um das Zurückhalten von Energie im Klimasystem, und die gegenwärtig verwendeten mathematischen Verfahren – bis hinab zum Niveau des täglichen Averages – sind trotz der Tatsache, dass dies alles ist, was wir in der Historie klimahistorischer Aufzeichnungen haben, nicht geeignet, um eine sich eventuell ändernde Energie-Zurückhaltung zu berechnen bis zu irgendeinem Grad quantitativer oder qualitativer Akkuratesse oder Präzision.

Für die Wetterprognostiker mag es ausreichen, diese trügerische Größe als „ausreichend für die Wettervorhersage“ anzusehen. Die Vorhersage von Hurrikanen kann sehr gut mit Temperaturwerten innerhalb einer Genauigkeit von ein oder zwei Grad vorhergesagt werden – solange alles miteinander vergleichbar ist.

Selbst Klimawissenschaftler – jene, die nicht an den Klima-Kriegen interessiert sind – können gut mit Temperaturwerten plus/minus 1 Grad oder so leben – gibt es doch eine Fülle anderer Faktoren, von denen viele wichtiger sind als eine „Average Temperatur“ und die in Kombination das Klima jedweder Region ausmachen.

Nur AGW-Aktivisten bestehen darauf, dass die minimalen Änderungen, die sich aus langzeitlichen Klima-Aufzeichnungen der falschen Parameter ergeben, wahrlich signifikant sind für das Weltklima.

Unter dem Strich:

Die gegenwärtig angewandten Verfahren zur Berechnung sowohl der globalen Temperatur als auch globaler Temperatur-Anomalien stützen sich aus historischen Gründen auf einen Parameter, der in vielfacher Weise ungeeignet ist, um mit Präzision zu bestimmen, ob sich das Klimasystem der Erde infolge Zurückhalten von Sonnenenergie erwärmt oder nicht. Er ist ungeeignet zur Bestimmung der Größenordnung einer solchen eventuellen Änderung und womöglich nicht einmal dazu geeignet, überhaupt das Signal für eine solche Änderung auszumachen. Das gegenwärtige Verfahren misst nicht in angemessener Weise eine physikalische Eigenschaft, welche eine solche Berechnung gestatten würde.

Schlussbemerkungen des Autors:

Das diesem Beitrag zugrunde liegende Thema ist viel einfacher als es aussieht. Die Messungen zur Erstellung einer GAST (Anomalie) und GAST (absolut) – besonders (Tmax+Tmin)/2, egal ob täglich oder monatlich – sind nicht geeignet für eine Berechnung jener globalen Parameter in der Art, wie sie uns von den AGW-Aktivisten-Wissenschaftlern präsentiert werden. Sie werden oftmals herangezogen zu zeigen, dass das Klimasystem mehr Energie zurückhält und sich folglich erwärmt … aber die kleinen Änderungen dieser unpassenden Größe über klimatologisch signifikante Zeiträume können uns darüber nichts sagen, messen sie doch in Wirklichkeit nicht die average Temperatur, nicht einmal die an einer einzelnen Wetterstation. Die zusätzliche Unsicherheit dieses Faktors lässt die Gesamt-Unsicherheit der GAST nebst deren Anomalien bis zu einem Punkt unsicher werden, an dem sie über die gesamte Zunahme seit Mitte des 20. Jahrhunderts hinausgeht. Diese Unsicherheit wird nicht eliminiert durch wiederholtes Glätten und Averaging entweder von absolute Werten oder deren Anomalien.

Ich empfehle der Leserschaft dringend, die immer präsente Hypothese zurückzuweisen, die da lautet „falls wir immer weiter fortfahren, Averages zu mitteln [averaging averages] wird die Variation früher oder später so gering werden, dass sie keine Rolle mehr spielt – egal ob es Fehler, Unsicherheiten oder einfach schlechte Daten sind“. Das führt zu wissenschaftlicher Verrücktheit.

Die Argumentation wäre anders, falls wir tatsächlich genaue und präzise Temperatur-Averages von Wetterstationen hätten. Viele würden immer noch nicht dem Argument zustimmen, dass die Temperaturaufzeichnung allein eine Änderung der Zurückhaltung von Sonnenenergie anzeigen kann. Die in das System eintretende Energie wird nicht wie von Zauberhand automatisch in der Luft 2 Meter über Grund oder auch an der Oberfläche der Ozeane in fühlbare Wärme umgewandelt. Änderungen der fühlbaren Wärme, gemessen in 2 m Höhe und an der Oberfläche der Ozeane, reagieren nicht notwendigerweise sofort auf eine Zu- oder Abnahme zurückgehaltener Energie im Klimasystem der Erde.

Es wird Einwände gegen die Schlussfolgerungen dieses Beitrags geben – aber die Fakten sind so, wie sie sind. Einige werden diese Fakten unterschiedlich interpretieren, verschiedenen Werten verschieden starke Wichtigkeiten zuordnen und unterschiedliche Schlussfolgerungen ziehen. Aber genau das ist Wissenschaft.

Link: https://wattsupwiththat.com/2018/10/02/daily-averages-not-so-fast/