ARGO – für den Zweck geeignet?

Wir wussten bereits, dass der jährliche SLR lediglich niedrige einstellige Millimeter-Bereiche ausmachte. Die Gründe, warum Satelliten-Altimetrie ein solches Maß an Genauigkeit nie erreichen kann, sind sehr grundlegend und waren der NASA auch bekannt: Das erforderliche Referenz-Ellipsoid der Erde ist unregelmäßig [lumpy], die Ozeane haben variierende Wellen, die Atmosphäre variierende Feuchtigkeit – so dass die NASA niemals ihr selbst gestecktes Ziel erreichen konnte, nämlich den Meeresspiegel auf diese Weise bis auf Bruchteile von Millimetern pro Jahr genau zu messen, äquivalent zu Tidenmessungen. Die NASA behauptet, das sehr wohl zu können, aber deren Spezifikationen sagen, sie kann nicht. Dies wurde in jenem Beitrag belegt.

In diesem Beitrag stellen wir die gleichen Fragen bzgl. des ARGO-Programms.

Anders als bei Jason 3 gibt es keine gute Äquivalent-Mission von Tidenmessungen, mit denen man Vergleiche anstellen kann. Die neuen ozeanographischen Ziele (unten) enthielten die Messung mehrerer Dinge, und zwar zum allerersten Mal ,rigoros‘. ;Rigoros‘ bedeutete NICHT präzise. Ein Parameter, nämlich der ozeanische Wärmegehalt OHC war zuvor nur sehr ungenau geschätzt worden. OHC ist viel mehr als einfach nur die Wassertemperatur SST. Diese wurden vormals von Schiffen gemessen, die auf den gängigen Handelsrouten unterwegs waren, mit Eimern oder durch Messungen des in die Schiffsmotoren einströmenden Kühlwassers. Im tieferen Ozean ist überhaupt nicht gemessen worden, bis XBT-Sensoren für die Navy entwickelt worden waren. Diese maßen die Tiefe, in der sie sich gerade befanden, jedoch sehr ungenau.

Ob ARGO zweckdienlich ist oder nicht, involviert ein komplexes Entwirren der Ziele, für welche die Bojen ausgelegt waren, plus viele darauf bezogene Fakten. Die kurze ARGO-Antwort lautet möglicherweise ja, obwohl OHC-Fehlerbalken nachweislich in der wissenschaftlichen Literatur bzgl. ARGO untertrieben dargestellt sind.

Wer eine weitergehende Untersuchung der Schlussfolgerungen dieses Beitrags vornehmen will, der wende sich an die Website www.ARGO.uscd.edu. Die meisten Inhalte dieses Beitrags sind direkt daraus abgeleitet oder führen direkt zu den ARGO-Beiträgen bei WUWT von Willis Eschenbach. Die vier grundlegendsten seiner Beiträge sind unten verlinkt.

[Es folgen eine Reihe technischer Einzelheiten bzgl. des Aufbaus der Bojen und technische Details, die hier nicht mit übersetzt werden. Weiter unten werden diese graphisch und zusammenfassend dargestellt. Anm. d. Übers.]

Das grundsätzliche Design der ARGO-Bojen sieht so aus:

Und das Messprogramm von ARGO so:

Die Frage, ob das ARGO-Programm zweckdienlich bzgl. OHC ist (mittels des Temperaturprofils bis hinab auf 2000 m) gliedert sich in zwei relevante Teilfragen. 1) Sind 2000 m ausreichend tief? 2) Sind die Sensoren genau genug, um die 10 W/m² pro 1000 km pro Kante zu ,pixeln‘?

Hinsichtlich der Tiefe gibt es zwei Antworten von unterschiedlichen Seiten, die aber beide ,ja‘ lauten für alle Zwecke der Mission.

Bzgl. des Salzgehaltes reichen die ARGO-Profile aus. Frühere ozeanographische Studien zeigen, dass der Salzgehalt unterhalb von 750 m Tiefe in allen Ozeanen bemerkenswert invariabel ist. Dies bietet glücklicherweise eine natürliche ,Kalibrierung‘ des Salzgehaltes für jene empirisch problematischen Sensoren.

Bzgl. der Temperatur zeigen die typischen thermoklinen Profile, dass die Temperatur unterhalb 2000 m kaum noch abhängig von der geographischen Breite variiert, was eine weitere natürliche ARGO-,Kalibrierung‘ darstellt. Dies zeigt Abbildung 3 (in Grad Fahrenheit). Die Bojen bis zu einer Tiefe von 2000m auszulegen war eine kluge Wahl.

[rote Kurve: Tropen, grüne Kurve: gemäßigte Zone, blaue Kurve: Polargebiete]

[rote Kurve: Tropen, grüne Kurve: gemäßigte Zone, blaue Kurve: Polargebiete]

Ist das ARGO-Programm zweckdienlich?

Als Hintergrund für die Ziele des ARGO-Programms werden noch ein paar weitere Grundlagen benötigt.

Taucht eine ARGO-Boje an die Oberfläche, um seine Daten zu übermitteln, wird dessen Position mittels GPS auf 100 m genau bestimmt. Angesichts der Größe der Ozeane ist das eine überaus präzise Messung der Position für ,umfassende räumliche Größenordnungen‘ der Strömungen und 1.000.000 km² OHC/Salzgehalt-Pixel.

Dank der Stabilität des Salzgehaltes unterhalb von 750 Metern sind die ,Salzgehalt-korrigierten‘ ARGO-Instrumente genau (nach Bojen-spezifischen Korrekturen) bis auf ±0,01 psu [= Primary Sampling Unit?], was vernünftige Schätzungen des ,Süßwasser-Gehaltes‘ zulässt. …

Die verbleibende große Frage nach ,hinreichender Genauigkeit‘ ist die nach dem OHC. Dinge wie Trenberths infame „fehlende Wärme“ sind nichts als heiße Luft. Der OHC ist eine sehr knifflige Sensor-Frage, da die große Wärmekapazität des Ozeanwassers bedeutet, dass eine sehr große Änderung der in den Ozeanen gespeicherten Wärme eine sehr geringe Änderung der absoluten Temperatur des Meerwassers bewirkt.

Wie gut sind die ARGO-Sensoren? Oberflächlich betrachtet könnte man meinen, kommt darauf an, denn die ARGO-Bojen weisen nicht nur ein, sondern gegenwärtig fünf verschiedene Sensor-Typen auf, geschuldet der Internationalität des Programms.

Unter diesen fünf Typen sind jedoch nur zwei Temperatursensoren, von denen einer sich rasch als fehlerhaft herausstellte. Alle fünf Typen der ARGO-Bojen messen daher die Temperatur mit einem Sensor mit der Bezeichnung SBE38, entwickelt im Jahre 2015.

Dieser Sensor wird von SeaBirdScientific konstruiert, näheres dazu bei www.seabird.com. Der SeaBirdE38-Sensor weist folgende Spezifikationen auf:

Messbereich:

-5 to +35 °C

Initiale Genauigkeit:

± 0.001 °C (1 mK)

Typische Stabilität

0.001 °C (1 mK) innerhalb sechs Monaten, zertifiziert

Auflösung:

Reaktionszeit 500 msec

Selbsterwärmungs-Fehler:

< 200 μK

Das ist ein bemerkenswert guter Sensor der Wassertemperatur. … Aber es gibt immer noch ein großes ,Für-Den-Zweck-Geeignet‘-Problem trotz aller Positiva von ARGO. Klimastudien auf der Grundlage von ARGO untertreiben gewöhnlich die tatsächliche resultierende OHC-Unsicherheit – um etwa 10 W/m². (Judith Curry nannte dies eine Form ihres ,Ungenauigkeits-Monsters‘. Willis Eschenbach hat dazu Einiges bei WUWT gepostet, und seine vier relevantesten Beiträge bzgl. der Frage nach der Zweckdienlichkeit datieren aus den Jahren 2012 bis 2015. Die vier Beiträge sind hier verfügbar:

Decimals of Precision

An Ocean of Overconfidence

More Ocean-Sized Errors In Levitus Et Al.

Can We Tell If The Oceans Are Warming

Und damit können wir hinsichtlich der Zweckdienlichkeit von ARGO folgern: ja, sie sind vermutlich geeignet – aber nur, wenn auf ARGO basierende Studien auch korrekt die Fehlerbalken der ,rigorosen, wenngleich umfassenden räumlichen Verteilung‘ darstellen.

Link: https://wattsupwiththat.com/2019/01/16/argo-fit-for-purpose/

Übersetzt von Chris Frey EIKE




Tempera­turen in der Antarktis sanken kürzlich auf die tiefsten Werte, die auf der Erde theo­retisch möglich sind!

Ultra-tiefe Temperaturen in der Ostantarktis, gemessen mittels thermischer Infrarot-Kartierung von Satelliten: der kälteste Ort der Erde

T. A. Scambos, G. G. Campbell, A. Pope, T. Haran, A. Muto, M. Lazzara, C. H. Reijmer, M. R. van den Broeke

Erstveröffentlichung: 25. Juni 2018

Summary in allgemeinverständlicher Sprache

Die niedrigste jemals mit Thermometern gemessene Temperatur der Erde beträgt -89,2°C, gemessen am 23. Juli 1983 an der Station Wostok in der Antarktis (Turner et al., 2009, https://doi.org/10.1029/2009JD012104). Allerdings zeigen Satellitendaten, gesammelt in der antarktischen Polarnacht der Jahre 2004 bis 2016 auf der großen Fläche eines Hochplateaus in der Ostantarktis über Wostok, dass regelmäßig Temperaturwerte von -90°C oder noch tiefer erreicht werden. Diese treten in flachen Bodensenken nahe dem höchsten Teil des Eisschildes über der Schneedecke auf, und zwar in Seehöhen von 3800 bis 4050 Metern. Vergleiche mit automatischen Wetterstationen in der Nähe zeigen, dass die Lufttemperatur während dieser Ereignisse nahe -94 ±4°C liegt. Ultrakalte Bedingungen (-90°C oder kälter) treten häufiger auf, wenn der antarktische Polarwirbel stark ausgeprägt ist. Diese Temperatur scheint sehr nahe dem theoretisch möglichen tiefsten Wert zu liegen, selbst bei klarem Himmel und sehr trockener Luft, weil die von der kalten, klaren Luft abgestrahlte Wärme fast gleich ist der Wärmeabstrahlung der bitterkalten Schneeoberfläche.

(…)

Quelle: Geophysical Research Letters

Die gesamte Studie ist immer noch verfügbar.

Wie viel kälter hätte es werden können, wenn der CO2-Gehalt lediglich 280 ppmv betragen hätte? Wahrscheinlich kein bisschen.

In sogar noch einfacherer Sprache:

,Es ist fast wie auf einem anderen Planeten‘ – Kälteste Temperatur jemals auf der Erde in der Antarktis gemessen

Trevor Nace, Contributor, Science, 28. Juni 2018

Während bei uns der Sommer in Fahrt kommt, haben Wissenschaftler soeben die kälteste Temperatur bekannt gegeben, die jemals auf der Erde gemessen worden ist. Während des langen, dunklen antarktischen Winters sanken die Temperatur tief genug, um es mit anderen Planeten aufnehmen zu können.

 

Und welche Temperatur hat man gemessen? Nun, atemberaubende -97,8°C. Bei dieser Temperatur würde das Einatmen der Luft in der Lunge sofort Erfrierungen auslösen und rasch zum Tode führen.

Die Temperatur wurde mit Satellitenmessungen in der zentralen Antarktis gemessen, und zwar während des Winters, in welchem die Sonne niemals scheint. Diese jüngst in den Geophysical Research Letters veröffentlichten Ergebnisse zeigen, dass diese Temperaturwerte nahe den theoretisch tiefstmöglichen auf der Erde liegen.

Forbes

Berichtet wurde hierüber in Forbes, Fortune, NatGeo und an einigen anderen Stellen … und es war schlimmer als zuvor gedacht…

Live Science Planet Earth

Am kältesten Ort der Erde ist es sogar noch kälter als Wissenschaftler gedacht hatten

Mindy Weisberger, 26. Juni 2018

Wissenschaftler wussten bereits, dass die niedrigsten, auf der Erde gemessenen Temperaturen auf einem gefrorenen Eis-Höhenzug in der Ostantarktis nahe dem Südpol aufgetreten waren. Aber jüngst haben sie entdeckt, dass es sogar noch kälter werden kann als zuvor gemessen.

Im Jahre 2013 hat man mittels Analysen von Satellitendaten verstreute, mit extremst kalter Luft angefüllte Mulden entdeckt, und zwar auf dem Ostantarktischen Plateau zwischen Dome Argus und Dome Fuji – mit Temperaturen bei atemberaubenden minus 93°C.

Allerdings zeigt eine Analyse der gleichen Daten, dass unter den richtigen Bedingungen theoretisch Temperaturwerte bis minus 100°C möglich sind, was vermutlich der kälteste Ort ist, der auf der Erde auftreten kann, heißt es in der neuen Studie.

Live Science

Trotz Gore’scher Runaway-Tipping Points, welche die Erde zurückführen sollen in Zeiten des Pliozäns, des Miozäns, des thermalen Maximums im Paläozän-Eozän, der Kreidezeit, Venus … alles innerhalb des Holozän-Rauschens. Es wird aber immer noch so kalt wie theoretisch überhaupt möglich in der Antarktis.

Und das ist für Herrschaften wie den im Bild oben Zitierten natürlich wirklich eine unbequeme Wahrheit! [Zusatz des Übersetzers]

Link: https://wattsupwiththat.com/2018/11/13/antarctic-temperatures-recently-plunged-close-to-the-theoretically-coldest-achievable-on-earth/

Übersetzt von Chris Frey EIKE




Energie­wende: Auf zum Endsieg über die Kohle?

Wenn man sich die aktuelle Energiepolitik in Deutschland ansieht, bekommt man nur noch das Grausen. Getrieben durch das mediale Trommelfeuer über die „näher kommende Klimakatastrophe“ scheint die Bundesregierung wild entschlossen zu sein, in Sachen „Energiewende“ jetzt mit der Brechstange zur Sache zu gehen. Es gibt keinerlei Anzeichen mehr für eine auch halbwegs durchdachte Strategie, welche die langfristige Versorgung des Landes mit sicherer und bezahlbarer Energie sicherstellen könnte. Ohne einen Gedanken daran zu verschwenden, dass die Stilllegung der restlichen Kernkraftwerke bis 2022 ja auch noch ansteht, will man inzwischen auch die Kohlekraftwerke so schnell wie möglich herunterfahren. Ungeachtet der Versorgungslage scheint die einzige Richtschnur von Fr. Merkel zu sein, die CO2-Emissionen in Deutschland bis 2030 auf einen Zielwert von 563 Mio. Tonnen herunterzuknüppeln, siehe Bild 2.

Die Konsequenzen für das eigene Volk scheinen dabei lediglich mit Blick auf die Aussichten für die nächsten Wahlen zu interessieren. Deshalb schnürt Berlin gerade ein ganzes Bündel von Maßnahmen zusammen, um den Strukturwandel in den betroffenen Regionen finanziell so abzufedern, dass sich nicht zu viele Wähler von den Regierungsparteien abwenden. Dabei schont man vor allem den Osten der Republik: Laut der erwähnten SPON-Meldung werde erwogen, die dortigen Kohlekraftwerke bis zum Jahr 2022 ganz oder weitgehend unangetastet zu lassen. Getrieben durch die Angstszenarien der Klimabewegung werfen die Regierungsparteien jegliche volkswirtschaftliche Vernunft über Bord. Stattdessen missbraucht die Politik die Gelder des Steuerzahlers als Trostpflästerchen für die selbst verursachten Arbeitsplatzverluste.

Unruhe bei der Industrie…

Inzwischen entsteht für die Klimaretter im Bundeskanzleramt jedoch eine anscheinend so nicht erwartete neue Baustelle, denn bei der deutschen Industrie beginnt sich Unruhe breitzumachen. Einem kürzlichen Beitrag bei der FAZ zufolge beginnen immer mehr Unternehmen sich wegen der rapiden Zunahme von Ausfällen bei der Stromversorgung zu beschweren. Um diese Probleme vor der Bevölkerung zu verstecken, sorgt die Politik dafür, dass diese Schwierigkeiten vor allem industrielle Großverbraucher betreffen, während der Fernseher bei Otto Normalverbraucher weiterhin ungestört seine bunten Erheiterungsbildchen liefert. Den im Dezember 2018 bei etlichen Industriefirmen steigenden Stresspegel beschreibt ein FAZ-Artikel des Journalisten A. Mihm sehr anschaulich wie folgt:

In einer Handvoll großer Industriebetriebe ist dagegen von vorweihnachtlicher Fröhlichkeit keine Spur. Der Stresspegel ist beachtlich gestiegen, seitdem die Netzbetreiber kurzfristig angekündigt haben, den Strom abzuschalten. Denn in Deutschland gibt es an diesem Mittag zu wenig Elektrizität. Später wird bei Netzbetreibern von einem „Prognosefehler bei den erneuerbaren Energien aufgrund einer seinerzeit komplexen Wetterlage“ die Rede sein. Die Sonne scheint nicht so intensiv, wie noch am Vortag geplant und erwartet war. Kurz nach 12.00 Uhr jedenfalls ist die „Minutenreserve“ der Pumpspeicherkraftwerke verbraucht, aus dem Ausland lässt sich auch nicht mehr Strom ziehen. Jetzt werden Großverbraucher wie Aluminiumhütten, Walzwerke (Bild 3) und Gießereien abgeschaltet. Und zwar deutschlandweit – alle, die verfügbar sind.“

Inzwischen sind solche Abschaltungen so häufig geworden, dass den Firmenchefs trotz entsprechender Vereinbarungen der Geduldsfaden zu reißen beginnt. Allein der Neusser Alu-Hersteller Hydro Aluminium musste im vergangenen Jahr 78 Abschaltungen hinnehmen.

wegen immer häufigerer Stromausfälle…

Zwar haben die betroffenen Großverbraucher mit den Versorgern Vereinbarungen, welche Kompensationen vorsehen, jedoch ist hierfür eine Vorwarnzeit von 15 Minuten einzuhalten. Doch selbst diese wird immer häufiger nicht eingehalten. So z.B. am 14, Dezember, als im deutschen Netz aufgrund einer „deutlichen“ Fehlprognose bei der Solarstromerzeugung rund 2.500 MW fehlten. Das entspricht der Kapazität von zwei großen Kernkraftwerken oder drei Steinkohlekraftwerken. Das Problem rührt daher, dass Stromlieferungen in aller Regel lange vorab bestellt werden. Die Kraftwerksbetreiber haben „Fahrpläne“, die sie unter anderem auch nutzen, um in den Lücken ihre Anlagen für Wartungsarbeiten abzuschalten. Bei größeren Prognoseabweichungen kann es dann im Netz eng werden. Allein bei Hochnebellagen kann die Abweichung bei der Solarstromprognose vom Vortag 8.000 MW erreichen. Das entspricht fast schon der Leistung der in Deutschland noch vorhandenen Kernkraftwerke. Reichen in solchen Fällen auch die Notreserven nicht mehr aus, so kommt es auch zu ungeplanten Stromabschaltungen. Wenn diese die Unternehmen unvorbereitet treffen, kann es zu erheblichen Ausfällen und Schäden an Anlagen kommen. Schon bei kleineren Stromunterbrechungen können die verketteten Abläufe moderner Fabriken so komplett zum Stillstand bringen, dass die Wiederaufnahme des Betriebs etliche Stunden dauert. Und gerade für solche ungeplanten Ausfälle zahlen die Versorger maximal lediglich 5.000 € Schadenersatz. Oft weniger als ein Prozent oder gar ein Promille der eingetretenen Verluste.

sowie starken Preiserhöhungen

Als weitere Sorge der produzierenden Unternehmen kommen noch die ständig steigenden Energiekosten hinzu. Wenn günstige Kern- und Kohlekraftwerke abgeschaltet werden, muss bei den unvermeidlichen Ausfällen der „erneuerbaren“ auf deutlich teurere Alternativen wie Gas oder Öl zurückgegriffen werden. Das schlägt unweigerlich auf den Strompreis durch. Einem Artikel der „Welt“ zufolge ist zu erwarten, dass der geplante Kohleausstieg den Großhandelspreis für Strom um mindestens 30 Prozent oder sogar 50 Prozent erhöhen wird. Dies würde die internationale Wettbewerbsfähigkeit zahlreicher Branchen akut bedrohen. Immer mehr Betriebe sehen sich inzwischen existenziell gefährdet. Betroffen sind nicht nur Hütten- und Schmelzwerke für Alu, Stahl oder Kupfer, sondern immer mehr Branchen wie Gießereien, Schmieden, Hersteller von Glas und Papier, Zementwerke, die chemische Industrie sowie erhebliche Teile der Zulieferer für Kfz-Hersteller und den Maschinenbau mit zusammen Hunderttausenden von Beschäftigten. Entsprechende Rufe aus Branchen wie der Metallindustrie oder der chemischen Industrie werden deshalb immer drängender.

Das Problem liegt an der Unzuverlässigkeit von Wind und Sonne

Die entscheidende Erbkrankheit bei den wichtigsten „erneuerbaren“ Stromlieferenten Wind und Sonne ist ihre völlige Abhängigkeit von den Launen des Wettergotts. Während die Sonne schon vom Grundsatz her nur am Tage scheint, erfolgt die Stromlieferung auch beim Wind nur in Form erratischer Spitzen, Bild 5. Zwar behauptet die Branche mit dem Argument „Irgendwo weht immer Wind“, dass sich dies über große Flächen hinweg ausgleiche, doch beweisen die Tatsachen, dass man diese Zweckbehauptung getrost ins Reich der Märchen und Sagen verweisen kann, siehe Bild 6. Unsere moderne Zivilisation braucht jedoch Strom genau dann, wenn er benötigt wird, und genau das können Wind und Sonne weder einzeln noch gemeinsam, wie der Vergleich von Wind und Sonne zum Bedarf im Juli 2018 anschaulich beweist, Bild 7. Schon beim jetzigen Ausbaustand gibt es täglich riesige Schwankungen zwischen „erneuerbarer“ Produktion und dem aktuellen Bedarf des Landes, weshalb ständig ein quasi vollständiger Park an zuverlässig lieferfähigen Kraftwerken vorgehalten werden muss. Da diese wegen des Vorrangs der „erneuerbaren“ Erzeuger immer weniger genutzt werden können, verteuert sich ihre Produktion, was den Strompreis zusätzlich in die Höhe treibt. Lösungen für dieses Problem sind nicht in Sicht, da bis heute keine auch nur annähernd leistungsfähigen und kostenmäßig vertretbaren Möglichkeiten zur Speicherung von größeren Stromüberschüssen zur Verfügung stehen.

Schwankungen gefährden das Netz zusätzlich

Zusätzliche Gefahren drohen unseren Netzen durch weitere Einflüsse, die sich aus der heutigen europäischen Strommarktregulierung ergeben. Früher lag die regionale Stromversorgung – Kraftwerke und Leitungen – weitgehend in den Händen von Versorgern wie z.B. RWE, EnBW oder kleineren Regionalgesellschaften. Diese waren für die Versorgungssicherheit verantwortlich und verfügten über alle hierfür nötigen Ressourcen in einer Hand. Deshalb konnten sie ihre Kraftwerke „analog“ sowie im Verbund fahren. Die Produktion der einzelnen Kraftwerke wurde kontinuierlich an den sich ändernden Bedarf angepasst. Erst bei Bedarf wurden zusätzliche Kraftwerke zu- oder abgeschaltet. Heute müssen Kraftwerksbetreiber dagegen ihre Produktion in Zeit-Leistungs-Paketen an zentralen europäischen Strombörsen vermarkten. Für den Kraftwerker bedeutet dies z.B., dass er am Tag X von 09:00 bis 10:00 Uhr eine kontinuierliche Leistung von 850 MW zu liefern hat, während für die darauffolgende Stunde lediglich ein Vertrag über 600 MW abgeschlossen werden konnte.

Solche Leistungssprünge kann ein Kraftwerk mit seinen riesigen Einrichtungen nicht im Millisekundenbereich vollziehen. Das wäre so, als ob man einen Ozeandampfer um die Wendebojen in einen Speedboat-Parcours hetzen wollte. Zu- und Abschalten können zudem nicht immer exakt zeitsynchron erfolgen, weshalb es heute zur vollen Stunde typischerweise zu kurzen, aber heftigen Störimpulsen kommen kann. Diese lassen sich mit heutiger Technik zwar beherrschen, dies belastet jedoch die Sicherheitseinrichtungen. Auf diese Zusammenhänge machte der Blackout-Experte H. Saurugg in einem Interview mit dem österreichischen „Standard“ aufmerksam. Kommt es darüber hinaus zu Fehlfunktionen wie am Donnerstag, dem 10. Januar 2019, als ein Datenfehler an einem Netzregler im Gebiet der deutschen TenneT auftrat, dann kann es kritisch werden. An diesem Tag sank die Netzfrequenz bis auf den kritischen Wert von 49,8 Hz, ab dem dann die Schutzmechanismen im Netz einsetzen, was zumindest regional zu Lastabwürfen führen kann.

Dieser vornehm-harmlos klingende Begriff bedeutet im Prinzip nichts anders als Stromausfall bzw. Blackout. Eine besondere Störquelle sind in diesem Zusammenhang auch die heute immer größeren Windparks mit teils etlichen Dutzend Turbinen, die beispielsweise aus Gründen des Natur- oder Anwohnerschutzes synchron ein- oder abgeschaltet werden. Da die entsprechenden Leistungen immer weiter steigen, wächst die Beanspruchung der Sicherheitseinrichtungen. Je mehr Wind- und Solaranlagen heute im Rahmen der „Energiewende“ hinzugebaut werden, desto kritischer wird die Situation. Irgendwann kommt der Zusammenbruch, und je später, desto schlimmer. Eine 80- oder gar 95prozentige Versorgung mit Wind- und Solarkraftwerken wird sich deshalb nicht realisieren lassen.

Quellen:

[SPON] http://www.spiegel.de/wirtschaft/soziales/kohlegipfel-im-kanzleramt-insider-berichten-die-wichtigsten-ergebnisse-a-1248308.html#js-article-comments-box-pager

[FAZ] https://edition.faz.net/faz-edition/wirtschaft/2019-01-12/0ef138ca4a91f74600c9c37e8a8d9a2d/

[WELT] https://www.welt.de/wirtschaft/article187124628/Energiewende-Industrie-fordert-Super-Cap-gegen-Kosten-des-Kohleausstiegs.html

[VCI] https://www.vci.de/presse/pressemitteilungen/wettbewerbsfaehigkeit-industrie-beim-kohleausstieg-sichern-kanzleramtstreffen-sollte-kompensation-fuer-hoehere-strompreise-diskutieren.jsp

[STAN] https://mobil.derstandard.at/2000096185439/Europas-Stromnetz-stand-am-Rande-des-Totalausfalls?ref=rec

[QUAS] http://www.volker-quaschning.de/datserv/windinst/index.php




Fossile Treibstoffe haben der Menschheit sehr geholfen, und das sollten sie auch weiterhin tun!

Das Non-Governmental International Panel on Climate Change (NIPCC) hat vier umfassende Berichte erstellt, welche Beiträge von hunderten Wissenschaftlern enthalten, die Tausende begutachtete Forschungsartikel vorstellen. Darin wird nachvollziehbar nachgewiesen, dass die IPCC-Behauptungen, denen zufolge menschliche Treibhausgas-Emissionen einen gefährlichen Klimawandel bewirken, falscher nicht sein können.

Historisch gibt es keine Korrelation zwischen dem Kohlendioxid-Gehalt in der Atmosphäre und der Temperatur auf der Erde. Und das NIPCC weist nach, dass Behauptungen bzgl. Extremwetter mit Bezug zum anthropogenen Klimawandel verifizierbar falsch sind. Weder die Anzahl noch die Dauer extremer Regenfälle oder Dürren und auch nicht die Rate des Meeresspiegel-Anstiegs haben nachgewiesenermaßen während der zweiten Hälfte des vorigen Jahrhunderts zugenommen.

Was aber noch wichtiger ist, der fünfte und neueste NIPCC-Report mit dem Titel „Climate Change Reconsidered II: Fossil Fuels” (CCRIIFF) zeigt die Schäden auf, zu denen es kommen würde, wenn man den Verbrauch fossiler Treibstoffe rapide beenden würde – Schäden, die weit über die spekulativen, vom IPCC hinaus posaunten Schäden durch Klimawandel selbst hinausgehen.

Fossile Treibstoffe sind die Grundlage moderner Ökonomien. Menschen in Ländern, die regelmäßig fossile Treibstoffe verbrauchen, leben länger, sind wohlhabender und gesünder als Menschen in Ländern ohne Zugang zu fossilen Treibstoffen. CCRIIF zeigt, dass der Zugang zu fossilen Treibstoffen die durchschnittliche Lebensspanne der Menschen mehr als verdoppelt sowie eine deutliche Zunahme des Gesundheitszustandes der Menschen, einen deutlichen Rückgang von Armut und eine erhebliche Verbesserung der Versorgung mit Nahrungsmitteln im vorigen Jahrhundert bewirkt hat.

„Es gibt eine starke positive Korrelation zwischen niedrigen Energiepreisen und ökonomischem Wohlstand“, wird im Report festgestellt, und weiter: „Ökonomischer Wohlstand wiederum ist von entscheidender Bedeutung für Gesundheit und Wohlstand der Menschen“.

Eine Untersuchung von nur zwei Bereichen moderner Ökonomien zeigt schon, wie fossile Treibstoffe zu einem hohen Lebensstandard beitragen.

Fossile Treibstoffe sind die Grundlage moderner Landwirtschaft. Fossile Treibstoffe treiben Traktoren und Lastfahrzeuge an, welche den Markt mit Nahrungsmitteln versorgen, sie sind der Grundstock von Düngemitteln, so dass höhere Ernten auf immer weniger Ackerfläche verzeichnet werden, und sie versorgen die Kühlschränke und Speichereinrichtungen mit Energie, so dass man in diesen Lebensmittel lange lagern kann, ohne dass sie verderben. Kurz, fossile Treibstoffe sorgen dafür, dass Landwirte die zunehmende Bevölkerung des Planeten immer besser ernähren können, während gleichzeitig der Natur ehemalige Äcker zurück gegeben werden können.

Fossile Treibstoffe sind auch die Wurzel der modernen Medizin, womit Kindersterblichkeit und Krankheiten reduziert werden konnten, sowie für alle möglichen medizinische Produkte. Moderne Diagnose-Gerätschaften und lebenserhaltende Maschinen sind mit alternativen Quellen nicht zuverlässig zu betreiben.

Tatsächlich decken fossile Treibstoffe 81% des primären Energiebedarfs weltweit, und mit der Zunahme des Verbrauchs fossiler Treibstoffe hat auch das menschliche Wohlergehen substantiell zugenommen.

Weiter aus dem NIPCC-Report: „Dem Census Bureau der USA zufolge (2016) ist das Sterbealter der Menschen seit 1970 um 35 Jahre gestiegen, wobei die Sterberaten in allen Altersgruppen gesunken sind, auch in der Gruppe der 60-jährigen oder älteren. Zieht man die offizielle 1-Dollar-pro-Tag-Leitlinie heran (die UN-Definition von Armut), schätzen wir, dass die Armut der Welt von 1970 bis … 2006 um 80% zurückgegangen ist. Die korrespondierende Zahl der Armen ist von 403 Millionen im Jahre 1970 auf 152 Millionen im Jahre 2016 gesunken“.

CCRIIF kommt zu dem Ergebnis, dass die hanebüchenen Forderungen des IPCC nach einer Reduktion des Verbrauchs fossiler Treibstoffe bis zum Jahr 2050 auf Null einen zwei Jahrhunderte langen Zeitraum menschlichen Fortschritts zunichte machen würde. Im Wesentlichen würde das abscheuliche Vorhaben des IPCC dafür sorgen, dass das Pro-Kopf-Einkommen global auf ein Niveau sinken würde, wie es in den USA und Westeuropa in den Jahren 1820 oder 1830 üblich war.

Weil die Beweise für Klimarisiken durch fossile Treibstoffe im besten Falle dürftig und die Vorteile des weiteren Verbrauchs derselben nur zu offensichtlich sind, wäre es ein Verbrechen gegen die Menschheit seitens Regierungen, die Menschen zu zwingen, ihren Gebrauch fossiler Treibstoffe drastisch zu reduzieren. Nach einem Spruch des englischen Philosophen Thomas Hobbes wäre ein Leben ohne fossile Treibstoffe „ärmlich, hässlich, brutal und kurz“.

Machen wir also weiter mit Bohren, Bergbau und dem Gebrauch bezahlbarer und zuverlässiger fossiler Treibstoffe zur Energieerzeugung, so dass jedermann jetzt und in Zukunft länger, gesünder und erfüllter leben kann.

Link: https://townhall.com/columnists/hsterlingburnett/2019/01/09/fossil-fuels-have-and-should-continue-to-benefit-humanity-n2538701

Übersetzt von Chris Frey EIKE




Zusammen­fassende Version einer Studie mit dem Titel [übersetzt] „Missach­tung von Nyquist: Eine weitere Quelle signifi­kanter Fehler bei Thermo­meter-Temperatur­messungen“

[*Vorbemerkung der Redaktion: In Deutschland wird dieses Verfahren schon sehr lange nicht mehr angewendet. Hier wird die Tagesmitteltemperatur seit Jahr und Tag folgendermaßen ermittelt: T(7.00h) + T(14.00h) + 2 x T(21.00h)/4 (Angaben in MEZ). Als Grundlage dienten die sog. „Mannheimer Stunden“ (mehr dazu hier), definiert bereits im 18 Jahrhundert. Die Verdoppelung des Messwertes von 21 Uhr sollte einmal eine Nachtmessung ersparen, zweitens liegt er ziemlich genau zwischen den Tagesextremen und wird auch morgens durchlaufen.

In anderen europäischen Ländern, wie auch Russlands wurden andere Algorithmen verwendet. Allen ist gemeinsam, dass sie für denselben Tagestemperaturverlauf unterschiedliche Mitteltemperaturen ergeben. Details dazu z.B. hier. Fakt ist jedoch auch, dass bedingt durch die englische US- amerikanische Dominanz besonders im 19.Jahrhundert die Max Min Methode die weltweit bestimmende war.

Nach Erfindung der Digitalthermometer hat man die stündlichen Werte durch 24 dividiert, um die Tagesmittelwerte zu berechnen. Ein am Institut für Meteorologie viele Jahre lang durchgeführter Vergleich beider Verfahren zeigt zwar ähnliche Werte mit nur wenigen Ausnahmen aufgrund der Advektion unterschiedlich temperierter Luftmassen.

Da in jedem Fall die Anomalien der absoluten Mittelwerte gebildet werden, dürfte sich deren Verhalten, besonders in einer Zeitreihe, von der im Text beschriebenen unterscheiden. Für das Folgende spielen dieser Umstand auch nur eine untergeordnete Rolle. Man muss ihn aber bei der Lektüre im Hinterkopf behalten.

Trotzdem ist die Beachtung der in der Signaltheorie entwickelten Gesetze auch bei der Auswertung von meteorologischen Verläufen empfehlenswert. Autor Werner Kohl  hat auf Die Kalte Sonne dazu schon einiges geschrieben. (hier

Ende Einschub]

Allerdings ist die Lufttemperatur ein Signal, und Messungen von Signalen müssen den mathematischen Gesetzen der Aufbereitung von Signalen folgen. Das Nyquist-Shannon Sampling Theorem sagt uns, dass wir ein Signal mit einer Rate messen müssen, die mindestens doppelt so hoch ist wie die höchste Häufigkeits-Komponente des Signals. Das nennt man die Nyquist Rate. Sammelt man Proben mit einer geringeren Rate, kommt ein Alias-Fehler [? hier steht etwas dazu. Anm. d. Übers.] in die Messungen. Je geringer die Mess-Häufigkeit im Vergleich zu Nyquist, umso größer wird der Fehler bei Berechnungen der Mitteltemperatur und von Trends. Das Nyquist Sampling Theorem ist heutzutage grundlegende Wissenschaft in jedem technologischen Bereich. Digitales Hören und Sehen, industrielle Prozess-Steuerung, medizinische Instrumente, Flugkontroll-Systeme, digitale Kommunikation usw. – alles beruht auf der grundlegenden Mathematik und Physik von Nyquist.

Die NOAA hat in ihrem USCRN (US Climate Reference Network) bestimmt, dass es notwendig ist, eine Anzahl von 4320 Messungen pro Tag zu haben, um Nyquist anwenden zu können. 4320 Messungen pro Tag bedeuten eine Messung alle 20 Sekunden. Das ist die anwendungsorientierte Nyquist-Anzahl von Messungen. Die NOAA mittelt diese 20-Sekunden-Messwerte zu einer Messung alle 5 Minuten oder 288 Messungen pro Tag. Die NOAA veröffentlicht auch nur diese 288 Messungen pro Tag (nicht die 4320 Messungen pro Tag). Eine Rate wird dann nur aus diesen 288 Messungen pro Tag berechnet (oder „5-Minuten-Messungen). Diese Rate kann allerdings nur erhalten werden mittels automatisierten Messungen mit elektronischen Instrumenten. Die meisten instrumentellen Aufzeichnungen enthalten Ablesungen von Quecksilber-Max/Min-Thermometern, welche lange vor der Automatisierung eine Option waren. Heutzutage nutzt man für instrumentelle Aufzeichnungen trotz der Verfügbarkeit von Automatisierung immer noch Tmax und Tmin (im Endeffekt 2 Messungen pro Tag) anstatt einer Messdaten-Gewinnung nach Nyquist. Grund hierfür ist, die Vergleichbarkeit mit älteren historischen Aufzeichnungen zu wahren. Mit lediglich 2 Messungen pro Tag ist die instrumentelle Aufzeichnung jedoch stark aliased. In dieser Studie wird gezeigt, dass das historische Verfahren signifikante Fehler bei den Mitteltemperaturen und den langzeitlichen Temperaturtrends ergibt.

Das UACRN der NOAA ist ein kleines Netzwerk, welches im Jahre 2008 komplett war, und es trägt nur sehr wenig zu den instrumentellen Aufzeichnungen insgesamt bei. Allerdings bieten die USCRN-Daten eine besondere Gelegenheit, eine hochwertige Version des historischen Verfahrens mit dem Nyquist-Verfahren zu vergleichen. Die Max- und Min-Werte werden ermittelt mit den höchsten und niedrigsten Werten unter den 288 Messungen über den interessierenden 24-Stunden-Zeitraum.

Beispiele aus dem USCRN der NOAA zur Illustrierung des Effektes eines Verstoßes gegen das Nyquist-Theorem bzgl. der Mitteltemperatur

Das folgende Beispiel soll zeigen, wie der Fehler bei der Berechnung der Mitteltemperatur zunimmt, wenn die Anzahl der Messungen abnimmt. Abbildung 1 zeigt die Temperatur, wie sie am Messpunkt Cordova AK [= Alaska] am 11. November 2017 gemessen worden ist, und zwar mittels der 5-Minuten-Messungen nach USCRN:

Abbildung 1: NOAA USCRN-Daten für Cordova, AK, am 11. November 2017

Die blaue Linie repräsentiert die 288 Temperaturmessungen jenes Tages. Sie zeigt 24 Stunden mit Temperaturdaten. Die grüne Linie zeigt die korrekte und genaue tägliche Mitteltemperatur, berechnet aus der Summe aller Messwerte dividiert durch die Anzahl der Messungen. Temperatur ist nicht Wärmeenergie, aber sie wird verwendet als eine Annäherung an dieselbe. In dieser Hinsicht zeigen die grüne Linie (Mitteltemperatur) und die Tageslinie (blaue Linie) genau die gleiche Menge von Wärmeenergie über den Zeitraum von 24 Stunden jenes Tages. Das korrekte Mittel beträgt -3,3°C. Tmax wird repräsentiert durch die orange, Tmin durch die graue Linie. Sie ergeben sich aus dem höchsten bzw. niedrigsten Wert der 288 Messungen über den 24-Stunden-Zeitraum. Das aus (Tmax + Tmin)/2 berechnete Mittel zeigt die rote Linie. (Tmax + Tmin)/2 ergibt einen Mittelwert von -4,7°C, weist also einen Fehler von 1,4°C im Vergleich zum korrekten Mittel auf.

[Dazu noch einmal zum Einschub oben: Bei dem zumindest in Deutschland gebräuchlichen Verfahren ist der Fehler geringer, was den Ausführungen des Autors zufolge aber auch daran liegen kann, dass es vier Messungen zu ganz bestimmten Zeiten sind und nicht nur zwei zu verschiedenen Zeiten am Tag. Daher zeigt sich in der folgenden Tabelle (Abbildung 2) bei 2 bzw. 4 Messwerten bei der Berechnung des Mittels der gleiche Fehler. Anm. d. Übers.]

Mit den gleichen Signalen und Daten aus Abbildung 1 zeigt die Tabelle in Abbildung 2 die berechneten Temperaturmittel in Abhängigkeit von einer immer weiter abnehmenden Zahl von Messwerten. Diese reduzierten Raten kann man mittels Division der 288 Messwerte pro Tag durch 4, 8, 12, 24, 48, 72 und 144 errechnen. Bei einer angemessenen Aussortierung der Messwerte nach diesem Verfahren ist der Gesamteffekt der gleiche, als ob man im Original mit reduzierter Rate gerechnet hätte. Das sich aus dieser reduzierten Anzahl von Messwerten ergebende korrespondierende Aliasing zeigt sich auch in der Tabelle:

Abbildung 2: Tabelle mit den zunehmenden Mittelungsfehlern bei abnehmender Anzahl von Messwerten.

Aus der Tabelle geht klar hervor, dass bei Reduktion der Anzahl der Messwerte unter Nyquist der daraus erwachsende korrespondierende Fehler infolge des Aliasing zunimmt. Auch zeigt sich eindeutig, dass 2, 4, 6 oder 12 Messwerte pro Tag ein sehr ungenaues Ergebnis zeitigen. Eine Anzahl von 24 Messungen pro Tag (also stündlich) bis zu 72 Messwerten pro Tag (3 Messwerte innerhalb von 1 Stunde) kann genaue Ergebnisse erzielen – oder auch nicht. Die NOAA hat sich für 288 Messwerte pro Tag entschieden (4320 Messwerte pro Tag vor der Mittelbildung). Also wird das jetzt als der gegenwärtige Grund-Standard angesehen. Eine Anzahl von Messwerten unter 288 pro Tag wird (und sollte auch) als eine Verletzung des Nyquist-Theorems angesehen werden.

Es ist interessant darauf hinzuweisen, dass das in der Tabelle Gelistete einen Fehler von 0,7°C zeigt. Aber (Tmax + Tmin )/2 sind technisch 2 Werte pro Tag mit einem Fehler von 1,4°C, wie aus der Tabelle folgt. Wie kann das sein? Es kann sein, weil (Tmax + Tmin )/2 ein Sonderfall von 2 Messungen pro Tag ist, sind doch diese beiden Messungen nicht gleichmäßig über den Tag verteilt. Sie treten jeweils zu unterschiedlichen Zeiten auf. Bei geeigneten Messungen messen wir nach der Uhr – mit Messungen zu jeweils genau der gleichen Zeit an jedem Tag. Die Tatsache, dass Tmax und Tmin zu unregelmäßigen Zeiten am Tag auftreten, verursacht eine eigene Art von Messfehler. Es liegt jenseits dieser Studie, diesen in vollem Umfang zu erklären. Im Bereich der Signalanalyse und der Datengewinnung ist das ein bekanntes Problem. 2 Messungen pro Tag zu regelmäßigen Zeiten wird wahrscheinlich bessere Ergebnisse zeigen als das Auffinden der Höchst- und Tiefsttemperatur irgendeines gegebenen Tages. Die instrumentelle Temperaturaufzeichnung wendet das absolut schlechtestmögliche Verfahren an – was zu einem maximalen Fehler führt.

Abbildung 3 zeigt das gleiche tägliche Temperatursignal wie Abbildung 1, repräsentiert durch die 288 Messwerte pro Tag (blaue Linie). Ebenfalls gezeigt ist das gleiche tägliche Temperatursignal, errechnet aus 12 Messwerten pro Tag (rote Linie) und 4 Messwerten pro Tag (gelbe Linie). Aus dieser Abbildung geht schon für das bloße Auge hervor, dass viele Informationen des Original-Signals bei der Verwendung von nur 12 Werten pro Tag verloren gehen, und sogar noch mehr bei nur 4 Werten pro Tag. Es sind diese verloren gegangenen Informationen, welche das resultierende Mittel verfälschen. Diese Abbildung illustriert graphisch, was man in der korrespondierenden Tabelle von Abbildung 2 erkennt.

Abbildung 3: NOAA USCRN-Daten für Cordova, AK vom 11. November 2017: Abnehmende Detail-Genauigkeit des Mittelwertes bei 12 bzw. 4 Werten pro Tag.

Abbildung 4 zeigt den täglichen mittleren Fehler zwischen dem Verfahren mit 288 Werten pro Tag nach USCRN und dem historischen Verfahren, wie er über 365 Tage an der Station Boulder in Colorado im Jahre 2017 gemessen worden war. Jeder Datenpunkt ist der Fehler jedes einzelnen Tages in der Aufzeichnung. Man erkennt aus Abbildung 4, dass (Tmax + Tmin )/2 tägliche Fehler bis zu ± 4 °C erzeugt. Die Berechnung eines Mittelwertes mit nur zwei Werten pro Tag ergibt kaum jemals den korrekten Mittelwert.

Abbildung 4: NOAA USCRN-Daten für Boulder, CO – täglicher Mittelungsfehler über 365 Tage (2017)

Betrachten wir noch ein weiteres Beispiel ähnlich dem in Abbildung 1 gezeigten, aber über einen längeren Zeitraum. Abbildung 5 zeigt (in blau) das 288 Werte pro Tag-Signal aus Spokane, WA [= Washington State, am Pazifik] vom 13. bis zum 22. Januar 2008. Tmax (mittel) und Tmin (mittel) sind jeweils in orange bzw. grau gezeigt. Das Mittel aus (Tmax + Tmin )/2 ist in rot dargestellt (-6,9°C) und das korrekte Mittel aus den alle 5 Minuten gemessenen Werten ist in grün dargestellt (-6,2°C). Das Mittel aus (Tmax + Tmin )/2 weist einen Fehler von 0,7°C über die 10-Tage-Periode auf.

Abbildung 5: NOAA USCRN-Daten aus Spokane, WA – 13. bis 22. Januar 2008

Die Auswirkung einer Verletzung des Nyquist-Theorems auf Temperaturtrends

Schließlich müssen wir die Auswirkungen der Verletzung des Nyquist-Theorems bei der Anwendung auf Temperaturtrends betrachten. Abbildung 6 zeigt einen Vergleich zwischen linearen Temperaturtrends, wie sie sich aus dem historischen Verfahren ergeben, und Verfahren gemäß Nyquist unter Verwendung der Daten von Blackville, SC [= South Carolina], und zwar von Januar 2006 bis Dezember 2017. Man erkennt, dass der aus dem historischen Verfahren abgeleitete Trend (orange Linie) etwa 0,2°C wärmer anfängt und einen Erwärmungs-Bias von 0,24°C pro Dekade aufweist, jeweils im Vergleich zu dem Verfahren nach Nyquist (blaue Linie). Abbildung 7 zeigt den Trend-Bias oder Fehler (°C pro Dekade) für 26 Stationen im USCRN über einen Zeitraum von 7 bis 12 Jahren. Die 5-Minuten-Werte ergeben den Referenz-Trend. Fast jede Station zeigt einen Erwärmungs-Bias und nur wenige einen Abkühlungs-Bias. Der größte Erwärmungs-Bias beträgt 0,24°C pro Dekade und der größte Abkühlungs-Bias -0,17°C pro Dekade. Über alle 26 Stationen gemittelt ergibt sich ein Erwärmungs-Bias von 0,06°C. Wikipedia zufolge beträgt der berechnete globale Erwärmungstrend im Zeitraum 1880 bis 2012 0.064 ± 0.015°C pro Dekade. Schauen wir auf einen jüngeren Zeitraum, welcher den kontroversen „Stillstand der globalen Erwärmung“ enthält, und verwenden dann Daten von Wikipedia, erhält man die folgenden Erwärmungstrends – abhängig davon, welches Jahr man wählt als Beginn des „Stillstands“:

1996: 0.14°C pro Dekade

1997: 0.07°C pro Dekade

1998: 0.05°C pro Dekade

Obwohl man keine Schlussfolgerungen ziehen kann, wenn man die Trends über 7 bis 12 Jahre an 26 Stationen im USCRN vergleicht mit den gegenwärtig anerkannten lang- oder kurzzeitigen globalen Mitteltemperatur-Trends, kann dieser Vergleich instruktiv sein. Klar ist, dass die Anwendung des historischen Verfahrens zur Berechnung von Trends einen Trend-Fehler ergibt und dass dieser Fehler von ähnlicher Größenordnung sein kann wie die geltend gemachten Trends. Daher ist es vernünftig, die Validität der Trends zu hinterfragen. Es gibt keine Möglichkeit, diese Validität sicher herauszufinden, weil es bzgl. des Großteils der instrumentellen Aufzeichnung keine ordentlich errechnete Aufzeichnung zum Vergleich gibt. Aber mathematisch sicher ist, dass jede Mitteltemperatur und jeder Trend in den Aufzeichnungen signifikante Fehler enthält, falls das Verfahren der 2 Werte pro Tag angewendet worden ist.

Abbildung 6: NOAA USCRN-Daten für Blackville, SC von Januar 2006 bis Dezember 2017 – monatliche Mittel-Trendlinien

Abbildung 7: Trend-Bias (°C pro Dekade) für 26 Stationen im USCRN

Schlussfolgerungen

1. Die Lufttemperatur ist ein Signal und muss daher gemessen werden nach den mathematischen Gesetzen, welche die Signalverarbeitung bestimmen. Die Wertesammlung muss gemäß dem Nyquist Shannon-Sampling Theorem durchgeführt werden.

2. Das Nyquist Shannon-Sampling Theorem ist seit über 80 Jahren bekannt und von grundlegender Bedeutung in jedem Technologiebereich, bei dem es um Signalverarbeitung geht. Eine Verletzung von Nyquist garantiert, dass die Werte korrumpiert sind mit einem Aliasing-Fehler, und die Werte werden nicht das sich ergebende Signal repräsentieren. Aliasing kann nach der Werte-Gewinnung nicht korrigiert werden.

3. Das Nyquist Shannon-Sampling Theorem erfordert, dass die Rate der Anzahl der Werte größer sein muss als 2 mal die höchste Häufigkeits-Komponente des Signals. Unter Verwendung automatisierter elektronischer Ausrüstung und Computer erstellt das NOAA USCRN Wertemengen mit einer Rate von 4320 Werten pro Tag (gemittelt zu 288 Werten pro Tag), um Nyquist praktikabel anwenden zu können und einen Aliasing-Fehler zu vermeiden.

4. Die instrumentelle Temperaturaufzeichnung beruht auf dem historischen Verfahren der Berechnung aus den Werten der täglichen Höchst- und Tiefsttemperatur. Daher verletzt die instrumentelle Aufzeichnung das Nyquist Shannon-Sampling Theorem.

5. Das USCRN der NOAA ist ein hochwertiges Datengewinnungs-Netzwerk, welches in der Lage ist, ein Temperatursignal ordentlich zu messen. Das USCRN ist ein kleines, im Jahre 2008 vervollständigtes Netzwerk und trägt nur wenig zu der gesamten instrumentellen Aufzeichnung bei. Allerdings bieten die USCRN-Daten eine besondere Gelegenheit, Analyse-Verfahren miteinander zu vergleichen. Ein Vergleich kann erfolgen zwischen Temperatur-Mittelwerten und Trends, errechnet aus Tmax und Tmin und einem ordentlich ermittelten Signal gemäß Nyquist.

6.Mittels der Verwendung einer begrenzten Anzahl von Beispielen aus dem USCRN wurde gezeigt, dass die Verwendung von Tmax und Tmin als Datenquelle die folgenden Fehler ergeben kann im Vergleich zu einem gemäß Nyquist ermittelten Signal:

a) Einen mittleren Fehler, der von Station zu Station sowie von Tag zu Tag an einer Station variieren kann.

b) einen mittleren Fehler, der mit der Zeit variiert mit einem mathematischen Anzeichen, welches sich ändern kann (positiv/negativ)

c) Tägliche mittlere Fehler bis zu ±4°C

d) Langzeitliche Trendfehler mit einem Erwärmungs-Bias bis zu 0,24°C pro Dekade und einem Abkühlungs-Bias bis zu -0,17°C pro Dekade.

7. Die volle instrumentelle Aufzeichnung weist keine angemessen ermittelte Wertemenge auf für einen Vergleich. Es bedarf weiterer Arbeiten, um zu bestimmen, ob eine theoretische Obergrenze berechnet werden kann für den Mittelungs- und den Trendfehler, der sich ergibt bei der Anwendung des historischen Verfahrens.

8. Das Ausmaß des beobachteten Fehlers mit der damit verbundenen Größenordnung der Unsicherheit stellen den wissenschaftlichen Wert der instrumentellen Aufzeichnung in Frage sowie auch die Praxis, Mittelwerte und langzeitliche Trends aus Tmax und Tmin zu berechnen.

Referenzen:

This USCRN data can be found at the following site: https://www.ncdc.noaa.gov/crn/qcdatasets.html

NOAA USCRN data for Figure 1 is obtained here:

https://www1.ncdc.noaa.gov/pub/data/uscrn/products/subhourly01/2017/CRNS0101-05-2017-AK_Cordova_14_ESE.txt

NOAA USCRN data for Figure 4 is obtained here:

https://www1.ncdc.noaa.gov/pub/data/uscrn/products/daily01/2017/CRND0103-2017-AK_Cordova_14_ESE.txt

NOAA USCRN data for Figure 5 is obtained here:

https://www1.ncdc.noaa.gov/pub/data/uscrn/products/subhourly01/2008/CRNS0101-05-2008-WA_Spokane_17_SSW.txt

NOAA USCRN data for Figure 6 is obtained here:

https://www1.ncdc.noaa.gov/pub/data/uscrn/products/monthly01/CRNM0102-SC_Blackville_3_W.txt

————————–

Die gesamte 21 Seiten starke Studie kann hier heruntergeladen werden (PDF).

Link: https://wattsupwiththat.com/2019/01/14/a-condensed-version-of-a-paper-entitled-violating-nyquist-another-source-of-significant-error-in-the-instrumental-temperature-record/

Übersetzt von Chris Frey EIKE