Hurrikane und Klimawandel 1: Erkennung

Das Thema tropische Zyklone ↔ Klimawandel wird regelmäßig vom IPCC und den Nationalen Zustandsberichten der USA angesprochen, ebenso wie von anderen Experten-Reports unter Führung der WMO, CLIVAR und anderen Organisationen. [CLIVAR = Climate Variability and Predictability Programme, ein Programm zur Verbesserung der Klimavorhersagen. Anm. d. Übers.] Warum bedarf es noch eines weiteren Reports zu Hurrikanen und Klimawandel? Nun, dieser hier unterscheidet sich von anderen Abschätzungen aus folgenden Gründen:

Konzentrierung auf Aspekte, welche zu den Auswirkungen bei einem Übertritt auf das Festland beitragen

Betonung geologischer Beweise und Interpretation der natürlichen Variabilität

Ein Verfahren bzgl. ,Erkennung und Zuordnung‘, welches sich nicht auf globale Klimamodelle stützt

Eine Perspektive für Zukunfts-Projektionen, welche die Unsicherheiten in Klimamodellen berücksichtigen und auch die natürliche Klima-Variabilität einschließen

Längere Ausführungen für mehr in die Tiefe gehende Erklärungen für eine nicht aus Experten bestehende Leserschaft

Historische Variabilität und Trends

Die Dokumentation der Variabilität und Trends der Hurrikan-Aktivität erfordert lange und genaue Datenreihen. Historische Informationen bzgl. der Hurrikan-Aktivität kann man folgenden Quellen entnehmen:

Satellitenbeobachtungen (seit ~1966)

Instrumenten-Messungen von Flugzeugen (seit 1944)

Instrumentelle Messungen an der Erdoberfläche – Festlands-Übertritte, Schiffe (seit dem 19. Jahrhundert)

Historische Aufzeichnungen.

Die Art und Weise der Beobachtung von Hurrikanen hat sich über die Jahre radikal verändert. Als Folge davon werden heute viele Hurrikane als solche erfasst, die man in der Vergangenheit nicht erfasst hätte. Außerdem sind Satelliten heutzutage in der Lage, kontinuierlich die Windgeschwindigkeit zu messen, womit folglich Spitzen-Windgeschwindigkeiten aufgezeichnet werden, die in der Vor-Satelliten-Zeit nicht erkannt worden wären. Unglücklicherweise verhindern temporär inkonsistente und potentiell unzuverlässige globale historische Daten die Erkennung von Trends tropischer Zyklon-Aktivität.

3.1 Global

Zuverlässige Hurrikan-Daten von Satelliten gibt es seit dem Jahr 1970, obwohl die Ableitung der Intensität von Hurrikanen vor dem Jahr 1980 als nicht zuverlässig beurteilt wird. Die Hurrikan-Intensität wird abgeleitet aus Satelliten-Beobachtungen im infraroten und sichtbaren Bereich mittels Verteilung und der Temperatur an der Obergrenze von Wolken.

Abbildung 3.1 zeigt die Zeitreihe der gesamten globalen Hurrikane und der stärksten Hurrikane. Im Mittel kommt es in jedem Jahr zu 47 Hurrikanen, wobei etwa 20 in hohe (starke) Kategorien gelangen. Man erkennt eine substantielle Variation von Jahr zu Jahr mit einem leicht abnehmenden Trend der Anzahl aller und einem leicht zunehmenden Trend der Anzahl starker Hurrikane.

Abbildung 3.2 zeigt die Zeitreihe der global Akkumulierten Zyklon-Energie [Accumulated Cyclone Energy (ACE)]. Als Integral über die Häufigkeit, Dauer und Intensität globaler Hurrikane zeigt ACE eine größere dekadische Variation als es bei der Anzahl der Hurrikane der Fall ist, wie aus Abbildung 3.1 hervorgeht. Ein ACE-Trend ist nicht erkennbar, und die jüngste Periode von 2009 bis 2015 war gekennzeichnet durch besonders niedrige ACE-Werte.

Abbildung 3.1: globale Hurrikan-Häufigkeit (alle) seit 1981 – im gleitenden Mittel über 12 Monate. Die obere Zeitreihe zeigt die globale Anzahl tropischer Zyklone, welche zumindest Hurrikan-Stärke erreichten (Windgeschwindigkeit über 64 Knoten [≈ ca. 33 m/s ≈ ca. 120 km/h ≈ 12 Bft. Anm. d. Übers.]). Die untere Zeitreihe zeigt die globale Anzahl starker Hurrikane [Kat. 3 bis 5]. Quelle: Maure (2018).

Abbildung 3.2: Akkumulierte Zyklon-Energie global und auf der Nordhemisphäre: gleitende Mittel über 24 Monate. Man beachte, dass das gezeigte Jahr den ACE-Wert der voran gegangenen 24 Monate auf der Nordhemisphäre zeigt (untere Linie/graue Kästchen) sowie die gesamten globalen Werte (obere Linie/blaue Kästchen). Die Fläche dazwischen repräsentiert den Gesamt-ACE der Südhemisphäre. Quelle: Maue (2018).

Schlussfolgerungen

Analysen sowohl der globalen als auch der regionalen Variabilität sowie der Trends der Hurrikan-Aktivität bilden die Grundlage für das Erkennen von Änderungen nebst Verständnis der Gründe dieser Änderungen.

Der relativ kurze Zeitraum der historischen Aufzeichnungen der Hurrikan-Aktivität und die zeitlich sogar noch kürzere Aufzeichnung seit der Satelliten-Ära reicht nicht aus, um abschätzen zu können, ob die gegenwärtige Hurrikan-Aktivität während der jetzigen Zwischeneiszeit ungewöhnlich ist. Ergebnisse von Analysen der Hurrikan-Aktivität der Vergangenheit im Nordatlantik an einer begrenzten Anzahl von Stellen zeigen, dass die gegenwärtig erhöhte Aktivität nicht ungewöhnlich ist, wobei es im Zeitraum von vor 3400 bis 1000 Jahren zu einer ,hyperaktiven Periode‘ gekommen war.

Die globale Hurrikan-Aktivität zeigt bzgl. Häufigkeit seit dem Jahr 1970 keine signifikanten Trends, obwohl es einige Hinweise auf eine größere Anzahl starker Hurrikane gibt sowie einer Zunahme des Prozentanteils von Hurrikanen der Kategorie 4 und 5.

Im Nordatlantik haben alle Messungen bzgl. Hurrikan-Aktivität seit 1970 zugenommen, obwohl es schon während der fünfziger und sechziger Jahre zu einem erhöhten Niveau der Aktivität gekommen war.

Link: https://judithcurry.com/2019/02/17/hurricanes-climate-change-detection/#more-24723

Übersetzt von Chris Frey EIKE




Halb Europa möchte keine Windenergie mehr

Giles Dickson sagte, dass während inzwischen immer mehr Menschen und Geschäfte von Windenergie profitieren [?], viele Dinge unter der Oberfläche „nicht richtig“ laufen.

Er fügte hinzu, dass das Wachstum von Onshore-Windenergie in Deutschland im vorigen Jahr um über die Hälfte gesunken und in UK „vollständig kollabiert“ ist. Er stellte fest, dass „das Jahr 2018 in der EU das schlimmste Jahr für neue Windenergie-Installationen war seit 2011“. Letzteres reflektierte Änderungen von Vorschriften in den EU-Mitgliedsstaaten nach einer Überprüfung der staatlichen Hilfen.

Bzgl. des Onshore-Sektors in Deutschland erklärte die Gruppe, dass „langwierige Genehmigungs-Verfahren“ und Projekte mit „langen Zeiträumen bis zur Fertigstellung“ zu einer „signifikanten Abnahme“ neuer Installationen geführt hätten. Diese sanken von 5334 MW im Jahre 2017 auf 2402 MW 2018.

Während Investitionen in zukünftige Kapazität im Jahre 2018 als „ziemlich gut“ erachtet werden dank UK, Spanien und Schweden ebenso wie der Ausweitung von Offshore-Wind, sagte Dickson, dass die Aussichten für neue Investitionen unsicher seien. „Es gibt strukturelle Probleme, vor allem in Deutschland und Frankreich. Und es fehlt in Mittel- und Osteuropa am guten Willen, mit der noblen Ausnahme von Litauen und Verbesserungen in Polen“.

Insgesamt wurden in Europa im Jahre 2018 11,7 GW Windenergie-Kapazität installiert. Während dies einen Rückgang um über 30% verglichen mit 2017 bedeutet, wurde in dem Sektor mehr Kapazität installiert als für jede andere Art der Energieerzeugung in der EU, hieß es bei WindEurope.

——————————

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/half-of-europe-no-longer-wants-wind-energy/

Übersetzt von Chris Frey EIKE




Die bevor­stehende Energie­sicherheits-Krise der NATO

Russlands Politik bzgl. Energiesicherheit

Der Westen hat sich dazu entschlossen, warnende Anzeichen nicht zu beachten, welche vor dem Vorfall in der Kerch Strait auftauchten. Eine grundlegende Warnung erfolgte im Frühjahr 2018, als Russland Teile der Ostsee für eine Feuerprobe der Navy gesperrt hatte. Dies beeinträchtigte den Luft- und Schiffsverkehr im Gebiet der Ostsee. Noch wichtiger aber war, dass die Übung absichtlich auf der geplanten Route von Nord Stream 2 stattfinden sollte. Diese Pipeline, so sie je vollendet wird, würde zu einem Eckpfeiler der Energie-Infrastruktur werden. Hinsichtlich Kapazität würde sie die Nord Stream 1-Pipeline ergänzen. Das Volumen beider Pipelines zusammen würde es Russland ermöglichen, insgesamt 110 Milliarden Kubikmeter Gas unter der Ostsee direkt in das Zentrum des deutschen Gasmarktes zu pumpen. Noch wichtiger ist, dass Nord Stream 2 es Russland gestatten würde, Gaslieferungen für andere europäische Verbraucher umzuleiten, wohin es heute noch durch Pipelines via der Ukraine strömt. Dies hätte nachteilige Auswirkungen auf die Wirtschaft der Ukraine. Transit-Gebühren und Abgaben Russlands für die Durchleitung durch das Staatsgebiet der Ukraine verschafften Kiew Einnahmen in Höhe von etwa 3 Milliarden Dollar pro Jahr. Nur zum Vergleich: Die Ausgaben für das Militär in der Ukraine beliefen sich auf insgesamt 3,6 Milliarden Dollar.

Nord Stream 2 würde es Russland auch gestatten, seinen Griff auf den europäischen Gasmarkt neu zu beleben. Zeit ist der Schlüssel in diesem Spiel, durchläuft doch der globale Gasmarkt derzeit strukturelle Änderungen. Dank der Schiefergas-Revolution haben die USA Russland bereits als den weltgrößten Gas-Erzeuger überflügelt. Gas ist ein immer stärker gehandeltes Gut dank der rapiden Entwicklung von Flüssiggas-Terminals (LNG). Im Gegensatz zur allgemeinen Ansicht hat das Jahr 2018 gezeigt, dass amerikanisches Flüssiggas durchaus wettbewerbsmäßig gegen russisches Gas nach Europa bestehen kann. Tatsächlich hat Polen im vorigen Jahr drei langfristige Verträge für die Lieferung amerikanischen Flüssiggases abgeschlossen.

Russland muss seinen Kampf gegen neue Versorger und Infrastruktur-Projekte verstärken, welche dessen Stellung unterminieren könnten. Um dieses Ziel zu erreichen und seine außenpolitische Agenda voranzutreiben, stützt sich Moskau auf drei grundlegende Pfeiler.

Erstens, man muss gegen Propaganda und Falschinformationen vorgehen. Die jüngsten mitteleuropäischen Bemühungen zur Diversifizierung riefen heftige Kritik in Medienportalen und sozialen Medien-Kanälen hervor, welche von Moskau gesponsert werden. Und das, obwohl diese Diversifizierung voll mit den Zielen der Energie-Union der EU vereinbar ist. Man versuchte zu kolportieren, dass LNG-Lieferungen nach Europa sich nicht rechnen würden. Derartige Behauptungen wurden von Vielen verworfen, darunter Piotr Woźniak, Direktor der Polish Oil and Gas Company. In vielen Verlautbarungen unterstrich er, dass Preis-Vereinbarungen von LNG aus den USA dieses Gas um 20 bis 30 Prozent billiger machen als russisches Gas, das via Weißrussland nach Polen strömt.

Zweitens, die Anwendung des „Opera Pricing“-Verfahrens – je näher man sich befindet, desto mehr zahlt man. Tatsächlich ist es so, dass Länder, die traditionell gute politische Beziehungen zu Russland pflegen, relativ niedrige Preise für ihre Gasimporte zahlen, während jene mit anderen politischen Präferenzen höhere Preise zahlen müssen. Heute steht hierbei die Ukraine im Mittelpunkt. Während der Amtszeit von Präsident Janukowitsch, stellte Gazprom 268,5 US-Dollar pro 1000 Kubikmeter in Rechnung, heute zahlt die Ukraine 485 US-Dollar für die gleiche Menge, das ist eine Steigerung um über 80%.

Und schließlich ist da noch die Einbeziehung der Energiepolitik in Russlands breiter gefasste Hybrid-Kriegführung. Bzgl. Gas verlässt sich Russland darauf, Länder einzuschüchtern, welche übermäßig abhängig sind von russischen Lieferungen, hauptsächlich durch Kürzung der Lieferungen. Russlands Aktivitäten im Energiesektor sind gekennzeichnet durch Cyber-Angriffe. Seit dem Jahr 2014 hat Russland die Ukraine zu einem Testfeld gemacht für offensive Cyber-Aktivitäten. Grundlegende Energie-Infrastrukturen wurden zur primären Zielscheibe. Die Kontrolle über Stromsysteme und Kernkraftwerke erlaubt es Hackern, die Stromversorgung der Ukraine zu kappen. Die in der Ukraine ausprobierten Verfahren werden später auf Einrichtungen der Alliierten übertragen. Anfang 2018 warfen die USA Russland vor, eine Reihe von Cyber-Attacken auf Kraftwerke und Netze auf dem Territorium der Alliierten in Europa und den USA vorgenommen zu haben.

Was kann die internationale Gemeinschaft tun?

Russlands aggressive Energiepolitik stellt ebenso wie die Bereitschaft zum Einsatz militärischer Mittel zum Schutz kritischer Infrastrukturen eine ernste Bedrohung der NATO, deren Alliierten und Partnern dar. Die NATO ist keine Energie-Organisation – und wird es auch nie sein. Aber dennoch können Entwicklungen im Bereich Energie bedeutende politische und Sicherheits-Implikationen aufweisen. Daher sollte man sich bei der NATO und deren engsten Alliierten drei Elemente überlegen.

Erstens und am Wichtigsten, man muss der Energiesicherheit bei politischen Konsultationen bei der NATO viel mehr Aufmerksamkeit widmen. Jene Diskussionen sollten dazu dienen, die Aufmerksamkeit auf Russlands Gebrauch von Energie als ein Druckmittel in dessen Außen- und Sicherheitspolitik zu erhöhen, vor allem an dessen östlicher [westlicher?] und südlicher Flanke. Die Diskussionen sollten auch helfen, Russlands Mythen und Propaganda bzgl. Energiesicherheit zu widerlegen. Eine Visite des Nordatlantischen Rates bei einem LNG-Terminal im Gebiet der Ostsee könnte hilfreich für das Erreichen beider Ziele sein. Außerdem sollte die NATO regelmäßig die Ukraine konsultieren, wenn es um Energiesicherheit geht. Dieses Thema sollte Eingang finden in die Arbeit der NATO-Ukraine-Plattform, um gegen die Hybrid-Kriegführung wirksam vorzugehen.

Julian Wieczorkiewicz is an expert in energy security. He currently works at the Permanent Delegation of the Republic of Poland to NATO. Prior to joining the Ministry of Foreign Affairs, he worked at the Centre for European Policy Studies, a leading Brussels-based think-thank, where he covered energy-related issues.

Dieser Beitrag stammt aus einem Rundbrief der GWPF. Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE




Gegenwind – Trumps „Red Team“ bzgl. Klima formiert sich

Die Initiative des National Security Coucil [etwa: Nationaler Sicherheitsrat] NSC soll Wissenschaftler zusammenrufen und beauftragen, die Ernsthaftigkeit der Klimawissenschaft zu hinterfragen, ebenso wie das Ausmaß, in dem Menschen für Klimaprobleme verantwortlich sind. Das sagten drei namentlich nicht genannte Regierungsbeamte der Post. Weiter berichtete die Zeitung, dass der Plan von Regierungsbeamten im Lageraum des Weißen Hauses diskutiert worden ist. Es soll eine modifizierte Version des leitenden NSC-Direktors und Klimawandel-Leugners [?] William Happer sein. Damit soll ein Gremium bzgl. Klimawandel und nationale Sicherheit ins Leben gerufen werden.

Der NSC lehnte es ab, den Beitrag in der Post zu kommentieren.

Auf der Sitzung hat der stellvertretende Sicherheitsberater Charles Kupperman gesagt, dass Präsident Trump empört sei, dass die [US-]Bundesregierung im vorigen Jahr den National Climate Assessment [den nationalen Klimazustands-Bericht] veröffentlicht hatte. Darin wurde davor gewarnt, dass der Klimawandel verheerende Auswirkungen auf die Wirtschaft, auf Gesundheit und Umwelt haben könnte und dass die gegenwärtigen Bemühungen, dem Klimawandel zu begegnen, unzureichend seien.

—————————

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/02/25/pushback-trumps-climate-red-team-forms/

Übersetzt von Chris Frey EIKE




Meeresspiegel und effektives N

Ich erwiderte:

Brandon, FALLS es eine solche Beschleunigung gibt, ist sie vernachlässigbar gering. Ich kann nirgendwo einen statistisch signifikanten Beweis dafür finden, dass er real ist. Allerdings „leugne“ ich überhaupt nichts*. Ich stehe lediglich nicht hinter den entsprechenden Statistiken.

[*Eschenbach drückt sich im Original etwas drastischer aus. Anm. d. Übers.]

Brandon antwortete:

,Falls es eine solche Beschleunigung gibt‘: Es gibt sie, Willis! Und ich zeige es dir gleich. – ,sie ist vernachlässigbar gering‘ Wenn du ein besseres Modell hast, wie das Klima abläuft, dann kannst du mit mir über relative Größenordnungen von Auswirkungen sprechen.

Brandon unterstrich seine nicht gestützten Behauptungen mit der folgenden Graphik der Lufttemperatur, wobei ich nicht so genau weiß warum … ich glaube, er griff hastig nach der erstbesten Graphik und verwechselte diese mit Meeresspiegel.

Nun habe ich kürzlich einen Beitrag zum Anstieg des Meeresspiegels geschrieben mit dem Titel „Inside The Acceleration Factory” [etwa: innerhalb der Beschleunigungs-Maschinerie]. Allerdings geht das Problem hinsichtlich von Behauptungen über den Meeresspiegel tiefer. Es besteht darin, dass die entsprechenden Daten in sehr hohem Maße autokorreliert sind.

„Autokorreliert“ im Zusammenhang mit einer Zeitreihe wie Meeresspiegel oder Temperatur bedeutet, dass die Gegenwart mit der Vergangenheit korreliert ist. Mit anderen Worten, Autokorrelation bedeutet, dass heiße Tage wahrscheinlicher heiße Tagen als kühle Tagen folgen, und umgekehrt. Gleiches gilt für warme und kalte Monate oder warme und kalte Jahre. Erstreckt sich eine solche Autokorrelation über lange Zeiträume, Jahre oder Jahrzehnte, nennt man das oft „langzeitliche Persistenz“ oder LTP.

Und Trends sind sehr verbreitet in LTP zeigenden Datensätzen. Eine andere Art, dies zu beschreiben, findet sich in einem Beitrag im Magazin Nature aus dem Jahr 2005 mit dem Titel „Nature’s Style: Naturally trendy“. Das kommt ziemlich genau hin. Natürliche Datensätze neigen dazu, Trends verschiedener Länge und Stärke zu zeigen aufgrund von LTP.

Und diese langzeitliche Persistenz LTP führt zu großen Problemen, wenn man zu bestimmen versucht, ob der Trend in einer gegebenen Zeitreihe statistisch signifikant ist oder nicht. Um dies zu erläutern, möchte ich das Abstract von „Naturally Trendy“ diskutieren. Die Ausschnitte daraus sind kursiv gesetzt. Es beginnt so:

Hydroklimatologische Zeitreihen zeigen oftmals Trends.

Stimmt. Zeitreihen von Durchflussmenge in Flüssen, Regenmenge, Temperatur und so weiter haben Trends.

Während die Größenordnung von Trends ziemlich genau bestimmt werden kann, ist die korrespondierende statistische Signifikanz, welche manchmal zur Untermauerung wissenschaftlicher oder politischer Argumente herangezogen wird, weniger sicher, weil die Signifikanz entscheidend abhängt von der Null-Hypothese, welche wiederum subjektive Dinge reflektiert darüber, was man zu sehen erwartet.

Halten wir hier mal kurz an. Über jedwedes vorgegebene Zeitintervall befindet sich jede wetterbezogene Zeitreihe, sei das nun Temperatur, Regenmenge oder welche Variable auch immer, in einem von zwei Zuständen:

Aufwärts oder

Abwärts.

Die relevante Frage für einen gegebenen Wetter-Datensatz lautet also niemals „zeigt sich ein Trend?“. Der zeigt sich immer, und wir können dessen Größe messen.

Die relevante Frage lautet vielmehr: ist ein vorhandener Trend ein UNGEWÖHNLICHER Trend oder spiegelt er einfach nur die natürliche Variation?

Nun haben wir Menschen einen gesamten großen Bereich der Mathematik erstellt, genannt „Statistik“, um genau diese Frage zu beantworten. Wir sind Spekulanten, und wir wollen die Möglichkeiten ausloten.

Allerdings stellt sich dann heraus, dass die Frage nach der Ungewöhnlichkeit eines Trends etwas komplizierter ist. Die wirkliche Frage lautet: ist der Trend UNGEWÖHNLICH – im Vergleich zu wem oder was?

Die gute alte mathematische Statistik beantwortet die folgende Frage: ist der Trend UNGEWÖHNLICH im Vergleich zu Zufallsdaten? Und das ist eine sehr nützliche Frage. Sie ist auch sehr genau für wirkliche Zufalls-Spielerchen wie etwa würfeln. Nehme ich einen Würfelbecher mit zehn Würfeln darin und bekomme beim Würfeln zehnmal die Augenzahl drei, würde ich sonstwas darauf wetten, dass die Würfel gezinkt sind.

ALLERDINGS – und das ist ein sehr großes allerdings – wie sieht es aus, wenn die Frage lautet, ob ein gegebener Trend ungewöhnlich nicht im Vergleich zu einer Zufalls-Zeitreihe ist, sondern zu einer autokorrelierten zufälligen Zeitreihe ist? Und im Besonderen, ist ein gegebener Trend ungewöhnlich im Vergleich zu einer Zeitreihe mit langzeitlicher Persistenz (LTP)? Sie fahren in ihrem Abstract fort:

Wir betrachten statistische Trends hydroklimatologischer Daten beim Vorhandensein von LTP.

Sie führen eine Reihe von Trend-Tests durch, um herauszufinden, wie gut diese sich im Vergleich zu Zufalls-Datensätzen mit LTP machen.

Monte Carlo-Experimente mit FARIMA-Modellen zeigen, dass Trend-Tests ohne Berücksichtigung von LTP die statistische Signifikanz beobachteter Trends mit LTP erheblich überschätzen.

Einfach gesagt, reguläre statistische Tests, die LTP nicht berücksichtigen, zeigen fälschlich signifikante Trends, obwohl diese in Wirklichkeit einfach nur natürliche Variationen sind. Im Hauptteil der Studie liest man dazu:

Noch wichtiger ist, wie Mandelbrot und Wallis (1969b, S. 230-231) beobachteten, „eine wahrnehmbare markante Charakteristik fraktionalen Rauschens ist, dass deren Beispielfunktionen eine erstaunliche Vielfalt von ,Besonderheiten‘ aller Art zeigen, einschließlich Trends und zyklischer Schwingungen mit unterschiedlichen Frequenzen“. Man kann sich leicht vorstellen, dass LTP verwechselt werden kann mit Trend.

Das ist eine sehr wichtige Beobachtung. „Fraktionales Rauschen“, also Rauschen mit LTP, enthält eine Vielfalt von Trends und Zyklen, die natürlich und im Rauschen inhärent sind. Aber diese Trends und Zyklen haben keinerlei Bedeutung für irgendetwas. Sie tauchen auf, dauern eine Weile an und verschwinden wieder. Es sind keine fixierten Trends oder permanente Trends. Sie sind die Folge der LTP und nicht extern angetrieben. Sie sind auch nicht diagnostisch – man kann nicht davon ausgehen, dass die Gegenwart von etwas, das wie ein 20-Jahre-Zyklus aussieht, ein konstantes Merkmal der Daten ist, und er kann auch nicht herangezogen werden als ein Mittel zur Vorhersage der Zukunft. Er könnte einfach ein Teil von Mandelbrots „erstaunlicher Vielfalt von Besonderheiten“ sein.

Der gebräuchlichste Weg, mit LTP umzugehen, ist der Gebrauch von etwas, was „effektives N“ genannt wird. In der Statistik „repräsentiert N die Anzahl der Datenpunkte. Haben wir also z. B. zehn Jahre mit monatlichen Datenpunkten, heißt das N = 120. Je mehr Datenpunkte man hat, desto stärker im Allgemeinen die statistischen Schlussfolgerungen … aber wenn LTP präsent ist, wird die statistische Signifikanz erheblich überschätzt. Und mit „erheblich“ kann mit regulären statistischen Verfahren leicht eine Überschätzung der Signifikanz um 25 Größenordnungen herauskommen …

Ein allgemeines Verfahren zur Berücksichtigung dieses Problems ist die Berechnung der Signifikanz derart, als ob es sich um eine viel kleinere Anzahl von Datenpunkten handelt, also ein kleineres „effektives N“. Dann führen wir die regulären statistischen Tests noch einmal durch.

Ich selbst verwende jetzt das Verfahren von Koutsoyiannis, um das „effektive N“ zu berechnen. Das hat mehrere Gründe.

Erstens, man kann es mathematisch aus bekannten Grundsätzen ableiten.

Zweitens, es ist abhängig von genau gemessenen Persistenz-Charakteristika des analysierten Datensatzes, sowohl lang- als auch kurzfristig.

Drittens, wie im Link oben schon diskutiert, war das von mir unabhängig davon entwickelte Verfahren zu diesem Zweck genau das, welches Demetris Kousoyannis schon gefunden hatte. Er wird oft erwähnt in der Studie „Naturally Trendy“.

Damit als Prolog komme ich jetzt zurück zur Frage nach dem Anstieg des Meeresspiegels. Es gibt ein paar Rekonstruktionen dieses Anstiegs. Die grundlegendsten davon stammen von Jevrejeva sowie Church und White und auch aus den TOPEX/JASON-Daten. Hier folgt eine Graphik aus dem oben erwähnten Beitrag. Sie zeigt die Daten von Tiden-Messpunkten nach Church und White:

Nun habe ich in meinem anderen Beitrag schon darauf hingewiesen, dass sich … komischerweise … mit genau dem gleichen Startpunkt wie die Satelliten-Aufzeichnungen, also 1992, der Trend in den Tiden-Daten von Church und White mehr als verdoppelt hat.

Und während diese Änderung des Trends an sich schon bedenklich ist, gibt es ein noch größeres Problem. Das zuvor erwähnte „effektive N“ ist eine Funktion von etwas, das man den „Hurst-Exponenten“ nennt. Der Hurst-Exponent ist eine Zahl zwischen Null und +1, welche die Größe der LTP anzeigt. Ein Wert von ein-halb bedeutet keine LTP. Hurst-Exponenten von Null bis ein-halb zeigen negative LTP (Wärme gefolgt von Kälte usw.) und Werte über ein-halb zeigen die Existenz von LTP (warm gefolgt von warm usw.) Je näher der Hurst-Exponent bei 1 liegt, umso mehr LTP zeigt sich in dem Datensatz.

Und wie groß ist nun der Hurst-Exponent im oben gezeigten Datensatz von Church und White? Nun, er beträgt 0,93, also fast schon 1 … ein sehr, sehr hoher Wert. Teilweise schreibe ich dies der Tatsache zu, dass jedwede globale Rekonstruktion das Mittel aus Aberhunderten Tiden-Aufzeichnungen ist. Führt man eine großräumige Mittelung durch, kann die LTP im resultierenden Datensatz verstärkt werden.

Und wie groß ist nun das effektive N, also die effektive Anzahl von Datenpunkten, in den Daten von Church und White? Beginnen wir mit „N“, also der tatsächlichen Anzahl der Datenpunkte (in unserem Fall hier Monate). In den Meeresspiegel-Daten von C&W umfasst die Anzahl der Datenpunkte 1608 Monate mit Daten, also N = 1608.

Weiter, das effektive N (normalerweise abgekürt als „Neff“) ist gleich:

N (Anzahl der Datenpunkte) hoch 2*(1 – Hurst-Exponent))

Und 2* (1 – Hurst-Exponent) ist gleich 0,137. Daraus folgt:

Neff = N(2 * (1 – Hurst-Exponent)) = 16080,137 = 2,74

Mit anderen Worten, die C&W-Daten enthalten so viel LTP, dass sie sich im Endeffekt so verhalten, als ob es nur drei Datenpunkte gäbe.

Reichen nun diese drei Datenpunkte aus, um einen Trend in den Daten bzgl. Meeresspiegel zu finden? Nun, fast, aber nicht ganz. Mit einem effektiven N von drei beträgt der p-Wert des Trends in den C&W-Daten 0,07. Dies liegt etwas oberhalb dessen, was in der Klimawissenschaft als statistisch signifikant gilt; das ist ab einem Wert von 0,05 der Fall. Und hätte man ein effektives N von vier anstatt von drei, wäre es tatsächlich statistisch signifikant mit einem p-Wert kleiner als 0,05.

Hat man jedoch nur drei Datenpunkte, reicht das noch nicht einmal aus, um zu erkennen, ob die Ergebnisse verbessert werden durch Hinzufügen eines Beschleunigungs-Terms in die Gleichung. Das Problem hierbei ist, dass man mit einer zusätzlichen Variable jetzt drei regelbare Parameter für die Berechnung kleinster Quadrate hat bei nur drei Datenpunkten. Dies bedeutet, dass man Null Freiheitsgrade hat … das funktioniert nicht.

„Leugne“ ich also, dass sich der Meeresspiegel-Anstieg auf signifikante Weise verstärkt?

Aber nein, ich leugne gar nichts. Stattdessen sage ich, dass wir nicht über die Daten verfügen, die wir brauchen, um die Frage zu beantworten, ob sich der Anstieg beschleunigt.

Gibt eine Lösung für das LTP-Problem in den Datensätzen? Nun, ja und nein. Es gibt in der Tat Lösungen, aber den Klimawissenschaftlern scheint es vorbestimmt, diese zu ignorieren. Ich kann nur vermuten, dass der Grund hierfür darin zu suchen ist, dass viele Behauptungen bzgl. signifikanter Ergebnisse zurückgezogen werden müssten, falls man die statistische Signifikanz korrekt berechnen würde. Noch einmal zu der Studie „Nature’s Style: Naturally Trendy“:

In jedem Falle gibt es aussagekräftige Trend-Tests zur Bestimmung der LTP.

Es ist daher überraschend, dass in fast jeder Abschätzung einer Trend-Signifikanz bei geophysikalischen Variablen während der letzten paar Jahrzehnte eine angemessene Berücksichtigung der LTP nicht vorhanden ist.

In der Tat, das ist überraschend, besonders wenn man sich in Erinnerung ruft, dass die Studie Naturally Trendy bereits vor 14 Jahren veröffentlicht worden ist … und die Lage hat sich seitdem nicht verbessert. LTP wird nach wie vor nicht angemessen berücksichtigt.

Noch einmal zu der Studie:

Diese Ergebnisse haben Implikationen sowohl für die Wissenschaft als auch für die Politik.

Beispiel: Hinsichtlich der Temperaturdaten gibt es überwältigende Beweise, dass sich der Planet über das vorige Jahrhundert erwärmt hat. Aber ist diese Erwärmung der natürlichen Dynamik geschuldet? Angesichts dessen, was wir über die Komplexität, langzeitlicher Persistenz und Nicht-Linearität des Klimasystems wissen, scheint die Antwort Ja! zu sein.

Ich bin sicher, dass man die Probleme sieht, welche eine derartige statistische Ehrlichkeit einem viel zu großen Teil der Mainstream-Klimawissenschaft bereitet …

Link: https://wattsupwiththat.com/2019/02/20/sea-level-and-effective-n/

Übersetzt von Chris Frey EIKE