Neue grüne Energiewelt: Rationierung aus Mangel war mal Stromsperre ist jetzt Spitzenglättung

Die Netzfrequenz von 50 Hertz ist die Regelgröße, die unter allen Bedingungen eingehalten werden muss, um einen Kollaps zu vermeiden. Dazu braucht es das Gleichgewicht von Erzeugung und Verbrauch. Da der volatile, unplanbare Anteil an der Erzeugung stetig zunimmt, die Anzahl der regelbaren Kraftwerke aber ab, müssen sich Verbraucher mit steuerbaren Verbrauchseinrichtungen künftig an der Systemregelung beteiligen. Sie können sich auch dagegen entscheiden, zahlen dann aber mehr.

Spitzenglättung wie bei Struwelpeter, Bild Strom R. Schuster, Scherenmann: Struwelpeter, Komposition EIKE Redaktion

Kurz vor Weihnachten und medial fast unbeachtet wurde das „Steuerbare-Verbrauchseinrichtungen-Gesetz (SteuVerG)“ in die Abstimmungsrunden gegeben, der zustimmende Beschluss ist absehbar. Es soll die Gleichzeitigkeit des Strombezugs bei denjenigen Stromverbrauchern beeinflussen, die steuerbar sind wie die Betreiber von Wärmepumpen, Elektroheizungen, Wallboxen oder auch die Prosumer, die nicht nur Verbraucher, sondern auch Erzeuger sind. Durch zeitweise, variable und wechselseitige Abschaltungen sollen örtliche Überlastungen wie auch ein Teil des aufwändigen Netzausbaus vermieden werden. Es ist eine Form des geregelten Brownouts, die den Blackout verhindern soll. In jedem Fall muss dieses System flächendeckend zur Anwendung kommen, denn absehbar werden Zeiten kommen, in denen unsere Nachbarländer mit der Aushilfe im deutschen Netz überfordert sein werden. Selbst in der verbrauchsarmen Weihnachtszeit schwankten Export und Import kräftig. Schoben wir am 28. Dezember 2020 noch mehr als 12 Gigawatt über die Grenzen, brauchten wir einen Tag später fast 5 Gigawatt retour. Der deutsche Außenhandelssaldo  weist beim Strom noch einen Überschuss von mehr als 19 Terawattstunden auf, geht aber seit 2017 (52 Terawattstunden) kontinuierlich zurück. Die Importmenge erhöhte sich seit 2016 von 14 auf 33 Terawattstunden. Bei diesem Strom von außen herrscht betretenes Schweigen zu seiner Herkunft. Während heimischer Atom- und Kohlestrom verteufelt wird, ist der graue Importstrom grundsätzlich positiv.

So sieht es in der Praxis aus, wenn „Wind, Sonne und Co. die Oberhand über fossile Kraftwerke erlangen“, wie strom-report.de begeistert berichtet, weil 2020 mehr als 50 Prozent des Stroms von „Erneuerbaren“ geliefert wurde. 47 Versorger erhöhen 2021 die Preise, trotz staatlicher Deckelung der EEG-Umlage. Grund sind steigende Netzentgelte.

Ein anderes Windraftvorreiterland, Dänemark, ist Vizemeister beim Strompreis und hat ähnlich starke Schwankungen des Stromsaldos zu verzeichnen. Am 29. Dezember importierte das Land ein Drittel seines gesamten Strombedarfs. Bei fünfeinhalb Millionen Einwohnern und wenig Großindustrie ist das machbar, zumal mit Norwegen und Schweden sichere Lieferanten zur Verfügung stehen.

Die Macht der Paragrafen

Der Entwurf des SteuVerG enthält 5 Artikel, die Änderungen in anderen Regularien wie zum Beispiel dem Energiewirtschaftsgesetz bewirken. Insgesamt 61 Seiten sind nötig, dies zu formulieren und erklären. Es sind dann – nach meiner Zählung und ohne Gewähr – 26 nationale Gesetze zum Energiesystem in Kraft, hinzu kommen mindestens 33 Verordnungen und 26 EU-Strategien, -Verordnungen, -Richtlinien und -Leitlinien. Noch vor zwanzig Jahren kam das Energierecht mit 200 Einzelnormen aus, heute sind es etwa 13.750. 

„Kein Staat kann ohne Recht, kein Recht ohne Staat bestehen“, wusste der alte Römer Aurelius. Tacitus. Ein anderer alter Römer und später lebend, formulierte dann wohl Erfahrungen mit dem Rechtssystem: „Der verdorbenste Staat hat die meisten Gesetze.“

Dieses Wachstum der Regularien ist allerdings folgerichtig. Die Energiewende als staatsplanerisch angelegtes Projekt zwingt zu immer weiteren Detailregelungen mit zunehmender Regelungstiefe, weil marktliche Selbstregelung nicht mehr stattfindet. Jede neue Regelung schafft Umgehungstatbestände, denen dann wiederum begegnet werden muss. Die Kreativität der Erneuerbaren-Investoren geht nicht mehr in den technischen Fortschritt (die Anlagen sind weitgehend ausentwickelt), sondern in das Anzapfen möglichst vieler Fördertöpfe und Subventionen. Dabei schützt die Politik vor eventuellen Belastungen. Selbst die in der EEG-Novelle festgelegte Vergütung, die Windkraftinvestoren an betroffene Kommunen zahlen müssen, wird über die Netzentgelte, also durch alle Stromverbraucher, finanziert.

Technisch ist es natürlich möglich, die Verbraucherseite zu regeln, die Idee des demand site managements (DSM) gibt es schon lange. Absehbar ist aber, dass man dieses Instrument nur bis zu einem gewissen Umfang ausbauen kann. Zum einen entstehen den Netzbetreibern wie den Kunden Kosten, zum anderen muss man die teilnehmenden Kunden belohnen für ihren Beitrag. Das geht realistisch nur über den Strompreis. Wer für seine regelbare Verbrauchsstelle durchgängig Strom haben möchte, wird künftig kräftig draufzahlen. Wer sich abschalten lässt zahlt weniger. Je länger, öfter und flexibler er sich abschalten lässt, umso billiger der Strom. Auch dadurch wird sich die soziale Spaltung des Landes verstärken. Wer wenig Geld hat und sparen muss, bekommt seltener Strom. Der normale Haushaltsstrom soll davon ausgenommen sein. Wie lange noch? Regelungen zu planmäßigen Lastabwürfen der Haushalte (load-shedding) sind international durchaus üblich, zum Beispiel in Südafrika.

Da seit Jahrzehnten keinerlei Aktivitäten erfolgen, die „Erneuerbaren“ grundlast- und regelfähig zu machen, wird auch das DSM an Grenzen stoßen. Wir wollen zwar mit aller Kraft dekarbonisieren, aber es gibt kein Zielbild für das künftige Energiesystem. Welcher Strommix soll es sein? Im Netz wird es zunehmend spannender, zeitweise wird es eben auch spannungslos sein.

Die Regelung und die Speicherung des Stroms verschiebt man auf das Wunderelement Wasserstoff. Für die Kohle- und Kernkraftwerke gibt es in Gesetzen fixierte Abschalttermine beziehungsweise Ausschreibungen zu solchen Terminen. Wann wir Wasserstoff aus marokkanischer oder australischer Sonnen- und Windkraft bekommen werden oder aus einem im Kongo noch zu bauenden Wasserkraftwerk samt Staudamm, wie von deutschen Politikern ins Auge gefasst, ist zeitlich offen und auf der Kostenseite nicht kalkulierbar. Aber der Glaube daran ist fest.

Das Gesetz wird problemlos den Bundestag passieren. Die praktische Umsetzung dürfte sich über viele Jahre hinziehen und die Unterdeckung im deutschen Netz wird zunehmen. Spitzenglättung in absehbaren Zeiten des Mangels bedeutet nichts anderes als Rationierung. Es klingt aber besser.

Ergänzung der Redaktion

Der Artikel erschien unter einer anderen Überschrift zuerst bei TE hier

Leser R.J. Machte dazu folgenden Vorschlag

Sehr geehrter Herr Hennig, vielen Dank für diese Analyse. Gleichwohl würde ich mich vor Pessimismus und Spott hüten wollen. Sie erwähnen den Wasserstoff. Das ist der Stoff, aus dem Wasser ist, darum heißt er ja so. Wasser kreist in der Attmossfähre wie Strom. Folglich kreist auch Stoff. Stoff ist für alle da. Doch dies nur am Rande. Alles ist mit kulturell sensibler, diskriminierungsfreier 1-2-3-viele-Mathematik genau ausgerechnet. Sie können es schon der genialen Doktorarbeit von Dr. Merkel entnehmen (die nicht ohne Grund gesperrt ist, na sehen Sie). Mit dem Kongoo ist das so. Der Staudamm hat einen Wasserstoffabscheider. Wenn das Wasser über denselben flutet, wird an ökologisch einwandfreien Nanorechen (Patent Dr. Habeck, aus natürlich gefallenem Hanf hergestellt) ganz ohne Zusatzstoffe der Wasserstoff abgestreift. Sauerstoff zum Atmen bleibt übrig. Sie fragen sich, woher die erforderliche Energie kommt. Nun, hier konnten die Physiker*innen Dr. Roth & Dr. Künast die Heisenbergsche Unschärferelation erweitern. Nach dieser kann man ja Energie borgen, wenn man sie eine Zeit später zurückgibt. Die numerischen Beträge hängen vom Planckschen Wirkungsquantum ab. Wenn man das passend vergrößert (Parteitagsbeschluss), geht das Borgen über Jahrhunderte. So schlägt man den Physikern der AfD ein Schnippchen. Ein weiterer Trick ist dabei. Im Vakuum, besonders im geistigen, entstehen laufend virtuelle Teilchen und Antiteilchen, die sich sodann annihilieren. Diese Annihilationsenergie kann man nutzen, wenn man auf beschriebene Weise die Zeitskalen streckt. Ich hörte diese geniale Idee von Prof. Altmaier und Prof. Dr. Dr. Dr. Prof. Dr. Dr. Dr. Prof. Lauterbach-Lauterbach. Es klingt wie ein Perpetuum mobile, ist aber etwas ganz anderes: ein Perpetuum merkile. In diesem Sinne: ad multos annos.

 




Abschätzung der CO2-Klimasensivität auf Basis des GLOBAL TEMPERATURE REPORTS (GTR)

Abb 1: Links: Zollstock und digitaler Mess-Schieber. Unterschied der Genauigkeit Rechts: Bearbeitung einer Welle an einer Drehbank. Quelle: Jeweils Pixabay

Zur Verdeutlichung dieser Diskrepanz ein Vergleich aus einem Bereich der Technik, der leicht verständlich ist. Um die Kupfer-Welle (Abb.1, rechts) auf der Drehbank exakt zu messen bzw. zu bearbeiten, benötigt der Arbeiter einen Mess-Schieber. Ein Zollstock ist für ihn unbrauchbar. Genau diesen Widerspruch sehen wir jedoch in der Welt der Klimaforscher. Sie verwenden sprichwörtlich den Zollstock, um die Bauteile einer hoch präzisen Maschine zu fertigen. Die ungenauen Temperatur-Daten dienen als Basis für die komplizierten Simulationen auf Groß-Computern. Zu allem Überfluss postulieren die Klimaforscher ihre Methodik als die einzig gültige Wahrheit (IPCC). Welch eine unglaubliche Farce. Der Autor hat Erfahrung im Bereich „Computational Chemistry“, ein Hilfsmittel zur theoretischen Voraussage bzw. Bestätigung von Eigenschaften unterschiedlichster Moleküle, z. B. die 3D-Struktur, Reaktivität oder innere Beweglichkeit. Bei den Anwendern von Computer-Simulationen gibt es den geflügelten Satz für eine Ausgangs-Basis mit schlechten Anfangsdaten: „Shit in, shit out.

  1. GLOBAL TEMPERATURE REPORT (GTR)

Der GLOBAL TEMPERATURE REPORT [2] zeigt in monatlicher Abfolge die berechnete globale Temperatur der unteren Atmosphäre (s. Abb.2). Verantwortlicher Wissenschaftler hinter diesen Daten ist der bekannte Klimatologe Dr. John R. Christy von der University of Alabama in Huntsville. Seit 2013 werden satelliten-basierende Temperatur-Messungen zusammengeführt, verarbeitet und auf der Homepage veröffentlicht. Christy hat zusätzlich die ab 1979 verfügbaren Satelliten-Messungen nachträglich verarbeitet. Ergebnis ist ein Säulen-Diagramm (Abb.2) mit den monatlichen Temperatur Abweichungen zur Referenz-Linie (0-Linie). Diese wird als Durchschnitts-Temperatur von 1981 bis 2010 3 errechnet. Zusätzlich wird auch eine Karten-Darstellung der Erde mit farblich gekennzeichneten Bereichen zur Verfügung gestellt. Auch für den November 2020 schön zu erkennen, die leichte Erderwärmung findet tendenziell mehr auf der Nordhalbkugel statt. Besonders in Antarktis-Nähe kühlt es eher ab. Diese These ist in vielen Veröffentlichungen bestätigt worden.

Abb 2: GLOBAL TEMPERATURE REPORT von November 2020 [2]

Abb 3: GLOBAL TEMPERATURE REPORT von November 2020. Darstellung als Karte [2]

  1. Vorteile der Satelliten-Daten

Im bereits erwähnten Vorgänger-Artikel [1] zu diesem Aufsatz wird im Kapitel 5.1.) Zuverlässigkeit der Proxy-Daten auf die Vorteile von in sich konsistenten Datensätzen eingegangen. Die GTR-Daten wurden im gesamten Erfassungs-Zeitraum vom gleichen Messgerät ermittelt, die Methodik und die Randbedingungen bleiben konstant. Systematische Fehler können daher nahezu ausgeschlossen werden. Wie auch bei den Proxy-Daten liegt in der guten Genauigkeit der relativen Änderungen innerhalb der Messreihen. Wie oft in der Naturwissenschaft ist es nicht nötig, die absoluten Daten, hier die Temperaturen, zu ermitteln. Ob zum Beispiel die mittlere Temperatur für Deutschland im Jahr 2017 14,2 °C betrug, spielt für eine mathematisch physikalische Auswertung keine Rolle. Entscheidend ist die in sich geschlossene und verlässliche Messreihe und deren korrekte Auswertung.

  1. Bearbeitung der GTR-Daten und erster Überblick

4.1.) Erster Überblick und Erkenntnisse aus den GTR-Daten

Das von Dr. Christy veröffentlichte Balken-Diagramm (Abb.2) ist extrem detailreich und folglich wenig übersichtlich. Was ist relativ schnell zu ermitteln? Die relativen Temperatur-Daten sind in den 80er und 90er Jahren überwiegend blau (negative Abweichung) und in den 2000er Jahren überwiegend rot (positive Abweichung). Im Betrachtungs-Zeitraum von 40 Jahren wurde es grob geschätzt 0,7 K wärmer. Auffallend sind die beiden extremen Temperatur-Spitzen um die Jahre 1998 und 2016. Dazu später noch mehr. Wegen der starken Schwankungen fällt es schwer, noch weitere Erkenntnisse aus dem Diagramm zu ermitteln.

4.2.) Glättung und Bearbeitung der Koordinaten-Achsen

Die monatliche Auflösung auf der X-Achse und die Darstellung des betrachteten Zeitraums von 40 Jahren sind nicht optimal. Andererseits ist die Y-Achse mit Y(min.)= -1,0K und Y(max.) = +1,0K zu wenig aufgelöst. Als besten Kompromiss fand der Autor eine Darstellung, bei der die X-Achse gestaucht, die Y-Achse gestreckt und die „zappelnden“ Messwerte geglättet sind. Das Ergebnis ist in Abb.4 dargestellt. Tatsächlich ist es nun leichter möglich, zusätzliche Erkenntnisse aus dem Graphen zu erhalten.

4.3.) El Nino und langzeit-konstante Temperaturen

Beginnen wir mit den bereits erwähnten Warm-Peaks von 1998 und 2016. Klimatologen und andere Fachleute kennen die Ursache der beiden Temperatur-Spitzen. Beide Male ist ein extrem starker „El Nino“ schuld, eine Meeresströmungs-Umkehr im Pazifik. Dieses Phänomen tritt unregelmäßig in einem Durchschnitts-Abstand von 4 Jahren auf und hat Auswirkung auf die Temperaturen der gesamten Erde. Von Anfang 1979 bis Ende 1997 (19 Jahre) blieb die mittlere Erdtemperatur erstaunlich konstant. Ausgehend von einem Mittelwert -0,1 K schwankte die Temperatur nur ca. 0,2 K nach oben oder unten. Das gleiche Bild im Zeitraum von Anfang 1999 bis Mitte 2015 (16,5 Jahre). Nach dem El Nino von 1998 ist der Level der konstanten Temperatur um ca. 0,2K angestiegen. Schließlich begann nach dem
El Nino von 2016 eine 3. Phase konstanter Temperatur, die bis heute (4,5 Jahre) anhält. Der Anstieg des Levels beträgt diesmal knapp 0,4K.

Abb 4: Bearbeitete GTR-Daten. X-Achse gestaucht, Y-Achse gestreckt, Werte geglättet.

Schließlich hilft eine lineare Regression, die Temperaturanstiegs-Tendenz grob abzuschätzen. Die Gerade hat eine Steigung von 0,0132 K/Jahr, oder etwas greifbarer 0,26 K auf 20Jahre. Noch einfacher: Ein Temperatur-Anstieg von etwa einem Kelvin auf 80 Jahre, d. h. 1 K bis zum Jahr 2100!

4.4.) Interpretation der Ergebnisse

Es darf nicht außer Acht gelassen werden, dass der Betrachtungszeitraum von 40 Jahren für die Klimatologie ein sehr kurzer Zeitraum ist. Nach Definition handelt es sich nur um 1 1/3 aufeinander folgende 30-jährige Klima-Zeiträume. Deshalb muss bei der Interpretation der Ergebnisse eine vorsichtige und kritische halbquantitative Herangehensweise im Vordergrund stehen, nicht die blanken Zahlen-Werte.

Erstaunlich sind die relativ konstanten Temperaturen in den 3 angegebenen Zeiträumen. Der Autor sieht sich nicht in der Lage, dazu eine fundierte Interpretation abzugeben. Ein Vergleich kann trotzdem angestellt werden. Die Klimaforscher (IPCC) vertreten seit 2016 die These, das anthropogen verursachte CO2 sei die alleinige Ursache des Temperatur-Anstiegs der letzten 170 Jahre. Wie erklären diese Leute die Zeiträume von 16,5 Jahren und 19 Jahren, in denen das anthropogene CO2 einerseits massiv angestiegen ist, andererseits die Temperatur nahezu konstant blieb? Kaum zu beantworten für die Klima-Alarmisten. Nun zur ermittelten Steigung von etwa einem Kelvin auf 80 Jahre. Bitte unbedingt beachten! Dieser großzügig geschätzte Anstieg von 1 K ermittelt sich unter der Annahme eines unge-bremsten anthropogenen CO2-Ausstoßes bis zum Jahr 2100! Selbst ohne CO2-Reduzierungs-Maßnahmen, ohne regenerativen Strom und ohne Elektro-Autos entsteht daraus kein Weltuntergangs-Szenario.

  1. Abschätzung der CO2-Klimasensivität mit Hilfe bearbeiteten GTR-Daten

Durch die erstaunlichen Ergebnisse bei der Auswertung der GTR-Daten war es nahezu die zwangsmäßige Folgerung, auch die CO2-Klimasensivität aus den Rohdaten zu ermitteln. Wie bereits unter 4.4.) deutlich gemacht, soll hier keine exakte Berechnung durchgeführt werden. Vielmehr eine Abschätzung der Größenordnung der CO2-Klimasensivität.

5.1.) Was ist die CO2-Klimasensivität?

Die CO2-Klimasensivität ist einfach definiert: Der Anstieg der mittleren Erdtemperatur bei Verdoppelung der CO2-Konzentration in der Atmosphäre.

Das IPCC behauptet seit ca. 30 Jahren, die CO2-Klimasensivität liegt mit 95% Wahrscheinlichkeit zwischen 1,5 K und 4,5 K, mit größerer Wahrscheinlichkeit im Bereich zwischen 3 K und 4,5 K. Inzwischen tauchen im Umfeld des IPCC Computer-Modelle auf, die von einer CO2-Klimasensivität über 6 K ausgehen. Warten wir auf den neuen IPCC-Bericht, der für das Jahr 2021 angekündigt ist.

5.2.) CO2-Klimasensivität, die zentrale Größe im Klima-Streit

Seit Greta Thunberg und „Fridays For Future“ ist die Klima-Diskussion im Bewusstsein der breiten Öffentlichkeit angekommen. Vereinfacht ausgedrückt, der angenommene Wert der CO2-Klimasensivität ist der zentrale und wichtigste Punkt der gesamten Diskussion und Auseinandersetzung zwischen den Klima-Alarmisten und Klima-Skeptikern. Sollte der wahre Wert der CO2-Klimasensivität bei 2 K oder darunter sein, erübrigt sich jeglicher Streit. Die Auswirkung des anthropogenen CO2 auf die mittlere Erdtemperatur wäre zu gering, um katastrophale Auswirkungen zu erwarten (siehe 4.4.).

5.3.) Keeling-Kurve: CO2-Konzentration der Atmosphäre seit 1958

Dr. Ralph Keeling hat 1958 begonnen an der meteorologischen Wetterstation auf dem hawaiianischen Vulkan Mauna Loa kontinuierlich die CO2-Konzentration der Atmosphäre zu messen. Deshalb wurde das Diagramm in Abb.5 auch nach ihm als Keeling-Kurve benannt. Seit 1958 steigt die CO2-Konzentration in der Atmosphäre an, hauptsächlich verursacht durch anthropogenen Ausstoß. Hauptverursacher sind Industrie (Prozess-Wärme), Heizen und Verkehr.
5.4.) Zusammenhang von CO2-Konzentration und Temperatur

Der mathematische Zusammenhang zwischen CO2-Konzentration und der Temperatur ist den Physikern und Meteorologen bereits lange bekannt. Deshalb wurde auch der Terminus „CO2-Klimasensivität“ eingeführt. Nur bei einer logarithmischen Funktion vergrößert sich der Y-Wert um einen festen Betrag, wenn der X-Wert jeweils verdoppelt wird. Der große Vorteil einer logarithmischen Funktion ist die Unabhängigkeit der Betrachtung, egal wo ein Referenzpunkt auf der X-Achse gesetzt wird. Die ideale Voraussetzung zur Auswertung der relativen GTR-Werte.
Der Zusammenhang zwischen CO
2-Konzentration und Relativ-Temperatur ist somit eine

Logarithmische CO2-Funktion F(GTR) *

Abb 5: Keeling-Kurve. CO2-Konzentration der Atmosphäre seit 1958

Dabei ist die Temperatur-Änderung, F(GTR) ein Proportionalitäts-Faktor, im vorliegenden Fall die Konstante für die GTR-Daten, die CO2-Konzentration und eine Bezugs-CO2-Konzentration.

Die Keeling-Kurve weist für das Jahr 1980 eine CO2-Konzentration von ca. 337 ppm und für das Jahr 2020 eine CO2-Konzentration von 410 ppm aus. Die Temperatur-Differenz zwischen diesen Jahren beträgt ca. 0,60 Kelvin. Somit folgt:

Mit dem ermittelten Proportionalitäts-Faktor lässt sich nun sehr einfach die zugehörige CO2-Klimasensivität berechnen.

Abb 6: Ermittelte logarithmische Funktion der CO2-Konzentration anhand der GTR-Daten Y-Achse: in Kelvin

  1. Abschätzung der CO2-Klimasensivität

Die aus den GTR-Daten ermittelte rechnerische CO2-Klimasensivität beträgt somit
2 Kelvin. Was sagt dieser Wert aus? Die Voraussetzungen für die gerade ausgeführte Berechnung müssen unbedingt beachtet und angewendet werden.

Der logarithmische Graph, der sich aus der Berechnung ergibt, ist nur dann richtig, wenn ausschließlich das anthropogene CO2 die Erderwärmung bewirkt.

Unter Klimatologen wird weltweit diskutiert und spekuliert. Realistisch betrachtet, sollten maximal 50% der Erderwärmung 4 durch Einbringung großer Mengen an anthropogenem CO2 in die Atmosphäre mit der Erwärmung in Zusammenhang stehen. Die meisten Klimatologen und Klimaskeptiker postulieren niedrigere Werte (10-40%). Somit wird basierend auf den GTR-Daten die CO2-Klimasensivität auf einen Maximal-Wert von etwa 1 Kelvin geschätzt.

7.) Schlussfolgerungen

Die Abschätzung der CO2-Klimasensivität auf Basis der satellitengestützten GTR-Daten liefert ein Ergebnis in einer sinnvollen Größenordnung. Schwäche dieser Untersuchung ist der für Klimatologen kurze Betrachtungszeitraum von 40 Jahren. Der Autor hat sich bewusst darauf beschränkt, nur die in sich konsistenten Messdaten einer einzigen Mess-Quelle zu verwenden, um den im Vorgänger-Artikel [1] ausgearbeiteten Unwägbarkeiten der konventionell gewonnenen Global-Temperaturen aus dem Weg zu gehen.

Im Vergleich zu neuen Fach-Publikationen über das Thema CO2-Klimasensivität, die 2017 von Hans Penner 6 in einem Übersichts-Artikel zusammengefasst wurden, bewegt sich das Resultat in guter Gesellschaft. Abgesehen von den Verweisen auf die Werte des IPCC und des PIK-Mitarbeiters Stefan Rahmstorff liegen die Ergebnisse für die CO2-Klimasensivität im Bereich von 0,2 Kelvin bis 1,0 Kelvin. Die vorliegende Arbeit kommt auf einen Maximalwert von etwa 1 Kelvin.

Bereits 2014 veröffentlichte Koelle eine Übersicht der Forschungs-Ergebnisse zur

CO2-Klimasensivität und den zeitlich immer kleiner werdenden Ergebnissen [7].

Abb 7: Übersicht zur Entwicklung der ermittelten CO2-Klimasensivität. Scafetta 2017 [7]

Zum Schluss ein Zitat aus der Zusammenfassung der Arbeit von Hans Penner [6]:Aus diesen Befunden wird ersichtlich, dass nach dem heutigen Stand der Wissenschaft technische Kohlendioxid-Emissionen keinen schädlichen Einfluss auf das Klima ausüben.Dem ist nichts mehr hinzuzufügen!

Literatur-Verzeichnis

[1] https://kaltesonne.de/wie-zuverlaessig-sind-die-ermittelten-globaltemperaturen-der-letzten-170-jahre/

[2] https://www.nsstc.uah.edu/climate/

[3] https://www.nsstc.uah.edu/data/msu/v6.0beta/tlt/uahncdc_lt_6.0beta5.txt

[4] https://kaltesonne.de/schweizer-klimaszenarien-ch2018-bis-zur-halfte-der-beobachteten-erwarmung-der-letzte-50-100-jahre-hat-naturliche-ursachen/

[5] https://kaltesonne.de/zwei-weitere-studien-finden-eine-stark-reduzierte-co2-klimawirkung-von-13-grad-pro-co2-verdopplung/

[6] https://www.fachinfo.eu/fi036.pdf (Dr. Hans Penner)

[7] Scafetta et al., International Journal of Heat and Technology, Sept. 2017, Vol. 35, S.18-26

 




Klimaschutz und Virenhysterie: Instrumente des kommenden Machtmodells – Teil 2

Etwas später (1979) startete George Soros die Open Society Foundations, unter der er noch heute seine Aktivitäten zur Vertiefung der Globalisierung bündelt. Diese und viele andere private und staatliche Institutionen arbeiten seit Jahrzehnten an einem neuen Herrschaftsmodell, das die im Nationalstaat gegründete, rechtstaatlich-repräsentative Demokratie ablösen soll. Was ist die Agenda dieser Vordenker, die das reichste Promille der Eigentumspyramide vertreten? [1]

Einerseits hat das bisherige Modell die Entstehung der heutigen globalen Eigentumselite ermöglicht. Andererseits erkennen deren Vordenker, dass das Modell ökonomisch wegen der ohne Staatsbankrotte nicht mehr aufzulösenden Überschuldung am Ende ist und dass es Alternativen gibt, die ihre Vorherrschaft noch deutlich besser absichern.

Das neue Herrschaftsmodell soll die Trennung von Eigentum und politischer Macht, die mit dem Ende des Absolutismus zumindest formell und teilweise auch de facto erfolgte, rückgängig machen, und Oligopoleigentum wieder mit der vollständigen politischen Macht vereinigen – wie zur Zeit des Feudalismus, aber mit besseren Herrschaftstechniken. Das Modell hat folgende essenzielle Komponenten:

  1. Eine Schwächung des Nationalstaats mit dem mittelfristigen Ziel seiner Ablösung durch supranationale Regierungsformen ohne wirksame Gewaltenteilung und effektive demokratische Kontrolle – ein Verzicht auf die „veraltete“, aufklärerische Fiktion der Volkssouveränität.
  2. Eine Ablösung der traditionellen Rechtsstaatlichkeit des Common Law (USA, Commomwealth) und des römischen Rechtsprinzips (Kontinentaleuropa und Einflussgebiete) durch politisiertes Recht in Form einer Modifikation des klassischen Rechts mit Aufhebung der Isonomie und der Einführung eines Zuteilungsrechts.
  3. Eine möglichst umfassend Kontrolle von Medien, Kultur und politischer Willensbildung. Insbesondere eine hoheitliche Definition der Realität – was real ist, soll von den Eliten gesetzt werden.
  4. Eine Verwendung der großen Mehrheit derjenigen, die kein Eigentum an Produktionsmitteln haben, als passive Angestellte und Konsumenten der möglichst globalen Unternehmen.
  5. Eine umfassende Überwachung der Bevölkerung über die Nutzung des Internets.

Dabei wird der dekonstruktivistische Westmarxismus eingesetzt, um die Reste des noch bestehenden, legitimen Modells zu diskreditieren, wie etwa bei Derrida oder Butler. Der aufklärerisch-liberale Westmarxismus wird hingegen verwendet, um das neue Herrschaftsmodell als Gipfel der Aufklärung zu idealisieren. So, wie es sich etwa in den politischen Schriften von Jürgen Habermas findet, wo er sich für den Europäischen Zentralstaat einsetzt. Die ideologische Begleitung der Herrschaftskomponenten ist ubiquitär und penetrant. Sie beruft sich nur scheinbar auf die Werte der Aufklärung.

Die optimale Verwaltung

Was sind die Motive für diese Hauptkomponenten und wie sollen sie durchgesetzt werden? Die Schwächung des Nationalstaats ist in der Europäischen Union am weitesten fortgeschritten. Das Ziel ist ein Supranationalstaat, der die optimale Verwaltung einer von der Partizipation weitgehend ausgeschlossenen Bevölkerung erlaubt. Die nicht oder nur scheinbar gewählten, von der Elite bestimmten Politiker sollen die Interessen der Eigentumseliten möglichst reibungslos durchsetzen, deutlich effektiver als im Nationalstaat.

Dabei sollen Besteuerung und Steuermittelverwendung willkürlich festgelegt werden, es soll wieder das Prinzip der „taxation without representation“ (eine Abkehr vom Bill of Rights von 1688) gelten. Dies ist in der Eurozone dank der EZB bereits partiell gelungen. Die EZB-Bilanz wird durch Gelddrucken und den Kauf von Schrott-Assets Mitte nächsten Jahres wohl das Volumen des Bruttosozialproduktes der Eurozone erreichen, was bedeutet, dass dort gewaltige zukünftige Verpflichtungen des Staates angehäuft werden. Für diese wird der Steuerzahler oder, im Fall des Staatsbankrotts, jeder Immobilienbesitzer, aufkommen müssen. Bei anderen Zentralbanken ist das Legitimitätsdefizit zwar nicht ganz so groß wie bei der EZB, weil die Institutionen national sind, doch auch diese handeln nicht im Interesse der Bürger, sondern verwerten zukünftige Steuereinnahmen. In beiden Fällen fließen die Erträge der Geldschöpfung den Reichsten und den Politikern zu. Letztere nutzen sie zum Legitimitätskauf über Staatskonsum in Form von Sozialausgaben. Die nächste Stufe des Vorgangs ist die Abschaffung des Bargeldes und die Einführung einer internationalen Fiktivwährung, die von einem demokratisch nicht legitimierten Zentralkomitee verwaltet werden könnte, wie dies etwa von Facebook, aber auch von staatlichen Akteuren und NGOs vorgeschlagen wird.

Der Umbau des klassischen abendländischen römischen Rechts und des Common Law in ein neues Willkürrecht soll es ermöglichen, gesellschaftliche Normen nicht durch spontane Herausbildung oder politische Willensbildung zu verrechtlichen, sondern Normen beliebig zu setzen. Entscheidend für die Eliten des neuen Modells ist dabei die Aufhebung der Isonomie, aber ein vollständiger Ersatz wäre nicht zielführend, da ohne Rechtsrahmen keine moderne Wirtschaft funktionieren kann. Ein wichtiges Beispiel dafür sind die (medizinisch sinnlosen) Corona-Gesetze, die fast überall im Westen ohne Beteiligung der Parlamente von den Regierungen durchgesetzt wurden. Andere Beispiele sind Energiewende, Atomausstieg oder die willkürliche Bekämpfung des Individualverkehrs durch technisch nicht umsetzbare Abgasverordnungen. An der chaotischen und widersprüchlichen Ausformulierung solcher Vorhaben lässt sich schon ablesen, welche Folgen diese Art der Normensetzung hat.

Doch insbesondere ist die Corona-Politik nicht nur Symptom des neuen Herrschaftsmodells, sondern, nachdem die Errichtung globaler Herrschaftsstrukturen mit Hilfe der Klimapanik nicht recht gelungen ist, derzeit auch deren wichtigstes Durchsetzungsmittel. Denn diese Politik beschleunigt die globale Eigentumskonzentration gewaltig, da sie große Unternehmen schützt, gleichzeitig aber kleine und mittlere, oft eigentümergeführte oder zumindest im kleinteiligen Eigentum befindliche Unternehmen zerstört. Damit geht noch mehr Eigentum an den Finanzsektor und dessen Eigentümer über. Hier nutzt der Globalismus die klassische Rechtsordnung des Westens (Schuldeintreibung statt Erlass), um die Eigentumskonzentration so lange voranzutreiben, bis man sich wesentlicher Elemente des Rechtsmodells entledigen zu können glaubt.

Gestaltete Alarmrealität

Die Kontrolle der Medien ist ein weiteres wichtiges Herrschaftsinstrument, dessen Ausbau bereits weit fortgeschritten ist. In Deutschland ist der Marktanteil von Facebook, das die hier geschilderte Herrschaftsagenda vorbildlich vertritt, an Selbstdarstellungsplattformen nahe 100 Prozent. Das Internetoligopol aus Facebook, Google, Netflix, Amazon und wenigen anderen bedient in der Wahl der Inhalte und der Art, wie Suchergebnisse angezeigt und Produkte empfohlen oder beworben werden, ebenfalls diese Ideologie. Klassische private Medien, wie die traditionellen Zeitungen und Zeitschriften, private Radio- und Fernsehsender, sind unter dem hohen Druck des dekonstruktivistischen Westmarxismus (Rassismus- und Genderkampagnen, Kampf-gegen-Rechts, Kontaktschuldkampagnen) weitgehend eingeknickt und mehrheitlich sogar begeisterte Verbreiter dieses nihilistischen Kulturmarxismus; von den staatlichen Medien ganz zu schweigen. Alle beteiligen sich an der propagandistischen Diffamierung und Diskreditierung von Kritikern des Herrschaftsgeschehens als „Rechtsextremisten“. Doch die Propaganda erreicht ein neues Niveau, wenn Tatsachen der Realität verfälscht werden, um die Subjekte besser zu kontrollieren. Orwell beschreibt es in „1984“ überdeutlich: Geschichte, Gegenwart und die Aussicht auf die Zukunft werden nach Belieben der Partei beschrieben, und die Ideologie entscheidet alleine über die Wahrnehmung der Wirklichkeit. Es wird ein Framing über die Realität gelegt, wie man neuerdings sagt. Schon heute wird die Realität des endemischen Virus SARS-CoV-X, eines medizinisch in seiner Gefährlichkeit unter der von Influenza liegenden Erregers grippaler Infekte [11], von NGOs und Regierungen zur Pandemie erklärt. Sie setzen damit die eigentliche Realität außer Kraft und ersetzen sie durch eine gestaltete Alarmrealität, die die Journalisten und Bürger dann wahrnehmen und verbreiten. Entsprechend reagieren die Bürger mit Panik und befürworten totalitäre Maßnahmen – das Herrschaftsnarrativ ist bisher erfolgreich, die Herrschaft wird stabilisiert.

Besonders radikale Befürworter des neuen Herrschaftsmodells setzen sich für weitere Migration von Menschenmassen aus Gegenden mit geringem Zivilisationsniveau in die OECD-Staaten ein. Diese Menschen, die im Westen nach Wohlstand und Frieden suchen, aber lediglich Sozialität in Form der Vergemeinschaftung kennen und nicht in der Lage sind, sich in moderne Vergesellschaftungsstrukturen einzugliedern, sollen die Zusammengehörigkeit unterminieren und dadurch die zivilgesellschaftliche Willensbildung zur Abwehr der Herrschaftsagenda verhindern.

Eine weitere Komponente des neuen Modells ist die Überwachung. Jede Aktivität im Internet, ob durch Surfen oder der Nutzung von Gegenständen, die mit dem Internet verbunden sind (Autos, Zahlungsmittel, Wearables, Haushaltsgegenstände) erzeugt Spuren, die zur Überwachung von Individuen genutzt werden können. In einer Gesellschaftsordnung ohne Repräsentation und durchgehende Rechtsstaatlichkeit ist Überwachung essenziell, um Widerstand aufzuspüren und zu brechen.

Die führenden politischen Parteien in Westeuropa und Nordamerika, die die Prinzipien der repräsentativen politischen Willensbildung und der Amtstreue im Wesentlichen im Parteienstaat ausgelöscht haben, tragen diese Herrschaftsagenda weitgehend mit [1]; die einzige echte Ausnahme ist Donald Trump, dessen Wirkungsradius allerdings beschränkt blieb.

Es handelt sich allerdings nicht um eine Verschwörung, und dieser Aufsatz skizziert keine Theorie einer solchen, sondern Vertreter von Machtinteressen und ihre Vordenker erkennen Möglichkeiten und nutzen diese.

Die Probleme des neuen Modells

Was sind die Probleme dieses Herrschaftsmodells?

Erstens Widerstand der Bürger der Nationalstaaten, die das etablierte Legitimitätsmodell behalten wollen. Dazu könnten auch die Ordnungskräfte gehören. Der dauerhafte Wechsel von einem legitimen zu einem illegitimen Modell ist schwierig. Russland und China sind keine Gegenbeispiele, denn in beiden Ländern stehen totalitärer Zentralismus und lokale Patronatsstrukturen in langer Tradition der absolutistischen Vorgängerstaaten. Zwar wurden die Eliten ausgetauscht, aber nicht die Strukturen.

Zweitens eine Erosion der ökonomischen Produktivität infolge der Effekte der Migration und der aktiven (kulturmarxistischen) Normenzerstörung im Bildungswesen, aber auch in der parlamentarischen Normengestaltung und deren exekutiver Durchsetzung. Doch ohne die hohe Produktivität der voll ausgebauten Industriegesellschaft verfällt die wichtigste Legitimitätsgrundlage der Herrschaft. So kann es von der raschen Wohlstandserosion, deren Zeugen wir gerade werden, bis zur Versorgungskrise kommen.

Drittens die mangelnde machttechnische Absicherung des Modells. Wenn es zu der Versorgungskrise kommt, auf die wir uns gerade zubewegen, werden westliche Staaten mit datensetzender, instrumenteller und autoritativer Macht und Machtmitteln wie Propaganda, Sprachkontrolle und Diffamierung nicht mehr auskommen, sondern auf die Urform der Herrschaftssicherung, die Aktionsmacht [7], zurückgreifen müssen. Wo werden dann die bewaffneten Ordnungskräfte stehen?

Teil 1 finden Sie hier.

Zuerst erschienen bei der Achse, mit freundlicher Genehmigung.

Literaturhinweise

  1. Hans Herbert von Arnim. Staat ohne Diener: was schert die Politiker das Wohl des Volkes? Rowohlt Verlag GmbH, 2018.
  2. Egon Flaig. Die Niederlage der politischen Vernunft: wie wir die Errungenschaften der Aufklärung verspielen. zu Klampen Verlag GbR, 2017.
  3. Friedrich A von Hayek. Denationalisation of money: The argument refined. Ludwig von Mises Institute, 2009.
  4. Gertrude Himmelfarb. On looking into the abyss: Untimely thoughts on culture and society. Knopf New York, 1994.
  5. Bernard Manin. The principles of representative government. Cambridge University Press, 1997.
  6. Thomas Piketty. “About capital in the twenty-first century”. In: American Economic Review 105.5 (2015), S. 48–53.
  7. Heinrich Popitz. Phänomene der Macht. Tübingen: Mohr Siebeck, 1992.
  8. Guido Preparata. The Ideology of Tyranny: Bataille, Foucault, and the Postmodern Corruption of Political Dissent. Springer, 2007.
  9. Richard Rorty. Achieving our country: Leftist thought in twentieth-century America. Harvard University Press Cambridge, MA, 1998.
  10. Murray N Rothbard. Man, economy, and state. Ludwig von Mises Institute, 2009
  11. John P. A. Ioannidis: Global perspective of COVID‐19 epidemiology for a full‐cycle pandemic, E J Clin Invest, 10/2020. https://doi.org/10.1111/eci.13423



Steigt der Meeresspiegel immer schneller? (T2/2)

<span style=“ font-size: 12pt;“>

Was zeigen Pegeldaten?

Der Vergleich wird nicht global vorgenommen, sondern exemplarisch anhand von Daten des Süd-Pazifik (grob die im Bild schwarz umrandete Region), einer laut unseren Medien und erschütternden Berichten von Regierungsvertretern dortiger Inselrepubliken auf vielen Klimagipfeln besonders schwer vom Klimawandel betroffenen Region, wie es ja auch die Satellitendaten mit der tiefroten Einfärbung ausweisen.

Bild 1 Karte der Änderungsraten der Meeresoberflächenhöhe (geozentrischer Meeresspiegel) für den Zeitraum 1993–2012 aus Satellitenaltimetriedaten. Quelle: Deutsches Klima-Konsortium: KLIMA-FAQ 13.1 | MEERESSPIEGELANSTIEG. Bild vom Autor ergänzt

Zusammengefasst wurde diese erste Sichtung (ein weiteres Kapitel mit einer zweiten folgt) anhand der Pegeldaten der Inselgruppen: Cook Islands; Fiji; Kiribaty; Marshall Islands; Tuvalu; Vanuatu; Samoa
Entnommen sind die Pegeldaten dem Australischen Pazifik-Monitoringprogramm.

Bild 2 Die verwendeten original-Pegeldaten des Australischen Pazifik-Monitoringprogrammes von 1993 – 2019 (6 Atolle). Grafik vom Autor erstellt

Anbei das Übersichtsbild der auf den Endwert normierten Pegelverläufe von Bild 2. Der Pegelanstieg über den Zeitraum 1993 – 2020 beträgt laut Regressionsgeraden 3,27 mm/pa. Falls der Verlauf so bleibt, wären das bis zum Jahr 2100 ca. 26 cm zusätzlicher Pegel.

Bild 3 Pegeldaten des Australischen Pazifik-Monitoringprogrammes von 1993 – 2019 (Datenauszug 6 Atolle und Mittelwert mit Trendgeraden). Grafik vom Autor erstellt

Eine grobe Analyse dieses Pegelverlaufs zeigt das folgende Bild. Es zeigt, dass die über den gesamten Zeitraum gelegte Regressionsgerade einen zu hohen Wert liefert. Der wirkliche Pegeltrend ergibt sich aus den Einhüllenden. Und danach wäre der Tiden-Pegelanstieg in dieser (angeblich) besonders schlimm vom Meerespegelanstieg betroffenen Region nur ca. ca. 2,1 mm/pa, bis zum Jahr 2100 also noch +16,80 cm zusätzlicher Pegel (und meilenweit entfernt von den im Bild 1 durch die Einfärbung angegebenen Pegel-Steigungsraten).

Bild 4 Pegeldaten (Mittelwert) des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019. Grafik vom Autor erstellt

Stellt man diesem Tidenpegelverlauf die Satellitendaten gegenüber, sieht man, dass die einzelnen Satelliten immer grob einen Trend-Beschleunigungszyklus überstreichen. Nimmt man den Verlauf eines Satelliten, lässt sich „herrlich“ ein hoher Trend ableiten, wie es Prof. Rahmstorf in seiner Aussage für den Spiegel gemacht hat (siehe Teil 1). Wenn man dazu skrupellos verheimlicht, dass eine solche Aussage mit ziemlicher Sicherheit als Globalwert-“Feststellung“ falsch ist, gelingt die Pegel-Alarmmeldung perfekt.

Bild 5 Pegeldaten (Mittelwert) des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019 und Satellitenpegel im gleichen Zeitmaßstab gegenübergestellt. Grafik vom Autor erstellt

In den Grafiken (des Autors) steht immer „ohne Samoa“. Der Grund anbei:
Alle Südseeatolle liegen auf einer seismisch hoch aktiven Bruchkannte (Pazifischer Feuerring). Ein latentes, regelmäßig sich wiederholendes Problem sind dort Erdbeben mit als Folge auch vertikalen Landbewegungen. Und Samoa wurde durch solche seit 1993 um ca. 25 cm „gesenkt“, also weit, weit mehr, als der Meerespegel seitdem anstieg.

Bild 6 Pegeldaten Samoa und Teil-Mittelwert des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019. Grafik vom Autor erstellt

Solche Pegelverfälschungen durch Erdbeben sind in vielen Pegeldaten (nicht nur aus) dieser Weltgegend enthalten, da die Tidenpegeldaten grundsätzlich die originalen Messwerte sind und nicht berichtigt werden (im gezeigten Mittelwertverlauf sind Erdbebeneinflüsse auch erkennbar). Dies zum Unterschied gegenüber den weltweiten Temperaturmesswerten, welche oft mit Nachbearbeitungen (auf die „richtigen Werte“ geändert) hinterlegt sind.

Bild 7 Beispiel von Erdbeben im Tidenpegelverlauf. Quelle: PSMSL-Viewer

Anmerkung: Ein nicht vernachlässigbarer, zusätzlicher Pegeldaten-Verfälschungseinfluss (oft um mehrere Zentimeter pro Jahr, Tokyo soll dadurch gar um ganze 4 m gesunken sein [7]) sind auch die vom Menschen verursachten Landsenkungen vieler (im Küstensumpf) gebauten Küstenstädte:
[Link] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[7]
) … Viele Megastädte, besonders in Asien, sind gefährdet – zum Beispiel Jakarta, Ho-Chi-Minh-Stadt und Bangkok … Tokio ist nach Jahrzehnten der Grundwasserentnahme vier Meter abgesunken. Erst als diese beendet wurde, konnte das Absinken in den 1970er-Jahren gestoppt werden. Indonesien hingegen will die Hauptstadt von Jakarta nach Borneo verlegen, unter anderem, da die Stadt zu versinken droht.

Langfristverlauf anhand von PSMSL-Pegeldaten

Die Pegeldaten des australischen Pegel-Monitoringprogrammes haben den großen Vorteil, lückenlos, gepflegt, aktuell und damit vertrauenswürdig zu sein. Leider beginnen aber alle erst mit dem Jahr 1993 und sie sind regional begrenzt.

Zeitlich längere Daten und dazu noch rund um den Globus liefert PSMSL. Allerdings sind dessen Pegeldaten eher ein Beispiel, wie wenig Wert – und das gilt besonders für die (angeblich) besonders schlimm betroffenen Gegenden – auf diese gelegt wird, denn viele Datensätze sind ganz einfach nur Datenmüll. Man muss schon gezielt nach brauchbaren suchen, um realistische Auswertungen zu erhalten.

Mit den folgenden Pegelhinterlegungen: Honolulu; Johnston Island; Christmas Island II; Rikitea; Midway Island; Wake Island (Marshall-Inseln); Malakal-B; Bundabreg, Burnett heads Austr.; Brisbane (west inner bar),
fanden sich über einen längeren Zeitraum verlaufende, leidlich konsistente und vor allem auch bis mindestens 2018 reichende Datensätze.

Informativ daraus der längste Datensatz, Honolulu:

Bild 8 Pegelverlauf Honolulu von 1905 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Alleine dieser Verlauf zeigt wieder, dass selbst in der „schlimm betroffenen“ Pazifikregion nicht entfernt von einem Pegelalarm aufgrund eines „schlimmen, sich ständig erhöhenden Pegelanstiegs“ gesprochen werden kann. Zusätzlich bestätigt wird dies durch die Pegel-Änderungs-Auswertung (äquivalent zu Bild 7 in Teil 1).
Die von Herrn Prof. Rahmstorf gemeldete, schlimme Pegelanstiegsrate von 4,8 mm/pa gibt es auch in dieser Gegend ab und zu, allerdings mit sich in Summe auf Null ausmittelndem Gesamtwert.

Bild 9 Honolulu. Pegel-Änderungsrate (Residuals) der 5Jahre-Zeitspanne als Absolutwerte und als Steigungswerte der Regessionsgeraden von 1905 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Folgendes Pegelbild veranschaulicht ein Problem der kurzen Datensätze im australischen Monitoringprogramm (diese beginnen alle mit dem Jahr 1993).

Bild 10 Pegeldaten Brisbane (Australien Ostküste) ab ca. 1965. Pegel auf das Jahr 2018 normiert. Datenquelle: PSMSL. Grafik vom Autor erstellt

Nun die Darstellung mit allen Pegeldaten:

Bild 11 Pegeldaten der zuvor gelisteten PSMSL-Datensätze mit Mittelwert und Regressionsgeraden 1947 – 2019. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Herausgehoben sieht der Mittelwertverlauf wie folgt aus:

Bild 12 PSMSL-Datensätze: Mittelwert und Regressionsgeraden ab 1947. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Die Änderungsraten wiederholen mit ihrer Zyklik den schon bekannten – unspektakulären – Verlauf des Mittelwertes um Null:

Bild 13 PSMSL-Datensätze Mittelwert: Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regessionsgeraden von 1947 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Als Abschluss zur Darstellung der „Bedrohungslage“ im Pazifikraum durch den Pegelanstieg das folgende Pegelbild. Vergleichend muss man dazu berücksichtigen, dass die seit Jahrtausenden sich jährlich wiederholenden Hurricans Flutwellen von 3 … 5 m Höhe erzeugen (neben den zusätzlich erscheinenden, ebenfalls recht regelmäßigen Tsunamis).
Anmerkung: Warum die Minimalpegel so gestuft ansteigen, ist dem Autor ein Rätsel. Vielleicht kann irgend ein kenntnissreicherer Leser*in im Kommentarblock dazu etwas mitteilen.

Bild 14 PSMSL-Datensätze: Mittelwert und Regressionsgeraden ab 1947. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Der Pegelanstieg soll aber das Hauptproblem sein und der reiche Westen als angeblich daran Schuldiger bezahlt vorsorglich dafür noch Billionen (zum Start jährlich ca. 100 Milliarden Dollar) „Ablass“ an die „betroffenen“ Länder (die auf den Klimakongressen so werbewirksam – und unwidersprochen – weinen können). Mehr Irrsinn erscheint kaum möglich (wird mit Sicherheit aber noch kommen, nachdem die von den Laien als „Fachkraft“ im Verbrennen von Geld in der EU so erfolgreich „platziert“ wurde).

Fazit

Auch die Nachschau der Tidenpegeldaten belegt eher, dass die Aussage des hohen Pegelanstiegs von Herrn Rahmstorf viel eher falsch als richtig ist. Zudem werden die Küsten nicht durch den aus 1.320 km Höhe nach endlosen Korrektur(versuchen) „gemessenen“ Satellitenpegel, sondern weiterhin nur durch den an den Küsten wirklich vorhandenen beeinflusst.

Zufügung

Der Autor sichtet seit vielen Jahren auf der immer verzweifelteren Suche nach den viel berichteten, erschütternd schlimmen Pegelanstiegen und untergegangenen Inseln recht konsequent Pegelverläufe (und berichtet die Ergebnisse auf EIKE).
Die bisherige, leider auch hier wieder zu 100 Prozent zutreffende Feststellung bleibt: Es handelt sich bei solchen Meldungen immer um betrügerische nicht der wirklichen Faktenlage entsprechenden Aussagen.

In Deutschland darf man solche aber jederzeit wiederholen und beliebig publizieren. Denn kein Fachinstitut würde es wagen, öffentlich zu widersprechen (dann wären im Merkeldeutschland Karriere und Forschungsmittel dahin):
STERN, 26.12.2020: [3] Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen
… Das CEBR (Anm.: Center for Business and Economic Research) nimmt an, dass Umweltfragen in den nächsten 15 Jahren einen ernsthaften Einfluss auf die Form der Weltwirtschaft haben werden. „Es wird erwartet, dass der Meeresspiegel bis zum Jahr 2035 um 45 cm gegenüber dem Basisjahr 2000 steigen wird. Dies steht im Vergleich zu dem geringeren Anstieg von 20 cm bis 2030, der vor zwei Jahren vorhergesagt wurde“ …
Anmerkung: Das wäre ein Pegelanstieg von 12,86 mm/pa für die berichteten 35 Jahre. Da davon schon 20 Jahre mit nur maximal 2 mm/pa vergangen sind, müsste der Pegel nun spontan mit 27 mm/pa steigen. Man würde erwarten, dass das sogar einem STERN-Redakteur auffällt. Dann hätte er den erforderlichen Alarmartikel aber nicht schreiben können, und das hat eine höhere Priorität.

Dem STEN-Artikel gegenüber ist Herr Prof. Rahmstorf mit „seinem“ Pegelanstieg wirklich noch moderat. Ein Kollege von ihm im PIK macht das aber wieder wett. Prof. Levermann hält in einer Studie mit seiner Beteiligung „denkbare“ 8,9 m Pegelanstieg bis zum Jahr 2100 für möglich (das wären ab sofort ca. 100 mm/pa nötiger Pegelanstieg):
[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

Bild 15 [6] Vorhersagen, „möglicher“ Meerespegel zum Jahr 2100. Die 8,9 m (mit Tolerierung stammen aus einer Studie unter Beteiligung von Herrn Prof. Levermann)

 

Die „Botschaft“ ist aber angekommen und ausschließlich darauf kommt es diesen Protagonisten an.

In der Frankenprawda (Nordbayerische Nachrichten) wird fast täglich in irgend einem Kommentar auch auf den schlimmen Klimawandel hingewiesen. Fehlt der Kommentar, erfolgt es in einem Artikel, Beispiel 02.01.2021, Nicole Quint (Reisereporterin, Ausbildung unbekannt): Artikel „Die Welt zu Tode liegen“, Zitat: „ … Mittel- bis Langfristig nützt eine Stelle als Zimmermädchen in einem Ressort auf den Malediven wenig, denn der Archipel droht in Folge des steigenden Meeresspiegels unterzugehen … “.
Gegendarstellung: Auf den Malediven scheint vielmehr etwas Anderes unterzugehen: EIKE 29.12.2020: Alarmismus geht auf den Malediven unter
… 97% der 186 Inseln haben entweder an Fläche zugelegt (59%) oder blieben in der Fläche unverändert (38%) …
Einfach immer das Gleiche, sowohl in der Politik wie auch bei unseren Medien: Keine Ahnung, dafür aber ein gefestigter Glaube, der sich in reinem Nachplappern äußert, was aber als (angebliche) Bildung ausgewiesen wird.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel




Warum zeigen die Wassertem­peraturen von HadSST einen Abkühlungs­trend?

Zunächst ein Blick auf die fragliche Graphik in Abbildung 1 aus dem vorigen Beitrag:

Abbildung 1. Dieser Beitrag zeigt die globale Durchschnittstemperatur für den von HadSST abgedeckten Teil des Ozeans in diesem Jahr. Es werden sowohl die HadSST-Temperaturen als auch die ERSST-Temperaturen gezeigt, aber die ERSST-Gitterwerte sind auf den von HadSST abgedeckten Bereich zugeschnitten.

Wie wir in unseren vorherigen Beiträgen besprochen hatten, haben die mit Werten besetzten HadSST-Gitterzellen die besten Daten. Die Zellen sind 5° Breitengrad- und Längengrad-Boxen. Am Äquator sind diese Zellen über 300.000 qkm groß, größer als der Staat Colorado. Wenn Nicks Idee richtig wäre, würden wir erwarten, dass die Wertemenge in den Zellen an beiden Polen zunimmt. Abbildung 2 zeigt den prozentualen Anteil des globalen Gitters (einschließlich der 29% mit Land), der mit besiedelten SST-Zellen (Meeresoberflächentemperatur) bedeckt ist, nach Jahr. Die Anzahl der fehlenden Zellen variiert nicht sehr stark, das Minimum liegt bei 44% und das Maximum bei 48%. Es gibt zwar einen Abwärtstrend von 2001-2008, aber keinen Trend danach. Abbildung 1 flacht nach 2008 zwar ab, aber man muss sich schon anstrengen, um einen Anstieg von 2008 bis 2018 zu sehen.

Abbildung 2. Die Anzahl der monatlichen Nullzellen im HadSST-Datensatz, als Prozentsatz der gesamten globalen monatlichen Zellen pro Jahr (72x36x12=31.104).

Also, keine eindeutige Aussage aus diesem Diagramm. Schauen wir uns die Null-Zellen nach Jahr und Breitengrad in Abbildung 3 an.

Abbildung 3. Die Anzahl der monatlichen Null-Zellen, nach Jahr und Breitengrad.

Abbildung 3 zeigt, dass die Null-Zellen in den Polarregionen über den Zeitraum von 2001 bis 2018 ziemlich konstant sind. Ich habe 2018 zu einer dicken schwarzen Linie und 2001 zu einer dicken roten Linie gemacht, damit man den Anfang und das Ende der Reihe deutlicher sehen kann. Die wirkliche Variabilität liegt im südlichen Indischen, Pazifischen und Atlantischen Ozean von 55°S bis 30°S. Dies sind mittlere Breiten, nicht polare Breiten. Weder 2018 noch 2001 sind Ausreißer.

Das gleiche Muster ist zu erkennen, wenn wir uns einen Film der sich verändernden Nullzellen von 2001 bis 2018 ansehen. Klicken Sie auf die Karte unten, um den Film zu sehen.

Abbildung 4. Karte mit der Anzahl der monatlichen Nullzellen im HadSST-Datensatz für das Jahr 2001. Um zu sehen, wo die Nullzellen in allen Jahren bis 2018 sind, klicken Sie auf die Karte und ein Film wird abgespielt. Wie zuvor haben die weißen Bereiche keine Nullmonate in dem jeweiligen Jahr, die blaue Farbe ist entweder ein oder zwei Nullmonate und die anderen Farben sind mehr als zwei Nullmonate. Rot bedeutet, dass die gesamte Zelle null ist. [Sollte das mit dem Film nicht funktionieren, schaue man bitte im Original. Anm. d. Übers.]

Schlussfolgerungen

Die Anzahl der Nullzellen in den Polarregionen scheint sich von 2001 bis 2018 nicht wesentlich zu ändern. Die Änderungen treten in den südlichen mittleren Breiten auf. Die Anzahl der Nullzellen, als Prozentsatz des Globus, geht von 2001 bis 2008 etwas zurück, aber nur von 48 % auf 44 %, nicht genug, um einen Trend umzukehren. Nach 2008 gibt es keinen Trend bei den Nullzellen. Von 2008 bis 2018 ist der Temperaturtrend flach und nicht abnehmend, aber angesichts der Tatsache, wo sich die Anzahl der Zellen ändert, ist es schwer zu sagen, dass dies auf die Anzahl der besiedelten Zellen in den Polarregionen zurückzuführen ist.

Der Leser kann sich seine eigene Meinung bilden, aber meiner Meinung nach haben wir immer noch keine Ahnung, was die globale Ozeanoberflächentemperatur ist, oder ob sie steigt oder sinkt.

Link: https://wattsupwiththat.com/2020/12/26/why-do-the-hadsst-sea-surface-temperatures-trend-down/

Übersetzt von Chris Frey EIKE