Die Verschlimmbesserung der Stromversorgung

 In der Corona-Krise wird halt bis zur letzten Minute durchregiert. In einem 60-Seitigen Machwerk wird der Abstimmmaschine – ja was eigentlich? – vorgesetzt: Entwurf eines Gesetzes zur zügigen und sicheren Integration steuerbarer Verbrauchseinrichtungen in die Verteilernetze und zur Änderung weiterer energierechtlicher Vorschriften. Der Parlamentarier, der immer noch nicht genug hat, kann noch den ersten Absatz lesen, damit er glaubt er wüßte um was geht und anschließend beruhigt der Empfehlung seines Fraktionsvorsitzenden zur Abstimmung folgen.

Langsam dämmert es auch dem härtesten Energiewender, daß der Zug mit immer höherer Geschwindigkeit dem Abgrund entgegen rast. Plötzlich erkennt man, daß in der schönen, neuen Welt der Elektroautos die elektrische Energie auch noch von den Windmühlen zu den Autobatterien gelangen muß – zum Teufel, daß hätte man nun wirklich auch im Politunterricht erzählt bekommen müssen. Dafür sollen Kabel, Transformatoren und all so’n technisches Zeug nötig sein, damit der Strom aus der Steckdose kommt und die kann man nicht einmal weghüpfen. Man könnte auch sagen, jetzt kommt Klaudia, nachdem Annalena den Strom im Netz gespeichert hat und die Kobolde aus der Batterie vertrieben hat, „digitalisiert“ sie das Netz und macht es so „smart“, daß die „große Transformation“ noch gelingen mag. Betrachtet man diesen Gesetzesentwurf, sieht es allerdings eher danach aus, daß sich die Planwirtschaft wie immer, immer weiter in Details verliert. Es entsteht ein undurchdringliches, widersprüchliches Gestrüpp, in dem sich die Giftschlangen immer öfter in den eigenen Schwanz beißen.

Der notwendige Netzausbau

Langsam, ganz langsam spricht es sich rum: Wenn man alle fossilen Energieträger durch elektrische Energie ersetzen will, muß man alle Tanker, Pipelines, Züge und LKW die Kohle, Öl und Gas verteilt haben, durch Kabel ersetzen. Das ist viel mehr, als die fixe Idee, Windmühlen in die Nordsee zu stellen und damit München usw. (nur) mit Strom zu versorgen. Schon diese relativ kleine Aufgabe des Ausbaues des Hochspannungs-Übertragungsnetzes scheint für das „Land in dem wir (noch) gut und gerne leben“ eine unlösbare Aufgabe zu sein. Wenn wir aber die Elektromobilität – die Betonung liegt hier auf Mobilität – wollen, brauchen wir praktisch vor jedem Haus eine Ladestation. Wer will schon einen Kilometer von und nach einer Ladestation laufen, bevor er fahren kann? Oder ist der Einstieg in die Elektromobilität wirklich nur der Anfang von kein Auto mehr? Wenn wir gleichzeitig auch noch elektrisch heizen müssen (Wärmepumpen etc.), wird das erforderliche Kabel noch dicker. Wohl gemerkt, wir reden hier nicht über drei, vier Hochspannungstrassen in ganz Deutschland, sondern wirklich über jede Straße, die aufgegraben werden muß. Aber unsere Gesetze-Schaffenden glauben für jedes Problem eine Lösung zu besitzen. In diesem Fall heißt der Zauberstab „Digitalisierung“: Man will die Mangelwirtschaft durch Lebensmittelkarten stützen. Was zu wenig ist, wird vielen genommen um es wenigen zu teilen zu können. Im Neusprech: „Energieeffizienz“.

Das Niederspannungsnetz

All unsere Gebäude sind an das Niederspannungsnetz (400V) angeschlossen. Lediglich Großverbraucher (Krankenhäuser, Fabriken usw.) sind direkt mit dem Mittel- oder gar Hochspannungsnetz verbunden. Sie formen mit eigenen Transformatoren die Spannung auf die von ihnen benutzten Spannungsebenen um. Damit nun nicht jedes Haus einen eigenen Trafo braucht, sind die Gebäude wie Perlen auf einer Kette an jeweils ein Kabel des Niederspannungsnetzes angeschlossen. So benötigt man für jeden Ring nur eine Trafo-Station. Es war nun schon immer mit viel Erfahrung verbunden, wie dick das Kabel sein muß. Aus Erfahrung weiß man, daß nie alle in einem Haushalt vorhandenen Elektrogeräte gleichzeitig in Betrieb sind. Es ergibt sich dadurch für jedes Kabel eine „stille Reserve“, die man nun über dieses Gesetz glaubt heben zu können. Der Gedanke ist simpel: Wenn man stets den Verbrauch überwacht, kann man das Kabel bis an seine Grenzen belasten. Nähert man sich der Grenzen, werden einzelne Verbraucher zwangsweise abgeschaltet. Damit nicht einige ganz hinten runter fallen, wird von Zeit zu Zeit gewechselt. Ein Verfahren, das in jedem Entwicklungsland angewendet wird. Man nennt das wechselnde und zeitlich begrenzte Abschalten auch „Brownout“, im Gegensatz zum „Blackout“, dem totalen Ausfall. Nach dem Bekunden der Gesetze-Schaffenden will man damit Zeit gewinnen, bis ein Ausbau erfolgen kann. Will man wirklich nur das oder führt man ganz anderes im Schilde?

Produktion und Verteilung

Auch „Smarte Netze“ ändern nichts an dem Grundproblem des Sozialismus: Was (gütig und gerecht) verteilt werden soll, muß vorher produziert sein. In diesem Gesetzentwurf steht, daß die „Leistungsreduzierung“ nicht mehr als zwei Stunden pro Tag dauern darf. Sie wird euphemistisch als „Spitzenglättung“ verklärt. Ändert dieses Wort irgendetwas an einer tagelangen Dunkelflaute? Natürlich nicht, es ist nur ein Taschenspielertrick. Bei jeder Flaute müssen ausgewählte Verbraucher für die gesamte Dauer abgeschaltet werden, um wenigstens eine eingeschränkte Notversorgung aufrechterhalten zu können. Das ist nun in der Tat „alternativlos“. Die Natur läßt sich durch kein Politbüro täuschen. In dem typischen Volksverdummungsdeutsch unserer Politschranzen wird dies zu: Erst die in dieser Novellierung des §14a Energiewirtschaftsgesetz (EnWG) enthaltene Regelungsarchitektur mit der Verbesserung der Netzzustandsüberwachung in den Niederspannungsnetzen und der Schaffung der notwendigen Marktkommunikationsprozesse sowie der wirtschaftlichen, rechtlichen, technischen und der organisatorischen Voraussetzungen machen netz- und marktorientierte Flexibilitätsansätze möglich. Alles klar, ihr Ingenieure und Elektroinstallateure? Ihr müßt halt nur eure Werkzeugkästen um die „Mao-Bibel“ verstärken, dann klappt das auch mit der Stromversorgung bei euren Kunden.

Die Überwachung

Man kann ja Mangel verwalten. Das ging schon mit Bezugsscheinen in der Kriegswirtschaft. Man hat auch schon früher den Einsatz von Kraftwerken durch Rundsteueranlagen (z. B. Nachtspeicherheizungen, Wärmepumpen) optimiert. Dies wird ausdrücklich im Text mehrfach erwähnt. Wahrscheinlich notwendig, weil schon mal elektrische Nachtspeicher und Wärmepumpen ganz oben auf der rot/grünen Verbotsliste standen. Vielleicht erinnert sich der ein oder andere Genosse noch an diese Kampagnen? Jetzt also die Wende: Plötzlich ist das „Einsparen von Primärenergie“ nicht mehr aktuell, sondern nur noch die gewinnbringende Vernichtung der Überproduktion der (befreundeten) Windmüller und Sonnenbarone.

Wie gesagt, wenn es nur um die Begrenzung von Spitzenlasten gehen würde, reichen Rundsteueranlagen völlig aus. Der Netzbetreiber sendet Signale über die Stromkabel aus, die von den Empfängern in den einschlägigen Anlagen empfangen werden. Jeder Empfänger entscheidet nun, ob ihn die Nachrichten betreffen und was er abschalten bzw. drosseln soll. In diesem Gesetzesentwurf geht es jedoch um die totale Überwachung: Der aktuelle Verbrauch jedes „Smart-Meter“ – umgangssprachlich Stromzähler – soll permanent an den Netzbetreiber übertragen werden. Selbstverständlich nur für Zwecke des Netzbetriebs und streng „datengeschützt“. Wir kennen solche Versprechungen schon von der Einführung der Mobiltelefone. Vielleicht sollte man „Smart-Meter“ zukünftig verständlicher mit „Stasi-Zähler“ übersetzen. Denn es gibt einen qualitativen Unterschied zum „Smart-Phone“: Auf die Nutzung von Mobiltelefonen kann man verzichten oder sie zumindest stark einschränken. Auf einen Strom-Hausanschluss nicht. Der Rückkanal (praktisch Internet) ist zudem ein sicherheitstechnischer Albtraum. Der als Heizungsmonteur oder Elektroinstallateur getarnte Hacker oder Verfassungsschützer kann jederzeit Schad- und Überwachungssoftware einspielen. Wer das für übertrieben hält, sollte sich mal näher mit Stuxnet beschäftigen. Die militärischen Anlagen im Iran waren sicherlich besser gesichert, als die Heizungskeller und Garagen unserer Häuser. Wie gesagt, auf ein Smartphone läßt sich durchaus verzichten, ein Computer vom Netz trennen, aber die gesamte Wohnung vom Stromnetz abhängen?

Leistung und Energie

Die Leistung (kW) steht für die Investitionen – nicht nur ins Netz – und die verbrauchte elektrische Energie (kWh) für die variablen Kosten (Brennstoffe, Verschleiß etc.). Daher war die Aufteilung in bezogene Leistung und verbrauchte Energie in einem Abrechnungszeitraum bei Großabnehmern schon immer üblich. Betriebsintern ergab sich aus den Kosten für die Leistung üblicherweise eine Spitzenlastoptimierung. Aus dem Verbrauch (kWh) und der Spitzenlast (kW) in einem Abrechnungszeitraum konnte durch einfache Division ein Maßstab für die Gleichmäßigkeit gebildet werden. Mit anderen Worten: Verbrauchte der Kunde vornehmlich billige Kernkraft oder Braunkohle oder teuren Spitzenstrom, spürte er das unmittelbar auf seiner Stromrechnung. Insofern nichts neues.

Bei Kleinverbrauchern (Haushalt und Gewerbe) war es günstiger, auf solche Berechnungen zu verzichten. Aus gutem Grund. Durch die große Stückzahl half die Statistik bei der Vorhersage des Verbrauchs. Einzelne Sonderereignisse (z. B. Fußballübertragung) und außergewöhnliche Wetterereignisse (Gewitter etc.) waren ausreichend im Voraus bekannt. Andererseits hat der Kunde kaum eine sinnvolle Einflussmöglichkeit. Der Braten muß zu gegebener Zeit auf den Tisch (Weihnachtsspitze). Kopfgeburten, wie das Wäsche waschen in der Nacht, sind nicht praktikabel und werden sich deshalb nie durchsetzen. Ist das bei Elektromobilen so viel anders? Auch dort wird man Nachladen, wenn das absehbar nötig wird. Die Vorstellung, tags fahren und nachts aufladen ist schlichtweg weltfremd. Sind doch die Reichweiten (besonders im Winter) im Gegensatz zu Verbrennern viel kleiner und die „Tankzeiten“ unvergleichlich größer, um überhaupt eine Wahlmöglichkeit zu bieten. Wird jetzt durch unvorhergesehene Drosselungen die Ladezeit völlig unkalkulierbar, dürfte das ein weiteres Argument gegen den Kauf eines Elektromobils werden.

Kosten

Jede staatlich erzwungene Investition – egal ob auf der Seite des Netzes oder im eigenen Haus – muß letztendlich von uns bezahlt werden. Hinzu kommen noch die laufenden Wartungs- und Betriebskosten. Erinnert sei nur an die gesetzlich vorgeschriebene Heizkostenabrechnung bei Mietern. Kaum einem Mieter ist bekannt, daß die Kosten für die Abrechnung meist mehr als zehn Prozent der eigentlichen Heizkosten betragen. Auch diese Lizenz zum Geldschein drucken für einschlägige „Serviceunternehmen“ wurde vor Jahrzehnten zum Zwecke der Energieeinsparung und „gerechten“ Aufteilung eingeführt. Durch die flächendeckende Einführung moderner Heizsysteme und Regelungen ist die Einsparung kaum noch möglich – es sei denn, um den Preis eines deutlichen Komfortverzichts. Insofern ist das hier abgegebene Versprechen: Die Kosten für die Herstellung der Steuerbarkeit von steuerbaren Verbrauchseinrichtungen werden durch Einsparungen in den Netzentgelten und der verbesserten marktlichen Strombeschaffung mehr als kompensiert. (Seite 23) Noch viel unverschämter als die Aussage von dem Genossen Trittin über die oft zitierte Eiskugel. Es soll hier gar nicht über die erforderlichen Investitionen spekuliert werden, fragen sie einfach den Installateur ihres Vertrauens. Ansonsten wird in dem Entwurf nur so mit Milliarden Einsparungen um sich geschmissen. Wieder ein neues Perpetuum Mobile der Energiewende wird geboren.

Besonders feinsinnig wird die Verteilung der entstehenden Kosten behandelt. Es wird im Gesetzentwurf akribisch zwischen Netzanschluss und Marktlokationen unterschieden: Netzanschluss ist das Kabel von der Straße ins Haus und die wunderbare Neusprechschöpfung Marktlokationen sind die Zähler für die Wohnungen etc. Damit ist auch klar, aus welcher Ecke dieser Entwurf kommt. Es ist charakteristisch für die Grünen, möglichst oft das Wort „Markt“ in den unmöglichsten Kombinationen zu verwenden, um von ihrer Planwirtschaft abzulenken. Besonders praktisch ist es darüberhinaus, wenn ihre „Ideen“ mal wieder völlig schief gehen, vom „Marktversagen“ faseln zu können. Hier geht es eindeutig überhaupt nicht um Marktwirtschaft: Marktwirtschaft war z. B. die Einführung des Smartphone. Ein bunter Bildschirm beim Telefon war den Menschen soviel Geld wert, daß sich Schlangen vor den Geschäften bildeten. Ein Stromzähler, der nur die eigene Überwachung als Zusatznutzen bietet, wäre unverkäuflich. Jetzt sehen wir uns mal ein typischen Wohngebäude an: Den geringsten Aufwand hat der meist kommunale Betreiber des Niederspannungsnetzes mit dem Umbau des Hausanschlusses. Der Hausbesitzer kommt für die notwendigen Baumaßnahmen im Gebäude auf. Anschließend läßt sich wieder trefflich über Mieterhöhungen jammern und den Löwenanteil zahlt wieder einmal der dumme Stromverbraucher. Das Elektroauto wird damit noch unverkäuflicher – trotz gigantischer Zuschüsse der Steuerzahler – als bisher. Deshalb muß nach dem Erfolgsrezept der staatlich gewollten Unterhaltung und des betreuten Denkens (GEZ-Rundfunk) ganz schnell ein Gesetz her, welches über eine weitere Wohnungssteuer den Bürger schröpft. Wehe, wenn Michel eines Tages die Demokratie versteht und alle Mittäter einfach abwählt.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Anomalien der Meeres­oberflächen-Temperatur

Die meisten SST-Messungen werden von fahrenden Schiffen, Bojen oder Argo-Floats durchgeführt, der Referenzmittelwert wird an einem bestimmten Ort von einer Vielzahl von Instrumenten und in einer Vielzahl von Tiefen ermittelt. Im Fall von HadSST wird die Referenz für 5° mal 5° Breiten- und Längengrad „Gitterzellen“ berechnet. Die Zellen überdecken 308.025 Quadratkilometer am Äquator, ein Quadrat, das auf einer Seite 556 Kilometer lang ist. Der Abstand zwischen den einzelnen Längengraden wird kleiner, je näher wir uns den Polen nähern, aber bei 40° nördlicher oder südlicher Breite sind 5° Längengrad immer noch 425 Kilometer. Diese „Referenzzellen“ sind riesige Gebiete in den mittleren und niedrigen Breiten, aber sie sind klein in der Nähe der Pole.

Erschwerend kommt hinzu, dass die Technologie, die in den Referenzzeiträumen 1961-1990 oder 1971-2000 verwendet wurde, weit weniger genau ist als die heute durchgeführten Messungen. Tatsächlich korrigiert die NOAA die in den frühen 2000er Jahren eingeführten Argo-Float- und Driftbojen um das 6,8-fache im Vergleich zu den Schiffsdaten (Huang, et al., 2017). Das Hadley Centre sagt, dass Argo-Floats ihre Unsicherheit um 30 % reduzieren (Kennedy, Rayner, Atkinson, & Killick, 2019). Während der beiden Referenzperioden stammten fast alle Daten von Schiffen. Das bedeutet, dass die größere Ungenauigkeit der Messungen, relativ zu heute, in den 30-jährigen Referenzzeiträumen signifikant ist. Man könnte annehmen, dass die zusätzliche Unsicherheit zufällig ist, aber das ist wahrscheinlich nicht der Fall.

An Land können alle Messungen während des Referenzzeitraumes von der gleichen Wetterstation stammen. Diese Wetterstation kann sich die ganze Zeit über an genau demselben Ort befunden haben. Es gibt ernsthafte Probleme mit vielen landgestützten Wetterstationen, wie von Fall, Watts und Kollegen dokumentiert (Fall, et al., 2011), aber zumindest sind die Wetterstationen nicht ständig in Bewegung. Landgestützte Stationen sind fest, aber ihre Höhenlagen sind alle unterschiedlich und da die Lufttemperatur eine Funktion der Höhe ist, ist die Erzeugung von Anomalien zur Erkennung von Veränderungen und Trends sehr sinnvoll. Wetterstationen, auf dem Meer und an Land, sind ungleichmäßig verteilt, so dass eine Rasterung der Werte notwendig ist, wenn die Abdeckung nicht ausreicht. In einigen Gebieten, wie z. B. den Conterminous United States (CONUS), gibt es so viele Wetterstationen, dass eine Rasterung unnötig [beim EIKE in deutscher Übersetzung hier] ist und, wenn sie durchgeführt wird, sogar die Genauigkeit des berechneten durchschnittlichen Temperaturtrends verringern kann.

CONUS nimmt eine Fläche von 3,1 Millionen Quadratmeilen ein mit 11.969 Wetterstationen im GHCN (Global Historical Climatology Network). Das sind etwa 260 Quadratmeilen pro Station. Jede Station liefert ungefähr 365 Beobachtungen pro Jahr, in einigen Fällen sogar mindestens 4,4 Millionen Beobachtungen. Dies entspricht etwa 1,4 Beobachtungen pro Quadratmeile. Die Abdeckung ist ausreichend, die Stationen befinden sich an festen Standorten und sind einigermaßen genau. Der Ozean umfasst 139,4 Millionen Quadratmeilen. Im Jahr 2018 hatte HadSST insgesamt 18.470.411 Beobachtungen. Das sind etwa 0,13 Beobachtungen pro Quadratmeile oder 9 % der Abdeckung im Gebiet der kontinentalen USA.

Jede Berechnung einer Durchschnittstemperatur oder eines Temperaturtrends sollte so nah wie möglich an den ursprünglichen Messungen vorgenommen werden. Es sollten nur die erforderlichen Korrekturen und Datenmanipulationen vorgenommen werden. Mehr ist nicht besser. Die Messungen der Meeresoberflächentemperatur sind bereits auf eine Meerestiefe von 20 cm korrigiert. Ihre Referenztiefe ändert sich nicht. Die Quelle und die Qualität der Messungen an jedem Ozeanstandort ändern sich ständig. Die Berechnung der Referenztemperatur erfolgt nicht von einer einzigen Plattform, nicht einmal von einem einzigen Gerätetyp oder in einer einzigen Tiefe, so dass die Referenz sehr fehleranfällig ist und schwere Unstimmigkeiten aufweist. Wer kann schon sagen, dass die Referenztemperatur, die von den Messungen abgezogen wird, genauso genau ist wie die Messung? Es ist allgemein anerkannt, dass Bojen- und Argo-Float-Daten genauer sind als Schiffsdaten und 2018 sind die Bojen- und Float-Daten zahlreicher, das Gegenteil war von 1961-1990 der Fall (Huang, et al., 2017).

Auf den ersten Blick glauben wir, dass die Umwandlung genauer Messungen in ungenaue Anomalien ein unnötiger und verwirrender Schritt ist, der vermieden werden sollte. Als nächstes fassen wir zusammen, wie die Anomalien berechnet werden.

HadSST-Anomalien

Zunächst werden die In-situ-Messungen einer Qualitätsprüfung unterzogen, und die verbleibenden Messungen werden in 1° x 1° Breiten- und Längengrade sowie 5-Tage-Zeitabschnitte unterteilt. Der 5-Tage-Bereich wird als Pentade bezeichnet. Es gibt immer 73 Pentaden in einem Jahr, so dass Schaltjahre eine 6-tägige „Pentade“ haben (Kennedy, Rayner, Atkinson, & Killick, 2019). Die Pentaden werden zu Pseudo-Monaten gruppiert und durch Monatswerte aus teilweise mit Eis bedeckten Zellen ergänzt. Schließlich wird jede Ein-Grad-Pentade in eine Anomalie umgewandelt, indem ihr Mittelwert vom Mittelwert 1961-1990 subtrahiert wird. Die Ein-Grad-Pentad-Anomalien werden als „Superbeobachtungen“ bezeichnet (Rayner, et al., 2006). Schließlich werden die Ein-Grad-Pentaden mit einem gewichteten „korrigierten Mittel“ zu einem monatlichen Fünf-Grad-Gitter kombiniert, welches das grundlegende HadSST-Produkt darstellt. Vor der Berechnung des monatlichen Mittelwertes für die Fünf-Grad-Gitterzelle wird versucht, alle Messungen auf eine Tiefe von 20 cm zu korrigieren.

Während der letzten zwanzig Jahre enthielt die durchschnittliche besiedelte Fünf-Grad-Zelle 761 Beobachtungen, was einer Beobachtung alle 404 Quadratkilometer am Äquator entspricht. Wir halten dies subjektiv für eine gute Abdeckung und betrachten die besiedelten Zellen als solide Werte. Wie wir jedoch in unserem letzten Beitrag gesehen haben, enthält nicht jede Fünf-Grad-Zelle im Weltozean einen Gitterwert oder Beobachtungen. In runden Zahlen ausgedrückt, weisen nur 37 % der Weltozeanzellen im Jahr 2018 monatliche Werte auf, das sind 8.186 monatliche Ozeanzellen von 22.084. Man beachte, dass die polaren Zellen, die den Großteil der Zellen ohne Werte ausmachen, im Vergleich zu den Zellen in den mittleren und unteren Breitengraden flächenmäßig klein sind. Daher ist die Fläche, die von den besiedelten Zellen abgedeckt wird, viel größer als 8.186/22.084 oder 37 % des Ozeans. Ich habe die abgedeckte Fläche nicht berechnet, aber es ist wahrscheinlich mehr als die Hälfte des Weltozeans.

ERSST-Anomalien

Die grundlegenden, bei der Erstellung des ERSST-Datensatzes verwendeten Einheiten sind monatliche Bereiche von 2°x2° Breiten- und Längengraden. Für jedes Feld wird ein Durchschnitt der Jahre 1971 bis 2000 aus qualitätskontrollierten Messungen berechnet. Dieser Mittelwert wird von jeder Messung in diesem Bereich subtrahiert, um eine Anomalie zu erzeugen. Danach werden die verschiedenen Messungen (Schiff, Boje und Argo) angepasst, um den globalen Durchschnittsunterschied in ihren Werten zu berücksichtigen. Die angepassten Werte werden dann zu monatlichen 2°x2°-„Superbeobachtungen“ gemittelt. Bojen- und Argo-Daten werden um das 6,8-fache der Schiffsbeobachtungen gewichtet (Huang, et al., 2017). Seit dem Jahr 2000 dominieren Argo- und Bojendaten den ERSST-Datensatz, sowohl in Qualität als auch in Quantität. Dies ist in Abbildung 1 unseres letzten Beitrags leicht zu erkennen, da die von Argo dominierten mehrjährigen Temperaturschätzungen der Universität Hamburg und des NOAA MIMOC über die ERSST-Linie fallen. Dies wird auch von Huang, et al. bestätigt (Huang, et al., 2017).

Die für ERSST verwendeten 2°x2°-Zellen sind am Äquator 49.324 Quadratkilometer groß. Sobald der ERSST-Gitterprozess abgeschlossen ist und die Interpolationen, Extrapolationen und Ausfüllungen abgeschlossen sind, sind 10.988 Zellen von 11.374 Ozeanzellen gefüllt. Nur 3% sind Null, man vergleiche dies mit den 63% Null-Gitterzellenwerten in HadSST. Die Anzahl der Beobachtungen pro Zelle war in den Datensätzen, die ich von NOAA heruntergeladen habe, nicht verfügbar, aber das ist in ihrem Datensatz weniger wichtig, da sie einen komplizierten Gitteralgorithmus verwenden, um die Zellenwerte zu berechnen.

Die Begründung zur Erzeugung von SST-Anomalien

In den primären HadSST- oder ERSST-Referenzen wird keine Begründung für die Erstellung von SST-Anomalien angeboten, die ich gesehen habe. Sie nehmen es einfach kommentarlos in ihr Verfahren auf. Ein Grund, den wir uns vorstellen können ist, dass Anomalien es einfacher machen, die SSTs mit terrestrischen Aufzeichnungen zu kombinieren. Anomalien werden an Land aufgrund der Höhenunterschiede der Wetterstationen benötigt. Aber das hilft uns nicht bei unserer Aufgabe, die darin besteht, den durchschnittlichen globalen Ozeantemperaturtrend zu bestimmen. Landtemperaturen sind recht variabel, machen aber nur 29 % der Erdoberfläche aus.

In der WUWT-Diskussion zu meinem letzten Beitrag sagte Nick Stokes (sein Blog ist hier):
„Nur ein weiterer in einer endlosen Reihe von Gründen, warum man niemals absolute Temperaturen mitteln sollte. Sie sind zu inhomogen, und sie sind der Art und Weise ausgeliefert, wie auch immer Ihre Stichprobe ausgearbeitet wurde. Man mache das nicht, sondern man nehme zuerst die Anomalien. Sie sind viel homogener, und der ganze Kram mit Masken und fehlenden Gittern spielt keine Rolle. Das ist es, was jeder vernünftige Wissenschaftler tut.

Es stimmt also, dass die Durchschnittstemperatur schlecht definiert ist. Aber wir haben eine ausgezeichnete Vorstellung davon, ob sie sich erwärmt oder abkühlt. Das ergibt sich aus der durchschnittlichen Anomalie.“

Obwohl die Referenzperioden, 1961-1990 für HadSST und 1970-2000 für ERSST mit deutlich schlechteren und weniger konsistenten Daten berechnet wurden, als wir sie heute haben, sollen wir also immer noch Anomalien verwenden, weil sie homogener sind und weil „jeder vernünftige Wissenschaftler es tut“? Macht Homogenität die Anomalien genauer oder weniger genau? Nick sagt, dass Anomalien die Erkennung von Trends ermöglichen, unabhängig davon, wie sich das Gebiet oder die Messungen im Laufe der Zeit verändert haben. Aber die Anomalien mischen Post-Argo-Daten mit Prä-Argo-Daten.

Wie wir im letzten Beitrag gesehen haben, zeigen die Anomalien einen steigenden Temperaturtrend, aber die Messungen, gewichtet mit den Argo- und Driftbojendaten um das 6,8-fache, zeigen einen sinkenden Temperaturtrend. Was sollen wir glauben? Die neueren Messungen sind eindeutig genauer. Huang, et al. nennen die Argo-Daten „einige der besten verfügbaren Daten“. Warum werden diese guten Daten absichtlich herabgestuft, indem minderwertige Referenzmittel von den Messungen subtrahiert werden?

Nick erklärt, dass die Anomalien einen steigenden Temperaturtrend zeigen, weil sich seiner Meinung nach das Klima tatsächlich erwärmt. Er glaubt, dass die gemessenen Temperaturen eine Abkühlung zeigen, weil sich die Abdeckung der kalten Regionen mit der Zeit verbessert und dies einen künstlichen Abkühlungstrend erzeugt. Der Abkühlungstrend ist in Abbildung 1 zu sehen, die eine Darstellung der gemessenen HadSST- und ERSST-Temperaturen über derselben Ozeanregion zeigt. Nur 18% der Weltozeanzellen, im Jahr 2018, sind in Abbildung 1 dargestellt, hauptsächlich in den mittleren Breiten. Die in Abbildung 1 dargestellte Ozeanfläche ist viel größer als 18 %, da die fehlenden nördlichen und südlichsten Zellen kleinere Gebiete abdecken.

Abbildung 1. Die ERSST- und HadSST-Aufzeichnungen über dem gleichen Ozeangebiet. Beide zeigen sinkende Ozeantemperaturen. Die Linien der kleinsten Quadrate dienen nicht dazu, Linearität zu demonstrieren, sondern nur dazu, eine Steigung zu berechnen. Beide Trends liegen bei etwa -3,5 Grad C pro Jahrhundert.

Der Plot unten zeigt fast den gesamten Ozean, unter Verwendung des ERSST-Gitters, das nur 3% Nullzellen hat. Die Zellen sind größtenteils mit interpolierten und extrapolierten Werten gefüllt. Die gemessenen Temperaturen sind stark gewichtet zugunsten der hochwertigsten Argo- und Bojenmessungen.

Abbildung 2. Wenn wir die ERSST-Gittertechnik der NOAA verwenden, sehen wir einen leicht steigenden Trend bei den Oberflächentemperaturen, etwa 1,6 Grad C pro Jahrhundert.

Der ERSST-Trend von 1,6 Grad pro Jahrhundert liegt nahe dem Trend, der in den HadSST- und ERSST-Anomalien zu sehen ist, wie aus Abbildung 3 hervorgeht:

Abbildung 3. Die HadSST- und ERSST-Anomalien wurden auf den gleichen Bezugszeitraum verschoben.

Nick hat also einen Punkt. Abbildung 2 zeigt den ERSST-Trend, der größtenteils aus extrapolierten und interpolierten Daten besteht, aber fast den gesamten Ozean repräsentiert. Er zeigt eine Erwärmung von 1,6°/Jahrhundert. Dies liegt nahe an den 1,7°C/Jahrhundert, die von den HadSST-Anomalien und den ERSST-Anomalien gezeigt werden. Die eigentliche Frage ist, warum die HadSST-Anomalien, die dieselben Daten wie in Abbildung 1 verwenden und dasselbe Ozeangebiet abdecken, zunehmen? ERSST ist konsistent zwischen den Messungen und den Anomalien und HadSST ist es nicht, wie ist das passiert? Nick würde sagen, es ist die kontinuierliche Hinzufügung von polaren Daten, ich bin mir da nicht so sicher. Die Anzahl der besiedelten ERSST-Zellen nimmt nicht viel zu, und sie tendiert auch im HadSST-Gebiet nach unten.

Es ist wahrscheinlicher, dass sich die von HadSST abgedeckte Ozeanfläche abkühlt und der globale Ozean sich leicht erwärmt. Wenn das CO2 die Erwärmung verursacht und global ansteigt, warum nehmen dann die Temperaturen der Ozeane in den mittleren und niedrigen Breiten ab und die Polarregionen erwärmen sich? Siehe den letzten Beitrag, um Karten des Teils der Ozeane zu sehen, der von HadSST abgedeckt wird. Eine der Karten aus diesem Beitrag ist in Abbildung 4 dargestellt. Die weißen Bereiche in Abbildung 4 haben keine Werte im HadSST-Gitter, dies sind die Bereiche, die nicht zu Abbildung 1 beitragen. Das farbige Gebiet in Abbildung 4 zeigt eine abnehmende Ozeantemperatur.

Abbildung 4. Der farbige Bereich enthält Werte, diese Werte sind in Abbildung 1 eingezeichnet. Die weißen Bereiche enthalten keine Werte.

Erkennen wir durch die Verwendung von Anomalien einen zugrunde liegenden globalen Trend? Oder verdecken die Anomalien eine zugrunde liegende Komplexität? Man betrachte die zusätzlichen Informationen, die wir durch die Verwendung der tatsächlichen Temperaturen aufgedeckt haben. Ein Großteil des Ozeans kühlt sich ab. Global gesehen erwärmt sich der Ozean vielleicht um 1,6 bis 1,7 Grad pro Jahrhundert, kaum etwas, worüber man sich Sorgen machen müsste.

Ein weiterer zu berücksichtigender Faktor ist, dass die Anzahl der HadSST-Beobachtungen von 2000 bis 2010 stark gestiegen ist, nach 2010 sind sie einigermaßen stabil. Dies ist in Abbildung 5 zu sehen. Der Temperaturrückgang in Abbildung 1 ist jedoch sehr gleichmäßig.

Abbildung 5. Gesamte HadSST-Messungen nach Jahren

Schlussfolgerungen

In einem Punkt sind sich alle einig: Der Trend der Meeresoberflächentemperatur ist die wichtigste Einzelvariable bei der Messung des Klimawandels. Es sollte richtig und mit den besten Daten gemacht werden. Die Verwendung von minderwertigen Daten aus dem 20. Jahrhundert, um Anomalien zu berechnen, erzeugt einen Trend, der mit dem ERSST-Gitter übereinstimmt, was eine vernünftige Schätzung dessen ist, was global passiert, aber es gibt so viel Interpolation und Extrapolation in der Schätzung, dass wir nicht sicher sein können. Der Teil des Ozeans, für den wir genügend Daten haben, das HadSST-Gebiet, zeigt einen abnehmenden Trend. Das ist etwas, was man bei der Verwendung von Anomalien nicht sieht. Der abnehmende Trend ist auch in den ERSST-Daten über dem gleichen Gebiet zu sehen. Dies deutet darauf hin, dass es sich nicht um die Hinzufügung von neuen polaren Daten im Laufe der Zeit handelt, sondern um einen echten Trend für diesen Teil des Weltozeans.

Wahrscheinlich steigt die SST des gesamten Ozeans leicht an, mit der unauffälligen Rate von etwa 1,6°C/Jahrhundert. Dies zeigt sich in den Anomalien und in der ERSST-Darstellung. Aber dies ignoriert die offensichtliche Komplexität des Trends. In dem Teil des Ozeans mit den besten Daten sinkt die Temperatur. Unterm Strich wissen wir nicht sehr viel darüber, was die Ozeantemperaturen tun und wo es passiert. Da der Trend der Ozeantemperatur die wichtigste Variable bei der Feststellung des Klimawandels ist, wissen wir auch nicht viel über den Klimawandel. Nick hatte Recht, dass Anomalien in der Lage waren, den wahrscheinlichen Trend herauszupicken, vorausgesetzt, dass ERSST korrekt ist, aber durch die Verwendung von Anomalien wurden wichtige Details verschleiert.

Link: https://wattsupwiththat.com/2020/12/20/sea-surface-temperature-anomalies/

Übersetzt von Chris Frey EIKE




Die Anti-Kernkraft-Bewegung von Kernkraft überzeugen

Es ist nun fünfundsiebzig Jahre her, dass die USA den Krieg gegen Japan beendeten, indem sie Atombomben auf Hiroshima und Nagasaki abwarfen (beide Städte florieren). Acht Jahre später lud Präsident Eisenhower in seiner weltberühmten Atoms for Peace“-Rede vor den Vereinten Nationen die Bürger zur Debatte über die Nutzung der Atomwissenschaft und -technologie zur Energiegewinnung ein.

Präsident Kennedy lenkte die Aufmerksamkeit der Nation von der Kernenergie auf das Raumfahrtprogramm, aber beginnend in der Regierung Nixon (und verstärkt nach dem Ölembargo von 1973) bis zum Three-Mile-Island-Zwischenfall im Jahr 1979 genehmigten die USA die meisten der 99 Kernreaktoren in 61 Anlagen, die 2017 noch in Betrieb sind.* Als Präsident Trump sein Amt antrat, veröffentlichte das Aspen Institute einen Bericht des Inhalts: „Die Kernenergie in den USA befindet sich in einer existenziellen Krise. Wenn die gegenwärtigen Herausforderungen nicht angegangen werden, könnte die Zukunft der Kernenergie weit weniger vielversprechend sein und die überlegene nukleare Kompetenz der USA geschmälert werden.“

[*Anmerkung: Präsident Obamas Clean Energy Plan stellte Mittel für die Kernenergie zur Verfügung, einschließlich der Schaffung des Gateway for Accelerated Innovation in Nuclear (GAIN). Und 2012 genehmigte die Nuclear Regulatory Commission (NRC) trotz der Einwände des Vorsitzenden den Bau und Betrieb von zwei neuen Reaktoren im Kernkraftwerk Vogtle in Georgia durch Southern Co., dem ersten in den USA seit 1979].

Der Aspen-Bericht behauptete kühn, dass die USA ein starkes inländisches Atomprogramm brauchen, um ihre außergewöhnliche Kompetenz in Fragen der Sicherheit, der Bedrohungsminderung und der Nichtverbreitung [von Kernwaffen] zu erhalten. Sie umwarben die Umweltschützer mit dem Hinweis, dass die Kernenergie ein notwendiger Bestandteil im Kampf gegen den Klimawandel ist, wenn wir auch eine angemessene Versorgung mit bezahlbarem Strom aufrechterhalten wollen. „Eine Welt ohne Kernkraft“, so die Aspen-Autoren, „würde eine unglaubliche – und wahrscheinlich unrealistische – Menge an erneuerbaren Energien erfordern, um die Klimaziele zu erreichen.“

Die Aspen-Autoren stellten weiter fest, dass die US-Öffentlichkeit die Kernkraft generell unterstützt, aber über den Atommüll besorgt ist. Schlimmer noch, viel zu viele Kernkraftwerke in der Entwicklung haben Budgets gesprengt und sind hinter den Zeitplan zurückgefallen. Angesichts des fehlenden politischen Willens oder einer nationalen Energiekrise zu dieser Zeit setzten die Autoren ihre Hoffnung darauf, dass fortschrittliche Reaktoren, die neue Arten von Kühlmitteln verwenden und die mit anderen Drücken und Temperaturen arbeiten oder kleiner und modularer sind, eine breite Zustimmung finden würden.

Atommüll wird heute als überbewertetes, unwissenschaftliches Thema angesehen. In einer Studie aus dem Jahr 2019 argumentiert der Treuhänder des Aspen-Instituts Bill Budinger dass die Angst vor Atommüll weitgehend unbegründet ist – ein Thema, das „gewaltig übertrieben wurde, als wir versuchten, die Menschen von der Atomkraft abzuschrecken.“ Die Gesamtmenge an Atommüll, die sich in den letzten 60 Jahren in allen US-Kernkraftwerken angesammelt hat, würde in ein zweistöckiges Gebäude passen, das einen Stadtblock einnimmtt. Und Kostenüberschreitungen und Verzögerungen sind größtenteils die Folge von Anti-Atomkraft-Einstellungen, die die Vorschriften-Flut auf die Spitze getrieben haben (und die für neuere Reaktorkonstruktionen unangemessen sind).

Im April 2020 stellte Präsident Trump seine „Strategy to Restore American Nuclear Energy Leadership vor, eine Initiative zur Wiederherstellung des lange verlorenen nuklearen Wettbewerbsvorteils der USA. Der erste in dem Plan skizzierte Schritt ist die Wiederbelebung und Stärkung der US-Uranbergbauindustrie, die Unterstützung von Uranumwandlung, die Beendigung der Abhängigkeit von ausländischer Urananreicherung und der Erhalt der aktuellen Flotte von Flugzeugträgern und U-Booten mit Atomantrieb.

Unter den vielen Zielen des Trump-Plans war die Schaffung einer Uranreserve, die Straffung der Vorschriftenflut und des Landzugangs für die Urangewinnung (Abbau von Bürokratie), die Unterstützung des National Reactor Innovation Center und des Versatile Test Reactors, die Demonstration der Verwendung von Small Modular Reactors (SMRs), Mikroreaktoren zur Stromversorgung von Bundeseinrichtungen und die Hinzufügung von Schutzmaßnahmen, um zukünftiges Uran-Dumping auf dem US-Markt zu verhindern. (Die vollständige Liste findet man hier.)

Im November berichtete die Associated Press, dass das Idaho National Laboratory die erste Wahl des Energieministeriums für den Bau und Betrieb des Versatile Test Reactor (VTR) ist. Dieser erste neue Testreaktor, der seit Jahrzehnten in den USA gebaut wird, würde der Nation eine dedizierte „Fast-Neutron-Spectrum“-Testkapazität geben. Energieminister Dan Brouillette erklärte, dass der VTR „weiterhin ein Projekt von hoher Priorität für das DOE ist, um sicherzustellen, dass die Kernenergie eine Rolle im Energieportfolio unseres Landes spielt.“

In der Zwischenzeit berichtete Llewellyn King im Oktober in Forbes, dass es eine aktive Gemeinschaft von Unternehmern gibt, die Reaktoren verschiedener Bauarten (einschließlich modularer Salzschmelz-Reaktoren SMRs) vorantreiben und dabei zum Teil Startkapital für SMRs nutzen, das durch das GAIN-Programm der Obama-Ära bereitgestellt wurde. Die Zunahme privater Investitionen in die Nukleartechnologie und -entwicklung ist ein starkes Zeichen dafür, dass die Kernenergie das durch die Medien verursachte Stigma von Three Mile Island, Tschernobyl und Fukushima endlich überwunden haben könnte.*

(*Anmerkung: Wie der indische Forscher Vijay Raj Jayaraj kürzlich berichtete [in deutscher Übersetzung beim EIKE hier], geschah der Unfall von Tschernobyl zum Teil aufgrund von vorsätzlicher Fahrlässigkeit bzgl. eines fehlerhaften Reaktors. Der Umweltschützer Michael Shellenberger wies kürzlich darauf hin, dass „die Strahlung von Tschernobyl höchstens 200 Menschen töten wird, während die Strahlung von Fukushima und Three Mile Null Menschen töten wird.“ Außerdem und trotz der Tatsache, dass Hunderttausende von Frauen ihre Babys nach dem Tschernobyl-Vorfall abgetrieben haben, fanden UCLA-Forscher, dass die Kinder, die in der Nähe von Tschernobyl geboren wurden, keine nachweisbaren Anomalien während ihrer Geburt aufwiesen.“)

Und gerade in der vergangenen Woche hat das Senate Committee on Environment and Public Works des US-Senats einen überparteilichen Gesetzesentwurf, den American Nuclear Infrastructure Act (ANIA), verabschiedet, der die Initiative von Präsident Trump zur Einrichtung einer nationalen strategischen Uranreserve in den USA vorantreibt. Der Gesetzesentwurf erhielt starke Unterstützung von Vertretern der Industrie, einschließlich Amir Adnani, CEO der Uranium Energy Corp.

Adnani sagte in einer Erklärung: „Der überparteiliche [American] Nuclear Infrastructure Act ist eine weitreichende Gesetzgebung, die wichtig für die Unterstützung der US-Kernkraftindustrie, die nationale Sicherheit und saubere Energie ist. Die Gesetzgebung wird einen klaren Weg für die Umsetzung der US-Uranreserve vorgeben und eine starke Plattform zur Wiederbelebung der US-Uranindustrie bieten.“

Unter ANIA darf das Energieministerium nur Uran kaufen, das aus Anlagen gewonnen wurde, die von der Nuclear Regulatory Commission oder gleichwertigen Behörden der Vertragsstaaten lizenziert sind. Der Bezug von Uran von Unternehmen, die Russland oder China gehören, von ihnen kontrolliert werden oder deren Gerichtsbarkeit unterliegen, wäre ausgeschlossen.

Nach Ansicht mehrerer Prognostiker wird die voraussichtliche Biden-Administration die von Präsident Obama begonnene und von Präsident Trump vorangetriebene Arbeit zur Wiederbelebung und Priorisierung des US-Atomenergieprogramms fortsetzen oder sogar beschleunigen. Der progressive Analyst James Conca schrieb während des Parteitags der Demokraten, dass der Hauptunterschied zwischen Trumps und Bidens Atompolitik lediglich darin bestehe, dass Bidens Politik Teil einer Klimawandel-Agenda sei, während Trumps Fokus auf den nationalen Sicherheitselementen der Krnenergie liege.

Laut Conca „sagen alle führenden Klimawissenschaftler, dass wir den Klimawandel nicht ohne einen signifikanten Ausbau der Kernkraft angehen können, also ist die Unterstützung der Kernkraft – oder auch nicht – ein klares Signal dafür, wie ernst es einem Kandidaten mit dem Klimawandel ist und wie ernst es ihm mit der Unterstützung der Wissenschaft gegenüber bloßem Aktivismus ist.“ Er betonte weiter: „wenn die Demokraten wollen, dass ein Plan für saubere Energie überhaupt erfolgreich ist, sollte er besser die Kernenergie einschließen.“

Auch Josh Siegel, der im Washington Examiner schrieb, stimmte zu, dass „Bidens Unterstützung für die Kernkraft … einer der seltenen Fälle von energiepolitischer Kontinuität zwischen der neuen und der alten Regierung zu sein verspricht.“ Siegel räumte auch ein, dass die Demokraten, die erkannt haben, dass Wind- und Solarenergie allein nicht ausreichen, um das Stromnetz zu dekarbonisieren, ihren langjährigen Widerstand gegen die Kernkraft größtenteils aufgeben.

Es gibt nur einen Vorbehalt. Sollte Kamala Harris aus irgendeinem Grunde Biden als Oberbefehlshaber ablösen, waren ihre Antworten während des Präsidentschaftswahlkampfes 2020 auf die Frage, ob sie die Kernenergie unterstütze, nicht so zuversichtlich. Mehrfach lautete ihre Antwort: „Ja, vorübergehend, während wir die Investitionen in sauberere erneuerbare Alternativen erhöhen.“
Nicht gerade eine klingende Bestätigung oder Anerkennung der wachsenden überparteilichen Energie-Realität.

Autor: Duggan Flanakin is the Director of Policy Research at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“

Link: https://www.cfact.org/2020/12/17/nuking-the-anti-nuke-crowd/

Übersetzt von Chris Frey EIKE

 




Winter – der Erwärmungs­verweigerer?

Über die Januar-Abkühlung in höheren Luftschichten wurde bereits hier berichtet. Diese zeigt sich, wenngleich etwas schwächer, auch im Mittel der drei Wintermonate für ein größeres, etwa Mitteleuropa umfassendes Gebiet anhand der aerologischen Daten, welche der Amerikanische Wetterdienst (NOAA) weltweit bereitstellt:

Abbildung 1: Seit dem Klimasprung von 1987/88 erwärmten sich die bodennahen Luftschichten (grau, oben) noch minimal; aber schon in knapp 1.500 Metern Höhe (entspricht dem 850-hPa-Niveau) zeigt sich ein leichter (nicht signifikanter) Rückgang trotz des enorm milden, letzten Winters. Fast genauso sieht das auch in etwa 5.500 Metern Höhe aus (entspricht dem 500-hPa-Niveau, mittlere Troposphäre). Weil die Temperaturen in 5.500 Metern sehr niedrig sind, wurden ihre Werte durch einfache Addition um 22°C angehoben, damit sie mit den beiden anderen Höhenniveaus anschaulich in einer Grafik dargestellt werden konnten; der reale Trend verändert sich dadurch nicht.

Nun könnten kritische Leser einwenden, diese leichte Höhen-Abkühlung sei doch ohne Belang, da große Teile Mitteleuropas aus Tiefland bestehen. Doch halt – da sind ja noch die Gipfel unserer Mittelgebirge und die Alpen. Und wird in unseren Mainstream-Medien nicht stets unisono behauptet, wegen der immer stärkeren Winter-Erwärmung sei Wintersport bald schon unmöglich? Ein Blick auf die winterliche Temperaturentwicklung in den Bergen, stellvertretend hier Zugspitze und Sankt-Bernhard-Pass, zeigt das Gegenteil:

Abbildung 2: Seit nun schon 33 Jahren wird es im höheren Bergland etwas kälter.

Die fehlende Winter-Erwärmung blieb keinesfalls nur auf Mitteleuropa beschränkt, was folgende Beispiele illustrieren:

Abbildung 3: Totalverweigerer Zentralengland: Während sich der Winter in Deutschland bodennah wenigstens noch minimal erwärmte, verläuft die Trendlinie in Zentralengland völlig eben, trotz stark steigender CO2-Konzentrationen (grün).

Abbildung 4: Die ländliche, in den Appalachen gelegene Station Dale Enterprise erwärmte sich ebenfalls nicht.

Abbildung 5: Sapporo auf Hokkaido, ehemaliger Ausrichter der Olympischen Winterspiele, zeigt eine minimale Winter-Abkühlung.

Abbildung 6: Auch in Östersund/Mittelschweden am Ostabhang des Skandinavischen Gebirges blieben die Wintertemperaturen unverändert.

Den sprichwörtlichen Vogel aber schießt eine Station ab, an der momentan Sommer herrscht – Neumayer in der Antarktis. Im dortigen Südwinter (Juni bis August) ist eine markante, signifikante Abkühlung zu verzeichnen – aber in unserer öffentlich-rechtlichen Medienlandschaft verliert man darüber kein Sterbenswörtchen, obwohl der Winter 2020 mit minus 28,5°C dort der kälteste seit Aufzeichnungsbeginn im Jahre 1985 gewesen ist:

Abbildung 7: Signifikante Winter-Abkühlung an der von Deutschland betriebenen Neumayer-Station in der Antarktis.

Also keine Winter-Erwärmung nicht nur in weiten Teilen West-, Mittel- und Nordeuropas schon seit über drei Jahrzehnten, sondern in höheren Luftschichten gar leichte Abkühlung, und auch andernorts stagnierende oder gar fallende Wintertemperaturen. Man sollte das Ganze nicht überbewerten und deshalb muss auch keine neue Eiszeit ausgerufen werden, aber man fragt sich schon, warum in unseren ideologisch verblendeten, mit Zwangsgebühren finanzierten Medien darüber nicht berichtet wird.




Klimaschau 3 – die Tagesschau von Sebastian Lüning

Keine Vorschau zu sehen? HIER KLICKEN!