Die grünen NGO-Klimapropaganda-Stoßtruppen von China

Dies war keineswegs ein Einzelfall. Die unbequeme Wahrheit: Die Umweltbewegung kämpfte auf der falschen Seite des Kalten Krieges. In den frühen 1980er Jahren nutzte sie die Angst vor dem „nuklearen Winter“, um zu versuchen, Ronald Reagans nukleare Aufrüstung zu stoppen und die Fähigkeit des Westens zu untergraben, das Waffenabkommen auszuhandeln, welches den Kalten Krieg effektiv beendete. Es stellte sich heraus, dass der nukleare Winter vom KGB ausgeheckt und von Führungskräften des Rockefeller Family Fund nach Amerika übermittelt worden war. Eine 1983 abgehaltene Atomwinter-Konferenz wurde von 31 Umweltgruppen unterstützt, darunter dem Environmental Defense Fund, Friends of the Earth und dem Natural Resources Defense Council (NRDC).
Dieses Muster, bei dem die Feinde des Westens die Umweltbewegung benutzen – ob NGOs wie Greenpeace, Stiftungen oder „besorgte Wissenschaftler“, um westliche Interessen zu untergraben – wiederholt sich nun, diesmal in Bezug auf China. Ein Bericht von Patricia Adams für die in London ansässige GWPF [in deutscher Sprache beim EIKE hier vorgestellt], der Anfang dieses Monats veröffentlicht wurde, legt die Rolle der grünen Bewegung als Chinas Propagandisten offen.

Bild: GWPF

Seit Xi Jinping vor acht Jahren Generalsekretär der Kommunistischen Partei Chinas wurde, hat fast jeder, der glaubte, Chinas kommunistisches Regime würde nach innen freundlicher und nach außen weniger bedrohlich werden, seine Meinung revidiert – jeder, das heißt, außer den Klimaaktivisten. „Anstatt vorsichtig zu werden, was Chinas Rolle in der Welt angeht, überhäufen diese Gruppen es mit Lob für seine Umweltbemühungen“, bemerkt Adams. Die Leiterin der Asienstrategie von NRDC, Barbara Finamore, hat sogar ein Buch geschrieben: Will China Save the Planet? Vielleicht die einzige Überraschung hier ist das Fragezeichen.

Chinas Wirtschaft basiert auf Kohlenwasserstoffen, die für 86% des Primärenergieverbrauchs stehen. China hat in den ersten sechs Monaten des Jahres 2020 11,4 Gigawatt an neuer Kohlekapazität hinzugefügt (im Gegensatz dazu wurden in den USA im gesamten Jahr 2019 15,1 GW an Kohlekapazität stillgelegt). Chinesische staatliche Energieversorger erweitern ihre Kohleflotten in den nächsten fünf Jahren um etwa 10%. Peking investiert stark in Ölraffinerie-Kapazitäten und verfügt nun über die größten Raffinerie-Kapazitäten nach den USA. China ist auch der weltweit größte Importeur von Erdgas. […]

Die Frage für die kommende Biden-Regierung lautet, wie Amerika reagieren soll: Als kleines Land, oder als Großmacht? Der Klimawandel ist eine nationale Sicherheitsbedrohung, aber nicht so, wie das nationale Sicherheitsestablishment denkt. Der obsessive Fokus auf den Klimawandel bedroht die vitalen Interessen der Vereinigten Staaten, indem er die nationalen Sicherheitsexperten für geopolitische Realitäten desensibilisiert und sie der Illusion einer planetarischen Rettung unterordnet. China und seine NGO-Verbündeten werden sich hüten, um sie von dieser Illusion zu befreien.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/rupert-darwall-chinas-green-ngo-climate-propaganda-enablers/

Übersetzt von Chris Frey EIKE




Klimamodelle: Von warmen Polen und kalten Tropen

Eine der Freuden von Diskussionen mit Klimawissenschaftlern ist, dass man einen Einblick in ihre Denkweise bekommt. Nehmen Sie zum Beispiel das oft postulierte: „Man sollte sich das große Ganze ansehen“. Was viele Klimawissenschaftler damit meinen, ist die Betrachtung der neuesten super-duper Ozean-Atmosphäre gekoppelten Modelle mit zeilenweisen Strahlungstransfer-Codes und was nicht noch alles. Ohne das, so die Behauptung, kann man nicht verstehen, wie das Klimasystem funktioniert. Seltsamerweise bedeutet „das große Ganze betrachten“ für einen Physiker wie mich genau das Gegenteil: das zu betrachtende System auf das Wesentliche zu reduzieren und Erkenntnisse über sein Innenleben aus der zugrundeliegenden Physik zu gewinnen, ohne sich von Details ablenken zu lassen.

Was ist hier also das große Ganze? In ihrer einfachsten Form ist die Erde ein Wärmeübertragungssystem im Nicht-Gleichgewicht (aber in einem stabilen Zustand), in dem Wärme (überwiegend) in den Äquatorregionen eintritt und Wärme (überwiegend) an den Polen verloren geht. Im Inneren wird die Wärme durch atmosphärische und ozeanische Strömungen von den Tropen zu den Polen transportiert, wodurch die Tropen abgekühlt und die Polarregionen erwärmt werden. Ohne diesen Transport würde die lokale Temperatur nur durch das Gleichgewicht zwischen Sonneneinstrahlung und Strahlungsverlusten bestimmt, wodurch die Tropen wärmer wären als sie sind und die Pole kälter. Die Tropen sind kühler, als sie es ohne diesen Transport wären, während die Polarregionen wärmer sind. Daher: kalte Tropen und warme Pole.

Jetzt kommt das Rätsel: Der Wärmetransport zwischen Tropen und Polargebieten wird durch deren Temperaturdifferenz bestimmt. Je größer diese ist, desto größer ist der Wärmestrom. Der Wärmetransport verringert aber diese Temperaturdifferenz und wirkt damit seiner eigenen Verursachung entgegen. Betrachten wir z. B. den Grenzfall eines sehr großen Wärmestroms, bei dem die Wärmeübertragung praktisch augenblicklich erfolgt. Als Ergebnis hätten die Pole die gleiche Temperatur wie die Tropen, aber dann kann es überhaupt keinen Wärmestrom geben, weil dieser durch eine Temperaturdifferenz angetrieben wird. Wir haben also einen Widerspruch. Von der umgekehrten Situation auszugehen, dass es keinen Wärmestrom gibt, ist ebenfalls unhaltbar, weil die große Temperaturdifferenz einen Wärmestrom hervorruft. Es gibt aber einen Wärmestrom, der daher mit der von ihm verursachten Temperaturdifferenz konsistent sein muss. Ein kleinerer Temperaturunterschied ist nicht möglich, denn das würde den Wärmestrom verringern und damit die Differenz wieder vergrößern; und ein größerer Temperaturunterschied würde den Wärmestrom vergrößern und damit verringern. Dies deutet stark darauf hin, dass sich die Atmosphäre als Ganzes in einem Zustand einpendelt, in dem die Temperaturdifferenz zwischen den Tropen und den Polen minimal ist, während gleichzeitig der von ihr verursachte Wärmestrom zwischen ihnen maximal ist. Wir können diese Einsicht nutzen, um seine Größe zu berechnen, indem wir das Prinzip der Maximalen Entropieproduktion MEP anwenden, eine Arbeitshypothese in der Nicht-Gleichgewichtsthermodynamik, die zunehmend Unterstützung in Beobachtungen findet (siehe Kleidon für eine ausgezeichnete Einführung, Ref. 1, 2).

Das MEP-Prinzip besagt, dass ein System, das weit vom (thermodynamischen) Gleichgewicht entfernt ist, sich an einen stationären Zustand anpasst, in dem Energie dissipiert und Entropie mit der maximal möglichen Rate produziert wird. Beachten Sie, dass „maximale Entropieproduktion“ etwas völlig anderes ist als „maximale Entropie“. Letztere bezieht sich auf ein geschlossenes System im thermodynamischen Gleichgewicht. Hier haben wir es mit einem offenen System zu tun, das sich nicht im thermodynamischen Gleichgewicht befindet, sondern in einem stetigen Nicht-Gleichgewichtszustand.

Ich fürchte, ich muss hier einige Formeln einführen. Was ich tun werde ist, die Grundgleichung und ihre Lösung hier anzugeben, während ich für die Kenner der Materie in einem Anhang erläutere, wie man diese Lösung findet. Diejenigen, die mit der Thermodynamik vertraut sind, werden diesen Ausdruck für die Produktion, also die Änderung, dS der Entropie S durch eine Änderung des Wärmeinhalts dQ bei der Temperatur T kennen:

Hieraus folgt direkt die Formel für die Entropie-Produktion durch einen Wärmefluss Q zwischen den Äquator-Gebieten mit der Temperatur Te und den Polen mit der Temperatur Tp:

Die Wärme verlässt die äquatorialen Regionen mit der Temperatur Te, daher das Minuszeichen, und erreicht die Pole mit der Temperatur Tp. Die Maximierung von S ist gleichbedeutend mit der Suche nach der optimalen Kombination von Q und Te -Tp. Die Lösung dieser Gleichung ist recht einfach (siehe Anhang). Die tatsächliche Differenz Te -Tp beträgt fast die Hälfte der Differenz, die sich ohne Energiefluss ergeben hätte. Halb, also nicht 0,3 oder 0,7 mal.

Testen wir dieses Ergebnis anhand von Modellen und Beobachtungen. Es scheint gut etabliert zu sein – aus Berechnungen mit Standard-Atmosphärenmodellen –, dass ohne den Wärmetransfer die äquatorialen Regionen etwa 15 Grad wärmer und die Pole etwa 25 Grad kälter wären (Celsius, ref 3). Ich nehme diese Abschätzungen für bare Münze; sie implizieren eine Asymmetrie β = 0,25, für die 1 – 2α ~ 0,51 gilt (siehe Anhang). Dann lautet die Vorhersage, dass der Temperaturunterschied zwischen den Tropen und den Polen mit dem Wärmetransfer etwa 41 Grad beträgt (also (15 + 25) × 0,51∕0,49), während der Unterschied ohne diesen Transfer etwa 80 Grad betragen würde. In der Tabelle sind einige reale Beobachtungen aufgeführt:

Gemessene Temperaturwerte (Grad Celsius) an den Polen und um den Äquator

Für die Antarktis habe ich die Daten der Byrd-Station verwendet, weil sie auf einem Plateau liegt und daher vermutlich weniger von einer möglichen Abschirmung durch Berge betroffen ist. Die gemittelte polare Temperatur scheint bei etwa -21°C zu liegen. Für die Tropen entspricht das untere Ende des Bereichs überwiegend den ozeanischen Daten und sollte daher ein größeres Gewicht im Mittelwert haben, der hier mit 24°C angenommen wird. Die beobachtete Temperaturdifferenz zwischen polaren und äquatorialen Regionen liegt also bei etwa 45 Grad, gegenüber einer Vorhersage von 41 Grad. Nicht schlecht für ein so einfaches Modell.

Es mag ein einfaches Modell sein, aber das MEP-Prinzip hat eine wichtige Implikation. Die Maximierung der Entropieproduktion für stationäre Bedingungen impliziert eine starke negative Rückkopplung auf Störungen (siehe Kleidon). Jede Störung wird per Definition zu einer Abnahme von S führen, und das System wird sich anpassen und versuchen, es wieder zu optimieren. Eine solche Störung in Klimamodellen ist bekannt und seit langem etabliert und weithin als gültiges Konzept akzeptiert: die „polare Verstärkung“. Sie besagt, dass sich in einer sich erwärmenden Atmosphäre die Polarregionen schneller erwärmen als die äquatorialen Regionen; daher nimmt Te – Tp ab. Es ist jedoch auch eines der seltsamsten Konzepte, die in der Klimamodellierung zu finden sind, weil es keine begrenzende Bedingung hat: Nirgendwo in der Literatur steht etwas wie „unter diesen und jenen Bedingungen, bei diesem Grad der Erwärmung, wird die polare Verstärkung aufhören“. Dies könnte zu einer Absurdität führen: Sollte die Atmosphäre heiß genug werden, würde der Temperaturunterschied zwischen Äquator und Pol komplett verschwinden oder sogar das Vorzeichen wechseln. Es muss also Bedingungen geben, unter denen die Verstärkung nicht mehr stattfindet. Warum ist das wichtig? Wenn es einen solchen Mechanismus gibt, der unter bestimmten Umständen einsetzt, dann muss man erklären, warum er gerade jetzt nicht funktioniert, und das könnte peinlich sein. Wie dem auch sei, aus dem Vorangegangenen sollte ersichtlich sein, dass das Konzept der polaren Verstärkung in der Tat ziemlich fragwürdig ist: Die verringerte Differenz von polaren und äquatorialen Temperaturen reduziert den Wärmefluss zu den Polarregionen, was eine Abkühlung zur Folge hätte. Ein realistisches Klimamodell sollte sich so verhalten, wie es die zugrundeliegende Physik vorgibt. Daraus lässt sich ableiten, dass eine solche Rückkopplung in den aktuellen Klimamodellen nicht vorhanden ist und dass folglich das ganze Konzept ein Artefakt eines unvollständigen Modells sein könnte. (Sie haben es hier zuerst gelesen.)

Aber wie das Leben so spielt hat sich die Arktis in den letzten 3 oder 4 Jahrzehnten erwärmt. Das würde das Konzept der polaren Verstärkung beweisen, oder? Nun, diese Erwärmung mag in der Arktis der Fall sein, aber sie sollte gleichzeitig auch für die Antarktis gelten, aber dort scheint das Konzept den Vergleich mit den Beobachtungen nicht zu bestehen (ref 4).

Was mag also in der Arktis vor sich gehen? Ich erlaube mir, hierzu meine Meinung zu verkünden. Für mich liegt der Schlüssel in der Tatsache, dass es zwei Pole gibt. Es wäre außergewöhnlich, wenn zu allen Zeiten genau der gleiche Anteil der äquatorialen Wärme auf jeden Pol verteilt würde. Die Übertragungsmechanismen, atmosphärische und insbesondere ozeanische Strömungen, sind von Natur aus chaotische Systeme, die dazu neigen, von einem bestimmten quasi-stabilen Strömungsmuster zu einem anderen zu wechseln. Bei den Meeresströmungen kennen wir dieses Verhalten als Pazifische Dekadische Oszillation, Atlantische Multidekadische Oszillation, Dipol des Indischen Ozeans und dergleichen. Die Zeitskala für solche Veränderungen beträgt viele Jahrzehnte, von 3 für die PDO bis zu 6-8 für die AMO, weil eine enorme Masse und ein enormer Impuls von sich bewegendem Wasser beteiligt ist und Wasser eine inkompressible Flüssigkeit ist, was bedeutet, dass die Veränderung über das gesamte Strömungsmuster gleichzeitig stattfindet. Daher ist zu erwarten, dass die Verteilung der Wärme nach Norden und Süden Änderungen auf einer Zeitskala von Jahrzehnten in einer erratischen Wippe unterliegt. Wir leben zufällig in einer Zeit, in der die nördliche Hemisphäre etwas mehr als ihren gerechten Anteil an der Wärme bekommt; in ein paar Jahrzehnten kann das ganz anders sein. Um solche Veränderungen von einem möglicherweise zugrunde liegenden langfristigen Erwärmungstrend zu unterscheiden, werden Daten über einen viel längeren Zeitraum benötigt, als wir jetzt haben.

Anmerkung von Dipl.-Met. Christian Freuer hierzu: die „bipolare Schaukel“ oder „- Wippe“ ist ihm vor Jahrzehnten schon einmal untergekommen, aber nur aufgrund von Beobachtungen und ohne dass die damaligen Autoren eine Erklärung dafür parat hatten. Es ist äußerst erhellend und erfreulich, hier in relativ einfacher Form jetzt endlich eine solche Erklärung dafür zu finden. – Ende Anmerkung

Link zum Original siehe unten. Bis hier Übersetzt von Chris Frey EIKE

References:

(1) Axel Kleidon (2009): ”Non-equilibrium thermodynamics and maximum entropy production in the Earth system”, https://link.springer.com/article/10.1007/s00114-009-0509-x

(2) A Kleidon, R D Lorenz (editors) ”Non-equilibrium thermodynamics and the production of entropy” (2005) Springer, ISBN 978-3-540-22495

(3) e.g. http://earthguide.ucsd.edu/virtualmuseum/virtualmuseum/EarthsClimateMachine.shtml

(4) e.g. https://wattsupwiththat.com/2019/04/10/the-curious-case-of-the-southern-ocean-and-the-peer-reviewed-journal/

Es folgt eine genaue theoretische Herleitung, deren Übersetzung ich hier mal weglasse. Anm. d. Übers.]

Solving the EP equation

The entropy production S for a heat flow Q between the equatorial regions of temperature Te and the polar regions of temperature Tp is given by:

The MEP hypothesis is that the atmospheric system tends to maximise S. This optimum can be found analytically as follows. Introduce Θe and Θp, the temperatures of the equatorial and polar regions respectively if there were no heat transport. That is, Θe and Θp stand for the radiative equilibrium temperatures of those regions. The actual temperatures (Te and Tp) are different because of the heat transport. Hence define ΔTe = Θe – Te and ΔTp = Tp – Θp. Let’s for the moment assume that they are both equal and equal to a fraction α of the range Θe – Θp:

Notice that the difference Te – Tp equals:

Obviously for α = 0 there is no heat transfer, hence S = 0, while for α = 0.5 we have Te equal to Tp and thus no entropy production either. In between these extremes the heat flux Q is somehow proportional to ΔTe, the larger the drop in temperature of the equatorial region, the larger the heat loss from it and one can assume the relation to be (close to) linear. This gives us an expression for S in terms of ΔT, hence as function of α :

The maximum of S in the range [0.0 – 0.5] is straightforwardly found with basic calculus techniques – you need to solve a cubic equation in α – and turns out to be almost exactly at α = 0.25. Alternatively, one could use the R analysis package, encode the function for S, find the maximum with Newton’s method and get a figure as a bonus.

The upshot of all this is that the MEP temperature difference Te -Tp is very nearly half the difference Θe – Θp which we would have had in the absence of any heat flow.

Let’s now revisit ΔTe and ΔTp. Adopting equality of ΔTe and ΔTp means assuming that for every degree drop in temperature of the equatorial regions the polar temperature rises by one degree. This is not very realistic; quite likely the polar temperature rises more because of area and heat capacity differences. We can include such an imbalance by slightly modifying the definitions of ΔTe and ΔTp and introduce an asymmetry parameter β:

With a value of β = 0.25, for instance, this would mean that for every 3 degrees drop in equatorial temperature the poles would gain 5 degrees. Notice that the difference Te – Tp remains as given earlier. Repeating the foregoing exercise for a range of β values presents us with an interesting result: the corresponding α values are practically unchanged: for β = 0 the maximum is at α = 0.2487, for β = 0.25 at 0.2441 and β = 0.33 at 0.2427. This means that irrespective of a possible asymmetry between equator and polar regions the temperature difference between the two remains firmly at about half the difference Θe – Θp, but that the centre of the range shifts according to the value of β

Link: https://wattsupwiththat.com/2020/12/21/of-warm-poles-and-cold-tropics/




Anomalien der Meeres­oberflächen-Temperatur

Die meisten SST-Messungen werden von fahrenden Schiffen, Bojen oder Argo-Floats durchgeführt, der Referenzmittelwert wird an einem bestimmten Ort von einer Vielzahl von Instrumenten und in einer Vielzahl von Tiefen ermittelt. Im Fall von HadSST wird die Referenz für 5° mal 5° Breiten- und Längengrad „Gitterzellen“ berechnet. Die Zellen überdecken 308.025 Quadratkilometer am Äquator, ein Quadrat, das auf einer Seite 556 Kilometer lang ist. Der Abstand zwischen den einzelnen Längengraden wird kleiner, je näher wir uns den Polen nähern, aber bei 40° nördlicher oder südlicher Breite sind 5° Längengrad immer noch 425 Kilometer. Diese „Referenzzellen“ sind riesige Gebiete in den mittleren und niedrigen Breiten, aber sie sind klein in der Nähe der Pole.

Erschwerend kommt hinzu, dass die Technologie, die in den Referenzzeiträumen 1961-1990 oder 1971-2000 verwendet wurde, weit weniger genau ist als die heute durchgeführten Messungen. Tatsächlich korrigiert die NOAA die in den frühen 2000er Jahren eingeführten Argo-Float- und Driftbojen um das 6,8-fache im Vergleich zu den Schiffsdaten (Huang, et al., 2017). Das Hadley Centre sagt, dass Argo-Floats ihre Unsicherheit um 30 % reduzieren (Kennedy, Rayner, Atkinson, & Killick, 2019). Während der beiden Referenzperioden stammten fast alle Daten von Schiffen. Das bedeutet, dass die größere Ungenauigkeit der Messungen, relativ zu heute, in den 30-jährigen Referenzzeiträumen signifikant ist. Man könnte annehmen, dass die zusätzliche Unsicherheit zufällig ist, aber das ist wahrscheinlich nicht der Fall.

An Land können alle Messungen während des Referenzzeitraumes von der gleichen Wetterstation stammen. Diese Wetterstation kann sich die ganze Zeit über an genau demselben Ort befunden haben. Es gibt ernsthafte Probleme mit vielen landgestützten Wetterstationen, wie von Fall, Watts und Kollegen dokumentiert (Fall, et al., 2011), aber zumindest sind die Wetterstationen nicht ständig in Bewegung. Landgestützte Stationen sind fest, aber ihre Höhenlagen sind alle unterschiedlich und da die Lufttemperatur eine Funktion der Höhe ist, ist die Erzeugung von Anomalien zur Erkennung von Veränderungen und Trends sehr sinnvoll. Wetterstationen, auf dem Meer und an Land, sind ungleichmäßig verteilt, so dass eine Rasterung der Werte notwendig ist, wenn die Abdeckung nicht ausreicht. In einigen Gebieten, wie z. B. den Conterminous United States (CONUS), gibt es so viele Wetterstationen, dass eine Rasterung unnötig [beim EIKE in deutscher Übersetzung hier] ist und, wenn sie durchgeführt wird, sogar die Genauigkeit des berechneten durchschnittlichen Temperaturtrends verringern kann.

CONUS nimmt eine Fläche von 3,1 Millionen Quadratmeilen ein mit 11.969 Wetterstationen im GHCN (Global Historical Climatology Network). Das sind etwa 260 Quadratmeilen pro Station. Jede Station liefert ungefähr 365 Beobachtungen pro Jahr, in einigen Fällen sogar mindestens 4,4 Millionen Beobachtungen. Dies entspricht etwa 1,4 Beobachtungen pro Quadratmeile. Die Abdeckung ist ausreichend, die Stationen befinden sich an festen Standorten und sind einigermaßen genau. Der Ozean umfasst 139,4 Millionen Quadratmeilen. Im Jahr 2018 hatte HadSST insgesamt 18.470.411 Beobachtungen. Das sind etwa 0,13 Beobachtungen pro Quadratmeile oder 9 % der Abdeckung im Gebiet der kontinentalen USA.

Jede Berechnung einer Durchschnittstemperatur oder eines Temperaturtrends sollte so nah wie möglich an den ursprünglichen Messungen vorgenommen werden. Es sollten nur die erforderlichen Korrekturen und Datenmanipulationen vorgenommen werden. Mehr ist nicht besser. Die Messungen der Meeresoberflächentemperatur sind bereits auf eine Meerestiefe von 20 cm korrigiert. Ihre Referenztiefe ändert sich nicht. Die Quelle und die Qualität der Messungen an jedem Ozeanstandort ändern sich ständig. Die Berechnung der Referenztemperatur erfolgt nicht von einer einzigen Plattform, nicht einmal von einem einzigen Gerätetyp oder in einer einzigen Tiefe, so dass die Referenz sehr fehleranfällig ist und schwere Unstimmigkeiten aufweist. Wer kann schon sagen, dass die Referenztemperatur, die von den Messungen abgezogen wird, genauso genau ist wie die Messung? Es ist allgemein anerkannt, dass Bojen- und Argo-Float-Daten genauer sind als Schiffsdaten und 2018 sind die Bojen- und Float-Daten zahlreicher, das Gegenteil war von 1961-1990 der Fall (Huang, et al., 2017).

Auf den ersten Blick glauben wir, dass die Umwandlung genauer Messungen in ungenaue Anomalien ein unnötiger und verwirrender Schritt ist, der vermieden werden sollte. Als nächstes fassen wir zusammen, wie die Anomalien berechnet werden.

HadSST-Anomalien

Zunächst werden die In-situ-Messungen einer Qualitätsprüfung unterzogen, und die verbleibenden Messungen werden in 1° x 1° Breiten- und Längengrade sowie 5-Tage-Zeitabschnitte unterteilt. Der 5-Tage-Bereich wird als Pentade bezeichnet. Es gibt immer 73 Pentaden in einem Jahr, so dass Schaltjahre eine 6-tägige „Pentade“ haben (Kennedy, Rayner, Atkinson, & Killick, 2019). Die Pentaden werden zu Pseudo-Monaten gruppiert und durch Monatswerte aus teilweise mit Eis bedeckten Zellen ergänzt. Schließlich wird jede Ein-Grad-Pentade in eine Anomalie umgewandelt, indem ihr Mittelwert vom Mittelwert 1961-1990 subtrahiert wird. Die Ein-Grad-Pentad-Anomalien werden als „Superbeobachtungen“ bezeichnet (Rayner, et al., 2006). Schließlich werden die Ein-Grad-Pentaden mit einem gewichteten „korrigierten Mittel“ zu einem monatlichen Fünf-Grad-Gitter kombiniert, welches das grundlegende HadSST-Produkt darstellt. Vor der Berechnung des monatlichen Mittelwertes für die Fünf-Grad-Gitterzelle wird versucht, alle Messungen auf eine Tiefe von 20 cm zu korrigieren.

Während der letzten zwanzig Jahre enthielt die durchschnittliche besiedelte Fünf-Grad-Zelle 761 Beobachtungen, was einer Beobachtung alle 404 Quadratkilometer am Äquator entspricht. Wir halten dies subjektiv für eine gute Abdeckung und betrachten die besiedelten Zellen als solide Werte. Wie wir jedoch in unserem letzten Beitrag gesehen haben, enthält nicht jede Fünf-Grad-Zelle im Weltozean einen Gitterwert oder Beobachtungen. In runden Zahlen ausgedrückt, weisen nur 37 % der Weltozeanzellen im Jahr 2018 monatliche Werte auf, das sind 8.186 monatliche Ozeanzellen von 22.084. Man beachte, dass die polaren Zellen, die den Großteil der Zellen ohne Werte ausmachen, im Vergleich zu den Zellen in den mittleren und unteren Breitengraden flächenmäßig klein sind. Daher ist die Fläche, die von den besiedelten Zellen abgedeckt wird, viel größer als 8.186/22.084 oder 37 % des Ozeans. Ich habe die abgedeckte Fläche nicht berechnet, aber es ist wahrscheinlich mehr als die Hälfte des Weltozeans.

ERSST-Anomalien

Die grundlegenden, bei der Erstellung des ERSST-Datensatzes verwendeten Einheiten sind monatliche Bereiche von 2°x2° Breiten- und Längengraden. Für jedes Feld wird ein Durchschnitt der Jahre 1971 bis 2000 aus qualitätskontrollierten Messungen berechnet. Dieser Mittelwert wird von jeder Messung in diesem Bereich subtrahiert, um eine Anomalie zu erzeugen. Danach werden die verschiedenen Messungen (Schiff, Boje und Argo) angepasst, um den globalen Durchschnittsunterschied in ihren Werten zu berücksichtigen. Die angepassten Werte werden dann zu monatlichen 2°x2°-„Superbeobachtungen“ gemittelt. Bojen- und Argo-Daten werden um das 6,8-fache der Schiffsbeobachtungen gewichtet (Huang, et al., 2017). Seit dem Jahr 2000 dominieren Argo- und Bojendaten den ERSST-Datensatz, sowohl in Qualität als auch in Quantität. Dies ist in Abbildung 1 unseres letzten Beitrags leicht zu erkennen, da die von Argo dominierten mehrjährigen Temperaturschätzungen der Universität Hamburg und des NOAA MIMOC über die ERSST-Linie fallen. Dies wird auch von Huang, et al. bestätigt (Huang, et al., 2017).

Die für ERSST verwendeten 2°x2°-Zellen sind am Äquator 49.324 Quadratkilometer groß. Sobald der ERSST-Gitterprozess abgeschlossen ist und die Interpolationen, Extrapolationen und Ausfüllungen abgeschlossen sind, sind 10.988 Zellen von 11.374 Ozeanzellen gefüllt. Nur 3% sind Null, man vergleiche dies mit den 63% Null-Gitterzellenwerten in HadSST. Die Anzahl der Beobachtungen pro Zelle war in den Datensätzen, die ich von NOAA heruntergeladen habe, nicht verfügbar, aber das ist in ihrem Datensatz weniger wichtig, da sie einen komplizierten Gitteralgorithmus verwenden, um die Zellenwerte zu berechnen.

Die Begründung zur Erzeugung von SST-Anomalien

In den primären HadSST- oder ERSST-Referenzen wird keine Begründung für die Erstellung von SST-Anomalien angeboten, die ich gesehen habe. Sie nehmen es einfach kommentarlos in ihr Verfahren auf. Ein Grund, den wir uns vorstellen können ist, dass Anomalien es einfacher machen, die SSTs mit terrestrischen Aufzeichnungen zu kombinieren. Anomalien werden an Land aufgrund der Höhenunterschiede der Wetterstationen benötigt. Aber das hilft uns nicht bei unserer Aufgabe, die darin besteht, den durchschnittlichen globalen Ozeantemperaturtrend zu bestimmen. Landtemperaturen sind recht variabel, machen aber nur 29 % der Erdoberfläche aus.

In der WUWT-Diskussion zu meinem letzten Beitrag sagte Nick Stokes (sein Blog ist hier):
„Nur ein weiterer in einer endlosen Reihe von Gründen, warum man niemals absolute Temperaturen mitteln sollte. Sie sind zu inhomogen, und sie sind der Art und Weise ausgeliefert, wie auch immer Ihre Stichprobe ausgearbeitet wurde. Man mache das nicht, sondern man nehme zuerst die Anomalien. Sie sind viel homogener, und der ganze Kram mit Masken und fehlenden Gittern spielt keine Rolle. Das ist es, was jeder vernünftige Wissenschaftler tut.

Es stimmt also, dass die Durchschnittstemperatur schlecht definiert ist. Aber wir haben eine ausgezeichnete Vorstellung davon, ob sie sich erwärmt oder abkühlt. Das ergibt sich aus der durchschnittlichen Anomalie.“

Obwohl die Referenzperioden, 1961-1990 für HadSST und 1970-2000 für ERSST mit deutlich schlechteren und weniger konsistenten Daten berechnet wurden, als wir sie heute haben, sollen wir also immer noch Anomalien verwenden, weil sie homogener sind und weil „jeder vernünftige Wissenschaftler es tut“? Macht Homogenität die Anomalien genauer oder weniger genau? Nick sagt, dass Anomalien die Erkennung von Trends ermöglichen, unabhängig davon, wie sich das Gebiet oder die Messungen im Laufe der Zeit verändert haben. Aber die Anomalien mischen Post-Argo-Daten mit Prä-Argo-Daten.

Wie wir im letzten Beitrag gesehen haben, zeigen die Anomalien einen steigenden Temperaturtrend, aber die Messungen, gewichtet mit den Argo- und Driftbojendaten um das 6,8-fache, zeigen einen sinkenden Temperaturtrend. Was sollen wir glauben? Die neueren Messungen sind eindeutig genauer. Huang, et al. nennen die Argo-Daten „einige der besten verfügbaren Daten“. Warum werden diese guten Daten absichtlich herabgestuft, indem minderwertige Referenzmittel von den Messungen subtrahiert werden?

Nick erklärt, dass die Anomalien einen steigenden Temperaturtrend zeigen, weil sich seiner Meinung nach das Klima tatsächlich erwärmt. Er glaubt, dass die gemessenen Temperaturen eine Abkühlung zeigen, weil sich die Abdeckung der kalten Regionen mit der Zeit verbessert und dies einen künstlichen Abkühlungstrend erzeugt. Der Abkühlungstrend ist in Abbildung 1 zu sehen, die eine Darstellung der gemessenen HadSST- und ERSST-Temperaturen über derselben Ozeanregion zeigt. Nur 18% der Weltozeanzellen, im Jahr 2018, sind in Abbildung 1 dargestellt, hauptsächlich in den mittleren Breiten. Die in Abbildung 1 dargestellte Ozeanfläche ist viel größer als 18 %, da die fehlenden nördlichen und südlichsten Zellen kleinere Gebiete abdecken.

Abbildung 1. Die ERSST- und HadSST-Aufzeichnungen über dem gleichen Ozeangebiet. Beide zeigen sinkende Ozeantemperaturen. Die Linien der kleinsten Quadrate dienen nicht dazu, Linearität zu demonstrieren, sondern nur dazu, eine Steigung zu berechnen. Beide Trends liegen bei etwa -3,5 Grad C pro Jahrhundert.

Der Plot unten zeigt fast den gesamten Ozean, unter Verwendung des ERSST-Gitters, das nur 3% Nullzellen hat. Die Zellen sind größtenteils mit interpolierten und extrapolierten Werten gefüllt. Die gemessenen Temperaturen sind stark gewichtet zugunsten der hochwertigsten Argo- und Bojenmessungen.

Abbildung 2. Wenn wir die ERSST-Gittertechnik der NOAA verwenden, sehen wir einen leicht steigenden Trend bei den Oberflächentemperaturen, etwa 1,6 Grad C pro Jahrhundert.

Der ERSST-Trend von 1,6 Grad pro Jahrhundert liegt nahe dem Trend, der in den HadSST- und ERSST-Anomalien zu sehen ist, wie aus Abbildung 3 hervorgeht:

Abbildung 3. Die HadSST- und ERSST-Anomalien wurden auf den gleichen Bezugszeitraum verschoben.

Nick hat also einen Punkt. Abbildung 2 zeigt den ERSST-Trend, der größtenteils aus extrapolierten und interpolierten Daten besteht, aber fast den gesamten Ozean repräsentiert. Er zeigt eine Erwärmung von 1,6°/Jahrhundert. Dies liegt nahe an den 1,7°C/Jahrhundert, die von den HadSST-Anomalien und den ERSST-Anomalien gezeigt werden. Die eigentliche Frage ist, warum die HadSST-Anomalien, die dieselben Daten wie in Abbildung 1 verwenden und dasselbe Ozeangebiet abdecken, zunehmen? ERSST ist konsistent zwischen den Messungen und den Anomalien und HadSST ist es nicht, wie ist das passiert? Nick würde sagen, es ist die kontinuierliche Hinzufügung von polaren Daten, ich bin mir da nicht so sicher. Die Anzahl der besiedelten ERSST-Zellen nimmt nicht viel zu, und sie tendiert auch im HadSST-Gebiet nach unten.

Es ist wahrscheinlicher, dass sich die von HadSST abgedeckte Ozeanfläche abkühlt und der globale Ozean sich leicht erwärmt. Wenn das CO2 die Erwärmung verursacht und global ansteigt, warum nehmen dann die Temperaturen der Ozeane in den mittleren und niedrigen Breiten ab und die Polarregionen erwärmen sich? Siehe den letzten Beitrag, um Karten des Teils der Ozeane zu sehen, der von HadSST abgedeckt wird. Eine der Karten aus diesem Beitrag ist in Abbildung 4 dargestellt. Die weißen Bereiche in Abbildung 4 haben keine Werte im HadSST-Gitter, dies sind die Bereiche, die nicht zu Abbildung 1 beitragen. Das farbige Gebiet in Abbildung 4 zeigt eine abnehmende Ozeantemperatur.

Abbildung 4. Der farbige Bereich enthält Werte, diese Werte sind in Abbildung 1 eingezeichnet. Die weißen Bereiche enthalten keine Werte.

Erkennen wir durch die Verwendung von Anomalien einen zugrunde liegenden globalen Trend? Oder verdecken die Anomalien eine zugrunde liegende Komplexität? Man betrachte die zusätzlichen Informationen, die wir durch die Verwendung der tatsächlichen Temperaturen aufgedeckt haben. Ein Großteil des Ozeans kühlt sich ab. Global gesehen erwärmt sich der Ozean vielleicht um 1,6 bis 1,7 Grad pro Jahrhundert, kaum etwas, worüber man sich Sorgen machen müsste.

Ein weiterer zu berücksichtigender Faktor ist, dass die Anzahl der HadSST-Beobachtungen von 2000 bis 2010 stark gestiegen ist, nach 2010 sind sie einigermaßen stabil. Dies ist in Abbildung 5 zu sehen. Der Temperaturrückgang in Abbildung 1 ist jedoch sehr gleichmäßig.

Abbildung 5. Gesamte HadSST-Messungen nach Jahren

Schlussfolgerungen

In einem Punkt sind sich alle einig: Der Trend der Meeresoberflächentemperatur ist die wichtigste Einzelvariable bei der Messung des Klimawandels. Es sollte richtig und mit den besten Daten gemacht werden. Die Verwendung von minderwertigen Daten aus dem 20. Jahrhundert, um Anomalien zu berechnen, erzeugt einen Trend, der mit dem ERSST-Gitter übereinstimmt, was eine vernünftige Schätzung dessen ist, was global passiert, aber es gibt so viel Interpolation und Extrapolation in der Schätzung, dass wir nicht sicher sein können. Der Teil des Ozeans, für den wir genügend Daten haben, das HadSST-Gebiet, zeigt einen abnehmenden Trend. Das ist etwas, was man bei der Verwendung von Anomalien nicht sieht. Der abnehmende Trend ist auch in den ERSST-Daten über dem gleichen Gebiet zu sehen. Dies deutet darauf hin, dass es sich nicht um die Hinzufügung von neuen polaren Daten im Laufe der Zeit handelt, sondern um einen echten Trend für diesen Teil des Weltozeans.

Wahrscheinlich steigt die SST des gesamten Ozeans leicht an, mit der unauffälligen Rate von etwa 1,6°C/Jahrhundert. Dies zeigt sich in den Anomalien und in der ERSST-Darstellung. Aber dies ignoriert die offensichtliche Komplexität des Trends. In dem Teil des Ozeans mit den besten Daten sinkt die Temperatur. Unterm Strich wissen wir nicht sehr viel darüber, was die Ozeantemperaturen tun und wo es passiert. Da der Trend der Ozeantemperatur die wichtigste Variable bei der Feststellung des Klimawandels ist, wissen wir auch nicht viel über den Klimawandel. Nick hatte Recht, dass Anomalien in der Lage waren, den wahrscheinlichen Trend herauszupicken, vorausgesetzt, dass ERSST korrekt ist, aber durch die Verwendung von Anomalien wurden wichtige Details verschleiert.

Link: https://wattsupwiththat.com/2020/12/20/sea-surface-temperature-anomalies/

Übersetzt von Chris Frey EIKE




Die Anti-Kernkraft-Bewegung von Kernkraft überzeugen

Es ist nun fünfundsiebzig Jahre her, dass die USA den Krieg gegen Japan beendeten, indem sie Atombomben auf Hiroshima und Nagasaki abwarfen (beide Städte florieren). Acht Jahre später lud Präsident Eisenhower in seiner weltberühmten Atoms for Peace“-Rede vor den Vereinten Nationen die Bürger zur Debatte über die Nutzung der Atomwissenschaft und -technologie zur Energiegewinnung ein.

Präsident Kennedy lenkte die Aufmerksamkeit der Nation von der Kernenergie auf das Raumfahrtprogramm, aber beginnend in der Regierung Nixon (und verstärkt nach dem Ölembargo von 1973) bis zum Three-Mile-Island-Zwischenfall im Jahr 1979 genehmigten die USA die meisten der 99 Kernreaktoren in 61 Anlagen, die 2017 noch in Betrieb sind.* Als Präsident Trump sein Amt antrat, veröffentlichte das Aspen Institute einen Bericht des Inhalts: „Die Kernenergie in den USA befindet sich in einer existenziellen Krise. Wenn die gegenwärtigen Herausforderungen nicht angegangen werden, könnte die Zukunft der Kernenergie weit weniger vielversprechend sein und die überlegene nukleare Kompetenz der USA geschmälert werden.“

[*Anmerkung: Präsident Obamas Clean Energy Plan stellte Mittel für die Kernenergie zur Verfügung, einschließlich der Schaffung des Gateway for Accelerated Innovation in Nuclear (GAIN). Und 2012 genehmigte die Nuclear Regulatory Commission (NRC) trotz der Einwände des Vorsitzenden den Bau und Betrieb von zwei neuen Reaktoren im Kernkraftwerk Vogtle in Georgia durch Southern Co., dem ersten in den USA seit 1979].

Der Aspen-Bericht behauptete kühn, dass die USA ein starkes inländisches Atomprogramm brauchen, um ihre außergewöhnliche Kompetenz in Fragen der Sicherheit, der Bedrohungsminderung und der Nichtverbreitung [von Kernwaffen] zu erhalten. Sie umwarben die Umweltschützer mit dem Hinweis, dass die Kernenergie ein notwendiger Bestandteil im Kampf gegen den Klimawandel ist, wenn wir auch eine angemessene Versorgung mit bezahlbarem Strom aufrechterhalten wollen. „Eine Welt ohne Kernkraft“, so die Aspen-Autoren, „würde eine unglaubliche – und wahrscheinlich unrealistische – Menge an erneuerbaren Energien erfordern, um die Klimaziele zu erreichen.“

Die Aspen-Autoren stellten weiter fest, dass die US-Öffentlichkeit die Kernkraft generell unterstützt, aber über den Atommüll besorgt ist. Schlimmer noch, viel zu viele Kernkraftwerke in der Entwicklung haben Budgets gesprengt und sind hinter den Zeitplan zurückgefallen. Angesichts des fehlenden politischen Willens oder einer nationalen Energiekrise zu dieser Zeit setzten die Autoren ihre Hoffnung darauf, dass fortschrittliche Reaktoren, die neue Arten von Kühlmitteln verwenden und die mit anderen Drücken und Temperaturen arbeiten oder kleiner und modularer sind, eine breite Zustimmung finden würden.

Atommüll wird heute als überbewertetes, unwissenschaftliches Thema angesehen. In einer Studie aus dem Jahr 2019 argumentiert der Treuhänder des Aspen-Instituts Bill Budinger dass die Angst vor Atommüll weitgehend unbegründet ist – ein Thema, das „gewaltig übertrieben wurde, als wir versuchten, die Menschen von der Atomkraft abzuschrecken.“ Die Gesamtmenge an Atommüll, die sich in den letzten 60 Jahren in allen US-Kernkraftwerken angesammelt hat, würde in ein zweistöckiges Gebäude passen, das einen Stadtblock einnimmtt. Und Kostenüberschreitungen und Verzögerungen sind größtenteils die Folge von Anti-Atomkraft-Einstellungen, die die Vorschriften-Flut auf die Spitze getrieben haben (und die für neuere Reaktorkonstruktionen unangemessen sind).

Im April 2020 stellte Präsident Trump seine „Strategy to Restore American Nuclear Energy Leadership vor, eine Initiative zur Wiederherstellung des lange verlorenen nuklearen Wettbewerbsvorteils der USA. Der erste in dem Plan skizzierte Schritt ist die Wiederbelebung und Stärkung der US-Uranbergbauindustrie, die Unterstützung von Uranumwandlung, die Beendigung der Abhängigkeit von ausländischer Urananreicherung und der Erhalt der aktuellen Flotte von Flugzeugträgern und U-Booten mit Atomantrieb.

Unter den vielen Zielen des Trump-Plans war die Schaffung einer Uranreserve, die Straffung der Vorschriftenflut und des Landzugangs für die Urangewinnung (Abbau von Bürokratie), die Unterstützung des National Reactor Innovation Center und des Versatile Test Reactors, die Demonstration der Verwendung von Small Modular Reactors (SMRs), Mikroreaktoren zur Stromversorgung von Bundeseinrichtungen und die Hinzufügung von Schutzmaßnahmen, um zukünftiges Uran-Dumping auf dem US-Markt zu verhindern. (Die vollständige Liste findet man hier.)

Im November berichtete die Associated Press, dass das Idaho National Laboratory die erste Wahl des Energieministeriums für den Bau und Betrieb des Versatile Test Reactor (VTR) ist. Dieser erste neue Testreaktor, der seit Jahrzehnten in den USA gebaut wird, würde der Nation eine dedizierte „Fast-Neutron-Spectrum“-Testkapazität geben. Energieminister Dan Brouillette erklärte, dass der VTR „weiterhin ein Projekt von hoher Priorität für das DOE ist, um sicherzustellen, dass die Kernenergie eine Rolle im Energieportfolio unseres Landes spielt.“

In der Zwischenzeit berichtete Llewellyn King im Oktober in Forbes, dass es eine aktive Gemeinschaft von Unternehmern gibt, die Reaktoren verschiedener Bauarten (einschließlich modularer Salzschmelz-Reaktoren SMRs) vorantreiben und dabei zum Teil Startkapital für SMRs nutzen, das durch das GAIN-Programm der Obama-Ära bereitgestellt wurde. Die Zunahme privater Investitionen in die Nukleartechnologie und -entwicklung ist ein starkes Zeichen dafür, dass die Kernenergie das durch die Medien verursachte Stigma von Three Mile Island, Tschernobyl und Fukushima endlich überwunden haben könnte.*

(*Anmerkung: Wie der indische Forscher Vijay Raj Jayaraj kürzlich berichtete [in deutscher Übersetzung beim EIKE hier], geschah der Unfall von Tschernobyl zum Teil aufgrund von vorsätzlicher Fahrlässigkeit bzgl. eines fehlerhaften Reaktors. Der Umweltschützer Michael Shellenberger wies kürzlich darauf hin, dass „die Strahlung von Tschernobyl höchstens 200 Menschen töten wird, während die Strahlung von Fukushima und Three Mile Null Menschen töten wird.“ Außerdem und trotz der Tatsache, dass Hunderttausende von Frauen ihre Babys nach dem Tschernobyl-Vorfall abgetrieben haben, fanden UCLA-Forscher, dass die Kinder, die in der Nähe von Tschernobyl geboren wurden, keine nachweisbaren Anomalien während ihrer Geburt aufwiesen.“)

Und gerade in der vergangenen Woche hat das Senate Committee on Environment and Public Works des US-Senats einen überparteilichen Gesetzesentwurf, den American Nuclear Infrastructure Act (ANIA), verabschiedet, der die Initiative von Präsident Trump zur Einrichtung einer nationalen strategischen Uranreserve in den USA vorantreibt. Der Gesetzesentwurf erhielt starke Unterstützung von Vertretern der Industrie, einschließlich Amir Adnani, CEO der Uranium Energy Corp.

Adnani sagte in einer Erklärung: „Der überparteiliche [American] Nuclear Infrastructure Act ist eine weitreichende Gesetzgebung, die wichtig für die Unterstützung der US-Kernkraftindustrie, die nationale Sicherheit und saubere Energie ist. Die Gesetzgebung wird einen klaren Weg für die Umsetzung der US-Uranreserve vorgeben und eine starke Plattform zur Wiederbelebung der US-Uranindustrie bieten.“

Unter ANIA darf das Energieministerium nur Uran kaufen, das aus Anlagen gewonnen wurde, die von der Nuclear Regulatory Commission oder gleichwertigen Behörden der Vertragsstaaten lizenziert sind. Der Bezug von Uran von Unternehmen, die Russland oder China gehören, von ihnen kontrolliert werden oder deren Gerichtsbarkeit unterliegen, wäre ausgeschlossen.

Nach Ansicht mehrerer Prognostiker wird die voraussichtliche Biden-Administration die von Präsident Obama begonnene und von Präsident Trump vorangetriebene Arbeit zur Wiederbelebung und Priorisierung des US-Atomenergieprogramms fortsetzen oder sogar beschleunigen. Der progressive Analyst James Conca schrieb während des Parteitags der Demokraten, dass der Hauptunterschied zwischen Trumps und Bidens Atompolitik lediglich darin bestehe, dass Bidens Politik Teil einer Klimawandel-Agenda sei, während Trumps Fokus auf den nationalen Sicherheitselementen der Krnenergie liege.

Laut Conca „sagen alle führenden Klimawissenschaftler, dass wir den Klimawandel nicht ohne einen signifikanten Ausbau der Kernkraft angehen können, also ist die Unterstützung der Kernkraft – oder auch nicht – ein klares Signal dafür, wie ernst es einem Kandidaten mit dem Klimawandel ist und wie ernst es ihm mit der Unterstützung der Wissenschaft gegenüber bloßem Aktivismus ist.“ Er betonte weiter: „wenn die Demokraten wollen, dass ein Plan für saubere Energie überhaupt erfolgreich ist, sollte er besser die Kernenergie einschließen.“

Auch Josh Siegel, der im Washington Examiner schrieb, stimmte zu, dass „Bidens Unterstützung für die Kernkraft … einer der seltenen Fälle von energiepolitischer Kontinuität zwischen der neuen und der alten Regierung zu sein verspricht.“ Siegel räumte auch ein, dass die Demokraten, die erkannt haben, dass Wind- und Solarenergie allein nicht ausreichen, um das Stromnetz zu dekarbonisieren, ihren langjährigen Widerstand gegen die Kernkraft größtenteils aufgeben.

Es gibt nur einen Vorbehalt. Sollte Kamala Harris aus irgendeinem Grunde Biden als Oberbefehlshaber ablösen, waren ihre Antworten während des Präsidentschaftswahlkampfes 2020 auf die Frage, ob sie die Kernenergie unterstütze, nicht so zuversichtlich. Mehrfach lautete ihre Antwort: „Ja, vorübergehend, während wir die Investitionen in sauberere erneuerbare Alternativen erhöhen.“
Nicht gerade eine klingende Bestätigung oder Anerkennung der wachsenden überparteilichen Energie-Realität.

Autor: Duggan Flanakin is the Director of Policy Research at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“

Link: https://www.cfact.org/2020/12/17/nuking-the-anti-nuke-crowd/

Übersetzt von Chris Frey EIKE

 




Winter – der Erwärmungs­verweigerer?

Über die Januar-Abkühlung in höheren Luftschichten wurde bereits hier berichtet. Diese zeigt sich, wenngleich etwas schwächer, auch im Mittel der drei Wintermonate für ein größeres, etwa Mitteleuropa umfassendes Gebiet anhand der aerologischen Daten, welche der Amerikanische Wetterdienst (NOAA) weltweit bereitstellt:

Abbildung 1: Seit dem Klimasprung von 1987/88 erwärmten sich die bodennahen Luftschichten (grau, oben) noch minimal; aber schon in knapp 1.500 Metern Höhe (entspricht dem 850-hPa-Niveau) zeigt sich ein leichter (nicht signifikanter) Rückgang trotz des enorm milden, letzten Winters. Fast genauso sieht das auch in etwa 5.500 Metern Höhe aus (entspricht dem 500-hPa-Niveau, mittlere Troposphäre). Weil die Temperaturen in 5.500 Metern sehr niedrig sind, wurden ihre Werte durch einfache Addition um 22°C angehoben, damit sie mit den beiden anderen Höhenniveaus anschaulich in einer Grafik dargestellt werden konnten; der reale Trend verändert sich dadurch nicht.

Nun könnten kritische Leser einwenden, diese leichte Höhen-Abkühlung sei doch ohne Belang, da große Teile Mitteleuropas aus Tiefland bestehen. Doch halt – da sind ja noch die Gipfel unserer Mittelgebirge und die Alpen. Und wird in unseren Mainstream-Medien nicht stets unisono behauptet, wegen der immer stärkeren Winter-Erwärmung sei Wintersport bald schon unmöglich? Ein Blick auf die winterliche Temperaturentwicklung in den Bergen, stellvertretend hier Zugspitze und Sankt-Bernhard-Pass, zeigt das Gegenteil:

Abbildung 2: Seit nun schon 33 Jahren wird es im höheren Bergland etwas kälter.

Die fehlende Winter-Erwärmung blieb keinesfalls nur auf Mitteleuropa beschränkt, was folgende Beispiele illustrieren:

Abbildung 3: Totalverweigerer Zentralengland: Während sich der Winter in Deutschland bodennah wenigstens noch minimal erwärmte, verläuft die Trendlinie in Zentralengland völlig eben, trotz stark steigender CO2-Konzentrationen (grün).

Abbildung 4: Die ländliche, in den Appalachen gelegene Station Dale Enterprise erwärmte sich ebenfalls nicht.

Abbildung 5: Sapporo auf Hokkaido, ehemaliger Ausrichter der Olympischen Winterspiele, zeigt eine minimale Winter-Abkühlung.

Abbildung 6: Auch in Östersund/Mittelschweden am Ostabhang des Skandinavischen Gebirges blieben die Wintertemperaturen unverändert.

Den sprichwörtlichen Vogel aber schießt eine Station ab, an der momentan Sommer herrscht – Neumayer in der Antarktis. Im dortigen Südwinter (Juni bis August) ist eine markante, signifikante Abkühlung zu verzeichnen – aber in unserer öffentlich-rechtlichen Medienlandschaft verliert man darüber kein Sterbenswörtchen, obwohl der Winter 2020 mit minus 28,5°C dort der kälteste seit Aufzeichnungsbeginn im Jahre 1985 gewesen ist:

Abbildung 7: Signifikante Winter-Abkühlung an der von Deutschland betriebenen Neumayer-Station in der Antarktis.

Also keine Winter-Erwärmung nicht nur in weiten Teilen West-, Mittel- und Nordeuropas schon seit über drei Jahrzehnten, sondern in höheren Luftschichten gar leichte Abkühlung, und auch andernorts stagnierende oder gar fallende Wintertemperaturen. Man sollte das Ganze nicht überbewerten und deshalb muss auch keine neue Eiszeit ausgerufen werden, aber man fragt sich schon, warum in unseren ideologisch verblendeten, mit Zwangsgebühren finanzierten Medien darüber nicht berichtet wird.