Die neue Pause hält an*

Christopher Monckton of Brenchley

[*Schwer übersetzbares Wortspiel: The New Pause Pauses]

Die neue Pause hat eine Pause eingelegt. Wie im Juli, so im August, gibt es laut UAH-Satellitendaten für die untere Troposphäre seit 7 Jahren und 11 Monaten einen Nulltrend bei der globalen Erwärmung:

Der Vollständigkeit halber hier der gesamte Datensatz seit seiner Veröffentlichung im Dezember 1978:

Dazu verfasst Lord Monckton einen Abschnitt, den man in seiner Art kaum passend übersetzen kann. Es geht darin im Prinzip darum, dass das Wetter in UK eben „Sommer“ ist und dass nichts passiert ist, was es nicht früher auch schon gab – und dass von dem ganzen Klima-Theater nur Herr Putin profitiert:

Woe, woe and thrice woe! [Britain has had Mediterranean weather, and we like it, which is why we holiday there: I am about to give a piano recital in Malta]. Lake Mead is drying up!! [through over-extraction, not global warming]. The whole of Europe, including the customarily rain-sodden United Kingdom, is in the worst drought evaaah!!! [since the medieval warm period]. Rivers are running dry!!!! [nothing new there: it’s called summer]. Temperatures are higher than climate scientists ever done thunk!!!!! [warming is little more than a third of the originally-predicted rate]. To keep the lights on in London during a recent heatwave, the British grid authority had to pay more than $11,300 per MWh to Putin’s profit!!!!!! [compared with $30 per MWh at the coal-fired power stations wastefully and needlessly torn down to “Save The Planet”]. And it’s all because global heating!!!!!!! [actually weather]. And it’s a mast year for oaks!!!!!!!! [such heavy crops of acorns occur every few years]. Even the trees are alarmed!!!!!!!!! [Nope].

Die Grosse Eiche in Harrietsham, Kent, hängt in diesem Mastjahr voller Eicheln.

Es ist nicht die globale Erwärmung. Es handelt sich um regionales Wetter, das vor allem auf die lang anhaltende La Niña zurückzuführen ist, die nicht unwesentlich zur neuen Pause der globalen Erwärmung in den letzten acht Jahren beigetragen hat, sowie auf eine plötzliche südliche Luftströmung aus der Sahara.

Die Marxstream-Medien* machten unkritisch die globale Erwärmung für die Dürre verantwortlich, genauso wie sie vor einigen Jahren die Überschwemmungen dafür verantwortlich machten. Kommt schon, Genossen – es ist das eine oder das andere, aber nicht beides. In Wirklichkeit sind Überschwemmungen wahrscheinlicher als Dürren, wenn es wärmer wird, weil durch das wärmere Wetter mehr Wasser aus den Ozeanen verdunstet, woraufhin nach der Clausius-Clapeyron-Beziehung die Kapazität des atmosphärischen Raums zur Aufnahme von Wasserdampf mit der Temperatur zunimmt und die Luft befeuchtet wird. Bereits 1981 wurde berichtet (Nicholson et al.), dass die Sahara um 300.000 km² geschrumpft ist, da die feuchtere Luft das Aufblühen von Wüstenrändern in Gebieten ermöglichte, die der Mensch seit Menschengedenken nicht besiedeln konnte.

[*Monckton-Wortspiel. Gemeint sind natürlich die Mainstream-Medien. A. d. Übers.]

Ein weiterer Grund für die anhaltenden Überschwemmungen und Dürren ist, dass die sehr hohen Offshore-Windmühlen, die jetzt zu lähmenden Kosten für die Steuerzahler in Form von Subventionen installiert werden, die laminare Strömung des Windes in Höhen stören, die inzwischen die Höhe der Turmspitze der Kathedrale von Salisbury, der höchsten Großbritanniens, übersteigen, was sowohl Hoch- als auch Tiefdrucksysteme abbremst und zu länger anhaltendem und intensiverem Wetter aller Art führt.

Wie lässt sich also am einfachsten nachweisen, dass die globale Erwärmung gering, langsam, harmlos und insgesamt vorteilhaft war, ist und bleiben wird? Alles, was kompliziert ist, wird entweder die 99 % der Bevölkerung verwirren, die sich mit Gleichungen nicht anfreunden können, oder es den üblichen Verdächtigen ermöglichen, es noch komplizierter aussehen zu lassen, nur um die Verwirrung sicher zu machen.

Wie die wiederholten langen Pausen andeuten, befindet sich das Klima trotz der anhaltenden Störung durch anthropogene Treibhausgase in nahezu perfekter Thermostase, d. h. im Temperaturgleichgewicht. Die wichtigsten sensibilitätsrelevanten direkten Antriebe durch nicht kondensierende Treibhausgase und die wichtigsten indirekten oder Rückkopplungs-Antriebe, insbesondere durch zusätzlichen Wasserdampf in der Luft, wirken auf Zeitskalen von Stunden, Tagen oder höchstens Jahren. Selbst das IPCC räumt dies ein.

Daher können wir eine einfache Schätzung erster Ordnung für die wahrscheinliche Rate der globalen Erwärmung erhalten, indem wir davon ausgehen, dass aufgrund der Tatsache, dass alle sensiblen Einflüsse auf Zeitskalen von höchstens Jahren wirken, nur eine geringe oder gar keine nicht realisierte globale Erwärmung als Ergebnis unserer vergangenen Emissionssünden in der Pipeline ist. Unter dieser Annahme (die später noch relativiert wird) wird die zu erwartende weitere Erwärmung nicht in erster Linie durch den Einfluss unserer vergangenen Emissionssünden, sondern durch unsere künftigen Emissionen verursacht.

Geht man von einer Sonneneinstrahlung von 1363,5 W/m², einer mittleren Oberflächenalbedo von 0,29, einem mittleren Oberflächenemissionsgrad von 0,94 und der Stefan-Boltzmann-Konstante von 5,6704 x 10-8 W/m² K4 aus, so ergibt sich nach der Stefan-Boltzmann-Gleichung eine Emissions- oder Sonnentemperatur von 259,58 K in Oberflächennähe, wenn zu Beginn keine Treibhausgase in der Luft vorhanden wären. Das ist die naive Methode, die von den Klimatologen bevorzugt wird, die sowohl die Tatsache ausklammern, dass die Albedo ohne Treibhausgase nur die Hälfte des derzeitigen Wertes von 0,29 betragen würde (weil es keine Wolken gäbe), als auch die etwas entgegengesetzte Tatsache der Hölderschen Ungleichungen zwischen Integralen, die von den Klimatologen allzu oft vernachlässigt wird.

Basierend auf den Änderungen der Treibhausgaskonzentrationen in Meinshausen (2017) und den Formeln für Treibhausgas-Forcings des IPCC (2007, Tabelle 6.2) betrug die direkt erzwungene Erwärmung durch natürlich vorkommende, nicht kondensierende Treibhausgase bis 1850 7,52 K.

Im Jahr 1850 war die Referenztemperatur von 267,1 K (vor Berücksichtigung der Rückkopplung) die Summe von 259,58 und 7,52 K. Die von HadCRUT5 beobachtete Gleichgewichtstemperatur im Jahr 1850 (es würde 80 Jahre lang keinen Trend in der globalen Erwärmung geben) betrug jedoch 287,5 K. Daher betrug der Systemgewinnfaktor – das Verhältnis der Gleichgewichtstemperatur nach der Rückkopplung zur Referenztemperatur davor – im Jahr 1850 287,5 / 267,1 oder 1,0764.

Vergleichen Sie die Systemgewinnfaktoren von 1850 und heute. Seit 1850 ist der HadCRUT5-Wert um 1,04 K gestiegen. Die anthropogene Erwärmung seit 1850 betrug 3,23 W/m² (NOAA AGGI). Die Referenz-Sensitivität des Zeitraums war dann das Produkt aus diesem anthropogenen Antrieb des Zeitraums und dem Planck-Parameter 0,3 K/Wm², d. h. 0,97 K.

Daher beträgt die heutige Referenztemperatur (die Temperatur vor Berücksichtigung der Rückkopplung) 267,1 + 0,97 = 268,07 K, und die aktuelle Gleichgewichtstemperatur beträgt 287,5 + 1,04 = 288,54 K. Der aktuelle Systemgewinnfaktor beträgt dann 288,54 / 268,07 oder 1,0764, genau wie im Jahr 1850. Nichtlinearitäts-Anhänger aufgepasst: Auf der Grundlage von Mainstream-Daten aus dem mittleren Bereich ist es möglich, dass die Nichtlinearität der Rückkopplung im Industriezeitalter im Laufe der Zeit gleich Null ist.

Nun könnte man einwenden, dass die Verzögerung der Erwärmung, die durch die enorme Wärmekapazität und die langsame Umwälzung der Ozeane verursacht wird, nicht berücksichtigt wurde. Diese Verzögerung ist jedoch in den Schätzungen des IPCC bereits weitgehend berücksichtigt, da die wichtigsten Antriebe und Rückkopplungen nur kurzzeitig wirken – über Zeiträume von höchstens Jahren. Tatsächlich hat die wichtigste Rückkopplung – die Wasserdampf-Rückkopplung – nur eine Zeitskala von Stunden.

Außerdem wirkt der Ozean wie jede Wärmesenke als Puffer. Er verzögert die Rückkehr der Erwärmung aus der gemischten Schicht in die Atmosphäre, so dass jede Erwärmung in der Pipeline harmlos über Jahrhunderte bis Jahrtausende verteilt wird.

Die Rückkopplungen im Industriezeitalter werden also nicht mit der Temperatur stärker. Es gilt das Le Chatellier-Prinzip: Es gibt Kontrollen und Gleichgewichte – wie die frühere tropische Nachmittagskonvektion nach Eschenbach mit der Erwärmung oder das Wachstum der antarktischen Eisausdehnung, dito – die dazu führen, dass das Klima nahezu perfekt thermostatisch bleibt.

Selbst wenn also der anthropogene Treibhausgasantrieb in den nächsten 78 Jahren weiterhin nahezu geradlinig mit einer Rate von etwa 0. 033 Watt pro Quadratmeter und Jahr weitergehen würde, die in den letzten drei Jahrzehnten vorherrschte (NOAA AGGI), wäre die Referenztemperatur im Jahr 2100 die heutige Temperatur von 268,07 K plus (78 x 0,033 x 0,3) = 268,85 K. Wendet man den bisher konstanten Systemgewinnfaktor 1,0764 an, so ergibt sich für das Jahr 2100 eine Gleichgewichtstemperatur von 289,4 K.

Die Quintessenz ist, dass wir für den Rest dieses Jahrhunderts bis 2100 vielleicht nur 289,4 – 288,5 = 0,9 K mehr Erwärmung erwarten können. Das ist nicht gerade planetarisch bedrohlich. Und das auf der Grundlage mittlerer Mainstream-Daten, die darauf hindeuten, dass sich – ganz so, wie man es a priori von einem durch die Atmosphäre und den Ozean begrenzten System erwarten würde – der Systemgewinnfaktor, das Maß für die Stärke aller auf das Klimasystem wirkenden Rückkopplungsprozesse, bei einer sehr geringen direkten Erwärmung nicht verändert hat und sich im Industriezeitalter nicht verändern wird.

Die Klimatologie irrt sich in ihrer elementaren Steuerungstheorie, indem sie die Tatsache vernachlässigt – die zwar einige Trolle in den Kommentaren ärgert, aber dennoch objektiv wahr ist – dass die zu einem bestimmten Zeitpunkt bestehenden Rückkopplungsprozesse zwangsläufig auf jedes Kelvin der dann herrschenden Referenztemperatur gleichermaßen reagieren müssen. Rückkopplungen reagieren nicht nur auf den winzigen Bruchteil der Referenztemperatur, der direkt durch Treibhausgase erzwungen wird.

Der Fehler der Klimatologie hat viele schwerwiegende Konsequenzen. Nicht die geringste davon ist die Vorstellung, dass man einzelne Rückkopplungsstärken sinnvollerweise in Watt pro Quadratmeter pro Kelvin der Änderung der Referenztemperatur, d.h. der Referenzsensitivität, ausdrücken kann, und nicht der absoluten Referenztemperatur, die die Summe der Emissionstemperatur und aller natürlichen und anthropogenen Referenzsensitivitäten ist.

Es gibt zwei Probleme mit dem Ansatz der Klimatologen. Das erste ist, dass Rückkopplungsprozesse auf die gesamte Referenztemperatur reagieren, ob sie nun wollen oder nicht. Das zweite ist, dass man für eine erfolgreiche Berechnung entweder die Gleichung des absoluten Systemverstärkungsfaktors kennen muss, woraufhin die Differentialrechnung ihre erste Ableitung liefert, oder die erste Ableitung selbst, woraufhin die Integralrechnung die ursprüngliche Gleichung liefert.

Die Form der potenziell relevanten Gleichungen ist jedoch unbekannt und kann nicht ermittelt werden. Schlimmer noch, die den potenziell relevanten Gleichungen zugrundeliegenden Daten sind weder bekannt noch können sie mit einer Genauigkeit ermittelt werden, die ausreicht, um eine legitime wissenschaftliche Grundlage für die verschiedenen, gewinnbringend übertriebenen Vorhersagen der globalen Erwärmung zu schaffen, die von den Computermodellen des Klimas verbreitet werden.

In einer der wichtigsten Arbeiten, die jemals in der Klimatologie zur globalen Erwärmung veröffentlicht wurden, wies Pat Frank diese Tatsache im Jahr 2019 endgültig nach, nachdem Professor Karl Wunsch die Arbeit überprüft hatte und keinen Fehler darin finden konnte, der eine Veröffentlichung verhindern würde. Die Arbeit ist seitdem in der wissenschaftlichen Literatur unwiderlegt geblieben, obwohl es online einige spektakulär unausgegorene Versuche gab, sie zu stürzen, hauptsächlich von Seiten der Klimakommunisten, aber in ein oder zwei bedauerlichen Fällen auch von Seiten der Skeptiker, die nicht wussten, dass sie mit der relevanten Mathematik nicht vertraut waren.

Dr. Franks bewundernswerte Arbeit, die von den klimakommunistischen Torwächtern der einstmals angesehenen Fachzeitschriften 13 Mal abgelehnt wurde, bevor sie einen ehrlichen und kompetenten Gutachter fand, beweist, dass die veröffentlichte Unsicherheit in einer einzigen der Tausenden von Eingangsvariablen, die in die allgemeinen Zirkulationsmodelle einfließen – der wolkenarme Anteil – so groß ist, dass jede vorhergesagte globale Erwärmung oder Abkühlung von weniger als 15 K im Vergleich zur Gegenwart reine Spekulation ist, wenn man diese Unsicherheit auf dieses Jahrhundert überträgt. Die Arbeit von Dr. Frank beweist dieses Ergebnis formal mit Hilfe von standardmäßigen und gut etablierten statistischen Methoden.

Mit einem anderen Verfahren können wir ebenfalls die Unfähigkeit der allgemeinen Zirkulationsmodelle zur Vorhersage der globalen Erwärmung nachweisen. Wir beginnen mit Tabelle 7.10 des IPCC (2021).

In der Tabelle sind die wichtigsten sensibilitätsrelevanten Temperatur-Rückkopplungen aufgeführt. Das IPCC gibt die Rückkopplungsstärken λ (hier in lila) dank des blödsinnigen Physikfehlers der Klimatologie in Watt pro Quadratmeter pro Kelvin der Referenzsensitivität und nicht der Referenztemperatur an.

Eine solche Wahl wäre vielleicht verzeihlich, wenn, wie es in der Elektronik oft der Fall ist, das Störsignal einen sehr großen Anteil am gesamten Eingangssignal hätte. Heute ist das Störsignal jedoch winzig: Es beträgt nur 7,5 + 0,97 = 8,47 K in 268,07 K, also 3 % des Eingangssignals.

Die Ableitung des ECS über den differentiellen Systemverstärkungsfaktor ist in rot dargestellt, während die Ableitung des ECS auf der Grundlage der IPCC-Daten, aber über den absoluten Systemverstärkungsfaktor, in grün dargestellt ist. Beide Methoden zeigen natürlich identische Werte für ECS. Die IPCC-Methode weist jedoch mehrere Probleme auf, wie die Ableitungen daraus zeigen.

Problem 1: Obwohl im mittleren Bereich die Summe von +2,06 W/m² der einzelnen Rückkopplungsstärken und des Planck-Parameters p, der vom IPCC so ausgedrückt wird, als wäre er eine „Rückkopplung“ in Wm²K, gleich der veröffentlichten Netto-Rückkopplungsstärke von -1,16 W/m²K ist, stimmen seine untere und obere Grenze nicht mit den veröffentlichten Gesamtwerten überein. Zweifellos gibt es dafür gute Gründe, aber die Diskrepanz trägt zu der ohnehin schon enormen Unsicherheit im Intervall der Rückkopplungsstärken bei.

Problem 2: Der Planck-Parameter p ist Teil des Bezugsrahmens für die Ableitung von Gleichgewichtstemperaturen: Er sollte daher besser in K/Wm² der Bezugstemperatur ausgedrückt werden. p ist die erste Ableitung der Stefan-Boltzmann-Gleichung nach der absoluten Oberflächentemperatur (heute 288 K) und der Strahlungsflussdichte über der Atmosphäre (heute 242 W/m²): P = 298 / (4 x 242) = 0,3 K/Wm², was nahe genug am Kehrwert des derzeitigen Mittelwerts des IPCC von p= 3,22 W/m² K liegt.

Problem 3: Der Planck-Parameter ist mit einer weitaus geringeren Unsicherheit bekannt als die vom IPCC angenommenen ±6,5 %, da er aus einem Verhältnis absoluter Größen abgeleitet ist, deren Werte gut gesichert sind. Nehmen wir die heutige Oberflächentemperatur von 288 ± 2 K und den Netto-Antrieb an der Oberseite der Atmosphäre von 242 ± 2 W/m². Dann fällt der Planck-Parameter unter Verwendung der reziproken Form des IPCC auf 3,36 [3,31, 3,41] W/m²K, ein Intervall von weniger als ±1,5 %, und nicht die ±6,5 % des IPCC. Die Korrektur dieses Fehlers würde eine der vielen Ungereimtheiten korrigieren, die in der Tabelle zu finden sind, aus der hervorgeht, dass auf absoluter Basis kleinere Rückkopplungsstärken größere ECS-Werte erzeugen.

Problem 4: Bis zum IPCC (2021) war man lange davon ausgegangen, dass der CO2-Antrieb mit einer Genauigkeit von ±10 % bekannt ist. Er wurde daher als einigermaßen gesichert angesehen. Obwohl Andrews (2012) auf der Grundlage von 15 damaligen Modellen zu dem Schluss kam, dass der CO2-Antrieb im mittleren Bereich bei 3,45 W/m² liegt, sagt das IPCC nun, dass er 3,93 W/m² beträgt, was einem Anstieg von 14 % entspricht und weit außerhalb des Intervalls liegt, das man für den verdoppelten CO2-Antrieb gehalten hatte. Wenn die Unsicherheit in Bezug auf den CO2-Antrieb so groß ist, wie der Anstieg des IPCC im Vergleich zu früheren Berichten andeutet, ist erst recht die Unsicherheit in Bezug auf die Stärke der Rückkopplung größer.

Problem 5: Das IPCC stellt die Wolkenrückkopplung als positiv dar. Der primäre Effekt der erhöhten Wolkenbedeckung, der mit der Erwärmung zu erwarten ist – d.h. eine Erhöhung der Albedo der Erde – ist natürlich ein kühlender Effekt, der mehr als genug ist, um den wärmenden Effekt der Wolken, die die nächtliche Strahlung in den Weltraum hemmen, zu überwinden.

Problem 6: Die absoluten Gesamt-Rückkopplungsstärken, die im ECS-Intervall des IPCC impliziert sind, nehmen tatsächlich ab, wenn die ECS-Schätzung zunimmt. Der Grund dafür ist, dass die absoluten Rückkopplungsstärken sehr viel kleiner sind als die höchst unsicheren und daher bedeutungslosen differentiellen Rückkopplungsstärken und dementsprechend in Bezug auf den Planck-Parameter kleiner sind als die differentiellen Rückkopplungsstärken.

Problem 7: Die Prüfsummenwerte für die untere Grenze und die Mitte des Bereichs von ECS, die aus den Rückkopplungsstärken von IPCC mit der Standardmethode der Kontrolltheorie abgeleitet wurden, bestätigen die von IPCC angegebene untere Grenze von 2 K und die Mitte des Bereichs von 3 K. Die gezeigte Methode ist daher eine angemessene Darstellung der IPCC-Methode. Allerdings ist der so errechnete obere Grenzwert von 11,5 K in der Tabelle mehr als doppelt so hoch wie der vom IPCC angegebene Wert von 5 K. Der Grund dafür ist, dass die Form der Reaktionskurve von ECS bei Vorhandensein von Rückkopplungen rechteckig-hyperbolisch ist, so dass bei imaginären Verstärkungsfaktoren (Rückkopplungsreaktionen als Bruchteile von ECS) von mehr als 0,5 eine unkontrollierte Erwärmung zu erwarten wäre. Zu einer unkontrollierten Erwärmung kommt es jedoch nicht, sonst hätten wir es schon längst bemerkt. Stattdessen gab es eine Abfolge von langen Pausen mit kurzen Ausbrüchen von El-Niño-bedingter Erwärmung dazwischen. Diese Pausen liefern also leicht verständliche Beweise dafür, dass die von den Klimakommunisten vorausgesagte unkontrollierte Erwärmung einfach nicht stattfindet. Daher auch das Geschrei der Kreml-Agenten in den Kommentaren.

Problem 8: Die unkontrollierbare globale Erwärmung, die sich aus der Rechteck-Hyperbolizität der Reaktionskurve in Verbindung mit der überhöhten IPCC-Schätzung der Rückkopplungsstärke an der oberen Grenze ergibt, führt dazu, dass ECS nicht durch Modelle begrenzt werden kann. Die Schätzung der Obergrenze, die viel zu groß ist, um glaubwürdig zu sein, erhöht beispielsweise den impliziten Verstärkungsfaktor hC = 1 – 1 / AC auf 0,83, was bedeutet, dass fünf Sechstel des ECS durch Rückkopplungen und nur ein Sechstel durch die Referenzsensitivität, die direkt durch die nicht kondensierenden Treibhausgase erzwungen wird, erzwungen werden. In einem im Wesentlichen thermostatischen System ist eine solche Schlussfolgerung so unplausibel, dass sie unsinnig ist.

Problem 9: Das Intervall des auf der Differentialbasis abgeleiteten Systemverstärkungsfaktors beträgt 2,7762 [1,8783, 5,8824], aber dieses Intervall ist bedeutungslos. Bei der Ableitung der Unsicherheit der Rückkopplungsstärke und damit des Systemverstärkungsfaktors müssen die Summen auf der Grundlage gebildet werden, dass die Sonne scheint und dass die Rückkopplungen daher auf das gesamte Eingangssignal und nicht nur auf eine Störung darin reagieren. Die Methode der Klimatologie berücksichtigt nicht ausdrücklich die Tatsache, dass Rückkopplungen auf die gesamte Referenztemperatur reagieren. Das Intervall des absoluten Systemverstärkungsfaktors, das in der IPCC-Tabelle implizit enthalten ist, trägt dieser Tatsache Rechnung. Er beträgt 1,0781 [1,0822, 1,0872].

Problem 10: Sehr kleine Änderungen der gesamten Rückkopplungsstärke und damit des Systemgewinnfaktors würden zu dem sehr großen ECS-Intervall führen, das sich das IPCC vorstellt. Die Grenzen unterscheiden sich von den mittleren Schätzungen um kaum mehr als 0,5 %: Dennoch würden sie ausreichen, um das absurd hohe und absurd breite 3,4 [2,2, 11,5] K-Intervall des ECS zu erzeugen, das in den überzogenen Daten des IPCC für die Rückkopplungsstärken enthalten ist. Angesichts der Unsicherheiten in den Daten und der Ausbreitung dieser Unsicherheiten im Laufe der Zeit können die Klimaforscher jedoch weder die Grenzen der Rückkopplungsstärke noch die des Systemverstärkungsfaktors auch nur annähernd auf 0,5 % genau eingrenzen. Dies ist eines der schwerwiegendsten Probleme mit den Vorhersagen der GCMs zur globalen Erwärmung. Es wäre schon vor Jahrzehnten entdeckt worden, wenn die Klimatologie nicht einen physikalischen Fehler begangen hätte.

Betrachtet man das winzige Intervall des implizit vorhergesagten absoluten Systemgewinnfaktors des IPCC (das gesamte Intervall beträgt nur etwa 1 % der mittleren Schätzung) im Lichte des sehr großen (±15 K) ECS-Unsicherheitsbereichs, der in Dr. Franks Studie angegeben ist, wird nur allzu deutlich, dass die allgemeinen Zirkulationsmodelle, welchen Zweck sie auch immer haben mögen, bei dem Versuch, ECS einzuschränken, von keinerlei Wert sind. In dieser Hinsicht sind sie kostspielige Ratespiele, die ohne nennenswerten Verlust an Genauigkeit kostengünstig durch einen Satz Würfel ersetzt werden könnten.

Diese zahlreichen Probleme lassen sich nicht beiseite schieben, indem man behauptet, man könne Rückkopplungsberechnungen mit der Differentialmethode genauso gut durchführen wie mit der Absolutmethode. Wie wir gesehen haben, hat die Durchführung dieser Berechnungen nach der Differenzmethode den Effekt, dass viele der oben kurz beschriebenen Probleme verdeckt werden. Das Verfahren des IPCC bietet also keine zufriedenstellende Grundlage für die Entscheidung wissenschaftlich ungebildeter Regierungen, die aus Angst vor Rufmord durch Klimakommunisten in Panik geraten sind, das wirtschaftliche und politische Harakiri zu begehen, das sich jetzt ereignet.

Irgendwann werden die Marxstream-Medien erkennen, dass sie die Tatsache nicht länger verschweigen können, dass die Hauptursache für den Anstieg der sibirischen Gas- und chinesischen Lithiumkarbonatpreise und den daraus resultierenden gefährlichen Anstieg der westlichen Energiepreise die unvorsichtige Aufgabe des freien Energiemarktes und die törichte und verschwenderische Schließung der westlichen Kohlekraftwerke war, die Strom für nur 30 Dollar pro MWh erzeugten. Europa ist nun auf fatale Weise von sibirischem Gas abhängig, ein kostspieliger strategischer Fehler.

Aus Dutzenden von Abhandlungen über die Klimasensitivität und aus Gesprächen mit Klimatologen auf beiden Seiten der Debatte sowie mit den wissenden, unwissenden oder geistlosen Handlangern des Kremls wird deutlich, dass sie nicht erkannt hatten, dass alle zu einem bestimmten Zeitpunkt bestehenden Rückkopplungsprozesse auf das gesamte Eingangssignal reagieren müssen und nicht nur auf eine Störung desselben.

Hätten sie das gewusst, wären sie nicht im Traum auf die Idee gekommen, Vorhersagen auf der Grundlage der differentiellen und nicht der absoluten Rückkopplungsstärken zu machen. Sie hätten erkannt, dass der Versuch, anhand der Modelle überhaupt Rückkopplungen zu diagnostizieren, zwangsläufig zum Scheitern verurteilt ist, da ihre sehr kleinen Unsicherheiten in der Rückkopplungsstärke, wenn sie real sind, zu sehr großen und folglich nicht einschränkbaren Veränderungen der Gleichgewichtsempfindlichkeit führen würden.

Das wirft die Frage auf, welches die solideste Methode zur Ableitung der Klimasensitivitäten ist. Wir bevorzugen die Methode des korrigierten Energiebudgets, von der die sehr einfache, aber recht robuste Version weiter oben in dieser Kolumne gezeigt hat, dass wir bei „business as usual“ nur 0,9 K weitere globale Erwärmung bis zum Jahr 2100 erwarten können. Eine ausgefeiltere Version kommt zum gleichen Ergebnis. Die mittlere Gleichgewichtsempfindlichkeit bei verdoppeltem CO2 beträgt nur 3,45 x 0,3 x 1,0764 = 1,1 K. Das ist doch kaum lebensbedrohlich, oder?

Link: https://wattsupwiththat.com/2022/09/03/the-new-pause-pauses/

Übersetzt von Christian Freuer für das EIKE

 




Neue Studie deckt mögliche Ursachen für die Kleine Eiszeit (LIA) auf…

…darunter geringe Sonnenaktivität, Störungen des Jetstreams, vulkanische Aktivitäten und hohe Variabilität der arktischen Meereisbedeckung

Cap Allon

Eine neue Studie mit dem Titel „Split Westerlies Over Europe In The Early Little Ice Age“ [etwa: „Zweiteilung der Westwinde über Europa zu Beginn der Kleinen Eiszeit“] wurde am 20. August 2022 in Nature veröffentlicht. Die Studie von 15 Forschern unter der Leitung von Hsun-Ming Hu befasst sich mit den wahren, manchmal scheinbar widersprüchlichen Ursachen der LIA.

Im Folgenden werde ich die Studie nur mit den Worten der Wissenschaftler zusammenfassen – sofern nicht anders angegeben. Die Studie ist sicherlich faszinierend und fördert den Dialog.

Abstract

Die Kleine Eiszeit (LIA; ca. 1450-1850 n. Chr.) ist die am besten dokumentierte Kälteperiode des vergangenen Jahrtausends, die durch hochfrequenten Vulkanismus, geringe Sonnenaktivität und eine hohe Variabilität der arktischen Meereisbedeckung gekennzeichnet war.

Frühere Studien über die Veränderungen der atlantischen Zirkulation während des LIA haben sich auf die Nordatlantische Oszillation (NAO) bezogen, aber neuere Studien haben festgestellt, dass die Klimamuster des LIA eine Komplexität zu besitzen scheinen, die von einem NAO-Analogon nicht erfasst wird.

Hier stellen wir eine neue niederschlagsempfindliche Stalagmitenaufzeichnung aus Norditalien vor, welche die letzten 800 Jahre abdeckt.

Wir zeigen, dass während des frühen LIA (1470-1610 n. Chr.) ein verstärkter atmosphärischer Höhenrücken über Nordeuropa die klimatologischen Westwinde von Mittel- und Nordeuropa abspaltete, möglicherweise verursacht durch den gleichzeitigen Rückgang des arktischen Meereises.

Angesichts der anhaltenden Eisschmelze in den nördlichen hohen Breiten und der abnehmenden Sonneneinstrahlung in den kommenden Jahren könnte die frühe LIA als Analogon für die hydroklimatischen Bedingungen in Europa in den kommenden Jahrzehnten dienen.

[Hervorhebung im Original]

Einführung

Die Westwinde über dem Nordatlantik sind die Hauptquelle für den Feuchtigkeitstransport nach Europa, insbesondere im Winterhalbjahr (Oktober-März).

Ein bekannter Einfluss auf ihren Verlauf und ihre Stärke ist der Druckunterschied zwischen dem Islandtief und dem Azorenhoch; Variationen dieses Druckunterschieds führen zur Nordatlantischen Oszillation NAO; ergänzende Abb. 1A) und beeinflussen die Niederschlagsmuster in Europa (ergänzende Abb. 1B):

Abb. 1: Klima und Luftdruck-Variabilität über dem Atlantik

Zu der Graphik:

a) Korrelation zwischen SLP und (i) mittlerem Niederschlag an den Stationen Genua, Mailand und Nizza (G/M/N PP) (Schattierungen); (ii) Skandinavien-Index (SCAND) des Climate Prediction Center (CPC) (Konturen) im Zeitraum September-Februar 1950-2008 u.Z.

b) Vektoren: klimatologische Winde auf 200-mb-Ebene plus Regression der 200-mb-Winde auf den SCAND-Index multipliziert mit zwei Standardabweichungen des SCAND-Index im Zeitraum September-Februar 1950-2008 u.Z., was eine positive SCAND-Bedingung anzeigt. Schattierungen: Korrelation zwischen dem SCAND-Index und dem Niederschlag im Zeitraum September-Februar 1950-2008 n.Chr. Die Schattierungen und Konturen zeigen den/die Korrelationskoeffizienten über dem 90%igen Vertrauensniveau an. Die Klimadaten stammen aus der Reanalyse v3 des 20. Jahrhunderts

Ein weiteres Merkmal, das zu Schwankungen der Westwinde führt, sind atmosphärische Blockierungen, d. h. anhaltende und stationäre Hochdrucksysteme, die die reguläre Westströmung für mehrere Tage bis Wochen blockieren.

Atmosphärische Blocking-Ereignisse über dem Nordatlantik und insbesondere über Skandinavien spielen eine wichtige Rolle bei extremen Winterwetterlagen über Europa, da sie die Lage der Westwinde und die damit verbundenen Zugbahnen von Sturmzyklonen beeinflussen.

Ihr Vorhandensein verhindert den Transport warmer und feuchter Luftmassen nach Europa, was zu Kälteperioden in Nord- und Mitteleuropa wie im Winter 2010/11 führt.

Um die Variabilität der Westwinde und das Auftreten von atmosphärischen Blockierungen auf verschiedenen Zeitskalen besser zu verstehen, werden natürliche Archive benötigt, die über die instrumentelle Ära hinausreichen.

Mehrere Proxy-Aufzeichnungen haben die Variabilität der nordatlantischen Westwinde in den vergangenen Jahrtausenden und insbesondere während der Kleinen Eiszeit (LIA; ca. 1450-1850 n. Chr.) aufgezeichnet. Dies war die kälteste Episode des vergangenen Jahrtausends, die durch eine geringe Sonneneinstrahlung, große Schwankungen der Meereisausdehnung und häufige Vulkanausbrüche gekennzeichnet war.

[Hervorhebung im Original]

Eine frühe Rekonstruktion der NAO während des letzten Jahrtausends deutete auf eine anhaltend positive NAO während der mittelalterlichen Klimaanomalie hin, bevor es während der LIA zu einer Verschiebung zu negativen NAO-Bedingungen kam, aber diese Schlussfolgerung wurde seitdem durch andere NAO-Rekonstruktionen der LIA in Frage gestellt.

Eine neuere Multiproxy-Rekonstruktion legt stattdessen nahe, dass die NAO während der LIA neutral bis schwach positiv war. Es wurde versucht, unterschiedliche Proxy-Rekonstruktionen im Rahmen der NAO in Einklang zu bringen, aber eine andere Möglichkeit ist, dass stattdessen verschiedene Muster der großräumigen atmosphärischen Zirkulation im Spiel sein könnten.

Hier stellen wir eine neue, auf Stalagmiten basierende Aufzeichnung des Herbst-Winter-Niederschlags aus Norditalien vor, die sich über die letzten 800 Jahre erstreckt. Unsere Aufzeichnungen dokumentieren eine verstärkte atmosphärische Aufwölbung (Antizyklone) über Nordeuropa, die mit einer Aufspaltung der klimatologischen Westwinde einhergeht, wobei sich der Hauptzweig in Richtung Mittelmeer und ein schwächerer Zweig nordwärts in Richtung Grönland erstreckt. Diese Zirkulation ist charakteristisch für eine ausgeprägte positive Phase des skandinavischen Telekonnektionsmusters, einer Form der winterlichen großräumigen atmosphärischen Zirkulationsvariabilität über dem Nordatlantik und Europa, die sich dynamisch von der NAO unterscheidet.

Die Kleine Eiszeit

Während der LIA war das Klima im nordatlantischen/europäischen Raum überwiegend kalt, aber die Proxy-Aufzeichnungen zeigen eine beträchtliche Variabilität auf Zeitskalen von mehreren Dekaden bis zu Jahrhunderten innerhalb dieses Zeitraums.

Auf Jahrhundert-Skalen zeigt die Bàsura-Aufzeichnung [NW-Italien] ein ausgeprägtes feuchtes Intervall in Norditalien während der frühen LIA (1470-1610 n. Chr.), was auf möglicherweise starke und anhaltende positive SCAND[Scandinavia pattern]-ähnliche Bedingungen hindeutet.

Innerhalb dieses Zeitraums zeigt der Bàsura-Datensatz (Abb. 2f unten) jedoch eine starke mehrdekadische Variabilität: Die Niederschläge nahmen zu Beginn der LIA zu, erreichten ~1550 n. Chr. ihren Höhepunkt und nahmen dann bis 1620 n. Chr. ab.

Abb. 2: Klimaaufzeichnungen aus Europa und Nordafrika für die letzten 800 Jahre

Zu der Graphik:

a) Na+-Konzentration im Eiskern GISP2 als Indikator für die Windstärke.

b) Rekonstruierter Index der Nordatlantischen Oszillation (NAO).

c) Grün: Wachstumsrate der Stalagmiten aus der Roaring Cave (Schottland) als Indikator für die Niederschlagsmenge. Eine niedrige Wachstumsrate deutet auf eine positive NAO-Phase hin. Hellbraun: Bromkonzentration aus äolischen Sedimenten als Indikator für die Windstärke. Hohe Werte weisen auf starke Winde hin.

d) Bunker (dunkelgrün) und Bleßberg (hellgrün) δ18O-Aufzeichnung aus Deutschland. Niedrige Werte weisen auf ein warmes und feuchtes Klima hin.

e) Spannagel δ18O-Aufzeichnung aus Österreich. Niedrige Werte weisen auf ein warmes Klima hin.

f) Bàsura Sr/Ca-Aufzeichnung aus Norditalien. g Ifoulki δ18O-Aufzeichnung aus Marokko. Das graue vertikale Band markiert die Kleine Eiszeit. Der gelbe vertikale Balken hebt den Zeitraum 1470-1610 n. Chr. hervor. Farbige Punkte und Balken sind U-Th-Alter mit 2-Sigma-Unsicherheiten.

h) Karte mit Klimakonfiguration und Lage der zitierten Aufzeichnungen. Die rot-blauen Schattierungen zeigen den/die Korrelationskoeffizienten zwischen dem Skandinavien-Index und dem Bodenniederschlag im Zeitraum September-Februar 1950-2008 n. Chr. Die Klimadaten stammen aus der Reanalyse v3 des 20. Dreiecke und Kreise markieren westlich beeinflusste Standorte mit einem feucht-warmen (blau) oder trocken-kalten (rot) Klima. Die Bàsura-Höhle ist durch einen dunkelblauen Rand hervorgehoben. 1: GISP2. 2: Korallgrottan-Höhle. 3: Neflon. 4: Roaring-Höhle. 5: Äußere Hebriden. 6: Bunkerhöhle. 7: Bleßberghöhle 8: Spannagelhöhle. 9. Bàsura-Höhle. 10: Kaite-Höhle. 11: Buraca-Gloriosa-Höhle. 12: Sofular-Höhle. 13: Ifoulki-Höhle. 14: Chaara-Höhle.

Das feuchte Intervall zu Beginn des LIA in Norditalien entspricht einer Periode starker Westwinde über dem Nordatlantik (1470-1610 n. Chr.), wie eine Natriumionenaufzeichnung in einem grönländischen Eiskern nahelegt (Abb. 2a), die mit einem neutral-positiven NAO-Modus einherging, wie eine zusammengesetzte NAO-Rekonstruktion zeigt (Abb. 2a).

Auf den Britischen Inseln herrschte während dieses Zeitraums jedoch ein relativ trockenes und weniger windiges Klima, wie eine auf Stalagmiten basierende Rekonstruktion der Roaring Cave (Abb. 2c, grün) und die Aufzeichnung von Bromin aus äolischen Sedimenten in Schottland (Abb. 2c; hellbraun) zeigen.

Trockene und kalte Bedingungen werden auch für Deutschland abgeleitet, basierend auf δ18O-Daten von Stalagmiten aus der Bunkerhöhle (Abb. 2d, dunkelgrün) und der Bleßberghöhle (Abb. 2d, hellgrün), sowie für das hoch gelegene Schweden (ergänzende Abb. 7a), basierend auf δ18O-Daten von Stalagmiten und lakustrischen Aufzeichnungen.

Die Niederschlags- und Windminima in diesen Regionen spiegeln also nicht einen neutral-positiven NAO-Modus wider. Unsere Sr/Ca-Aufzeichnung aus der Bàsura-Höhle (Abb. 2f) deutet dagegen darauf hin, dass in Südeuropa warme und feuchte Bedingungen herrschten, was auch durch eine δ18O-Aufzeichnung aus der Spannagl-Höhle in Österreich (Abb. 2e) belegt wird.

Ähnlich warme und feuchte Bedingungen weisen Stalagmiten aus Portugal (ergänzende Abb. 7b), Spanien (ergänzende Abb. 7c) und der Türkei (ergänzende Abb. 7d) auf, während Stalagmiten aus Marokko ein trockenes Intervall verzeichnen (Abb. 2g und ergänzende Abb. 7f).

Atmosphärischer Höhenrücken über Skandinavien zwischen 1470 und 1610 n. Chr.

Das trockene/kalte Klima in Nordeuropa zwischen 1470 und 1610 n. Chr. kann mit einer neutral-positiven NAO-Phase während dieses Zeitraums in Einklang gebracht werden, wie Ortega et al. (2015) vorschlagen, und zwar durch verstärkte atmosphärische Höhenrücken und damit eine erhöhte Häufigkeit von atmosphärischen Blockierungen über Skandinavien.

Comas-Bru und McDermott (2013) haben argumentiert, dass der zusätzliche Einfluss des SCAND-Musters auf eine NAO die Nicht-Stationarität in der Beziehung zwischen dem europäischen Winterklima und der NAO erklären kann.

Die Kombination der Aufzeichnungen aus Grönland und Bàsura deutet darauf hin, dass ein solcher Höhenrücken die Westwinde während des frühen LIA aufspaltete, wobei ein nördlicher Zweig in Richtung Arktis gerichtet war, was mit dem windigen/warmen/feuchten Klima über Südostgrönland übereinstimmt, und ein südlicher Zweig in Richtung Mittelmeer, was mit den erhöhten Niederschlägen in der Bàsura-Höhle übereinstimmt (Abb. 2h).

Diese klimatischen Bedingungen ähneln den anomal feuchten Bedingungen in Südostgrönland und im nordwestlichen Mittelmeerraum während positiver SCAND-Phasen (Abb. 1b und ergänzende Abb. 1d). Die positive SCAND-Phase erklärt nicht die frühe LIA-Trockenheit über Nordafrika, aber dies könnte auf ein verstärktes Azorenhoch während einer neutral-positiven NAO-Phase zurückgeführt werden (Abb. 2a), das den Feuchtigkeitstransport nach Marokko verhinderte (Abb. 2b).

Zusammenhänge mit dem Rückgang des arktischen Meereises und dem solaren Antrieb

Abb. 3: Vergleich von vulkanischem Antrieb, Sonnenaktivität, Meereisvariabilität und Bàsura-Aufzeichnung

Zu dieser Graphik:

a) Globaler vulkanischer Aerosolantrieb.

b) Violett: Konzentration von benthischen Foraminiferen vom nordgrönländischen Schelf (PS2641-4; ergänzende Abb. 2) als Indikator für die Meereisbedeckung. Rosa: Eisschutt (IRD) (MSM5/5; ergänzende Abb. 2) aus der Framstraße. Hohe Werte dieser beiden Datensätze weisen auf eine große Meereisbedeckung hin.

c) Fünf-Punkte-Mittelwert der Kieselalgenkonzentration (Thalassiosira nordenskioeldii) vom westgrönländischen Schelf (GA306-4; ergänzende Abb. 2). Ein hoher Wert bedeutet eine große Meereisbedeckung.

d) Rot: 40 Jahre geglättete rekonstruierte spätsommerliche arktische Meereisausdehnung.

e) Bàsura Sr/Ca-Aufzeichnung.

f) Rekonstruierter NAO-Index. g Orange: Atlantischer multidekadischer Variabilitätsindex. Schwarz: Gesamte Sonneneinstrahlung. Die Intervalle des Spörer-Minimums (1388-1558 n. Chr.) und des Meereisrückgangs (1450-1620 n. Chr.) sind markiert. Der graue vertikale Balken kennzeichnet die Kleine Eiszeit. Der gelbe vertikale Balken hebt die Periode 1470-1610 n u. Z. hervor.

Aufzeichnungen von Eisschutt aus der Framstraße (Abb. 3b), von Foraminiferen abgeleitete Meereisaufzeichnungen vom nordgrönländischen Schelf (Abb. 3b) und auf Diatomeen basierende Meereisrekonstruktionen vom westgrönländischen Schelf (Abb. 3c) zeigen alle eine ausgedehnte Meereisbedeckung im Nordatlantik während der mittleren bis späten 1300er Jahre.

Diese ausgedehnte Meereisbedeckung im Nordatlantik wurde vermutlich durch den intensiven Vulkanismus (Abb. 3a) und die geringe Sonneneinstrahlung (Abb. 3g) in den späten 1200er bis frühen 1300er Jahren ausgelöst, was wiederum eine Veränderung der Ozeanzirkulation und eine Abkühlung in Europa ab etwa 1400 n. Chr. zur Folge hatte.

Ab 1400 n. Chr. nahm die Ausdehnung des Meereises aufgrund des Eindringens von warmem Atlantikwasser in den Nordatlantik erheblich ab (Abb. 3b, c), was sich in einer positiven Phase der atlantischen multidekadischen Variabilität widerspiegelt (Abb. 3g).

In Anbetracht der Unsicherheiten bei der Datierung größerer Sr/Ca-Abnahmen in Bàsura zwischen 1466 ± 20 und 1559 ± 40 n. Chr. fällt die von uns abgeleitete Periode mit skandinavischer Rückenbildung in das Intervall mit dem arktischen Meereismaximum um 1450 n. Chr. bis zum Minimum um 1586 n. Chr., da dieses Intervall als Ereignis mit „verringerter Meereisausdehnung“ identifiziert wurde. Eine solche skandinavische Aufwölbung kann durch den Meereisverlust in der Barent-Kara-See ausgelöst werden. Direkte Meereisdaten aus dem Barent-Kara-Meer sind zwar nicht verfügbar, aber gekoppelte Modellsimulationen, die auf der Assimilation verfügbarer globaler Proxydaten beruhen, deuten auf einen Rückgang des Barent-Kara-Meereises im Zeitraum 1470-1520 n. Chr. hin.

Der Rückgang des Meereises führt zu erhöhten Wärmeflüssen in die Atmosphäre, die wiederum eine stationäre Rossby-Welle anregen, die sich in Richtung Südosten ausbreitet und den atmosphärischen Höhenrücken über Nordeuropa verstärken kann [auch bekannt als „meridionaler“ Jetstream]. Diese Rückkopplung zwischen Ozean und Atmosphäre könnte somit einen Mechanismus für die Verbindung zwischen der verringerten Meereisausdehnung und dem skandinavischen Höhenrücken während der Jahre 1470-1610 n. Chr. liefern, die unsere Ergebnisse nahelegen (Abb. 2g).

Der atmosphärische Höhenrücken in der frühen LIA könnte durch die geringe Sonneneinstrahlung noch verstärkt worden sein (Abb. 3g).

Modellsimulationen und Proxy-Aufzeichnungen deuten darauf hin, dass Veränderungen der Sonneneinstrahlung erhebliche Auswirkungen auf die Ozonchemie in der Stratosphäre haben können, die den Polarwirbel stören und somit den troposphärischen Jetstream und die atmosphärische Zirkulation beeinflussen.

Unsere Sr/Ca-Daten aus dem Bàsura-Stalagmiten, die von 0,055 mmol/mol um 1460 n. Chr. auf 0,035 mmol/mol um 1550 n. Chr. abfallen, deuten darauf hin, dass sich der skandinavische Rücken in diesem Zeitraum zunehmend verstärkt hat (Abb. 3e). Dieses 90-Jahres-Intervall fällt in die Zeit des Spörer-Minimums (1388-1558 n. Chr., Abb. 3g), was den Zusammenhang zwischen atmosphärischen Veränderungen und solarer Variabilität bestätigt.

Der Rückgang der Meereisausdehnung zwischen 1450 und 1620 n. Chr. ist wohl von längerer Dauer als in den vergangenen 1400 Jahren und ausgeprägter als während der mittelalterlichen Klimaanomalie (ca. 800-1300 n. Chr.).

Unsere Ergebnisse zeigen auf Proxy-Daten basierende Belege für eine verstärkte atmosphärische Aufwölbung über Nordeuropa während dieses mehrdekadischen Intervalls während der frühen LIA, möglicherweise als Reaktion auf den Rückgang des Meereises und das solare Minimum. Unsere Ergebnisse bieten somit möglicherweise eine Analogie für die kommenden Jahrzehnte, in denen die Sonne in ein großes Minimum eintreten könnte.

Die gesamte Studie mit ausführlichen Literaturhinweisen und zusätzlichen Graphiken steht hier.
Link: https://electroverse.co/little-ice-age-causes/

Übersetzt von Christian Freuer für das EIKE

 




Die Energie der Nationen – Energieblindheit führt zu politischen Fehlentscheidungen.

John Constable and Debra Lieberman

I. Der Energieverbrauch im Westen ist ins Stocken geraten

Seit etwa 2005 ist in fast allen westlichen Volkswirtschaften eine historisch beispiellose und äußerst alarmierende Entwicklung des Energieverbrauchs zu beobachten: Er ist entweder rückläufig oder stagniert. Diese bemerkenswerte, aber wenig diskutierte Tatsache gefährdet fast jeden Aspekt unserer öffentlichen Politik, von der Eindämmung des Klimawandels über die nationale Sicherheit bis hin zum gesellschaftlichen Fortschritt selbst. Die Pläne von Präsident Biden, die Ausgaben für erneuerbare Energien wie Wind- und Solarenergie im Rahmen des Inflation Reduction Act massiv zu erhöhen, sorgen für Schlagzeilen, und es ist nicht schwer zu verstehen warum.

Nach Daten des Ministeriums für Wirtschaft, Energie und Industriestrategie ist der Gesamt-Energieverbrauch im Vereinigten Königreich beispielsweise auf ein Niveau zurückgegangen, das seit den 1950er Jahren nicht mehr erreicht wurde; seit dem Höchststand im Jahr 2003 ist ein Rückgang um 30 Prozent zu verzeichnen, was erstaunlich ist, wenn man bedenkt, dass die Bevölkerung im gleichen Zeitraum um 12,5 Prozent auf 67 Millionen Menschen gestiegen ist.

Gesamtenergieversorgung (TES) nach Quellen, Vereinigtes Königreich 1990-2020, Internationale Energieagentur

Nach Angaben der Europäischen Umweltagentur ist der Energieverbrauch in der EU mit der Finanzkrise 2008 zum Stillstand gekommen und seit dem Höchststand im Jahr 2006 um etwa 13 Prozent gesunken. Er liegt nun auf einem Niveau, das seit 1990 nicht mehr erreicht wurde. Auch in Nordamerika stagniert der Energieverbrauch. Nach 2007 ging der Gesamt-Energieverbrauch in den Vereinigten Staaten deutlich zurück, flachte dann ab und ging aufgrund der Pandemie erneut zurück, so dass er bis 2020 etwa 13 % des Höchststandes von 2007 verloren hatte. Ein Teil dieser verlorenen Nachfrage konnte 2021 wieder aufgeholt werden, als die Beschränkungen im Bereich der öffentlichen Gesundheit aufgehoben wurden, aber es bleibt abzuwarten, ob die Nachfrage auch nur auf das frühere Niveau zurückkehren wird, auf dem sie stagnierte. Die kanadische Nachfrage schwächelt in ähnlicher Weise. Auf der anderen Seite des Pazifiks verzeichnet Australien seit 2008 ein schwaches bis gar kein Nachfragewachstum, und die japanische Energienachfrage ist gegenüber ihrem Höchststand von 2004 um über 20 Prozent gesunken.

[Link zu dieser Graphik. Beim Anklicken desselben kann man interaktiv viele weitere Informationen einholen]

Dieses Muster gilt nicht nur für den Energieverbrauch im Allgemeinen, sondern auch für den Stromverbrauch. Seit dem Höchststand von 2005 ist der Stromverbrauch im Vereinigten Königreich um etwa 20 Prozent auf ein Niveau gesunken, das zuletzt Anfang der 1990er Jahre erreicht wurde. Ein Rückgang des Verbrauchs einer Energieform, die ein Schlüsselindikator für eine moderne Gesellschaft ist, ist kein gutes Zeichen.

Manch einer wird sich zu Recht fragen: „Ist eine geringere Energienachfrage, auch bei Strom, nicht nur ein Beweis für mehr Effizienz?“ Die kontraintuitive Antwort lautet: „Nein“. Tatsächlich wird durch eine höhere Energieeffizienz in einem Bereich lediglich Energie für den Verbrauch in einem anderen Bereich bereitgestellt. Die Energieeffizienz wird entweder die Nachfrage nach der nun billigeren Ware oder Dienstleistung erhöhen, oder, wenn die Nachfrage nach der Ware oder Dienstleistung nicht schnell steigen kann, wird die eingesparte Energie zur Verbesserung der Lebensqualität in einem anderen Bereich eingesetzt, so dass der Gesamtenergieverbrauch tendenziell steigen wird. Das Geld, das Sie durch die Umstellung auf energieeffiziente Glühbirnen und Geräte gespart haben, können Sie nun für einen Urlaub oder einen neuen Tesla ausgeben, oder, viel weiter oben in der Kette, für die Verbesserung höherer gesellschaftlicher Güter wie neue Straßen, eine bessere Gesundheitsversorgung oder eine stärkere militärische Verteidigung. Wie Bargeld bleibt auch Energie nie auf dem Tisch liegen. Es gibt keine offensichtlichen Grenzen für Verbesserungen unseres Wohlbefindens – und Energie bietet die Mittel dazu.

Dies ist eine Frage der dokumentierten Geschichte. Die immer effizientere Nutzung von Kohle ab dem späten Mittelalter führte zu Jahrhunderten größerer Kreativität, Freiheit und Unternehmertum – und zu mehr Kohleverbrauch, nicht weniger. Tatsächlich führte der erhöhte Kohleverbrauch zu größerem Wohlstand und höherem Entwicklungsstand, der schließlich zur Nutzung von Elektrizität als Energieträger und höherwertigen Energiequellen wie Öl, Gas und Uran führte, deren Einsatz den Energieverbrauch noch weiter erhöhte. Die Geschichte zeigt eindeutig, dass Verbesserungen der Energieeffizienz zu einem Anstieg des Verbrauchs führen und es daher äußerst unwahrscheinlich ist, dass sie die Ursache für die weitreichenden länderübergreifenden Rückgänge der westlichen Energienachfrage sind. Wie gesunde Menschen haben auch gesunde Volkswirtschaften einen starken Appetit. Ein Arzt, der mit einem Patienten konfrontiert wird, der nicht genug isst, würde sich kaum über dessen Effizienz freuen, sondern sich stattdessen um die zugrundeliegenden physischen und psychischen Bedingungen sorgen. Genauso sollten wir uns Sorgen machen, wenn wir eine hungernde Wirtschaft sehen, und eine sofortige Untersuchung anordnen.

Was ist also die Ursache für den Einbruch des westlichen Energieverbrauchs? Bedauerlicherweise sind es die Umweltpolitik und ihre weitreichenden, unbeabsichtigten Folgen. Die schädlichsten dieser Eingriffe sind die Emissionshandelssysteme und die beispiellosen Investitionen in erneuerbare Energien, die beide die Kosten für die Verbraucher erheblich in die Höhe treiben und den Verbrauch einbrechen lassen. Das EU-Emissionshandelssystem erhöht die Energiekosten in der EU um etwa 17 Milliarden Euro pro Jahr, und die neue unabhängige Version des Vereinigten Königreichs wird im laufenden Haushaltsjahr voraussichtlich unglaubliche 6,7 Milliarden Euro kosten. Darüber hinaus hat die EU seit 2008 unglaubliche 800 Mrd. Euro für die Förderung erneuerbarer Energien ausgegeben, eine Summe, die immer noch um 69 Mrd. EUR pro Jahr steigt. Allein das Vereinigte Königreich zahlt jedes Jahr über 12 Milliarden Euro für die Aufstockung der Einnahmen aus Wind- und Solarenergie. Die USA sind bisher ein relativ unbedeutender Akteur und haben von 2008 bis 2018 lediglich 120 Mrd. Euro ausgegeben, was wahrscheinlich einer der Gründe dafür ist, dass die Lage auf dieser Seite des Atlantiks nicht so schlimm ist.

[Hervorhebung vom Übersetzer]

Die Erwartung war, dass diese Subventionen die Kosten für erneuerbare Energien senken und den Ausstoß von Treibhausgasen zu erschwinglichen Kosten reduzieren würden. Beide Hoffnungen sind enttäuscht worden. Die Kapital- und vor allem die Betriebskosten sind hartnäckig hoch geblieben, während die Kosten für das Netzmanagement stark steigen. Da Ökostrom immer noch extrem teuer ist, übersteigen die Kosten für die Vermeidung des Ausstoßes einer Tonne Kohlendioxid durch die Umstellung auf Wind- oder Solarenergie selbst die höchsten Schätzungen der sozialen Kosten des Kohlenstoffs, d. h. des monetarisierten Wertes des Schadens, der dem menschlichen Wohlergehen durch den von diesem Kohlendioxid verursachten Klimawandel entsteht, bei weitem. Die Schlussfolgerung ist offensichtlich: Das Medikament ist schlimmer als die Krankheit.

Die Absichten mögen gut gewesen sein, aber durch diese enormen Subventionen für erneuerbare Energien haben es die Politiker versäumt, ein wirtschaftlich überzeugendes Beispiel für eine kohlenstoffarme Energiewende zu liefern, und es ist ihnen nur gelungen, Energie viel teurer zu machen, was zu Preisrationierung und sinkendem Verbrauch führt.

Das waren sehr schwere politische Fehler. Wie sind wir hierher gekommen? Die Antwort liegt zum Teil darin, dass es keine natürlichen Intuitionen gibt, um über den Begriff „Energie“ nachzudenken.

II. Wir sind „Energie-blind“

Der Mensch hat die Fähigkeit, über ein breites Spektrum von Phänomenen nachzudenken. Die Evolution durch natürliche Auslese hat den Menschen – wie auch viele andere Tiere – mit der Fähigkeit ausgestattet, viele überlebenswichtige Aspekte der biologischen, physikalischen und sozialen Welt schnell zu erfassen und Entscheidungen zu treffen. Es kostet uns keine Mühe zu wissen, wann wir von einem Raubtier bedroht werden, dass feste Gegenstände nicht durcheinander gehen, wann wir von Freunden gemocht oder nicht gemocht werden, welche Nahrungsmittel sicher sind, welche Menschen attraktive Sexualpartner sind und welche Menschen zur Familie gehören und daher als Partner nicht geeignet sind. Der mentale Werkzeugkasten ist voll von solchen Spielereien, und reichhaltige Intuitionen leiten unser Denken in vielen Bereichen. Aber es scheint uns an Intuitionen in Bezug auf die „Physik der Energie“ zu fehlen.

In der Tat verfügen wir über erstaunlich wenige wissenschaftlich exakte kognitive Intuitionen, die uns bei Entscheidungen über den Charakter von Energie und ihre Bedeutung leiten. Ohne Wissenschaft sind wir mehr oder weniger Energie-blind, so wie Fische vielleicht blind für die Idee des Wassers sind. Das ist vielleicht auch zu erwarten, denn der Begriff der Energie ist eine neue Entwicklung in der Wissenschaft, die erst Anfang bis Mitte des 19. Jahrhunderts begann. Und ein Teil des Problems, das wir beim Verständnis dieses Konzepts haben ist, dass es extrem abstrakt ist. Energie ist kein Stoff wie Kohle oder Öl, sondern eine abstrakte Eigenschaft aller Stoffe, nämlich die Fähigkeit, eine Veränderung in der Welt herbeizuführen – Arbeit zu verrichten, ein Potenzial, das in Joule gemessen wird.

Joule können als Eigenschaft der chemischen Bindungen in fossilen Brennstoffen, der Kräfte, die ein Atom zusammenhalten, der sich bewegenden Objekte wie Wind oder Wasser, der elektromagnetischen Sonnenstrahlung und der Objekte, die durch die Schwerkraft aufeinander einwirken, erkannt werden. Alle haben die Fähigkeit, Veränderungen zu bewirken, aber diese Fähigkeit variiert sowohl in ihrer Quantität, was intuitiv offensichtlich ist, als auch, was noch viel wichtiger ist, in ihrer Qualität, ihrer Fähigkeit, Arbeit zu leisten, die Welt zu verändern, und hier ist der Verstand besonders schwach, das Wesentliche zu erfassen. Ja, es gibt eine große Menge an Energie in der Sonne und im Wind, die um den Globus wehen. Aber diese Energie ist von sehr geringer Qualität und nicht verfügbar, um viel nützliche Arbeit zu leisten. Auch die vibrierenden Atome in den Gegenständen um Sie herum, während Sie diesen Artikel lesen, oder die fallenden Regentropfen enthalten viel Energie, die jedoch im Grunde nutzlos ist. Wind und Sonnenlicht sind nur ein wenig besser. Es gibt einen Grund, warum kein Lebewesen davon leben kann, Energie aus dem Wind zu gewinnen – die Qualität ist einfach zu gering – und es gibt einen Grund, warum die Organismen, die es schaffen, Leben aus Sonnenenergie aufzubauen, nämlich Pflanzen, relativ einfach und im Allgemeinen stationär sind. Mit einer minderwertigen Energieform wie der Sonnenstrahlung kann man an der Erdoberfläche nur sehr wenig anfangen. Lebewesen, die sich von Pflanzen ernähren, können komplexer sein; Lebewesen, die Pflanzenfresser fressen, können noch komplexer sein.

Die Wissenschaft der Thermodynamik lehrt uns, dass es auf die Qualität eines Brennstoffs ankommt, wenn er für uns einen hohen Wert haben soll, und dass der Brennstoff einen sehr geringen Grad an Unordnung (niedrige Entropie) aufweisen muss, wenn er eine komplexe Gesellschaft wie die unsere unterstützen soll. Aber wir haben kaum eine Ahnung davon, und unsere Energieblindheit zwingt uns, uns auf Beweise und Vernunft zu verlassen, die uns sagen, dass fossile Brennstoffe von hoher thermodynamischer Qualität sind, ebenso wie spaltbares Uran. Im Vergleich dazu ist die reichlich vorhandene Energie aus erneuerbaren Energien wie Wind und Sonne von geringer Qualität. Sowohl Wind- als auch Sonnenstrahlung sind so ungeordnet, dass ihre Entropie derjenigen von Niedertemperatur-Zufallswärme, d. h. der zufälligen Bewegung von Atomen und Molekülen, nahe kommt. Ihr Potenzial, etwas zu bewirken – also Veränderungen herbeizuführen – ist sehr begrenzt.

Darüber hinaus erfordert die Umwandlung von Sonnen- und Windlicht in Netzstrom Turbinen und Fotovoltaikanlagen, die ihrerseits komplexe und teure Materiezustände sind, sowie eine Reihe ausgeklügelter und teurer Netzkomponenten wie Batterien, um die Energie nutzbar zu machen. Das macht erneuerbare Energien von Natur aus teuer. Die Sonne und der Wind mögen kostenlos sein, aber nicht die Gewinnung, Umwandlung und stabile Lieferung an den Markt.

Seit den 1990er Jahren und verstärkt seit Anfang der 2000er Jahre haben jedoch viele energieblinde Entscheidungsträger in den westlichen Staaten die rasche Einführung erneuerbarer Energien durch Subventionen forciert, in dem Irrglauben, dass die Kosten sinken würden. Die geringe thermodynamische Qualität von Wind- und Sonnenstrahlung bedeutet jedoch, dass es keine Hoffnung auf eine signifikante Senkung der Kosten für erneuerbare Energien im Vergleich zu fossilen Brennstoffen und Kernenergie gibt. Der Qualitätsunterschied ist einfach zu groß, um ihn zu überbrücken. Gegenwärtig können wir es uns leisten, erneuerbare Energien als Veblen-Güter zu nutzen, weil der Großteil unserer Energie noch aus hochwertigen Quellen stammt, aber wenn erneuerbare Generatoren mit erneuerbarer Energie hergestellt und gewartet werden, wird die in der Wirtschaft verbleibende Marge für andere menschliche Wünsche klein sein, viel kleiner als die, die benötigt wird, um selbst bescheidene Anforderungen zu erfüllen. Alle würden darunter leiden, mit Ausnahme derjenigen, die den Sektor der erneuerbaren Energien besitzen und kontrollieren und die sich eines großen relativen Reichtums und einer großen gesellschaftspolitischen Macht erfreuen würden. Man kann nicht umhin, sich historisch an diejenigen zu erinnern, die die erneuerbaren Energiequellen besaßen, die das Europa vor den fossilen Brennstoffen versorgten, nämlich die Landaristokratie und der Adel. Diese vorfossile Gesellschaftsstruktur ist Geschichte und sollte es auch bleiben.

[Hervorhebung vom Übersetzer]

III. Vor uns liegendes Unheil

Wir müssen auf diese Gefahren aufmerksam werden, bevor es zu spät ist. Es steht eine Menge auf dem Spiel. Reichtum ist mehr als nur Eigentum, das einen austauschbaren Wert hat; es sind all die herrlich unwahrscheinlichen Zustände der Materie um uns herum, die unseren menschlichen Zwecken dienen. Ja, Ihr iPhone ist Reichtum, aber auch ein sauberer und angenehmer Lebensraum, eine nationale Infrastruktur, gesellschaftliche Institutionen und sogar geistige Traditionen wie die Wissenschaft selbst. All diese Dinge werden durch den Einsatz von Energie geschaffen, um an der Welt zu arbeiten, manchmal über sehr lange Zeiträume.

Wohlstand ist das Ergebnis der Energie der Nationen. Qualitativ hochwertige und zunehmende Energienutzung schafft und erhält unwahrscheinliche Zustände der Materie, die den menschlichen Bedürfnissen entsprechen. Eine minderwertige und abnehmende Energienutzung bewirkt das Gegenteil. Überlegen Sie einmal, wie viel Energie eine Jäger- und Sammlerfamilie im Laufe ihres Lebens verbraucht hätte, verglichen mit dem, was Sie in einem Jahr oder sogar in einer einzigen Stunde verbrauchen könnten. Es ist beleidigend puritanisch zu sagen, dass dies nur unnötige Verschwendung ist. Die Verfügbarkeit hochwertiger Energiequellen hat die Herstellung zahlreicher kultureller Artefakte ermöglicht, die das Leben der Menschen gesünder, länger und erfüllter machen. Die Sterblichkeitsraten, insbesondere bei Kindern, sind im historischen Vergleich außerordentlich niedrig. Viele Menschen auf der Welt – und nicht nur die reichsten – haben heute eine kontrollierte Temperatur in ihren Wohnungen und an ihren Arbeitsplätzen, einen geringen Gehalt an Krankheitserregern in ihren Lebensmitteln, Transportmöglichkeiten nach Belieben, Zugang zu Bildung und umfangreiche Informationsspeicher. Ganz zu schweigen von den vielen anderen thermodynamischen Unwahrscheinlichkeiten, die uns als Organismen zugute kommen, einschließlich hochentwickelter intellektueller Traditionen, die es uns ermöglichen, einer neuen Bedrohung wie einem bisher unbekannten Virus zu begegnen und ihn mit Technologie zu bekämpfen, bevor es uns auslöscht.

Der Rückgang des Energieverbrauchs ist daher eine sehr ernste Angelegenheit. Er bedeutet nicht nur einen Rückgang unserer Fähigkeit, neuen Wohlstand zu schaffen und das menschliche Wohlergehen noch weiter zu verbreiten, sondern auch unserer Fähigkeit, die komplexe Umwelt zu erhalten, die wir so gestaltet haben, dass sie ein sicherer Ort ist, an dem wir leben und unsere Familien großziehen können. Alles in der menschlichen Sphäre um uns herum – Maschinen, Straßen, Häuser, Gesundheits- und Bildungssysteme, Ernährung – muss instand gehalten werden; alles erfordert den ständigen Einsatz von Energie, um den Verfall zu verhindern. Ein gesellschaftlicher Rückschritt in Richtung thermodynamisches Gleichgewicht, der ohne angemessene Energiezufuhr sicher ist, wird unwillkommen und entsetzlich sein.

Bevor Sie uns als „Chicken Littles“ abtun, die den Untergang des Himmels heraufbeschwören (obwohl wir das sind und es auch sind), geben wir zu, dass die Welt da draußen alles andere als dystopisch ist. Selbst in Ländern, in denen der Energieverbrauch sinkt, ist der Schmerz noch nicht groß. Und dafür gibt es einen guten Grund. Während der westliche Energieverbrauch stagniert oder zusammenbricht, steigert ein Land seinen Energieverbrauch, stützt unseren Verbrauch mit seinen Exporten und vermittelt dem Rest der Welt ein falsches Gefühl der Sicherheit: China.

Seit 2007, als der Westen mit seiner Energiehungerdiät begann, ist der chinesische Energieverbrauch um mehr als 50 Prozent und der Stromverbrauch um mehr als 200 Prozent gestiegen. Im Jahr 2007 verbrauchten die USA 30 Prozent mehr Strom als China, aber Chinas Stromverbrauch ist jetzt 70 Prozent höher als der der USA. Darüber hinaus ist China zu 90 Prozent von den thermodynamisch überlegenen fossilen Brennstoffen und der Kernenergie abhängig, und nur ein Teil des immensen Reichtums, der in China durch diese Brennstoffe erzeugt wird, wird exportiert. Was machen sie mit dem Rest? Die Zeit wird es zeigen.

IV. Der Westen muss seinen Kurs ändern!

Aber gerade jetzt muss der Westen mit äußerster Dringlichkeit die Verschlechterung der Qualität seiner Energieversorgung und den daraus resultierenden Einbruch des Energieverbrauchs umkehren. Weitere Verbesserungen der Energieeffizienz mögen kurzfristig helfen, die Verbraucher zu schützen, indem sie Geld auf der Bank halten und sie vor den Folgen einer schlechten Energiepolitik bewahren, aber sie sind kein langfristiger Ersatz für eine gesunde und physisch gesunde Energieversorgung. Wenn uns die Lebensqualität der Menschen wichtig ist – wenn wir unsere Freiheit schätzen – dann ist das Herumspielen mit Energiequellen geringer Dichte eine Sünde; und wenn die Verringerung der Kohlenstoffemissionen ein Erfordernis ist, wie wir glauben, dann zeigt die Vernunft, dass fossile Brennstoffe die notwendige Brücke zu einer kohlenstoffarmen Zukunft auf der Grundlage der Kernenergie sind.

Da die chinesische Wirtschaft auf einer thermodynamisch soliden Grundlage steht und die westliche nicht, hat sich die Welt innerhalb eines Wimpernschlags auf den Kopf gestellt. Die wirtschaftlichen Folgen sind gravierend, die Auswirkungen auf die Sicherheit potenziell erschreckend. Unsere Energieblindheit ist sowohl kostspielig als auch gefährlich.

John Constable and Debra Lieberman

John Constable is the author of Europe’s Green Experiment: A costly failure in unilateral climate policy & Debra Lieberman is an author and Professor of Psychology at the University of Miami.

Link: https://quillette.com/2022/08/24/the-energy-of-nations/?mc_cid=598040100b&mc_eid=08ba9a1dfb

Übersetzt von Christian Freuer für das EIKE

 




Was steckt wirklich hinter der Klima-Agenda?

Bonner Cohen, Ph. D., Dr. Jay Lehr

Noah Harari, ein Zukunftsforscher und Berater des Weltwirtschaftsforums (WEF), sagte dortselbst, dass sie die Mehrheit werden und den Rest zurücklassen müssen. Er sagte, wir brauchen keine normalen Leute. Wir brauchen keine Schreiner, Klempner, Friseure, Automechaniker, Bauern und Viehzüchter. Sie sind alle weniger wichtig. Was wir auf diesem Planeten erreichen wollen, ist alles für uns, sagte Harari.

Für das WEF und andere Organisationen, die mit ihm verbunden sind, bedeutete diese Aussage, dass sie den Wunsch der globalistischen Eliten, Eugenik zu aktivieren, bestätigten. Sie wurde Ende des 19. und Anfang des 20. Jahrhunderts in Russland eingeführt, wo jede Wissenschaft abgelehnt wurde, die nicht in das von ihnen gewünschte Schema passte. Am Ende warf es Russland um Jahrzehnte zurück. Dies geschieht auch hier in den USA und wird wahrscheinlich dasselbe Ergebnis haben, das unsere Nation um Jahrzehnte zurückwirft, wenn wir es nicht aufhalten. Die Entscheidung, dass die vom Menschen verursachten Kohlendioxidemissionen (CO2) schlecht sind, ohne dass es dafür eine wissenschaftliche Grundlage gibt, ist ein Beispiel für Eugenik, die alle wissenschaftlichen Erkenntnisse missachtet, mit denen sie nicht einverstanden ist.

Sie basierte auf der Vorstellung, dass es unter uns weniger gute Menschen gibt, einige mit Geburtsfehlern und andere, die offen gesagt einfach nicht auf der Höhe der Zeit sind und aus der Gesellschaft entfernt werden müssen oder zumindest Maßnahmen ergriffen werden sollten, um sicherzustellen, dass sie nie in die Gesellschaft eintreten.

Eugenik war damals ein sehr modischer Glaube. Zwei amerikanische Präsidenten, beide selbsterklärte Progressive wie Teddy Roosevelt und Woodrow Wilson, waren mittendrin in der Eugenik. Dann kam ein gescheiterter Künstler, dem es gelang, an die Spitze Deutschlands zu gelangen, und er machte die Eugenik oder eine Version davon zum zentralen Organisationsprinzip des Dritten Reiches.

Wie wir alle wissen, ging das nicht gut aus, und so kam die Eugenik aus der Mode, oder zumindest der Begriff Eugenik kam aus der Mode, nicht aber der Gedanke daran. Sie tauchte in den 1950er und 1960er Jahren wieder auf, diesmal unter dem Deckmantel der Bevölkerungskontrolle, der Vorstellung, auf die Herr Harari hinwies – es gibt einfach zu viele Menschen auf der Welt, und es müssen Maßnahmen ergriffen werden, um sicherzustellen, dass wir die Zahl reduzieren. Entweder indem man dafür sorgt, dass sie gar nicht erst geboren werden, oder durch andere Mittel.

1968 hatte Paul Ehrlich das Buch Population Bomb vorgelegt. Darin stellte er unter anderem fest, dass der Planet zu überfüllt ist und dass wir seine Tragfähigkeit überschreiten. Er bezeichnete dies als die größte Bedrohung für die Menschheit. Fünf Jahre später veröffentlichte der Club of Rome einen Bericht mit dem Titel Grenzen des Wachstums, in dem er die Prämisse von Paul Ehrlich und anderen aufgriff, dass es einfach zu viele Menschen auf der Erde gibt.

Das Buch ging über diese Prämisse hinaus und besagte, dass wir die Ressourcen belasten und dass es letztendlich nicht genug Ressourcen geben würde, um den Rest von uns auf der Erde zu versorgen. Zwischen den beiden Dokumenten entwickelte sich ein Narrativ, das mit dem Aufkommen der Umweltbewegung zusammenfiel, die durch Rachel Carson und ihr Buch Silent Spring ausgelöst wurde, in dem sie feststellte, dass Spurenelemente von Chemikalien und anderen Stoffen eine Bedrohung für die Menschheit darstellen.

In den späten 1980er Jahren wurde uns gesagt, dass wir über unsere Verhältnisse leben und dass der Mensch durch seine Nutzung fossiler Brennstoffe und seine landwirtschaftlichen Praktiken zu einer potenziell katastrophalen Erwärmung des Planeten beiträgt.

Dies wurde, wie wir alle wissen, von Al Gore und in ganz Europa vom ehemaligen schwedischen Premierminister propagiert.

Der Gedanke waren nicht neu, er war bereits im 19. Jahrhundert in Europa verbreitet, aber nicht überall, bis Gore sie im Studium aufgriff. Obwohl er über keinerlei wissenschaftliche Kenntnisse verfügte, gefiel ihm, was er las, und er beschloss, es zu seinem Lebensinhalt zu machen, und in dieser Hinsicht hatte er tatsächlich mehr Erfolg als er sich je erträumt hatte.

Diese Art von Pseudowissenschaft war keineswegs neu. Schon in der Sowjetunion von Joseph Stalin in den 1930er Jahren kam der sowjetische Wissenschaftler Lysenko auf die Idee, dass die Humangenetik eine bürgerliche Wissenschaft sei und um jeden Preis unterdrückt werden müsse.

Für die Sowjetunion machte das durchaus Sinn, denn die UdSSR war gerade dabei, den neuen sowjetischen Menschen zu schaffen. Dieser neue sowjetische Mensch sollte von Grund auf neu geschaffen werden, denn laut Humangenetik werden Merkmale von den Eltern an die biologischen Kinder weitergegeben usw. All das wurde also unterdrückt, und jeder Wissenschaftler oder Arzt oder jeder, der sich gegen die Unterdrückung der Idee der Humangenetik aussprach, verlor seinen Arbeitsplatz oder konnte irgendwo im Gulag landen. Die gleiche Situation erleben wir jetzt in Bezug auf den Klimawandel, nur bisher ohne den Gulag.

Kein Geringerer als Al Gore hat gesagt, dass dies einen tiefgreifenden Wandel der Gesellschaft erfordern würde. Nun, wie schafft man eine tiefgreifende Umgestaltung der Gesellschaft? Nun, es stellte sich heraus, dass diese Umgestaltung bereits im Gange war. Antonio Gramsci, einer der Gründer der Kommunistischen Partei Italiens, ist derjenige, dem der neue Aufstieg des Kommunismus in unserem Leben eigentlich zu verdanken ist, der aber selten gewürdigt wird.

Er erkannte, dass das Proletariat nicht im Begriff war, sich zu erheben und die Bourgeoisie zu stürzen, und hatte eine Verachtung für die arbeitenden Menschen, die ein konstantes Merkmal der Linken ist.

Gramsci entwickelte die Idee eines langen Marsches durch die Institutionen. Das bedeutete, dass die Institutionen der Gesellschaft im Laufe der Zeit von innen heraus unterwandert und umgestaltet werden würden. Diese Institutionen würden ihre Namen beibehalten, aber sie würden völlig andere Wege gehen und einen völlig anderen Charakter haben. Es handelte sich dabei nicht nur um Universitäten und Schulen, sondern, wie wir heute wissen, auch um die Vorstandsetagen von Unternehmen, um Schulräte, um die Medien und schließlich um die sozialen Medien, um alle wissenschaftlichen Publikationen und Berufsverbände. Ein Beispiel dafür ist der Vater unseres älteren Autors, der Architekt und Mitglied des American Institute of Architects (AIA) war. Heute ist das AIA der Vorreiter in Sachen Klimawandel.

Das AIA ist also nur ein Beispiel für viele Organisationen, die sich von innen heraus verändert haben. Und das alles geht auf Gramsci zurück. Es geschah über Jahrzehnte hinweg und die Menschen haben es nicht wirklich bemerkt, aber plötzlich findet man sich in Organisationen wieder, deren Namen man kennt. Das können Bundesbehörden wie NOAA und NASA sein oder Organisationen wie die National Geographic Society.

Unabhängig davon, was sie sind, haben sie nur noch wenig Ähnlichkeit mit dem, was sie vor ein paar Jahrzehnten waren. Sie wurden infiltriert und umgewandelt und werden dann zu sich selbst erhaltenden Gebilden.

Präsident Kennedy erkannte, was vor sich ging, was wahrscheinlich zu seiner Ermordung führte. In einer Rede während seiner Präsidentschaft sagte er Folgendes:

Wir sind als Volk von Natur aus und historisch gesehen gegen Geheimgesellschaften, geheime Eide und geheime Verfahren, aber uns steht weltweit eine monolithische und rücksichtslose Verschwörung gegenüber, die sich in erster Linie auf verdeckte Mittel zur Ausweitung ihrer Einflusssphäre verlässt, auf Infiltration statt Invasion, auf Subversion statt Wahlen, auf Einschüchterung statt Wahlfreiheit. Es handelt sich um ein System, das enorme personelle und materielle Ressourcen für den Aufbau einer engmaschigen, hocheffizienten Maschinerie mobilisiert hat, die militärische, diplomatische, nachrichtendienstliche, wirtschaftliche, wissenschaftliche und politische Operationen kombiniert. Seine Vorbereitungen werden verheimlicht und nicht veröffentlicht. Ihre Fehler werden begraben und nicht in den Schlagzeilen erwähnt. Andersdenkende werden zum Schweigen gebracht und nicht gelobt. Keine Ausgabe wird in Frage gestellt, kein Gerücht wird gedruckt, kein Geheimnis wird gelüftet. Deshalb hat der athenische Gesetzgeber Sola es für jeden Bürger zum Verbrechen erklärt, sich vor einer Kontroverse zu scheuen. Und ich bitte Sie um Ihre Hilfe bei der gewaltigen Aufgabe, das amerikanische Volk zu informieren und zu alarmieren. Ich bin zuversichtlich, dass der Mensch mit Ihrer Hilfe das sein wird, wozu er geboren wurde: frei und unabhängig“.

Die große Übernahme unserer Freiheit wurde durch die verrückte Idee der vom Menschen verursachten globalen Erwärmung ermöglicht, die die Gesellschaft nicht nur in den Vereinigten Staaten, sondern in ganz Europa in Richtung Kommunismus gelenkt hat.

Eines der wichtigsten Elemente dabei ist die Unterdrückung von Dissens, niemand darf dies in Frage stellen. Wenn Sie das tun, und wenn Sie irgendwo ein Forscher sind, der glaubt, dass er einen Bundeszuschuss bekommt, um irgendeinen Aspekt des Klimas zu untersuchen, oder wenn Sie öffentlich bekannt sind, dass Sie in Opposition sind, werden Sie keine Zuschüsse bekommen – Sie können nicht in Opposition sein. Alle müssen an einem Strang ziehen, und das ist ganz im Sinne des Lysenkoismus. Dadurch wird die legitime wissenschaftliche Forschung, das Geben und Nehmen, allmählich im Keim erstickt.

Aber wenn Sie sich umsehen, werden Sie feststellen, dass es nur eine zahlenmäßig kleine Gruppe von Menschen gibt, die immens profitiert hat, während der Rest der Bevölkerung gelitten hat.

Eine der wirksamsten Waffen, die die politische Linke heute besitzt, ist die vermeintliche Unterstützung durch das Volk, während sie sich stattdessen vollständig auf institutionelle Autoritäten verlässt, um den Amerikanern ihre Wahnvorstellungen aufzuzwingen. Die Kontrolle der Linken ist eine völlige Farce.

JB Shurk schrieb in American Thinker am 19. August 2022:

Die große Mehrheit der Amerikaner macht sich keine Sorgen über quixotische Kämpfe gegen ein sich natürlich veränderndes Klima oder Geschlechtsumwandlungen, sondern eher über die harten Realitäten von Inflation, illegaler Einwanderung und außer Kontrolle geratener Kriminalität.

Das politische Establishment in Washington D.C. und ihre Erfüllungsgehilfen in den Mainstream-Medien widmen ihre gesamte Zeit und ihre Ressourcen der Förderung von Rassenkonflikten, arbeitsplatzvernichtendem Globalismus, offenen Grenzen und kriminellen Verschwörungen gegen Präsident Trump!“

Die vorherrschende linke Weltanschauung ist mit anderen Worten eine Illusion, die auf Lügen beruht, die immer wieder von Menschen in Macht-, Autoritäts- und Einflusspositionen erzählt werden. Wenn die heiligen Grundsätze der Linken in Frage gestellt, herabgewürdigt oder verspottet werden, wird ihre Legitimität schnell zunichte gemacht.

Wir erinnern uns an die Zeit, als das Center for Disease Control (CDC) als ehrwürdige Institution für wissenschaftliche Studien respektiert wurde, aber jetzt machen seine parteiischen Agenden und seine Politisierung es unglaubwürdig. Eines Tages wird man den Mainstream-Nachrichten als zuverlässigem Verteidiger des Volkes gegen die Korruption der Regierung vertrauen, und sie werden jetzt allgemein als Propagandamaschine verstanden.

Es gibt jedoch einige positive Anzeichen für diese Entwicklung. Eine davon war eine kürzlich ergangene Entscheidung des Obersten Gerichtshofs in der Rechtssache West Virginia gegen die Environmental Protection Agency (EPA), die einer der Gründe für den Erfolg der gesamten Bewegung zur globalen Erwärmung ist. Sie hatte eine freundliche Regulierungskultur, die sie unterstützte.

Wenn der Kongress Rechtsvorschriften wie das Gesetz über saubere Luft oder das Gesetz über sauberes Wasser erlässt, sind die Formulierungen oft sehr vage. Es obliegt dann einer Behörde, die im Rahmen des Gesetzes zuständig ist, die Lücken zu füllen. Sie schreiben die Regeln und Vorschriften, nach denen diese Gesetze funktionieren. Diese Regeln und Vorschriften haben jedoch die Kraft des Gesetzes. Dieses Urteil des Obersten Gerichtshofs beendet die Möglichkeit nicht gewählter, nicht rechenschaftspflichtiger Bürokraten in der gesamten Bundesbürokratie, ob es sich nun um die EPA, die FDA oder das CDC Department of Transportation handelt, Regeln und Vorschriften mit Gesetzeskraft zu erlassen. Dies war der Deep State, von dem wir schon so viel gehört haben.

Es handelte sich nie um eine tiefgreifende Verschwörung gegen die Öffentlichkeit. Sie hat unser Leben direkt vor unseren Augen gesteuert.

Die Entscheidung des Obersten Gerichtshofs gegen die EPA im Fall West Virginia besagt, dass die EPA nicht mehr die Befugnis des Kongresses hat, die Emissionen bestimmter Kraftwerke zu regulieren. Wenn sie diese Befugnis haben wollte, müsste sie sich an den Kongress wenden, um sie zu erhalten.

Die vom Obersten Gerichtshof verwendete Formulierung lautete, dass Regeln und Vorschriften, die erhebliche wirtschaftliche Auswirkungen haben, vom Kongress genehmigt werden müssen. Nun, wir wissen, dass praktisch jede Vorschrift und jede Regelung, die von den Bundesregulierungsbehörden umgesetzt wird, erhebliche wirtschaftliche Auswirkungen haben wird.

Das bedeutet, dass die Regulierungsbehörden nicht mehr die Macht haben, so viele Bereiche unseres Lebens zu kontrollieren. Dieser neue Präzedenzfall wurde durch den Obersten Gerichtshof geschaffen.

Der Oberste Gerichtshof hat die Gewaltenteilung wiederhergestellt, wie sie von den Gründervätern vorgesehen war. Sie wollten immer drei Zweige der Regierung einsetzen: Die Exekutive, die Legislative und das Gerichtssystem.

Keiner dieser drei durfte die anderen vollständig beherrschen. Es war allein Sache der Legislative, Gesetze zu erlassen, nicht der Exekutive. Der hier geschaffene Präzedenzfall wird weitreichend sein, denn er wird weit über die Kraftwerke in West Virginia hinausgehen. Er wird in alle Regulierungsdebatten einfließen, die in der Bundesbürokratie geführt werden. Solange das Gericht aus den Richtern besteht, die derzeit auf der Richterbank sitzen, wird es für diese nicht wählbaren, nicht rechenschaftspflichtigen Verwaltungsbehörden extrem schwierig sein, das zu tun, womit sie seit Franklin Delano Roosevelts New Deal als „tiefer Staat“ durchkamen.

Es war ein erheblicher Rückschlag für diesen administrativen Regulierungsstaat und ein Sieg für die Verfassung und die Rechtsstaatlichkeit. Fred Smith, der Gründer des Competitive Enterprise Institute, sagte einmal: „Die US-Verfassung ist nicht perfekt, aber sie ist um einiges besser als das, was wir jetzt haben.“ Nun, Fred Smith bezog sich genau auf das Phänomen verfassungswidriger Vorschriften, die der Bevölkerung von nicht gewählten, nicht rechenschaftspflichtigen Bürokraten auferlegt werden. Diese sind nun stark eingeschränkt worden. Das ist in der Tat eine sehr populäre, sehr positive Entwicklung.

Ich denke, Sie werden in nächster Zeit sehen, wie sich das auswirkt, wenn andere Fälle vor den Obersten Gerichtshof kommen, in denen bürokratische Behörden über das hinausgegangen sind, wozu der Kongress sie ermächtigt hat. Einer dieser Fälle, der sich direkt auf die gesamte Klimadebatte auswirkt, wird über Bemühungen entscheiden, Beschränkungen der Wassernutzung aufzuerlegen.

Die so genannten Waters of the United States (Gewässer der Vereinigten Staaten) sind ein System, mit dem die Bundesregierung unter dem Deckmantel des Schutzes von Gewässern, die ursprünglich als schiffbar galten, die Kontrolle über Erzland übernimmt. Die EPA und das Army Corps of Engineers sind für die schiffbaren Gewässer der USA und für die Einleitungen in diese Gewässer zuständig. Im Laufe der Zeit wurde das Wort „schiffbar“ dank der vagen Formulierung im Clean Water Act ignoriert. Die Obama-Regierung unterstützte diese Überschreitung, dann hob Trump die Regel auf und Biden setzte sie wieder ein. Es läuft darauf hinaus, dass der Bund im ganzen Land privates Land abgrenzt.

Es verstößt gegen alle Eigentumsrechte. Es wird dazu beitragen, die Energieerzeugung auf privatem Grund und Boden zu unterdrücken, weil der Fall vorgebracht werden wird, dass das Fracking oder die Förderung von Öl oder Gas ein nahe gelegenes Gewässer gefährdet, das 100 Meilen entfernt sein könnte, und daher gegen den Clean Water Act verstößt. Dies wird in der Zukunft vor dem Obersten Gerichtshof enden.

Dies ist eine sehr positive Entwicklung, die mit dem Beginn des Widerstands gegen den tiefen Staat zusammenfällt, der sich auf lokaler Ebene gegen verschiedene Regulierungsmaßnahmen richtet, sowohl im Hinblick auf die Klimadebatte als auch auf die Folgen unserer katastrophalen Erfahrungen mit dem Kampf gegen COVID-19.

Autoren: Bonner Cohen, Ph. D. is a senior policy analyst with CFACT, where he focuses on natural resources, energy, property rights, and geopolitical developments. Articles by Dr. Cohen have appeared in The Wall Street Journal, Forbes, Investor’s Busines Daily, The New York Post, The Washington Examiner, The Washington Times, The Hill, The Epoch Times, The Philadelphia Inquirer, The Atlanta Journal-Constitution, The Miami Herald, and dozens of other newspapers around the country. He has been interviewed on Fox News, Fox Business Network, CNN, NBC News, NPR, BBC, BBC Worldwide Television, N24 (German-language news network), and scores of radio stations in the U.S. and Canada. He has testified before the U.S. Senate Energy and Natural Resources Committee, the U.S. Senate Environment and Public Works Committee, the U.S. House Judiciary Committee, and the U.S. House Natural Resources Committee. Dr. Cohen has addressed conferences in the United States, United Kingdom, Germany, and Bangladesh. He has a B.A. from the University of Georgia and a Ph. D. – summa cum laude – from the University of Munich.

CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2022/08/27/what-is-really-behind-the-climate-agenda/

Übersetzt von Christian Freuer für das EIKE




Eine grundlegende Abkühlung der Stratosphäre entfaltet sich auf der gesamten Südhemisphäre

Cap Allon

Einführung des Übersetzers Christian Freuer: vor Kurzem hat ja S. KÄMPFE einen Beitrag vorgelegt, in dem er am Ende vage statistische Hinweise auf den kommenden Winter auf der Grundlage des diesjährigen Sommers veröffentlicht. Demnach folgen auf warme Sommer eher milde Winter, was sich auch mit dem – subjektiven! – Eindruck des Übersetzers deckt.

Hier wird jetzt in eine ganz andere Richtung spekuliert. Der Übersetzer betont, dass dieser Beitrag spekulativ ist und er darauf keine Häuser bauen würde. Auch scheint ihm die Zuordnung der Winterverhältnisse auf der SH zu dem Vulkanausbruch als alleinige Ursache derselben vielleicht zu einseitig. Seine „Zusammenfassung“ am Ende jedoch kann man uneingeschränkt zustimmen. Die Übersetzung erfolgt hier mit der Hoffnung, eine sachliche und fruchtbare Diskussion anzustoßen. Im Übrigen muss man ja nur bis zum nächsten Frühjahr warten, um zu sehen, was heraus gekommen ist. – Ende Einführung.

Eine grundlegende Abkühlung der Stratosphäre entfaltet sich auf der gesamten Südhemisphäre

Cap Allon

In der Stratosphäre über der südlichen Hemisphäre werden starke Kälteanomalien festgestellt, die zu einer Abkühlung führen, wie sie in modernen Satellitenaufzeichnungen noch nie beobachtet wurde. Ursache? Die Eruption des Hunga Tonga am 15. Januar.


Starke Vulkanausbrüche sind in der Lage, verschiedene Gase und Materialien in die Stratosphäre und darüber hinaus zu schleudern. Je nach Art der Partikel und des Volumens des Auswurfs kann dies zu unterschiedlichen regionalen und globalen Auswirkungen auf die Atmosphäre führen.

Hunga Tonga ist ein unterseeischer Vulkan im Südpazifik. Sein heftiger Ausbruch am 15. Januar 2022 erzeugte eine gewaltige Vulkanfahne aus Schwefel und Wasserdampf, die bis in die Mesosphäre reichte. Es war die höchste jemals aufgezeichnete Eruption.


Schwefel, der in so hohe atmosphärische Schichten aufsteigt, hat eine globale Abkühlung zur Folge. Der Ausbruch des Pinatubo 1991 ist der jüngste Beweis dafür. Wie unten dargestellt, kühlte der VEI-6-Ausbruch des Pinatubo den gesamten Planeten etwa drei Jahre lang ab, und zwar in erheblichem Maße:


Ähnlich wie Schwefel hat auch Wasserdampf eine kühlende Wirkung, allerdings nicht an der Oberfläche, sondern in der Stratosphäre – eine Kühlung, die auf die gleiche Weise wie bei Schwefel erreicht wird, nämlich durch Reflexion der einfallenden Sonnenstrahlung.

Berechnungen zufolge führte der Ausbruch des Hunga Tonga zu einem Anstieg des gesamten stratosphärischen Wasserdampfgehalts um 10 % (von 1560 Teragramm auf über 1700 Teragramm), was für ein einzelnes vulkanisches Ereignis eine enorme Leistung darstellt:


Der injizierte Wasserdampf erreichte die obere Stratosphäre, wobei die Hauptkonzentration zwischen 20-30 km lag:


Unten sehen Sie die NASA-Analyse der Wasserdampfanomalie in ca. 25 km Höhe.

Erkennbar ist der deutliche Anstieg nach der Eruption. Bemerkenswert ist aber auch die „Überlappung“ von der südlichen Hemisphäre in die nördliche Hemisphäre – der Auswurf ist nicht auf eine Region beschränkt, sondern breitet sich aus:


Die mit diesem Ereignis verbundene Abkühlung kann anhand der Re-Analysedaten des Physical Sciences Laboratory der NOAA verfolgt werden.

Unten sehen Sie die Temperaturanomalie der mittleren Stratosphäre vom Mai 2022 (also ca. 4 Monate nach dem Ausbruch). Es ist deutlich zu erkennen, dass im Mai bereits eine erhebliche Abkühlung über der südlichen Hemisphäre im Gange war, mit den stärksten Kälteanomalien um 30°S:


Im Juli 2022 war der Abkühlungseffekt noch stärker. Die Kälteanomalien waren erheblich (10 Grad unter der Norm). Und sie hatten sich nicht nur verstärkt, sondern auch weiter in Richtung des Südpols ausgebreitet:


Die NOAA-Temperaturkurve für die mittlere Stratosphäre zeigt ebenfalls das noch nie dagewesene Ausmaß der Abkühlung:

[NOAA] 40 Jahre Temperaturdaten der Mittelstratosphäre (2022 ist die rote Linie].

Nach der jüngsten Analyse (August 2022) hat sich die Abkühlung der Stratosphäre weiter verstärkt, wobei sich die Temperaturanomalien in Richtung des Südpols noch weiter ausdehnen…


…wo sie auch einen direkteren Einfluss auf die Dynamik des Polarwirbels haben – neben der Temperatur nimmt auch der Druck ab:


Die allerneueste Analyse (27. August) spricht für sich selbst – die Abkühlung der Stratosphäre hat nun auch die südlichen Polarregionen erfasst:


Implikationen für den bevor stehenden Winter auf der Nordhemisphäre

Die Abkühlung der südlichen Stratosphäre führt in den meisten Fällen zu einem negativen NAO-Druckmuster (Nordatlantische Oszillation: das Druckmuster, das Nordamerika und Europa betrifft). Eine negative NAO bedeutet einen höheren Druck über dem Nordatlantik und Grönland und umgekehrt einen niedrigeren Druck im Süden.

Die folgende Abbildung ist ein Beispiel dafür, sie zeigt das Temperaturmuster einer negativen NAO-Wintersaison. Man beachte die niedrigeren Temperaturen über der nördlichen und östlichen Hälfte der Vereinigten Staaten und Europas:


Betrachtet man die modernen Wintersaisons der nördlichen Hemisphäre, die auf anomal kalte Jahre in der südlichen Stratosphäre folgten, so zeigt sich eine starke Korrelation mit diesem negativen NAO-Muster, d. h. hoher Druck über Grönland und niedrigerer Druck über dem mittleren Nordatlantik:

Betrachtet man dieselben Jahre noch einmal, so sieht man, dass das Druckmuster in der nördlichen Stratosphäre einen schwächeren Polarwirbel aufweist (positive Druckanomalien können auf eine schwächere polare Zirkulation hinweisen):


Höhere Temperaturen in der Stratosphäre über dem Nordpol scheinen auf eine Abkühlung der südlichen Stratosphäre zu folgen. Diese Erwärmung hoch über der Arktis – auch „sudden stratospheric warming“ (SSW) genannt – führt häufig zu einer schwächeren Zirkulation dort oben, was wiederum oft zu einer Unterbrechung des Jetstreams führt:


Ein starker Polarwirbel bedeutet eine starke polare Zirkulation: eine Konstellation, die kalte arktische Luft in den Polarregionen festhält, was zu milderen Bedingungen für die Vereinigten Staaten und Europa führt; umgekehrt führt ein schwacher Polarwirbel zu einem welligen Jetstream-Muster, und der Wirbel hat es viel schwerer, die Kälte einzudämmen – arktische Luftmassen werden effektiv freigesetzt und können anomal weit nach Süden in die Vereinigten Staaten und/oder Europa vordringen:

Zusammenfassung

Bei der Eruption des Hunga Tonga im Südpazifik im Januar wurden Schwefel und eine große Menge Wasserdampf in die Stratosphäre eingeleitet.

Wir stellen fest, dass dieser Wasserdampf nun zu einer erheblichen Abkühlung der südlichen Stratosphäre führt, und haben auch eine Korrelation zwischen der Abkühlung der Stratosphäre der südlichen Hemisphäre und der Erwärmung der Stratosphäre der nördlichen Hemisphäre festgestellt.

Die Erwärmung der Stratosphäre während des Winters auf der Nordhalbkugel führt häufig zu einer Störung des Polarwirbels, was große Druckschwankungen verursacht, die wiederum dazu führen können, dass sich arktische Luftmassen in die Vereinigten Staaten und Europa ausbreiten.

So lauten zumindest die derzeitigen Überlegungen, die durch historische Daten gestützt werden.
Es sind jedoch noch viele andere Faktoren und Einflüsse im Spiel. Das Klima der Erde ist ein unglaublich komplexes System, und es ist noch viel mehr Forschung nötig. Dieser Winter wird jedoch ein großer Praxistest sein. Hoffentlich verläuft die Saison nicht wie erwartet. Kurz gesagt, die Länder sind nicht auf einen strengen Winter mit unerbittlichen Polarluft-Ausbrüchen vorbereitet, nicht in diesem Jahr, ganz im Gegenteil.

Ich weiß nicht, was ich tun soll, außer die Daumen zu drücken und ein wenig blinde Hoffnung zu hegen.

Wir Menschen sind gegen solche großartigen kosmologischen Spiele machtlos, egal was uns TPTB erzählt. Keine noch so hohe Steuerbelastung und/oder Tugendhaftigkeit wird das Klima beeinflussen. Mutter Natur folgt ihren Zyklen und ihren Zyklen innerhalb von Zyklen. Es ist schlichtweg töricht zu glauben, wir könnten diese uralten, vorbestimmten Schicksale aus der Bahn werfen.

Wie der bedeutende russische Weltraumforscher Habibullo Abdussamatov sagt: „Der so genannte ‚Treibhauseffekt‘ wird den nächsten tiefen Temperaturabfall nicht verhindern, den 19. in den letzten 7500 Jahren, der immer auf eine natürliche Erwärmung folgt.“

Link: https://electroverse.co/greenlands-record-gains-major-stratospheric-cooling-event-over-southern-hemisphere/

Übersetzt und bearbeitet von Christian Freuer für das EIKE