Der stärkste geomagnetische Sturm des 20. Jahrhunderts …

Übersicht:

Der intensivste geomagnetische Sturm des 20. Jahrhunderts fand während des Sonnenzyklus‘ 15 in einem Zeitraum von 3 Tagen vom 13. bis 15. Mai 1921 statt. Der Sturm ereignete sich vor der weit verbreiteten elektrischen Abhängigkeit der Infrastruktur, die wir in der heutigen Welt haben, aber die Auswirkungen eines außerordentlich starken koronalen Massenauswurfs waren dennoch ziemlich weitreichend. Der elektrische Strom des Sturms löste eine Reihe von Bränden auf der ganzen Welt aus, darunter einen in der Nähe des Grand Central Terminal [= Hauptbahnhof] in New York City. Außerdem traten im gesamten Osten der USA Polarlichter auf, die den nächtlichen Himmel hell erleuchteten, und der Telegrafendienst kam wegen durchgebrannter Sicherungen und beschädigter Geräte praktisch zum Erliegen. Forschungen in den letzten Jahren haben ergeben, dass dieser Super-Sonnensturm vom Mai 1921 genauso intensiv war wie der Großvater aller Superstürme in der aufgezeichneten Geschichte – das „Carrington-Ereignis von 1859“.

Die jetzt als „AR1842“ bezeichnete Sonnenfleckengruppe, wie sie am 13. Mai 1921 in Erscheinung getreten war. Quelle: spaceweather.com

Gigantischer Sonnenfleck

Der größte Sonnensturm des 20. Jahrhunderts fand tatsächlich während der abnehmenden Phase des Sonnenzyklus‘ 15 statt, dessen Ursache ein gigantischer Sonnenfleck war, der damals als „Greenwich-Region 933404“ bezeichnet worden war. Dieser Sonnenfleck wurde erstmals am 8. Mai 1921 auf dem östlichen Rand der Sonne gesehen und rotierte während der nächsten zehn Tage zum westlichen Rand. Dieser Sonnenfleck erzeugte in diesem Zeitraum wahrscheinlich bis zu sechs direkt auf die Erde gerichtete koronale Massenauswürfe (CMEs), wie bodengestützte Magnetometer-Messungen ergaben (Newton, 1948, S. 178). Wissenschaftler auf der ganzen Welt waren überrascht und wahrscheinlich ziemlich verblüfft, als ihre Magnetometer während des Höhepunkts des Sturms in der Zeit vom 13. bis 15. Mai „verrückt spielten“. Sie ahnten nicht, dass dies der größte Sonnensturm des Jahrhunderts werden würde – und laut Dr. Tony Phillips von spaceweather.com hat es seitdem nichts Vergleichbares mehr gegeben.

Besonders gravierend waren die Auswirkungen in New York City und -State

Die Auswirkungen des Supersonnensturms vom Mai 1921 waren in New York City und im gesamten Bundesstaat New York besonders akut, weshalb dieses Ereignis manchmal auch als „New York Railroad Superstorm“ bezeichnet wird (Love, et al, 2019). Elektrische Ströme, die durch die geomagnetische Aktivität induziert wurden, flossen durch Telefon- und Telegrafenleitungen und erhitzten diese bis zum Punkt der Verbrennung. Der Kontrollturm der Eisenbahn in der Nähe der Grand Central Station in New York City ging in Flammen auf. Die Flammen griffen auch auf die Schalttafel in der Brewster Station der Central New England Railroad nördlich von New York City über und breiteten sich so weit aus, dass das gesamte Gebäude zerstört wurde. Ein dortiger Telegrafist wurde durch „elektrische Flüssigkeit“, die plötzlich „aufloderte“, von seinen Tasten vertrieben (The Bridgeport Telegram, 17. Mai 1921, S. 11). Am 14. Mai verursachten übermäßige elektrische Ströme auf den Telefonleitungen, dass die Union Railroad Station in Albany, NY, Feuer fing und der Bahnhof bis auf die Grundmauern niederbrannte. Die New York Times berichtete, dass die Auswirkungen des Sturms im gesamten Osten der USA besonders ausgeprägt waren, wo die schwankenden elektrischen Ströme ein Ausmaß erreichten, bei dem „kaum noch ein Draht irgendwo funktionierte“ und die Streuspannungen auf einigen Drähten 1000 V überschritten. Die Polarlichter über New York City waren anscheinend so hell, dass selbst die „intensiven Lichter der elektrischen Schilder entlang des Broadways die Brillanz des flackernden Himmels nicht trüben konnten“.

Schlagzeilen des Großen Sonnensturms im Mai 1921 (Quelle: Spaceweather.com)

Die Auswirkungen des Supersonnensturms verbreiteten sich rund um den Globus, wobei an zahlreichen Orten Brände ausbrachen, darunter zum Beispiel eine Telegrafenzentrale in Schweden, die am 15. Mai in Flammen aufging.  In Australien, Brasilien, Dänemark, Frankreich, Japan, Neuseeland, Norwegen, Schweden und Großbritannien kam es zu Unterbrechungen der Telegrafensysteme. Auf dem Höhepunkt des Sturms wurden „Nordlichter“ bis nach Texas in den USA, von Schiffen auf See, die den Äquator überquerten, und sogar in der südlichen Hemisphäre an Orten wie Samoa und Tonga gesehen.

Tägliche Beobachtungen der Anzahl der Sonnenflecken seit dem 1. Januar 1900 laut Solar Influences Data Analysis Center (SIDC). Die dünne blaue Linie zeigt die tägliche Sonnenfleckenzahl an, während die dunkelblaue Linie den laufenden Jahresdurchschnitt angibt. Der Pfeil zeigt den Zeitraum des Supersturms vom Mai 1921 an, der während der abnehmenden Phase des Sonnenzyklus‘ 15 auftrat. (Grafik mit freundlicher Genehmigung von climate4you.com)

Interessante Auswirkungen auf die Ausbreitung von Radiowellen

Eine der interessanten Eigenschaften dieses Sonnensturms war laut einer kürzlich erschienenen Veröffentlichung (Hapgood, 2019) seine variable Auswirkung auf die Ausbreitung von Langstreckenfunksignalen. Es gab Berichte, die sowohl eine Unterbrechung als auch eine Verstärkung der Funkausbreitung zeigten, wobei die Berichte über die Verstärkung viel Aufmerksamkeit erregten, da sie in krassem Gegensatz zu den Unterbrechungen anderer Telekommunikationssysteme standen. Ein Beispiel für eine Verstärkung war ein Bericht in der New York Times (NYT, 1921a), dass die Funksignale, die New York von Berlin (etwa 6.400 km entfernt) und Bordeaux (5.800 km) erreichten, am 15. Mai zwischen 02:30 und 04:00 GMT viel stärker waren als gewöhnlich. Dieser Bericht hat eine besondere Glaubwürdigkeit, weil die New York Times eine von mehreren US-Zeitungen war, die damals eigene Funkstationen betrieben, um Nachrichten aus Europa zu empfangen (Hudson et al., 2000). Die gute Leistung der Funkverbindungen in den Vereinigten Staaten und in Bordeaux wurde auch in Aussagen der Radio Corporation of America bestätigt (Telegraph and Telephone Age, 1921b). Ein weiteres Beispiel für eine Verbesserung kam aus dem pazifischen Raum, wo Angenheister und Westland (1921a) und Gibbs (1921) von ungewöhnlich guten Bedingungen um 06:15 Uhr auf den Funkverbindungen zwischen den Funkstationen in Apia auf Samoa und Awanui im Norden Neuseelands (eine Entfernung von 2.700 km) berichteten.

Um die Verstärkung der Funksignale während des Sturms zu verstehen, muss man wissen, dass die Funksysteme, die 1921 in Gebrauch waren, in niederfrequenten Funkbändern unterhalb von 300 kHz arbeiteten. Zum Beispiel arbeitete die Funkverbindung zwischen Neuseeland und Samoa mit 150 kHz (Gibbs, 1921). Bei dieser Frequenz koppeln Funksignale an die leitfähige Oberfläche der Erde, sowohl an Land als auch im Meer, und breiten sich entlang dieser Oberfläche aus, wobei sie der Erdkrümmung in einer sogenannten „Bodenwelle“ folgen. Die Signale werden allmählich durch die endliche Leitfähigkeit der Oberfläche abgeschwächt, wobei die Dämpfung dort geringer ist, wo die Leitfähigkeit höher ist, was vor allem über dem Salzwasser der Ozeane offensichtlich ist (International Telecommunications Union, 2007). Die Signale können sich jedoch auch in die obere Atmosphäre ausbreiten und von der Ionosphäre reflektiert werden, wodurch eine „Himmelswelle“ entsteht, die mit dem Bodenwellensignal interferieren kann, was Probleme beim Signalempfang verursacht. Himmelswelleninterferenzen können auch durch weit entfernte Quellen natürlicher Funksignale wie Blitze und andere elektrische Aktivitäten in der Atmosphäre entstehen. Daher ergeben sich gute Bedingungen für die Signalausbreitung bei 150 kHz, wenn die Himmelswellen durch Absorption aufgrund der erheblichen Plasmadichte in der unteren Ionosphäre unterhalb von 90 km stark abgeschwächt werden (siehe Hapgood, 2019).

Potentielle Auswirkungen auf die heutige Welt

Einige neuere Forschungen (z. B. Love et al. 2019) legen nun nahe, dass dieser große Sonnensturm vom Mai 1921 etwa genauso intensiv war wie das „Carrington-Ereignis von 1859“, das als der stärkste Sonnensturm in der aufgezeichneten Geschichte bezeichnet wird. Der Super-Sonnensturm von 1859 fand während des Sonnenzyklus‘ 10 statt und wurde nach dem britischen Astronomen Richard Carrington benannt, als er von seinem eigenen privaten Observatorium aus die Sonneneruption beobachtete, die einen großen, direkt auf die Erde gerichteten koronalen Massenauswurf (CME) verursachte. Der vielleicht intensivste Sturm seit dem Supersturm vom Mai 1921 war der magnetische Sturm vom März 1989, der einen Stromausfall in Quebec, Kanada, verursachte.

In der heutigen Welt sind elektronische Technologien in das tägliche Leben eingebettet und natürlich ziemlich anfällig für Sonnenaktivität. Stromleitungen, Langstrecken-Telefonkabel, Radar, Handys, GPS und Satelliten – sie alle könnten durch ein Ereignis wie das von 1859 oder den Sturm von 1921 erheblich beeinträchtigt werden.  Mit anderen Worten: Die High-Tech-Infrastruktur der Welt könnte zum Stillstand kommen und alltägliche Aktivitäten vom Kauf einer Gallone Benzin bis zur Nutzung des Internets stören.

Besonders besorgniserregend ist die Befürchtung, was diese Art von Sonnensturm mit dem Stromnetz anstellen könnte, da die durch Sonnenpartikel verursachten Stromstöße riesige Transformatoren durchbrennen lassen können.  Wenn zahlreiche Transformatoren auf einmal zerstört werden, würde es wahrscheinlich schmerzhaft lange dauern, sie zu ersetzen.  Der Osten der USA ist besonders verwundbar, da die Strominfrastruktur stark vernetzt ist, so dass Ausfälle an einem Ort zu Ausfällen in anderen Regionen führen können. Eine langfristige Lösung für diese Anfälligkeit wäre es, das alternde Stromnetz so umzubauen, dass es weniger anfällig für solare Störungen ist.

[Hervorhebung vom Übersetzer]

Auf der positiven Seite gibt es den Trost, dass die Beobachtung der Sonne in der heutigen Welt eine Konstante ist, mit einer Flotte von Raumfahrzeugen, die in Position sind, um die Sonne zu überwachen und Daten über Sonneneruptionen zu sammeln. Außerdem gibt es heute bessere Vorhersagen, und Sonnenwissenschaftler könnten eine Art Warnung geben, wann Sonneneruptionen auftreten könnten und ob ein bestimmter Sturm auf die Erde gerichtet ist. Bessere Vorhersagen können es ermöglichen, Maßnahmen zur Schadensbegrenzung zu ergreifen, da die schädlichsten Emissionen langsam genug reisen, um von Satelliten entdeckt zu werden, lange bevor die Partikel auf die Erde treffen. So könnten beispielsweise Energieversorgungsunternehmen wertvolle Transformatoren schützen, indem sie diese vom Netz nehmen, bevor ein Sonnensturm auf die Erde trifft.
Eines ist sicher: Wir sollten auf einen weiteren massiven Sonnensturm von der Größenordnung des „Carrington-Ereignisses von 1859“ oder des großen geomagnetischen Sturms vom Mai 1921 vorbereitet sein – dem stärksten Sonnensturm des 20. Jahrhunderts.

Meteorologe Paul Dorian

Peraton

peratonweather.com

Link: https://wattsupwiththat.com/2021/05/13/the-greatest-geomagnetic-storm-of-the-20th-centurymay-13-15-1921a-century-ago-new-york-city-new-york-state-were-especially-hard-hit/

Übersetzt von Chris Frey EIKE

 




Das ZDF zwischen Anspruch und Wirklichkeit – Teil 1: Wissen­schaftliche Analyse des realen Wetter-/Temperatur­geschehens

Abb.2 zeigt die tatsächliche Temperaturentwicklung im Vergleich zu den IPCC-Klimavorhersagen. Eine immer größere Abweichung ist zu erkennen, was nichts anderes bedeutet, als das sämtliche IPCC-Temperaturprognosen wertlos/Nonsens sind und mit ihnen, sämtliche Gesetze/Verordnungen, die sich darauf beziehen/aufbauen. Quelle im Original: Lewis, M., Satellites and global warming: Dr Christy sets the record straight, 5. Februar 2016; globalwarming.org (aus der Aussage von Dr .John Christy’s in der Anhörung des House Science Committee der USA zum Pariser Klimaabkommen)

Besonders Herr Terli, der für seine tendenziösen Wetterberichte bekannt ist (hier) hebt sich dabei hervor. So trat er auch Ende Februar mit folgender Präsentation vor ein staunendes Publikum:

Abb.3, Quelle ZDF Wetter vom 20.02.2021. Das Chart von Herrn Terli hat nicht ansatzweise einen wissenschaftlichen und damit wertigen Inhalt, da ein einziger Fixpunkt gewählt wurde und Daten in dessen Nähe, z.B. 19,x°C-Werte, die wir ebenso empfinden wie 20,0°C-Werte, von vorneherein ausgeklammert werden und damit den manipulierenden Charakter des Charts zeigen.

Nein, Herr Terli ist jetzt nicht etwa vor das Publikum getreten und hat dargelegt, dass der April 2021 rekordverdächtig in der Anzahl der Frosttage war und die Anzahl aufgelistet (wie oben), sondern er ist seiner grün-tendenziösen Berichterstattung treu geblieben, Abb.4.

Abb.4, ZDF-„Wetterfrosch“ Herr Terli bei seiner Wettervorhersage am Freitag, den 07.05.2021, mit der er zeigen will, dass eine weltweite Erwärmung, trotz extrem kaltem April, in vollem Gange ist, Quelle: ZDF-Heute vom 07.05.2021. Was dies mit dem Wetterbericht für unser Land zu tun hat, weiß wohl nur Herr Terli. Den Grund seiner Darstellung haben Sie natürlich erkannt. Bereits die gewählte Farbe Rot für eine vermeintliche Erwärmung, aus der nicht hervorgeht, ob diese 0,001°C oder 0,1°C ist, zeigt die tendenziöse Absicht des Bildes. Siehe hierzu auch den jüngsten EIKE-Artikel hier. Eine seriöse Berichterstattung sieht anders aus, wie Abb.5 zeigt. Zu den Beweggründen Herrn Terli im Teil 2 mehr.

Abb.5, Quelle: climate4you.com, zeigt die gemessenen globalen Temperaturabweichungen von 1979 – heute (letzte Aktualisierung: 07.05.2021). Auch hier ist, wie in Abb.4 von Herrn Terli, der Bezugszeitraum 1991-2020. Wie zu sehen, verzichtet eine wissenschaftliche, seriöse Arbeit auf Signaltöne wie rot. Von Dramaturgie ist nichts zu sehen. Erst recht nicht, werden die Temperaturen über einen noch längeren Zeitraum betrachtet.

Abb.6, Quelle wie Abb.5, zeigt die Temperaturabweichungen der letzten gut 10.000 Jahre bis heute, gewonnen aus Eisbohrkerndaten (siehe Chart) und dazu den atmosphärischen CO2-Pegel. Wie unschwer erkennbar, sind die heutigen Temperaturen nicht wärmer, sondern kälter als früher und wer einen Zusammenhang der Temperaturentwicklung und dem sog. Treibhausgas CO2 sieht, der sieht auch einen Zusammenhang aus dem Kaffeesatz zur Temperaturentwicklung.

Da der GISP 2-Datensatz der Temperaturrekonstruktion in Abb.6 im Jahr 1854 endet, zeigt Abb.7 die Ergänzung mit den gemessenen Temperaturen bis heute.

Abb.7, Quellen siehe Chart, zeigt die Temperaturen der letzten 10.000 Jahre bis zur Gegenwart. Dazu haben die Forscher die Warmperioden und kleinere Kaltzeiten gekennzeichnet. Die gegenwärtige Warmperiode ist also als vglw. kühl einzustufen.

[Zu dieser Abbildung: Die aktuellen Daten haben eine viel feinere Auflösung als die stark geglätteten Daten aus den Eisbohrkernen. Das bedeutet, dass kurzfristige Spitzen und Täler, wie wir sie heute bestimmen können, in früheren Daten ebenso vorhanden sein könnten, aber dank der geringen Auflösung und der Tendenz der Proxys, kurzfristige Variationen auszubügeln, nicht erkennbar sind. Gggf. vergleicht man mittels Spleißung Äpfel mit Birnen. Der allgemeine Tatbestamd ist aber unbestreitbar.]

Die Abb.6 und 7 zeigen bereits eindringlich, dass das Temperaturgeschehen rein gar nichts mit sog. Treibhausgasen zu tun hat und schon gar nicht rekordverdächtig, sondern zyklischer Natur ist, wie Abb.8 unterstreicht.

Abb.8, Quelle, zeigt das zyklische und damit natürliche Temperaturverhalten der letzten knapp 500.000 Jahre. Die heutigen Temperaturen sind als vglw. kühl einzustufen. Die Wissenschaft spricht bei den Temperaturen über der gestrichelten Linie von Zwischeneiszeiten.

Dass der April 2021 so kalt war und wir derzeit ein vglw. zyklisches Wettergeschehen haben, liegt vorrangig am Jetstream, exakt am Polarfrontjet (PFJ) und ist als normal einzustufen.

Jetstream

Der Jetstream bildet sich aufgrund von Druckunterschieden zwischen hohen und niedrigen Breiten. Angetrieben wird er durch die Sonne. In den Regionen der stärksten Luftdruckgegensätze, in 8 – 16 km-Höhe bilden sich starke Winde aus, die durch die Corioliskraft (Erddrehung) auf der Nordhalbkugel nach rechts und auf der Südhalbkugel nach links abgelenkt werden (ist dem Drehimpulserhaltungssatz geschuldet). Bei weiter ansteigenden Druckunterschieden beginnt der Jetstream zu mäandrieren, was durch die unterschiedliche Reibung an der Erdoberfläche verstärkt wird. Er hat eine typische Breite von 100 km – 200 km und eine Dicke von 1 – 5 km.

Der Jetstream bekam seinen Namen aufgrund seiner konstant hohen Windgeschwindigkeiten von 200 – 300 km/h. Vereinzelt wurden Windspitzen von bis zu 550 km/h gemessen. Das sich um den gesamten Globus ziehende geschlossene Wellenband weist, wie oben schon angedeutet, mehr oder weniger starke Mäander auf, die man als planetarische Wellen oder Rossby-Wellen bezeichnet (Abb.9). Diese Wellen sorgen für den Ausgleich zwischen Kaltluft und Warmluft dergestalt, dass in den Trögen (Wellentälern) Kaltluft in wärmere und in den Keilen (Wellenberge) Warmluft in kältere Gebiete strömt. Beim Aufeinandertreffen von Kalt- und Warmluft wird letztere gehoben, was zu Wolken- und Niederschlagsbildung führt. Wegen des viel höheren Druck- und Temperaturgegensatzes im Winter ist der Jetstream in dieser Jahreszeit am stärksten ausgeprägt.

Abb.9 zeigt die um den Globus verlaufende Welle des PFJ, Quelle

Abb.9 zeigt die um den Globus verlaufende Welle des PFJ, Quelle

Für unser Wetter in unseren Breiten spielt der Polarfrontjet eine entscheidende Rolle. So verlaufen die Zugbahnen der Orkane entlang seiner Ausbildung. Er hält also je nach Lage, die kalte Polarluft von uns fern. Der PFJ verläuft mit seiner Wellenform um den ganzen Globus. Wie beschrieben, bildet er die barokline Übergangszone zwischen Warm- und Kaltluft. Die Luftmassen können nicht einfach quer über diesen Jetstream hinweg strömen. Da Wind nichts anders als von Molekülen übertragene Energie ist, kann eine Energie minderer Intensität, keine Energie höherer Intensität von sich aus überwinden. Die Kaltluft bleibt bildhaft gesehen, sozusagen nördlich seines Verlaufs „gefangen“.

Der PFJ steuert die “planetarische Frontalzone“ (hier treffen tropische und polare Luftmassen aufeinander, was sich in einem unruhigen Wettergeschehen, wie wir es kennen, widerspiegelt. Er steuert primär die Hoch- und Tiefdruckgebiete (Abb.10), die sich entlang seines Verlaufs ausbilden. Er ist demnach für unser Wetter maßgeblich. Seine Lage ist abhängig vom Energieinhalt der Atmosphäre, die durch den Sonnenstand, also die Jahreszeiten gesteuert wird und schwankt zwischen 30° und 70° N bzw. Süd (für die südliche Halbkugel). Je nach Grundstrom und Wellenzahl mäandriert er stark (in Abhängigkeit von positiver bzw. negativer AO) und verläuft geschlossen um den Globus.

Abb.10, Quelle, zeigt den Verlauf der Hoch- und Tiefdruckgebiete am PFJ.

Die Mäander oder Wellen des PFJ bewegen sich von West nach Ost, und zwar umso schneller, je mehr Wellen in dem globalen Band vorhanden sind (d. h. je kürzer die Wellenlänge). Ist der Anteil der kurzen Wellen gering, dominieren die langen Wellen, was dazu führt, dass eine bestimmte Wellenkonfiguration auch mal längere Zeit konstant gehalten wird. Je nach Zustand der Atmosphäre, haben wir dann länger andauernde Trockenphasen, länger anhaltender Regen oder Kälte.

Und je nachdem, welche Lage sein Trog über Deutschland gerade einnimmt, lenkt er einmal Warmluft aus südlichen Breiten in unsere Zonen und einmal Kaltluft (Abb.11). Durch seine Bewegung von West nach Ost wechselt sich warmes und kälteres Wetter über Deutschland ab, wobei die Temperaturunterschiede deutlich ausfallen können, da sich heiße Mittelmeerluft (oder gar aus der Sahara), mit kühler Luft aus nördlichen Breiten abwechselt. Bekanntlich endet der Winter in Nordskandinavien erst Anfang Mai.

Abb.11 zeigt eine Momentaufnahme des PFJ und der Verteilung von Kalt und Warmluft, sowie die jeweiligen Windrichtungen, Quelle: John Mason.

An der Grenzschicht findet keine Luftvermischung statt, so dass die kalte Luft über dem PFJ sozusagen „gefangen“ bleibt. Die Wärmeenergie – nicht zu verwechselt mit Luft, also Materie – südlich des PFJ kann zwar gemäß dem 2. Hauptsatz der Thermodynamik nach Norden gelangen, ist jedoch nicht in der Lage, die immer wieder aufs Neue einströmenden kalten Luftmassen aus dem Norden spürbar zu erwärmen, so dass es in der Sonne (hoher Sonnenstand, wie Anfang August) zwar warm ist, die Luft aber kalt bleibt.

Soweit ein kleiner Ausschnitt, in ein komplexes meteorologisches Thema. Dass wir so unterschiedliche Wetter mit rapiden Wechseln zwischen warm und kalt haben, hat also nichts mit Geisterbeschwörung zu tun, die man heute menschengemachter Klimawandel nennt und deren „Teufelsaustreiber“ sich so wohlklingende Namen wie „Fridays for Future“ zulegen, die sich bei näherer Betrachtung oftmals jedoch nur den Realitäten der Pisa-Studie entziehen wollen, sondern mit physikalischen Gegebenheiten und speziell dem Polarfront-Jet, kurz PFJ, zu tun, der daraus entsteht.

Teil 2 folgt demnächst

 

 




Kältereport Nr. 8

Irgendwie wird es mir unheimlich, dass so viele dieser Einzel-Wetterereignisse zusammentreffen, zumal ich nirgendwo in den MSM eine entsprechende Häufung von Warm-Ereignissen finden kann, über welche diese doch bestimmt groß berichtet hätten. Und: Eigentlich war ich davon ausgegangen, dass das mit Kalt-Ereignissen zumindest auf der Nordhalbkugel nachlässt oder aufhört, aber…

Erstaunliche“ Schneemengen in UK sind dabei, den bisherigen Mai-Rekord bzgl. Schnee im Jahre 1979 einzuholen

5. Mai: Zentimeter um Zentimeter SCHNEE waren in den letzten Mai-Morgen in Großbritannien gefallen – unglaublich ungewöhnliches Winterwetter für diese Jahreszeit. In der Tat scheint der diesjährige Mai mit dem schneereichsten Mai aller Zeiten zu konkurrieren: dem von 1979, der direkt nach dem schwachen Sonnenzyklus und dem anschließenden Minimum des Zyklus‘ 20 aufgetreten war.

Eine Schneedecke hat sich auch im schottischen Hochland gebildet, da der hartnäckig anhaltende meridionale Jetstream weiterhin Luft aus der Arktis in die mittleren Breiten zieht. Und während Schottland das Schlimmste abbekommen hat, gab es auch in Nordirland, Wales und sogar England erhebliche Schneemengen.

Link: https://electroverse.net/astounding-snow-in-the-uk-set-to-rival-1979s-snowiest-may-on-record/

———————————-

Schneefall in den Niederlanden

Eine Rarität in unseren westlichen Nachbarländern: In den Niederlanden hat es am frühen Morgen geschneit. Hier und da bildete sich eine dünne Schneedecke.

Die dicken Schneeflocken zogen manch einen in den Bann und viele hielten die spätwinterliche Überraschung mit der Kamera fest.

Link mit vielen Bildern: https://www.wetteronline.de/wetterticker/ce0d4714-b82e-411d-a682-204ab4aa17b3

———————————-

Schneemasse auf der Nordhemisphäre um historusísche 700 Gigatonnen über dem Mittel

5.Mai: Interessant, wie das während einer Periode der „globalen Erwärmung“ passieren kann, nicht wahr? Sie nehmen doch nicht an, dass wir verarscht werden, oder?

Die Schneemasse der nördlichen Hemisphäre liegt historisch gesehen 700 Gigatonnen über dem Durchschnitt. (Eine Gigatonne ist eine Milliarde Tonnen, also sind es historisch 700 Milliarden Tonnen über dem Durchschnitt.)

https://i2.wp.com/electroverse.net/wp-content/uploads/2021/04/fmi_swe_tracker-38.jpg?ssl=1

Link: https://www.iceagenow.info/northern-hemisphere-snow-mass-an-historic-700-gigatons-above-average/#more-35454

———————————-

Rekord-Schneefall in Rochester, New York State

6.Mai: „Wir haben am 21. April einen Schneerekord aufgestellt, da der Flughafen an diesem Tag 2,8 Inches des weißen Zeugs aufnahm und damit den bisherigen Rekord von 1,5 Inches aus dem Jahr 1978 übertraf“, heißt es in diesem Artikel auf Spektrum Local News.

Link: https://www.iceagenow.info/record-snowfall-in-rochester-new-york/#more-35459

———————————-

Niedrigste Temperatur im schottischen Hochland seit 1922 – Skilaufen im Mai

Meldungen vom 6. Mai

Schnee im Mai: Skifahrer im Lake District „verwirrt“ in unzeitgemäßem Wetter

Skifahrer im Lake District haben den untypischen Schneefall genutzt, um zum ersten Mal seit Monaten auf die Pisten zu gehen.

Schneefall im Mai bringt Behinderungen in den Highlands

Der Schneefall im Mai hat in Teilen von Schottland zu Behinderungen geführt, wobei die Highlands unter einer dicken Schneedecke lagen.

Nordirland – Außergewöhnlicher Kälteeinbruch für Anfang Mai

Schnee lag am frühen Mittwoch auf dem Glenshane Pass und war auf den Hügeln um Londonderry deutlich sichtbar.

Die heftigsten Schauer könnten im Laufe des Mittwochs in den höchsten Lagen der Sperrin-Berge oder der Antrim-Hügel als Graupel oder Schnee fallen. Das wird besonders dann der Fall sein, wenn die Temperaturen weiter sinken bis in den Frostbereich in der Nacht zum Mittwoch.

Link: https://www.iceagenow.info/coldest-lows-in-scottish-highlands-since-1922-skiing-in-may/#more-35462

———————————-

Teile Irlands melden den kältesten April seit Beginn der Aufzeichnungen (1943), während Island die niedrigste Mai-Temperatur aller Zeiten registriert

6. Mai: Laut dem Monatsbericht des irischen Wetterdienstes (Ausgabe vom 5. Mai 2021) hat Irland gerade einen historisch kalten April erlebt.

Dominierende Hochdrucksysteme bauten sich westlich oder nordwestlich von Irland auf, heißt es in dem Bericht, was brutale polare Luftmassen über das Land brachte, was zu unterdurchschnittlichen Temperaturen führte.

Die Kälte war intensiv.

[Link siehe nach der nächsten Meldung]

———————————-

Island: Niedrigste Mai-Temperatur jemals

Nach vorläufigen Daten wurde ein neuer isländischer Tiefsttemperaturrekord für den Monat Mai aufgestellt.

Am Dienstag, den 4. Mai, wurden am Dyngjujökull-Gletscher, der sich auf einer Höhe von 1.689 m über dem Meeresspiegel im Zentrum der Insel befindet, Atem beraubende -24,5 °C gemessen.

Der Dyngjujökull ist ein Auslassgletscher und Teil des größeren Gletschersystems Vatnajökull.
Im Jahr 2018 fanden Forscher der University of Iceland heraus, dass ALLE isländischen Gletscher wachsen – das erste Mal seit einem Vierteljahrhundert, dass die Gletscher nicht von Jahr zu Jahr geschrumpft sind. Die Forscher waren schockiert von der Entdeckung, dass sich alle isländischen Gletscher, einschließlich des Vatnajökull, in den letzten zwölf Monaten von Herbst zu Herbst vergrößert hatten, wobei viele von ihnen in diesem Jahr einen wirklich „signifikanten Zuwachs an Eis zeigten.“

Dies ist ungewöhnlich in den letzten 25 Jahren“, sagte Projektleiter Finnur Pálsson damals.

Es ist eine Tatsache, dass es in den letzten Jahren kälter war. Und es gab im August mehr Schneefall auf dem oberen Teil des Langjökull, was sehr ungewöhnlich ist“, fügte Pálsson hinzu, der zu dem Schluss kam, dass all dies kein Grund sei, an der globalen Erwärmung zu zweifeln – aber das musste er wohl einstreuen.

[Hervorhebung im Original]

Link: https://electroverse.net/ireland-coldest-april-on-records-iceland-lowest-may-temp/

———————————-

Graupelschauer in den Niederlanden; Mai-Schneefall in deutschen Städten zum ersten Mal seit einem halben Jahrhundert

8. Mai: Der Sommer steht vor der Tür, und trotzdem schneit es in ganz Europa.

Gestern, am 7. Mai, schneite es in der niederländischen Provinz Brabant.

Es wurde sogar starker Gewitterschnee gemeldet: „Eine einzigartige Kombination im Mai“, heißt es in einem aktuellen Artikel von weer.nl.

Die Kältewelle in Holland, die nun schon fast zwei Monate anhält, ist heftig.

Link: https://electroverse.net/dutch-report-thundersnow-german-cities-record-first-may-snow/

———————————-

Rekordbrecher Muttertag: Seltene Kälte und Schnee in Teilen der USA

10. Mai: Der April in den USA war kälter als normal (trotz der Aussagen der NOAA), was den starken Abkühlungstrend der Nation in den letzten fünf Jahren verlängert hat. Und jetzt, in der zweiten Maiwoche, weigert sich die Arktis immer noch, sich zu beruhigen, während sie vielen Staaten Rekordtiefsttemperaturen und Rekordschnee in der Mitte des Frühlings liefert.

Link: https://electroverse.net/mothers-day-was-a-record-breaker/ mit interessanten weiteren Informationen in einem längeren Beitrag

———————————-

Starker Schneefall im Mai trifft Portugal, Warnungen werden ausgegeben, während Ungarn gerade seinen kältesten April in diesem Jahrhundert verzeichnet

11. Mai: Während Mitteleuropa seine 2 Tage Frühling genoss, wurde Portugal von einem Strom eiskalter Polarluft erfasst. Infolgedessen leidet das Land unter Temperaturabweichungen, die etwa 12°C unter dem saisonalen Durchschnitt liegen, und Mai-Schneestürme haben eingesetzt.

Der portugiesische Schnee war auch schwer – ein unglaublich seltenes Ereignis für den Monat Mai.
In den höheren Lagen Portugals wurden beträchtliche Schneemengen gemeldet, vor allem in der Sierra da Estrela, wo Winterwetterwarnungen ausgegeben wurden.

Link: https://electroverse.net/heavy-may-snowfall-hits-portugal-hungary-coldest-april/

———————————-

Schneefall in Wyoming – im Mai!

11.Mai: Webcam des Dept of Transportation in Wyoming (zwischen Cheyenne und Vedauwoo).

Links zu vielen weiteren Webcams in Wyoming sind hier.

Link: https://www.iceagenow.info/snowing-in-wyoming/#more-35493

———————————-

Tausende von Rentieren verhungern auf der gefrorenen Yamal-Halbinsel, Russland

11.Mai: Ein Massensterben von Rentieren wurde auf der Yamal-Halbinsel in Russland gemeldet. Das Futter der Tiere war in diesem Jahr unter ungewöhnlich dickem Eis eingeschlossen. Mitglieder einer wissenschaftlichen Expedition haben dringend neue Ideen zur Rettung der Herden in der Region aufgrund einer Zunahme der periodischen Vereisung gefordert.

Link: https://electroverse.net/thousands-of-reindeer-freeze-to-death-in-russia/

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE

Anmerkung: Der Vollständigkeit halber soll hier aber auch erwähnt werden, dass in Nordosteuropa traumhaftes Frühsommerwetter herrscht. Es ist dort schon länger sonnig und warm bis sehr warm, aber nicht heiß. Das wird auch vorerst dort so bleiben.

 




Wilde Übertrei­bungen und ungeheuer­liche Lügen

Ihr grundlegendes Dokument, das CCNow Climate Emergency Statement, behauptet unter anderem: „… um einen lebenswerten Planeten zu erhalten, muss die Menschheit sofort handeln. Wenn es nicht gelingt, die Menge an Kohlendioxid in der Atmosphäre zu reduzieren, werden die außergewöhnliche Hitze, die Stürme, die Waldbrände und die Eisschmelze im Jahr 2020 zur Routine werden und könnten einen bedeutenden Teil der Erde unbewohnbar machen…“. Um ihre Ziele zu erreichen, stellt CCNow seinen Partnern wiederveröffentlichbare Geschichten von anderen Partnern (.pdf), redaktionelle Anleitungen, Ideen für das Schreiben von Geschichten und eine Liste von Gesprächsthemen mit dem Titel Climate Science 101 von Katharine Hayhoe zur Verfügung.

CCNow liefert auch NPR’s Climate Guide mit Falsch- und Desinformationen über das Klima und ihr eigenes „Faktenblatt“ [ sic ] „Who says it’s a climate emergency?“ zusätzlich zu ihrer Liste von zehn „Best Practices für Klimapropagandisten.

Wenn Sie zum ersten Mal von CCNow hören, lesen Sie bitte meine früheren Essays hier bei WUWT, zuletzt The Climate Propaganda Cabal und Turning Opinion into Science Fact.  Es gibt auch einige frühere Essays – hier und hier.

Letzte Woche, am 27. April 2021, veröffentlichte die CCNow-Webseite eine Liste mit „Nine Pieces We Loved. Einer der vorgestellten Beiträge war:

How Warming Oceans Are Accelerating the Climate Crisis – Humans have locked in at least 20 feet of sea level rise-can we still fix it?“ von Harold R. Wanless

Positiv ist, dass der Artikel in The Nation deutlich und prominent gekennzeichnet ist:

Dieser Artikel wurde von einem Artikel für das Projekt des Florida Climate Reporting Network „The Invading Sea“ adaptiert und wird als Teil von Covering Climate Now veröffentlicht, einer globalen journalistischen Zusammenarbeit zur Stärkung der Berichterstattung über das Klima.

Meine schnelle Überprüfung der Web-Suchergebnisse zeigt, dass dieser Artikel, der jetzt eine Woche alt ist, 16 Mal neu gepostet oder verlinkt wurde, bevor ich aufgehört habe zu zählen.

Dieser Artikel repräsentiert den „Big Lie“-Aspekt der professionellen Propaganda. Big Lies verkaufen sich besser, überzeugen die Leute besser als kleine, pingelige Lügen.

Die Quintessenz der großen Lüge aus diesem CCNow-Propagandastück lautet:

Der Klimanotstand ist größer, als viele Experten, gewählte Vertreter und Aktivisten erkennen. Die Treibhausgasemissionen der Menschheit haben die Erdatmosphäre überhitzt, was zu verheerenden Hitzewellen, Hurrikans und anderen Wetterextremen geführt hat – so viel ist allgemein bekannt. Das größere Problem ist, dass die überhitzte Atmosphäre wiederum die Ozeane überhitzt hat, was einen katastrophalen Anstieg des Meeresspiegels in der Zukunft sicherstellt.

Wenn sich die Ozeane aufheizen, steigt das Wasser an – zum Teil, weil sich warmes Wasser ausdehnt, aber auch, weil das wärmere Wasser eine große Schmelze der polaren Eisschilde ausgelöst hat. Das Ergebnis ist, dass der durchschnittliche Meeresspiegel auf der ganzen Welt mit ziemlicher Sicherheit um mindestens 20 bis 30 Fuß [6 bis 9 m] ansteigen wird. Das ist genug, um große Teile vieler Küstenstädte, in denen Hunderte von Millionen Menschen leben, unter Wasser zu setzen.

Lassen Sie mich darauf hinweisen, unnötigerweise für viele Leser, dass keine einzige Phrase oder Satz im ersten Absatz wahr ist. Der zweite Absatz schneidet kaum besser ab.  Aber nur, weil „warmes Wasser steigt“ – nur nicht auf die seltsame Weise, wie Wanless sagt.  (Technisch gesehen bewirkt die Erwärmung des Wassers im Ozean eine Ausdehnung des Wassers im Ozean – die Tatsache, dass „wärmeres Wasser steigt“, hat damit nichts zu tun – es ist die Ausdehnung, die zu einem steigenden Meeresspiegel führen kann.]  Nichts anderes im zweiten Absatz ist wahr.

[Hervorhebungen im Original]

Ich hasse es, zu übertreiben, denn das ist es, was ich CCNow und Wanless vorwerfe, also lassen Sie uns genau hinschauen:

Der Klimanotstand ist größer, als viele Experten, gewählte Beamte und Aktivisten erkennen.“ Es gibt keinen wirklichen physischen Klimanotstand – es gibt nur eine gemeinsame Meinung, dass es einen Klimanotstand gibt. Der Satz ist bestenfalls eine nicht belegte Meinung (die hier als Tatsache dargestellt wird).  Die reale Klimasituation könnte kaum größer (schlimmer) sein als einige der bizarreren Aktivisten und Politiker von sich geben („wir haben noch neun Jahre“ – John Kerry).

„Die Treibhausgasemissionen der Menschheit haben die Erdatmosphäre überhitzt, was zu verheerenden Hitzewellen, Hurrikans und anderen Wetterextremen geführt hat – so viel ist allgemein bekannt.“  Es gibt keinen wissenschaftlichen Konsens, dass die Erdatmosphäre „überhitzt“ ist.   Es wird angenommen, dass die steigende CO2-Konzentration in der Atmosphäre eine geringe Erwärmung verursacht hat – aber erst seit Mitte der 1900er Jahre.  Viele glauben, dass diese geringe Erwärmung und das CO2, das sie verursacht haben könnte, von Vorteil sind, darunter auch einige der klügsten Köpfe in Amerika.  Die realen Daten über globale Hitzewellen, Wirbelstürme und extremes Wetter stützen nicht die Behauptung, dass die geringe Erwärmung, die wir erfahren haben, „strafende Hitzewellen, Wirbelstürme und andere Extremwetter-Ereignisse entfesselt hat“ – das ist das bevorzugte Denkmuster der Klimaaktivisten, keine Tatsache. Mehr zu den Fakten finden Sie auf den Spezialseiten auf dieser Website und hier. Da dieser Punkt von Experten für Waldbrände, Hitzewellen, Wirbelstürme und extremes Wetter weitgehend bestritten wird, kann man nicht sagen, dass er „allgemein bekannt“ ist.

Das größere Problem ist, dass die überhitzte Atmosphäre wiederum die Ozeane überhitzt hat, was einen katastrophalen Anstieg des Meeresspiegels in der Zukunft sicherstellt.“ Die Ozeane haben sich nicht überhitzt – das stimmt einfach nicht – es ist schwierig, auch nur wissenschaftlich zu untermauern, dass sich die Ozeane überhaupt in irgendeiner wesentlichen, klimatisch wichtigen Weise erwärmt haben. Die Messung der Wassertemperatur der Ozeane ist ein laufendes Projekt, und wir haben eine sehr kurze Zeitreihe von auch nur einigermaßen zuverlässigen Daten. Es ist Wahnsinn zu behaupten, dass die winzige Erwärmung (wenn überhaupt) des Ozeanwassers „ein katastrophales Ausmaß des zukünftigen Meeresspiegelanstiegs sichergestellt hat.“

Den Rest des zweiten Absatzes zu analysieren, überlasse ich den Lesern.  Aber lassen Sie uns einen weiteren Blick auf die Vorstellung werfen, dass der Meeresspiegel mit Sicherheit „6 bis 9 m“ steigen wird.

Wanless erklärt: „Aber wenn der Meeresspiegel in den nächsten 100 bis 200 Jahren um einen Meter oder mehr ansteigt – und das ist unser derzeitiger Trend – sind die Aussichten düster. In diesem Szenario könnte der Meeresspiegel bis 2040 um einen Meter ansteigen, bis 2050 um einen Meter, und es wird noch viel schlimmer kommen.“

Der Link dort führt zum „NOAA Technical Report NOS CO-OPS 083 – GLOBAL AND REGIONAL SEA LEVEL RISE SCENARIOS FOR THE UNITED STATES“ [ .pdf ], in dem – welche Überraschung! – nichts dergleichen steht. Das NOAA-Dokument sagt nicht, dass das extremste (RCP8.5) Szenario überhaupt unser aktueller Trend ist. Und es sagt unter keinem der Szenarien einen Anstieg des Meeresspiegels um einen Meter bis 2040 oder um einen Meter bis 2050 voraus, nicht einmal unter RCP8.5 (ein Szenario, das jetzt weithin als höchst unwahrscheinlich bis unmöglich angesehen wird).

Selbst unter den unmöglichen RCP8.5-Bedingungen sagt NOAA nur 40 cm (2040) und 63 cm (2050) voraus [gelb hervorgehoben] – aber in der realen Welt sahen wir nur die für 2010 bis 2020 vorhergesagten 0,03 m (30 mm) für das allerunterste Szenario [blau hervorgehoben]. Wanless bekommt offenbar sein behauptetes Ausmaß um 6 bis 9 m von der unteren rechten Ecke, rot hervorgehoben, RCP8.5 bei 2200.

Um der Phantasterei noch eins draufzusetzen behauptet Wanless in seinem Artikel weiter: „Heute steigen die Ozeane sechs Millimeter pro Jahr, und dieses Tempo wird sich weiter dramatisch beschleunigen.“ Das Einzige, was an diesem Satz stimmt, ist, dass 60 mm über zwei Zoll sind. Wanless‘ Link zu einer CSIRO-Seite ist kaputt, aber der aktuelle Anstieg des Meeresspiegels, laut NOAA:

Nicht 6 mm/Jahr, sondern 3,3 mm/Jahr, und das auf dem Niveau der letzten zwei oder drei Jahre. [Quelle: https://climate.nasa.gov/. Für diese Graphik klicke man auf Meeresspiegel im rechten unteren Bereich der Grafik oben auf der Seite aus].

Sie fragen vielleicht: „Wie kann ein Artikel mit so vielen offensichtlichen, ungeheuerlichen Fehlern – wilden Übertreibungen, Ungenauigkeiten und Unwahrheiten – in The Nation veröffentlicht werden?“  Das könnte die falsche Frage sein.  Besser wäre es zu fragen: „Wie konnte er von der AGU in EOS in der Rubrik Wissenschaftsnachrichten veröffentlicht werden?“

Die Antwort ist: The Nation, AGU und EOS sind alle Partner von CCNow.

# # # # #

Kommentar des Autors:

Die American Geophysical Union (AGU) und das zugehörige Online-Magazin EOS haben sogar das Ptrinzip der Wissenschaft aufgegeben und sich dafür entschieden, sich mit der anerkannten Propaganda-Maschine Covering Climate Now zu verbünden, mit ihrem alles-geht-Vorstoß, um die Welt davon zu überzeugen, dass es einen Klima-Notstand gibt, damit sie bereitwillig fossile Brennstoffe aufgeben. Das heutige Beispiel zeigt, dass sich diese Bemühungen auf die Veröffentlichung wilder Übertreibungen und ungeheuerlicher Lügen erstrecken, um die Botschaft zu verbreiten – die Big Lie der Propaganda.

Ich weiß ehrlich gesagt nicht, wie es dazu kommen konnte, und bin gleichzeitig traurig und empört.

Das geht jetzt weit, weit über das gegenseitige Schulterklopfen der Klima-Alarmisten bei AGU-Treffen in den 1990er Jahren hinaus. Wo sind die echten Wissenschaftler, die Mitglieder der AGU sind?  Wie können sie schweigen, wenn EOS solche Artikel ohne auch nur einen Disclaimer veröffentlicht.  Eine Schande.

Link: https://wattsupwiththat.com/2021/05/06/wild-exaggeration-and-egregious-lies/

Übersetzt von Chris Frey EIKE

 




Warum Modelle keine Temperatur prognosti­zieren können: Ein Kaleidoskop des Scheiterns

Allerdings hatte er sich dabei auf – wie sich herausstellte – fehlerhafte Mondspektraldaten verlassen. Als er dies erkannte, rechnete er zehn Jahre später nach und veröffentlichte 1906 eine zweite Arbeit, in der er das tat, was sich Klima-„Wissenschaftler“ heute zu tun strikt weigern: Er widerrief seine erste Arbeit und veröffentlichte eine revidierte Schätzung, diesmal in deutscher Sprache, die von wahrhaft gläubigen Thermageddonisten nur selten zitiert wird:


Seine korrigierte Berechnung, die in dem damals neu gegründeten Journal of the Royal Nobel Institute veröffentlicht wurde, schlug 1,6 C° ECS vor, einschließlich der Wasserdampf-Rückkopplung.

Guy Stewart Callendar, ein britischer Dampfingenieur, veröffentlichte 1938 seine eigene Berechnung und präsentierte sein Ergebnis vor der Royal Society (die anschließende Diskussion in der Gesellschaft ist sehr lesenswert). Auch er sagte 1,6 C° ECS voraus, wie die gestrichelten Linien zeigen, die ich seiner Grafik hinzugefügt habe:

Dann gab es einen plötzlichen Sprung in der vorhergesagten ECS. Plass (1956) sagte 3,6 C° ECS voraus. Möller (1963) sagte eine direkte oder Referenz-CO2-Verdoppelungssensitivität (RCS) von 1,5 C° voraus, die auf bis zu 9,6 C° anstieg, wenn sich die relative Feuchte nicht veränderte. Er fügte einen wichtigen Zusatz hinzu: „…die Veränderung des Strahlungsbudgets durch eine veränderte CO2-Konzentration kann vollständig ohne Veränderung der Oberflächentemperatur kompensiert werden, wenn die Bewölkung um +0,006 erhöht wird.“ Es überrascht nicht, dass er zu dem Schluss kam, dass „die Theorie, dass klimatische Variationen durch Variationen des CO2-Gehalts bewirkt werden, sehr fragwürdig wird.

[Hervorhebung im Original]

Manabe & Wetherald (1975), die ein frühes radiativ-konvektives Modell verwendeten, sagten 2,3°C ECS voraus. Hansen (1981) gab eine mittlere Schätzung von 2,8°C° ECS an. Im Jahr 1984 kehrte er zu dem Thema zurück und führte zum ersten Mal die Rückkopplungsformel aus der Regelungstheorie ein, dem Studium der Rückkopplungsprozesse in dynamischen Systemen (Systeme, die ihren Zustand über die Zeit verändern). Er sagte 1,2°C RCS und 4°C ECS voraus, was einen Rückkopplungsanteil von 0,7 impliziert.

Im Jahr 1988 sagte er in seiner inzwischen berüchtigten Aussage vor dem US-Senat in einem Juni, der so heiß war, wie es in Washington DC seither nicht mehr der Fall war, 3,2°C pro Jahrhundert voraus (was in etwa dem ECS entspricht), bei einem Business-as-usual-Szenario (und es ist das Business-as-usual-Szenario, das seither eingetreten ist), aber die tatsächliche Erwärmung beträgt kaum mehr als ein Drittel der von ihm vorhergesagten Business-as-usual-Rate:

Im Jahr 1988 kehrte der verstorbene Michael Schlesinger zum Thema Temperaturrückkopplung zurück und fand heraus, dass in einem typischen allgemeinen Zirkulationsmodell der Rückkopplungsanteil – d. h. der Anteil der Gleichgewichtsempfindlichkeit, der durch die Rückkopplungsreaktion beigetragen wird – ein absurd hoher Wert von 0,71 war, was einen Systemgewinnfaktor (das Verhältnis der Gleichgewichtsempfindlichkeit nach der Rückkopplung zur Referenzempfindlichkeit davor) von 3,5 und somit, unter der Annahme von 1,05 RCS, einen ECS von 3,6 C° bedeutet.

Gregory et al. (2002) stellten eine vereinfachte Methode zur Ableitung der ECS unter Verwendung einer Energiebilanzmethode vor. Energiebilanzmethoden gab es schon seit einiger Zeit, aber erst in den frühen 2000er Jahren wurden die Satelliten- und Ozeandaten zuverlässig und umfassend genug, um diese einfache Methode anzuwenden. Gregory generierte eine Wahrscheinlichkeitsverteilung, die stark rechts-verschoben ist (aus einem Grund, der später deutlich wird), mit einer mittleren Schätzung von 2 C° ECS:

Auf Gregorys Ergebnis folgten viele weitere Arbeiten, die die Energiebilanzmethode verwendeten. Die meisten von ihnen finden, dass ECS 1,5-2 C° beträgt, ein Drittel bis die Hälfte des mittleren Bereichs von 3,7-4 C°, den die aktuellen allgemeinen Zirkulationsmodelle vorhersagen.

Im Jahr 2010 schrieben Lacis et al. in Anlehnung an die Methode der GCMs:

Für den verdoppelten CO2-Einstrahlungsantrieb, … für den die direkte, nicht rückgekoppelte Antwort der globalen Oberflächentemperatur 1,2 C° beträgt …, impliziert die ~4 C° Oberflächenerwärmung [einen] … [Systemverstärkungsfaktor] von 3,3. …“

Lacis et al. fuhren fort zu erklären, warum sie dachten, dass es einen so großen Systemverstärkungsfaktor geben würde, der einen Rückkopplungsanteil von 0,7 impliziert:

Nicht kondensierende Treibhausgase, die 25 % des gesamten terrestrischen Treibhauseffekts ausmachen, … sorgen für die stabile Temperaturstruktur, die das derzeitige Niveau des atmosphärischen Wasserdampfs und der Wolken über Rückkopplungsprozesse aufrechterhält, die die restlichen 75 % des Treibhauseffekts ausmachen.

Leider wird in der obigen Passage explizit ein außerordentlicher, in der gesamten Klimatologie universeller Fehler begangen, der der Grund dafür ist, dass die Modellierer eine weitaus größere Erwärmung erwarten – was daher auch ihre Modelle simulieren – als es die direkte und einfache Energiebilanzmethode nahelegen würde. Das einfache Blockdiagramm unten demonstriert den Fehler, indem es die fehlerhaften (rot) mit den korrigierten (grün) Werten in der gesamten Schleife vergleicht:

Werfen wir einen Blick auf die Rückkopplungsschleife für das vorindustrielle Zeitalter. Wir untersuchen die vorindustrielle Ära, denn als die Modellierer zum ersten Mal versuchten, den Einfluss des Wasserdampfs und anderer Rückkopplungen abzuschätzen, von denen keine direkt und zuverlässig durch Messung oder Beobachtung quantifiziert werden kann, begannen sie mit der vorindustriellen Ära.

Zum Beispiel sagt Hansen (1984):

… diese Voraussetzung der Energiebilanz ergibt eine [Emissionstemperatur] von etwa 255 K. … die Oberflächentemperatur ist etwa 288 K, 33 K wärmer als die Emissionstemperatur. … Die gleichgewichtige globale mittlere Erwärmung der Oberflächenluft beträgt etwa 4°C … Dies entspricht einem [Systemgewinnfaktor] von 3-4, da die zur Wiederherstellung des Strahlungsgleichgewichts mit dem Weltraum erforderliche rückkopplungsfreie Temperaturänderung 1,2-1,3°C beträgt.“

Lassen Sie uns zunächst den Kreislauf der Klimatologie durchlaufen. Die direkte Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase (das kondensierende Gas Wasserdampf wird als Rückkopplung behandelt) beträgt etwa 8 K, aber der gesamte natürliche Treibhauseffekt, die Differenz zwischen der 255 K hohen Emissionstemperatur und der 287 K hohen mittleren globalen Oberflächentemperatur im Jahr 1850, beträgt 32 K. Daher ist der Systemgewinnfaktor der Klimatologie 32 / 8 oder 4, so dass ihr imaginärer Rückkopplungsanteil 1 – 1/4 oder 0,75 beträgt – wiederum absurd hoch. Somit würde aus 1 K RCS 4 K ECS werden.

Gehen wir nun den Weg der Regelkreistheorie, der zuerst von Black (1934) in den Bell Labs in New York bewiesen und in der Praxis lange und schlüssig verifiziert wurde. Man muss nicht nur die vorindustrielle Referenzsensitivität gegenüber nicht kondensierenden Treibhausgasen über den summativen Ein-/Ausgangsknoten am Scheitelpunkt der Schleife in die Schleife eingeben: man muss auch die 255 K Emissionstemperatur (gelb) eingeben, die als Eingangssignal bekannt ist (der Hinweis steckt im Namen).

Es ist die Sonne, Dummkopf!

Dann ist der Ausgang des Kreislaufs nicht mehr nur der natürliche Treibhauseffekt von 32 K: Es ist die globale mittlere Oberflächentemperatur im Gleichgewicht von 287 K im Jahr 1850. Der Systemgewinnfaktor ist dann 287 / (255 + 32), oder 1,09, weniger als ein Drittel der Schätzung der Klimatologie. Der Rückkopplungsanteil ist 1 – 1 / 1,09, oder 0,08, also um eine Größenordnung kleiner als die Schätzung der Klimatologie.

Daher gibt es im Gegensatz zu dem, was Hansen, Schlesinger, Lacis und viele andere sich vorstellen, keinen guten Grund in den vorindustriellen Daten zu erwarten, dass die Rückkopplung auf der Erde in ihrer Größenordnung einzigartig im Sonnensystem ist, oder dass ECS so etwas wie das imaginäre Drei- oder Vierfache von RCS sein wird.

Wie aus dem Zitat von Lacis et al. ersichtlich ist, geht die Klimatologie in der Tat davon aus, dass der System-Gain-Faktor im Industriezeitalter etwa gleich groß sein wird wie der für das vorindustrielle Zeitalter. Daher ist das übliche Argument gegen die korrigierte vorindustrielle Berechnung – dass sie keine Inkonstanz der Rückkopplungsantwort der Einheit mit der Temperatur berücksichtigt – nicht relevant.

Darüber hinaus kommt eine einfache Energiebilanzberechnung des ECS unter Verwendung aktueller Mainstream-Daten aus der Industriezeit in einem Verfahren, das sich völlig von der vorindustriellen Analyse unterscheidet und in keiner Weise von ihr abhängig ist, zu demselben Ergebnis kommt wie das korrigierte vorindustrielle Verfahren: ein vernachlässigbarer Beitrag der Rückkopplungsreaktion. Demnach ist die Rückkopplungsreaktion der Einheit annähernd konstant mit der Temperatur, und ECS ist kaum mehr als die 1,05 K RCS.

Warum also liegen die Modelle mit ihren Vorhersagen so falsch? Mittelfristig (oben im Diagramm unten) betrug die mittelfristig projizierte anthropogene Erwärmung pro Jahrhundertäquivalent 3,4 K, wie vom IPCC 1990 vorhergesagt, aber die beobachtete Erwärmung betrug nur 1,65 K, wovon nur 70% (Wu et al. 2019) oder 1,15 K anthropogen waren. Die Vorhersage des IPCC war also etwa dreimal so hoch wie die nachträgliche Beobachtung, was mit dem Fehler, aber nicht mit der Realität übereinstimmt.

Da der gegenwärtig geschätzte verdoppelte CO2-Strahlungsantrieb in etwa dem vorhergesagten Strahlungsantrieb aus allen anthropogenen Quellen für das 21. Jahrhundert entspricht, kann man in der neuesten Generation von Modellen die gleiche dreifache Übertreibung im Vergleich zu den 1,1 K ECS beobachten, die sich aus den aktuellen Klimadaten (untere Hälfte des obigen Diagramms) ableiten lassen, einschließlich der realen Erwärmung und des Strahlungsungleichgewichts, und zwar über die Energiebilanzmethode.

Der Fehler, die große Rückkopplungsreaktion auf die Emissionstemperatur zu vernachlässigen und sie somit effektiv zu der eigentlich winzigen Rückkopplungsreaktion auf die direkte Treibhausgas-Erwärmung zu addieren und falsch zu zählen, ist elementar und schwerwiegend. Dennoch scheint es in der gesamten Klimatologie universell zu sein. Hier sind nur ein paar Aussagen davon:

[Es folgen diese Statements, auf deren Übersetzung hier verzichtet wird. Sie gehen alle in die gleiche Richtung und untermauern Moncktons Vorwurf. A. d. Übers.]

Die Auswirkung des Fehlers ist in der Tat drastisch. Der Systemgewinnfaktor und damit der ECS wird um das Drei- bis Vierfache überschätzt; der Rückkopplungsanteil wird um das Zehnfache überschätzt; und die Einheitsrückkopplung (d.h. die Rückkopplungsantwort pro Grad direkter Erwärmung vor Berücksichtigung der Rückkopplung) wird im mittleren Bereich um das 30-fache und am oberen Rand der Modellvorhersagen um das 100-fache überschätzt.

[Hervorhebungen im Original]

Der Fehler kann sehr einfach verstanden werden, wenn man sich anschaut, wie die Klimatologie und die Regelungstheorie den Systemverstärkungsfaktor auf der Grundlage vorindustrieller Daten berechnen würden:

Da RCS kaum mehr als 1 K beträgt, ist ECS, nachdem die Sonnenscheintemperatur von 255 K zur Glättung von Zähler und Nenner der Klimatologie hinzugefügt wurde, kaum mehr als der Systemgewinnfaktor. Und das ist das Ende des „Klimanotstands“. Es war alles ein Irrtum.

Natürlich wird die Rückkopplungsformel in den Modellen nicht direkt berücksichtigt. Rückkopplungen werden ex post facto aus ihren Outputs diagnostiziert. Kürzlich sagte ein angesehener skeptischer Klimatologe mit Blick auf unser Ergebnis, dass wir aus der Diskrepanz zwischen den ECS-Schätzungen der Modelle und unseren eigenen hätten erkennen müssen, dass wir falsch liegen müssen, weil die Modelle das Klima perfekt abbilden.

Es erweist sich sicherlich als nicht weniger schwierig, den Skeptikern den Fehler der Regelungstheorie zu erklären als der totalitären Fraktion, die von diesem Fehler so mächtig profitiert. Hier ist also, wie unser angesehener Co-Autor, ein führender Professor für Regelungstheorie, es ausdrückt:

Natürliche Größen sind, was sie sind. Eine Größe als die Summe aus einem Basissignal und dessen Störung zu definieren, ist ein vom Beobachter geschaffenes Modell. Wenn das Basissignal – analog zum Eingangssignal in einer elektronischen Schaltung – willkürlich gewählt wird, hört die Störung (die Differenz zwischen der willkürlich gewählten Basislinie und der Größe, die die Summe aus Basislinie und Störung ist) auf, eine reale, physikalische Größe zu sein: Sie ist lediglich ein Artefakt eines Konstrukts, das eine physikalische Größe willkürlich in mehrere Komponenten aufteilt. Das reale System kümmert sich jedoch nicht um die Modelle, die von seinem Beobachter erstellt werden. Dies lässt sich leicht an der wichtigsten Rückkopplungsschleife von allen demonstrieren, der Wasserdampf-Rückkopplung, bei der die Erwärmung dazu führt, dass Wasser verdunstet und der entstehende Wasserdampf, ein Treibhausgas, eine zusätzliche Erwärmung erzwingt.

Die Klimatologie definiert die Rückkopplung so, dass nur die Störung – nicht aber auch das Basissignal, die Emissionstemperatur – die Rückkopplung auslöst. Die Implikation ist, dass in der Sicht der Klimatologen die Sonne kein Wasser verdunstet. In ihren Modellen verdunstet die gesamte Sonneneinstrahlung von 1363,5 W/m² kein einziges Wassermolekül, während die Erwärmung, die durch nur 25 W/m² des vorindustriellen Antriebs durch nicht kondensierende Treibhausgase verursacht wird, allein für die gesamte natürlich vorkommende Verdunstung von Wasser auf der Erde verantwortlich ist. Dies ist offensichtlicher Unsinn. Wasser kümmert sich weder um die Quelle der Wärme, die es verdunstet, noch um die fehlerhaften Definitionen der Klimatologie für Rückkopplungen. Im Modell der Klimatologie würde die Wasserdampf-Rückkopplung aufhören zu funktionieren, wenn alle Treibhausgase aus der Atmosphäre entfernt würden. Die Sonne würde durch ihre Emissionstemperatur kein einziges Wassermolekül verdampfen, denn nach der Definition der Klimatologen verdampft Sonnenschein kein Wasser.

Wärme ist immer die gleiche physikalische Größe, unabhängig von der Quelle der Wärme. Der Zustand eines Systems kann durch die darin enthaltene Wärmeenergie beschrieben werden, unabhängig von der Quelle der Wärme. Temperatur-induzierte Rückkopplungen werden durch verschiedene Wärmequellen ausgelöst. Die Sonne ist die größte dieser Quellen. Die Wärme aus der Sonneneinstrahlung folgt genau den gleichen Naturgesetzen wie die Wärme aus dem Treibhauseffekt. Alles, was bei der Analyse des Verhaltens eines physikalischen Systems zählt, ist der Gesamtwärmeinhalt, nicht seine ursprüngliche Quelle oder Quellen.

Die Modelle der Klimatologie spiegeln diese Tatsache nicht wider. Ein Modell eines natürlichen Systems muss die inneren Abläufe dieses Systems widerspiegeln, die nicht durch irgendeinen „Konsens“ wegdefiniert werden dürfen. Der Maßstab für ein gutes Modell eines realen Systems ist nicht „Konsens“, sondern die objektive Realität. Die Funktionsweise eines Rückkopplungs-Verstärkers in einem dynamischen System wie dem Klima (ein dynamisches System ist ein System, das seinen Zustand im Laufe der Zeit ändert) ist seit langem theoretisch bewiesen und wurde wiederholt in realen Anwendungen demonstriert, wie z. B. in den Steuerungssystemen für Kraftwerke, Space Shuttles, den Fliegen auf den Saphirwellen von Kirchturmuhren, den Reglern von Dampfmaschinen und der erhöhten spezifischen Luftfeuchtigkeit bei wärmerem Wetter im Klima und den Systemen, die uns zum Mond gebracht haben.

Jeder Regelungstheoretiker, dem wir unsere Ergebnisse gezeigt haben, hat die Sache sofort kapiert. Jeder Klimatologe – ob Skeptiker oder Thermagedonist – hat sich unangenehm verrenkt. Denn die Regelungstheorie liegt genau außerhalb der Kompetenz und Komfortzone der Klimatologie.

Lassen Sie uns also mit einer Untersuchung darüber enden, warum die „perfekten“ Modelle in Wirklichkeit und formal völlig unfähig sind, uns irgendetwas Nützliches darüber zu sagen, wie viel globale Erwärmung unsere Industrien und Unternehmen verursachen könnten.

Die Modelle versuchen, die Navier-Stokes-Gleichungen mithilfe der numerischen Strömungsmechanik für Zellen von typischerweise 100 km x 100 km x 1 km in einer Reihe von Zeitschritten zu lösen. In Anbetracht der Erdoberfläche und der Tiefe der Troposphäre müssen die Gleichungen immer und immer wieder, Zeitschritt für Zeitschritt, für jede von etwa einer halben Million solcher Zellen gelöst werden – in denen viele der relevanten Prozesse, wie z. B. die Bildung von Kondensationskernen nach der Svensmark-Theorie, auf der Sub-Grid-Skala stattfinden und von den Modellen überhaupt nicht erfasst werden.

Nun sind die Navier-Stokes-Gleichungen notorisch widerspenstige partielle Differentialgleichungen: tatsächlich so widerspenstig, dass noch keine Lösungen in geschlossener Form gefunden wurden. Sie können nur numerisch gelöst werden, und gerade weil es keine Lösungen in geschlossener Form gibt, kann man nicht sicher sein, dass die numerischen Lösungen keine Fehler enthalten.

Es gibt eine weitere große Schwierigkeit mit Modellen, die in einer Reihe von Zeitschritten ablaufen. Wie Pat Frank vor zwei Jahren in einem bahnbrechenden Papier von großer Genialität und Auffassungsgabe zum ersten Mal dargelegt hat – ein Papier übrigens, das bisher noch keine von Fachleuten begutachtete Widerlegung erfahren hat – macht die Ausbreitung der Unsicherheit durch die Zeitschritte der Modelle sie formal unfähig, uns irgendetwas darüber zu sagen, wie viel oder wie wenig globale Erwärmung wir verursachen könnten. Was auch immer die Modelle sonst noch für einen Nutzen haben mögen, ihre Vorhersagen zur globalen Erwärmung sind reine Vermutungen und völlig wertlos.

Ein Problem ist, dass die Unsicherheiten in den Schlüsselvariablen so viel größer sind als das winzige mittlere anthropogene Signal von weniger als 0,04 Watt pro Quadratmeter und Jahr. Zum Beispiel unterliegt der wolkenarme Anteil einer jährlichen Unsicherheit von 4 Watt pro Quadratmeter (abgeleitet durch Mittelwertbildung über 20 Jahre). Da die Ausbreitung von Unsicherheiten in Quadratur erfolgt, breitet sich diese eine Unsicherheit so aus, dass sie für sich allein eine Unsicherheits-Bandbreite von ±15 bis ±20 °C über ein Jahrhundert ergibt. Und es gibt viele, viele solcher Unsicherheiten.

Daher ist jede Vorhersage auf der Hundertjahresskala, die in diesen Bereich der Unsicherheit fällt, nichts weiter als eine aus der Luft gegriffene Vermutung. Hier sieht man, wie die Unsicherheitsausbreitung dieser einen Variable in nur einem Modell aussieht. Das gesamte Intervall der CMIP6 ECS-Projektionen liegt deutlich innerhalb der Unsicherheits-Bandbreite und sagt uns daher nichts – gar nichts – darüber, wie viel Erwärmung wir verursachen könnten.

Pat hatte die gleichen Schwierigkeiten wie wir, Skeptiker und Thermageddonisten gleichermaßen von seiner Richtigkeit zu überzeugen. Als ich ihn das erste Mal sah, wie er einen erstklassigen Vortrag zu diesem Thema hielt, auf dem Treffen der World Federation of Scientists in Erice auf Sizilien im Jahr 2016, wurde er von Wissenschaftlern auf beiden Seiten in einer skandalös bösartigen und ignoranten Art und Weise niedergebrüllt, die an die grobe Misshandlung von Henrik Svensmark durch die profitgierigen Rohlinge der einst so angesehenen Royal Society vor einigen Jahren erinnert.

Hier sind nur einige der unsinnigen Antworten, mit denen Pat Frank in den letzten paar Jahren seit der Veröffentlichung zu tun hatte, und davor von Gutachtern bei mehreren Zeitschriften, die einfach nicht bereit waren, ein so bahnbrechendes Ergebnis zu veröffentlichen:

Fast alle Gutachter von Dr. Franks Arbeit a) kannten den Unterschied zwischen Genauigkeit und Präzision nicht; b) verstanden nicht, dass eine Temperaturunsicherheit kein physikalisches Temperaturintervall ist; c) erkannten nicht, dass die Ableitung einer Unsicherheit zur Bedingung einer projizierten Temperatur nicht impliziert, dass das Modell selbst zwischen Eishaus- und Treibhaus-Klimavorhersagen oszilliert [ein tatsächlicher Einwand eines Gutachters]; d) behandelte die Fortpflanzung der Unsicherheit, eine statistische Standardmethode, als ein fremdes Konzept; e) verstand nicht den Zweck oder die Bedeutung eines Kalibrierungsexperiments; f) verstand nicht das Konzept der instrumentellen oder Modellauflösung oder deren empirische Grenzen; g) verstand überhaupt nicht die physikalische Unsicherheitsanalyse; h) erkannte nicht einmal, dass ±n nicht dasselbe ist wie +n; i) erkannte nicht, dass die Unsicherheit von ± 4 W/m² im Wolkenantrieb ein jährlicher Mittelwert war, der aus den Daten von 20 Jahren abgeleitet wurde; j) verstand nicht den Unterschied zwischen dem Basiszustandsfehler, dem räumlichen Effektivwertfehler und dem globalen Netto-Mittelwertfehler; k) erkannte nicht, dass die Bildung des Mittelwerts der Unsicherheiten die Vorzeichen der Fehler aufhebt und das wahre Ausmaß der Unsicherheit verbirgt; l) erkannte nicht, dass die Gewohnheit der Klimamodellierer, Differenzen gegenüber einem Basiszustand zu bilden, die Unsicherheit nicht abzieht; m) stellte sich vor, dass ein Simulationsfehler im troposphärischen Wärmeinhalt keine falsche Lufttemperatur erzeugen würde; verstand nicht, dass die Unsicherheit des geringen Wolkenanteils, auf der die Analyse basierte, weder eine Basiszustandsunsicherheit, noch ein konstanter Fehler, noch ein zeitinvarianter Fehler war; n) stellte sich vor, dass die angeblich korrekte Temperaturprojektion von Hansen (1988) für 1988-2020 die Analyse ungültig machte.

Pah! Wir haben dieselbe Art von Unsinn ertragen müssen, und zwar aus demselben Grund: Die Klimatologen sind mit den relevanten Bereichen der Mathematik, Physik und Wirtschaft außerhalb ihres eigenen engen und allzu oft stumpfsinnig engstirnigen Spezialgebiets nur unzureichend vertraut, und sie sind höchst unwillig zu lernen.

Die Quintessenz ist, dass die Klimatologie einfach falsch liegt, was das Ausmaß der zukünftigen globalen Erwärmung angeht. Keine Regierung sollte dem, was sie sagt, auch nur die geringste Aufmerksamkeit schenken.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2021/05/09/why-models-cant-predict-temperature-a-history-of-failure/

Übersetzt von Chris Frey EIKE