Neue Studie bestätigt den Zusammenhang zwischen Sonne ↔ kosmischer Strahlung ↔ Klima

David Whitehouse

Eine neue, in Nature Scientific Reports veröffentlichte Studie von Forschern des Dänischen Nationalen Weltrauminstituts an der Technischen Universität Dänemark (DTU) und der Hebräischen Universität Jerusalem deutet darauf hin, dass die Aktivität der Sonne bei der Abschirmung der kosmischen Strahlung die Wolken und letztlich den Energiehaushalt der Erde beeinflusst, was wiederum Auswirkungen auf das Klima hat:


Diese Forschungsarbeit von Henrik Svensmark, Jacob Svensmark, Martin Bødker Enghoff und Nir Shaviv untermauert die seit 25 Jahren gemachten Entdeckungen, die auf eine bedeutende Rolle der kosmischen Strahlung beim Klimawandel hindeuten. Insbesondere stellt sie eine Verbindung zwischen den beobachteten Schwankungen der Wolken und des Energiehaushalts der Erde und den Experimenten und Theorien des Kopenhagener Labors her und zeigt, wie kosmische Strahlung zur Bildung von Aerosolen beiträgt und deren Wachstum zu Wolkenkondensationskernen und schließlich zu Wolken beschleunigt.

Eruptionen auf der Sonne schirmen die Erde vor galaktischer kosmischer Strahlung ab – energiereiche Teilchen, die von explodierten Sternen auf unseren Planeten herabregnen. „Die Sonne führt fantastische natürliche Experimente durch, die es uns ermöglichen, unsere Vorstellungen über die Auswirkungen der kosmischen Strahlung auf die Atmosphäre zu testen“, erklärte Professor Henrik Svensmark, Hauptautor der Studie, gegenüber der GWPF.

[Davon werden wir auf der Tagung in Gera sicher von Svensmark noch mehr hören. A. d. Übers.]

Sonnenexplosionen erzeugen magnetisierte Gase, die an der Erde vorbeiziehen und den kosmischen Strahlenfluss, der uns erreicht, verringern. Diese Ereignisse werden Forbush-Rückgänge genannt, benannt nach dem amerikanischen Physiker Scott E. Forbush, der sie vor mehr als 80 Jahren erstmals bemerkte. Sie führen zu einer vorübergehend geringeren Produktion von kleinen Aerosolen – Molekülclustern in der Luft – die normalerweise die Wassertröpfchen der tiefliegenden Wolken bilden. Dies wiederum führt zu einer Verringerung der Wolkendecke, die bekanntermaßen das Klima beeinflusst.

Der jüngste Durchbruch besteht darin, dass die Auswirkungen auf den Energiehaushalt der Erde anhand von Satellitenbeobachtungen des CERES-Instruments auf den NASA-Satelliten Terra und Aqua quantifiziert werden konnten.

Die Beobachtungsdaten zeigen, dass die Erde innerhalb von 4 bis 6 Tagen nach dem kosmischen Strahlungsminimum fast 2 Watt pro Quadratmeter zusätzliche Energie absorbiert. Ein solch großer Effekt ist eine große Überraschung, da der allgemeine Konsens der Klimagemeinschaft, der kürzlich im 2021 veröffentlichten IPCC-Bericht AR6 (Kapitel 7.3.4.5) zum Ausdruck gebracht wurde, darin besteht, dass „… der GCR-Effekt [galaktische kosmische Strahlung] auf CCN [Wolkenkondensationskerne] zu schwach ist, um irgendeinen nachweisbaren Effekt auf das Klima zu haben, und kein robuster Zusammenhang zwischen GCR und Bewölkung gefunden wurde. … Es besteht ein hohes Vertrauen, dass GCR einen vernachlässigbaren ERF [effektiver Strahlungsantrieb] über den Zeitraum von 1750 bis 2019 beiträgt.“

Diese neuen Ergebnisse zeigen, dass die Schlussfolgerung des IPCC überdacht werden muss. Zwei Watt pro Quadratmeter können mit dem im IPCC-Bericht geschätzten effektiven solaren Strahlungsantrieb für den Zeitraum von 1750 bis 2019 von nur 0,01 Watt pro Quadratmeter verglichen werden (der durch die ausschließliche Berücksichtigung von Änderungen der solaren Bestrahlungsstärke ermittelt wurde).

„Wir haben jetzt gleichzeitige Beobachtungen des Rückgangs der kosmischen Strahlung, der Aerosole, der Wolken und des Energiehaushalts“, sagt Professor Nir Shaviv.

Die Sonneneffekte in dieser Studie sind zu kurzlebig, um eine dauerhafte Wirkung auf das Klima zu haben, aber sie weisen den Weg zu Forschungen, die aufdecken könnten, wie der Mechanismus auf längeren Zeitskalen funktioniert. „Es könnte sein, dass die Wirkung des Kohlendioxids in der Atmosphäre – die so genannte Klimasensitivität – geringer ist, als aus Klimamodellen abgeleitet wird, wenn dieser Effekt berücksichtigt wird“, fügt Professor Svensmark hinzu.

Link: https://www.netzerowatch.com/sun-cosmic-ray-climate-connection-confirmed/

Übersetzt von Christian Freuer für das EIKE

 




Willkommen auf der neuen Website Net Zero Watch

Dr. Benny Peiser

Mit der Verschärfung der Energiekrise in Großbritannien und Europa wird immer deutlicher, dass die aktuelle Klima- und Energiepolitik versagt und die Öffentlichkeit den Preis dafür zahlt.

Net Zero Watch bietet eine seriöse Analyse der naiven und unausgewogenen Dekarbonisierungspolitik.

Mit unserer neuen Kampagne und Website werden wir an den Grundfesten rütteln, indem wir die Politiken unter die Lupe nehmen, feststellen, was sie wirklich kosten, wer die Kosten zu tragen hat, und erschwingliche Alternativen aufzeigen.

Auf Net Zero Watch können die Leser (und die Abonnenten unseres Newsletters) das gesamte Spektrum der Ansichten und kritischen Analysen untersuchen, so dass unsere Leser Zugang zu einem glaubwürdigen Realitätscheck der offiziellen und alternativen Klima- und Energiepolitikforschung haben.

In Anlehnung an das Global Warming Policy Forum werden wir die schwerwiegenden wirtschaftlichen, gesellschaftlichen und geopolitischen Auswirkungen unzureichend durchdachter politischer Maßnahmen sowohl im Inland als auch auf internationaler Ebene aufzeigen.

Im Mittelpunkt unseres Interesses steht die Energiekrise. Da unsere heimischen Schiefergasvorkommen durch ein absurdes staatliches Verbot ungenutzt bleiben, gehen die Gaspreise durch die Decke. Net Zero Watch wird die wilden Behauptungen von Umweltaktivisten und Politikberatern über diese ehrwürdige und harmlose Technologie, die die Gaspreise in den USA auf einen Bruchteil der hiesigen Preise gesenkt hat, in Frage stellen.

Das Wetter in diesem Jahr hat gezeigt, dass unsere Entscheidung, aus fossilen Brennstoffen und der Kernkraft auszusteigen und bei der Stromversorgung mehr und mehr auf Windkraftanlagen zu setzen, gefährliche Folgen hat. Wir werden uns dafür einsetzen, dass Bezahlbarkeit und Versorgungssicherheit wieder in den Mittelpunkt der Energiedebatte rücken, und wir werden das riskante Wunschdenken hinter vielen Behauptungen über Energiespeicherung entlarven.

Net Zero Watch wird nicht davor zurückschrecken, diese Behauptungen in Frage zu stellen und das in den meisten unserer akademischen Institutionen in Vergessenheit geratene Prinzip des nullius in verba – nimm niemanden beim Wort – aufrechtzuerhalten. Und wir werden Wissenschaftler und akademische Einrichtungen an den Schaden erinnern, den ihre apokalyptischen Behauptungen und Prophezeiungen für die Gesellschaft, die Wirtschaft und vor allem für unsere Kinder anrichten.

[Hervorhebung vom Übersetzer]

In den letzten Monaten hat die öffentliche Besorgnis über die Kosten des Netto-Null-Ziels zugenommen, und die Medien und eine wachsende Zahl von Abgeordneten haben begonnen, bohrende Fragen zu stellen. Diese Fragen werden nur noch schärfer werden, wenn die Energiekrise in den Wintermonaten hart zuschlägt. Grüne Aktivisten und die grüne Unternehmenslobby sind daher zu Recht besorgt über eine politische Gegenreaktion.

Net Zero Watch ist der Meinung, dass eine politische Gegenreaktion längst überfällig ist. Im Grunde genommen stehen wir an einem neuen Scheideweg in der Klima- und Energiedebatte.

Seit Jahren werden die Menschen in diesem Land in eine Zukunft gedrängt, die sie nicht sehen und nicht verstehen können. Doch die Energiekrise in diesem Winter wird offenbaren, was Politiker und Ökoaktivisten verschwiegen haben – dass man in einer Net Zero-Zukunft ärmer und kälter sein wird.

Net Zero Watch wird die schmerzliche Wahrheit aufdecken, dass die derzeitige Klima- und Energiepolitik in die Katastrophe führt. Und wir hoffen, zeigen zu können, dass die konventionelle Weisheit jetzt an einem Scheideweg steht und dass es einen anderen Weg gibt, den wir einschlagen können – zu Energiesicherheit, Wohlstand und einem Ende der grünen Energiearmut.

Wir hoffen, dass Sie sich uns auf diesem Weg anschließen werden.

Dr. Benny Peiser, Director, Net Zero Watch

Link: https://www.netzerowatch.com/welcome-to-net-zero-watch/

—————————————–

Und tatsächlich hat es gleich der erste Beitrag auf dieser neuen Website in sich A. d. Übers.:

Net Zero „auf gut Glück“ ist eine Katastrophe in den Startlöchern

Steve Baker, MP*
[Hinweis: Die Abkürzung MP steht für Member of Parliament. Der Autor ist also Abgeordneter im UK-Parlament. Ob irgendwann einer der von uns gewählten Abgeordneten hierzulande mal einen derartigen Beitrag verfasst?]

Die Pläne des Vereinigten Königreichs zur Dekarbonisierung der Wirtschaft sind ein klassisches Beispiel für die uralte politische Strategie von „auf gut Glück“. Die „Experten“ in Westminster haben Ihre und meine Zukunft auf einen Plan gestützt, der zu einem großen Teil auf kollektivem Daumendrücken beruht.

Regierungen der einen oder anderen Couleur, Whitehall-Bürokraten und ihre Berater im Ausschuss für Klimawandel arbeiten nun schon seit über einem Jahrzehnt an solchen Plänen, und man kann mit Fug und Recht behaupten, dass sie immer noch wenig oder gar keine Ahnung haben, wie Net Zero erreicht werden kann, abgesehen von der vagen Vorstellung, dass wir alles elektrifizieren und viel Energie aus Windkraftanlagen gewinnen sollten.

Das ist natürlich nicht mehr als ein Ansatzpunkt. Es gibt enorme praktische Schwierigkeiten (und horrende Kosten) zu bewältigen, aber solche Detailfragen scheinen die Experten in Westminster wenig zu interessieren. „Die Dinge werden billiger werden“, sagen sie, „….wir werden schon etwas erfinden“.

Derartiges Expertengeschwafel hat ausgereicht, um die Medien und die meisten Politiker zu überzeugen, aber wie der legendäre Physiker Richard Feynman einmal feststellte, lässt sich die Natur nicht täuschen, und es sieht ganz danach aus, dass die Natur in diesem Winter ihre Karten auf den Tisch legen wird.

Eines der Hauptprobleme besteht darin, dass wir keine Möglichkeit haben, Strom im großen Stil zu speichern, wenn der Wind nicht weht. Das können in einem normalen Jahr ein paar Wochen sein, in einem schlechten Jahr aber auch Monate. Das Problem bestand schon immer, und wir haben von den „Experten“ keine eindeutige Antwort erhalten. Wir haben nicht genügend geeignete Standorte für Wasserkraftwerke; Batterien und Wasserstoff sind viel zu teuer. Wie letzte Woche in einem Leserbrief an eine überregionale Zeitung zu lesen war, würden genügend Batterien, um eine Windflaute von nur zehn Tagen zu überbrücken, bei den derzeitigen Preisen 150.000 £ pro Haushalt kosten.

Der Ausschuss für Klimawandel (CCC)sagt, dass wir über Verbindungsleitungen Strom aus anderen Ländern beziehen können, wenn der Wind hier nicht weht. Das ist für sie so etwas wie eine „magische Lösung“, denn sie können einfach behaupten, dass wir so viel Verbindungskapazität bauen werden, wie wir brauchen. Aber auch hier werden die praktischen Schwierigkeiten ignoriert, z. B. die Tatsache, dass der Wind, wenn er hier nicht weht, wahrscheinlich auch im größten Teil Westeuropas nicht weht. Wenn man also davon ausgeht (wie es die „Experten“ in Westminster tun), dass uns alle auf dem Weg der Dekarbonisierung folgen, werden wir alle in einen Bieterkrieg um die wenigen Megawatt Strom geraten, die noch übrig sind. Es gibt auch ein nationales Sicherheitsproblem mit Verbindungsleitungen, wie kürzlich durch die Drohung Frankreichs deutlich wurde, das Vereinigte Königreich von der Versorgung abzuschneiden, wenn wir bei den Fischereirechten nicht mitspielen würden.

Laut CCC können wir auch etwas Strom aus Gaskraftwerken gewinnen, die mit Kohlenstoffabscheidung und -speicherung (CCS) ausgestattet sind. Allerdings sind die praktischen Probleme auch hier ziemlich groß: Bislang hat noch niemand CCS erfolgreich eingesetzt – eine Reihe von Pilotprojekten wurde auf dem leichteren Terrain der Kohlekraftwerke getestet, und jedes wurde als wirtschaftlicher Misserfolg geschlossen; der Strom, den sie produzieren, ist einfach zu teuer. Und bei den Gaskraftwerken hat noch niemand die Technologie zum Laufen gebracht.

Das andere Problem bei der Planung von Gas und CCS, die uns vor den Gefahren der Intermittenz bewahren sollen ist, dass es unwahrscheinlich ist, dass wir billiges Gas zur Verfügung haben werden, mit dem wir sie füttern können – aufeinanderfolgende Regierungen, die von der CCC, der Industrie für erneuerbare Energien und der grünen Bewegung angestachelt wurden, haben uns gesagt, dass wir „fossile Brennstoffe im Boden lassen müssen“. Dies wurde zum Teil als eine Möglichkeit gesehen, den zweiten Teil der Dekarbonisierungs-Strategie zu fördern, nämlich dass die Menschen „etwas erfinden“. Mit anderen Worten: Wenn wir kein Gas haben und keine Möglichkeit, das Netz auszugleichen, dann wird sich schon jemand etwas einfallen lassen, um das Problem zu lösen. Also haben wir erst das Stromnetz für Gaskraftwerke unattraktiv gemacht, dann haben wir die aufkeimende Schiefergasindustrie mit absurden Vorschriften kastriert und schließlich ganz verboten.

Und so stehen wir heute da, wo das ganze Land die Daumen drückt und betet, dass irgendjemand „etwas erfindet“ oder zumindest einen Weg findet, den Winter zu überstehen, ohne dass das Licht ausgeht.

Zwanzig Jahre lang haben die Interessengruppen das Sagen gehabt, und die Öffentlichkeitsarbeit hatte Vorrang vor Technik und Wirtschaft. Aber, um auf Professor Feynman zurückzukommen, Mutter Natur lässt sich wirklich nicht täuschen, und wenn sie ihre Hand aufhält, werden die Ergebnisse wahrscheinlich schrecklich sein.

Steht eine Katastrophe bevor? Ich fürchte ja, es sei denn, die Minister reißen sich zusammen und geben dem Privatsektor die Freiheit, jetzt Gas zu geben.

[Hervorhebung vom Übersetzer]

Link: https://www.netzerowatch.com/winging-it-for-net-zero-is-a-catastrophe-waiting-to-happen/

Übersetzt von Christian Freuer für das EIKE

 




Ein Nobelpreis für mathematische Modelle

Von der Website science, climat et énergie (SCE)

[Alle Hervorhebungen in diesem Beitrag im Original. ]

Wir haben erfahren, dass der Nobelpreis für Physik 2021 am Dienstag, den 5. Oktober, an zwei Experten für die Modellierung des Klimawandels, den amerikanisch-japanischen Syukuro Manabe und den deutschen Klaus Hasselmann, sowie an den italienischen Theoretiker Giorgio Parisi verliehen wurde.

Die Hälfte des Preises geht an den 90-jährigen Syukuro Manabe und den 89-jährigen Klaus Hasselmann „für die physikalische Modellierung des Erdklimas und für die Quantifizierung seiner Variabilität und die zuverlässige Vorhersage der globalen Erwärmung, so die Jury. Die andere Hälfte des Preises geht an Giorgio Parisi, 73, „für die Entdeckung des Zusammenspiels von Unordnung und Fluktuationen in physikalischen Systemen vom atomaren bis zum planetarischen Maßstab“.

SCE beglückwünscht die Preisträger und nutzt die Gelegenheit, um an einige offensichtliche Fakten zu erinnern, die von den meisten Medien nicht erwähnt werden.

1. Das Nobel-Komitee belohnt Modellierer

Mit dem Nobelpreis für Physik werden Modellphysiker ausgezeichnet, d. h. Wissenschaftler, die auf der Grundlage bekannter physikalischer Gesetze komplexe mathematische Modelle erstellen und damit versuchen, vergangene und zukünftige Veränderungen im Klimasystem zu reproduzieren.

Dabei ist zu bedenken, dass ein mathematisches Modell nicht die Realität ist und dass im Hinblick auf das Klima kein Modell jemals in der Lage sein wird, genau vorherzusagen, was in der Zukunft passieren wird.

Das ist der Grund dafür. Erstens sind viele physikalisch-chemische Phänomene noch immer schlecht verstanden (z. B. die Bildung von Wolken [französisch]). Sollte sich herausstellen, dass dies nicht der Fall ist, könnte die wissenschaftliche Forschung heute eingestellt werden. Das Klima ist ein komplexes System, d. h. es setzt sich aus einer Vielzahl von Elementen zusammen (sowohl auf der Erde als auch außerhalb der Erde), und alle diese Elemente können untereinander eine Vielzahl von Wechselwirkungen haben (Abbildung 1). Es sind viele Arten von Wechselwirkungen möglich; das System enthält auch viele direkte oder indirekte Rückkopplungsschleifen (und daher mit einer gewissen Verzögerung). Es ist auch dynamisch, d. h. es entwickelt sich in Raum und Zeit.

Abbildung 1. Die vielen Parameter, die das Klima steuern: das „Klima-Metamodell“. Für weitere Informationen siehe hier [französisch].

Wenn die Wechselwirkungen zwischen den Objekten des Systems linear und kurzzeitig sind, kann die Entwicklung des dynamischen Systems als Funktion der Zeit durch Systeme gewöhnlicher Differentialgleichungen modelliert werden. Das System entwickelt sich dann mit der Zeit zu einer einzigen Lösung, bei der sich die Werte der Variablen nicht mehr ändern. In diesem Fall können Vorhersagen gemacht werden.

Leider sind natürliche Systeme, die die Eigenschaft der Linearität besitzen, äußerst selten, um nicht zu sagen nicht existent. Viele Systeme lassen sich jedoch einigermaßen linearisieren, um ihre Untersuchung zu erleichtern. Viele Theorien der Physik und der Mechanik werden daher unter Berücksichtigung linearer Systeme aufgestellt.

Wenn aber die Wechselwirkungen zwischen den Objekten des Systems nichtlinear sind (Anmerkung: nichtlinear = das „Überlagerungsprinzip“ wird nicht beachtet; die meisten physikalischen Systeme sind nichtlinear. Beispiel: Navier-Stokes-Gleichungen in der Flüssigkeitsmechanik), muss die Entwicklung des dynamischen Systems als Funktion der Zeit durch Systeme nichtlinearer Differentialgleichungen modelliert werden. Diese Gleichungen sind sehr schwer zu lösen… Lange Zeit mussten wir auf Vereinfachungen zurückgreifen, um diese Gleichungen unter den Bedingungen der Linearität zu untersuchen. Glücklicherweise können uns die Computer helfen. Und diese Computer zeigen uns dann, dass es mehrere mögliche Lösungen gibt! In einigen Fällen konvergiert das System nie direkt zu der einen oder anderen Lösung, sondern „dreht sich“ in asymptotisch konvergierenden Bahnen; in anderen Fällen entwickelt sich das System in variablen, aber nicht konvergierenden Bahnen um einen der „seltsamen Attraktoren“ und wechselt zu unvorhersehbaren Zeiten von einem „Attraktor“ zum anderen. Ein solches System wird als „chaotisch“ bezeichnet (im mathematischen Sinne des Begriffs; im Englischen ist es ein „dynamisches System“). Es kann durch ein System perfekt definierter nichtlinearer Gleichungen beschrieben werden, aber der Wert seiner abhängigen Variablen kann sich zu einem bestimmten Zeitpunkt enorm ändern, wenn wir die Ausgangsbedingungen oder den Wert eines der Parameter nur geringfügig ändern, was ein solches System in der Praxis vollkommen unvorhersehbar macht. Dies ist das, was man als deterministisches Chaos [französisch] bezeichnet hat. Das System schwingt unregelmäßig (aperiodisch) und wiederholt nie genau dieselbe Schwingung zweimal. Es ist also nicht möglich, das Verhalten des Systems auf lange Sicht vorherzusagen.

Im deterministischen Chaos bestimmt jede Anfangsbedingung vollständig die zukünftige Entwicklung, denn es handelt sich nicht um einen Zufall: Das System ist vollständig deterministisch. Zwei sehr ähnliche Ausgangsbedingungen können jedoch völlig unterschiedliche Entwicklungen haben. Die Entwicklung des Systems wird dann unvorhersehbar, weil ein kleiner Messfehler oder eine Rundung auf die 15. Nachkommastelle nach einer gewissen Zeit zu völlig anderen Ergebnissen führt.

Mit anderen Worten, wenn eine mathematische Variable geringfügig geändert wird, wird das Klimamodell nicht dieselbe Vorhersage liefern. Hier ist ein konkretes Beispiel (Abbildung 2).

Abbildung 2. Ergebnisse von 30 Simulationen, die mit demselben Klimamodell durchgeführt wurden (Karten 1 bis 30), für Nordamerika im Winter. Die Karten zeigen die Trends zwischen 1963 und 2012 (50-Jahres-Zeitraum). Der einzige Unterschied zwischen den Simulationen ist die Starttemperatur, wobei die Unterschiede zwischen den Simulationen sehr gering sind (es wurde eine kleine [(10↑-14)°C] zufällige Rundungsdifferenz zum anfänglichen Lufttemperaturfeld verwendet). Die EM-Karte ist der Durchschnitt der 30 Simulationen, die OBS-Karte sind die Beobachtungen. Die Farben stellen die Variationen (in °C) über 50 Jahre dar. Quelle: Deser et al. 2016, Journal of Climate 29: 2237-2258.

Abbildung 2 (aus Deser et al. 2016, Journal of Climate 29: 2237-2258) zeigt uns, dass wir völlig unterschiedliche Vorhersagen erhalten können, wenn wir die Ausgangstemperatur um einen winzigen Wert (10-14°C) variieren.

Der Mittelwert der Simulationen (EM in Abbildung 2) stimmt nicht mit den beobachteten Messungen überein, und schlimmer noch, wir bringen die Modelle dazu, genau das zu sagen, was wir wollen, indem wir einen der Parameter auf infinitesimale Weise verändern. Man kann naiv hoffen, dass mathematische Modelle (und ihre Algorithmen zur Berechnung eines Mittelwerts) es ermöglichen, die chaotische Signatur eines komplexen Phänomens zu „löschen“, aber in Wirklichkeit verleihen die Modelle selbst, durch die Struktur der verwendeten Gleichungen, den Ergebnissen, die sie produzieren, einen chaotischen Charakter.

Für weitere Einzelheiten sei auf die Veröffentlichung [französisch] des SCE über chaotische Systeme verwiesen.

2. Klimamodelle sind ungenau

Nach dem eben Gesagten ist es offensichtlich, dass die Jury des Nobelkomitees falsch liegt, wenn sie schreibt, dass Klimamodelle „die globale Erwärmung zuverlässig vorhersagen können“. Hier sind zwei weitere Beobachtungen, die das Gegenteil zeigen:

– Kein Computermodell hatte die Pause (den „Hiatus“) in der Entwicklung der globalen Temperaturen, die zwischen 1998 und 2014 beobachtet wurde, vorhergesagt. Zu diesem Problem sind Dutzende von Artikeln veröffentlicht worden. Siehe zum Beispiel Hedemann et al. 2017 (Nature Climate Change).

– Computermodelle, die auf der CO2-Rate basieren, sagen einen atmosphärischen „Hot-Spot“ voraus (wir haben hier [französisch] darüber berichtet). Dieser „Hot-Spot“ entspricht jedoch nicht den Messungen, die in situ mit Wetterballonen durchgeführt wurden! Für weitere Details siehe Christy et al. 2018.

Glauben Sie immer noch, dass die Klimamodelle korrekt sind? Es ist seit langem bekannt, dass die Klimamodelle übermäßige Erwärmungsraten in der tropischen Troposphäre aufweisen. Und das ist kein Geheimnis für viele Modellierer, die versuchen, ihre Modelle zu verbessern… Nur das Nobelkomitee scheint es nicht zu wissen!

Was die neuen Versionen der Klimamodelle CMIP6 (Coupled Model Intercomparison Project Version 6) angeht, die im letzten Bericht des IPCC (AR6) verwendet wurden, so sind sie nicht besser. In einer Veröffentlichung aus dem Jahr 2020 untersuchten McKitrick und Christy beispielsweise 38 CMIP6-Modelle anhand historisch beobachteter Parameter. Sie konzentrierten sich dabei auf den Zeitraum 1979-2014. Die Autoren zeigen, dass die Modelle zu einer Erwärmung führen, die nicht mit den Beobachtungen übereinstimmt, weder für die untere noch für die mittlere Troposphäre, weder in den Tropen noch anderswo auf der Welt.

3. Die Philosophie des Nobelpreises dürfte nicht beachtet worden sein

Es ist unklar, ob Alfred Nobel den Physikpreis 2021 billigen würde, wenn er ihn sehen könnte. Der Erfinder des Dynamits war ein leidenschaftlicher Verfechter der konkreten Aspekte von Wissenschaft und Technik und wollte diejenigen belohnen, die einen konkreten Beitrag zu deren Fortschritt geleistet hatten. So wurde der Nobelpreis für Physik 1903 gemeinsam an das Ehepaar Curie (Pierre und Marie) und an Henri Becquerel für die Entdeckung der natürlichen Radioaktivität verliehen, einem bis dahin unbekannten physikalischen Phänomen. Der Nobelpreis von 1935 wurde James Chadwick für seine Entdeckung des Neutrons im Jahr 1932 verliehen, eines wesentlichen Elements, das die Materie ausmacht. Beispiele dieser Art gibt es viele.

Erst nach und nach wurde der Preis auch für Theorien esoterischer Natur verliehen. Eine der Bedingungen für die Verleihung war, dass diese Theorien zum Verständnis der Eigenschaften der physikalischen Welt beitragen konnten. Ein gutes Beispiel dafür ist der Nobelpreis für Physik von 1963, der Eugène Wigner (gemeinsam mit Maria Goeppert-Mayer und Hans Jensen) für seine grundlegenden Arbeiten zu Symmetriegruppen verliehen wurde, einer sehr abstrakten mathematischen Theorie zum Verständnis wichtiger Aspekte der Struktur des Universums.

Mit dem Nobelpreis für Physik 2013 wurden zwei Theoretiker (Brout und Englert) ausgezeichnet, die ein mathematisches Modell entwickelt haben, das die Eigenschaften eines fundamentalen Teilchens, des Higgs-Bosons, erklärt, das 2012 mit den Instrumenten am großen CERN-Collider nachgewiesen wurde. Diese Entdeckung erklärt die Verleihung des Preises an die drei Autoren, von denen nur zwei den Preis erhielten, da Brout 2011 verstarb.

Der diesjährige Preis wird dieser Perspektive bei weitem nicht gerecht. Bringen diese Autoren des Modellierens noch nie dagewesene Ergebnisse? Wir können das bezweifeln, mit der möglichen Ausnahme von Giorgio Parisi. In der Begründung ist lediglich von „zuverlässigen“ Ergebnissen die Rede. Das Mindeste, was wir sagen können, ist, dass diese Einschränkung nicht viel bedeutet. Außerdem bietet das Modell nichts grundlegend Neues in der Physik. Alles, was es ausmacht (Physik der Sonne, der Atmosphäre, der Ozeane und ihrer Wechselwirkungen), ist seit Jahrzehnten bekannt. Der Preis ist also eher eine „mathematische“ als eine „physikalische“ Aufgabe. Der Wille Alfred Nobels wird also in gewisser Weise verraten.

4. Conclusions

Indem das Nobelkomitee am Vorabend von COP26 Klimamodellierer belohnt, macht es eine politische und mediale Geste. Das gemeine Volk, das keine Ahnung von Modellierung hat, wird dazu neigen, den Vorhersagen des Heiligen Berichts des IPCC zu glauben.

Abschließend sei an dieser Stelle daran erinnert, was der Physiker Jacques Duran auf seiner Website „Pensée-unique“ geschrieben hat:

„Vorhersagen über die Zukunft unseres Planeten sind gelinde gesagt riskant, denn wir haben es mit einem riesigen System von Differentialgleichungen mit unbekannten Koeffizienten zu tun, die nichtlinear und miteinander gekoppelt sind. Diese Gleichungen sind daher sehr schwer zu entschlüsseln. Darüber hinaus verhalten sich einige dieser Gleichungen chaotisch, d. h. sie reagieren sehr empfindlich auf oft unbekannte Anfangsbedingungen. Es gibt nichts Schlimmeres! Doch Computerprogrammierer haben einen Heidenspaß mit Tausenden von unbekannten Parametern und der Form von Master-Gleichungen, die man versuchen muss zu erraten. Das Problem ist jedoch, dass wir die Ergebnisse beliebig verändern können, indem wir nur einen der Parameter oder nur eine der unbekannten Gleichungen ändern. Wie können wir dann glauben, dass Computer eine korrekte Vorhersage machen, wenn die wesentlichen Mechanismen des Austauschs und der positiven und negativen Rückkopplungen immer noch sehr schlecht verstanden sind und immer noch Gegenstand erbitterter Diskussionen zwischen Chemikern, Physikern, Klimatologen und anderen Geophysikern sind?“

Der Glaube an den Wahrheitsgehalt einer bestimmten Computervorhersage ist eher eine Glaubensfrage als eine wissenschaftliche Gewissheit. Angesichts der Vielzahl möglicher Auflösungsmethoden, der komplizierten Gleichungen und der Anzahl der einstellbaren Parameter sind die Ergebnisse von Computersimulationen für jemanden, der sie nicht selbst programmiert hat, nur schwer zu kontrollieren. Kurzum, wir tappen im Dunkeln, und die Vorurteile nehmen überhand. Politiker und Umweltschützer hingegen wählen die Ergebnisse aus, die für sie richtig sind, ignorieren aber die vielen Unsicherheiten, Annäherungen und Probleme, die die angewandten Methoden mit sich bringen. Politiker und Umweltschützer sind völlig unfähig, die Verlässlichkeit der ihnen mitgeteilten Ergebnisse einzuschätzen, und man kann es ihnen angesichts der Schwierigkeiten des Problems nicht verdenken. Das Einzige, was man ihnen vorwerfen kann, ist ihre zu große Leichtgläubigkeit und ihre zwingenden Behauptungen, um zu glauben, dass all dies sicher ist, während es das überhaupt nicht ist!“

5. References

John R. Christy, Roy W. Spencer, William D. Braswell & Robert Junod (2018) Examination of space-based bulk atmospheric temperatures used in climate research, International Journal of Remote Sensing, 39:11, 3580-3607, DOI: 10.1080 /01431161.2018.1444293

Link: https://www.science-climat-energie.be/sce-info-a-nobel-prize-for-mathematical-models/

Übersetzt von Christian Freuer für das EIKE

 




Europas wahnhafte „grüne Energie“-Katastrophen

Larry Bell

[Kann es gar nicht genug geben: Blicke von außen auf unsere zu 100% vom Menschen verursachte Grünenergie-Katastrophe!]

Europas Kohlenstoff-feindliche Politik bietet Lektionen in Sachen „Green New Disaster“ für Amerika, da steigende Energiepreise und lähmende Engpässe über den Atlantik schwappen.

Die Bemühungen, ihre Verpflichtungen zur Verringerung der CO2-Emissionen im Rahmen des Pariser Klimaabkommens durch stark subventionierte Wind- und Solarprogramme zu erfüllen, die keine zuverlässige Energie rund um die Uhr liefern, haben nur dazu geführt, dass die Europäer noch stärker von der knappen und teuren fossilen Energie abhängig sind, um den Zusammenbruch ihrer Netze zu verhindern.

[Hervorhebung vom Übersetzer]

Das Vereinigte Königreich und Deutschland werden immer abhängiger von russischem Erdgas, nachdem sie das Hydraulic Fracturing verboten haben, wodurch ihre reichen Schiefergasvorkommen nun brachliegen. In den Niederlanden wird derweil das größte Gasfeld Europas stillgelegt.

Im Jahr 2013 hatte Deutschland mehr Solarkapazität installiert als jedes andere Land, wobei ein Großteil davon aus China importiert wurde. Dabei war die Solarenergie weniger effizient als die Windenergie.

Hinzu kommt, dass die intermittierende Wind- und Solarenergie auch eine Herausforderung für die Zuverlässigkeit der Stromversorgung darstellt.

Bis zum Jahr 2008 war das deutsche Stromnetz noch nie unterbrochen worden. Im Jahr 2012 gab es 1.000 brownouts, gefolgt von mehr als 2.500 im Jahre 2013.

Bis 2020 wird Großbritannien 24 % seiner Stromerzeugung aus Windenergie beziehen, hatte aber keinen Notfallplan, als der Anteil im Spätsommer dieses Jahres auf 2 % sank.

In den letzten zehn Jahren haben das Vereinigte Königreich und Europa Hunderte von Kohlekraftwerken stillgelegt, und in Großbritannien sind nur noch zwei übrig. Spanien hat im letzten Sommer die Hälfte seiner Kohlekraftwerke stillgelegt.

Die schwache Windkrafterzeugung hat dazu beigetragen, dass sich die Spotpreise für Erdgas in Europa im letzten Jahr verfünffacht haben, während die Stilllegung dieser vielen Kohlekraftwerke die Nachfrage erhöht und die Preise für diesen Brennstoff verdreifacht hat.

Der Verbrauch fossiler Brennstoffe nach der COVID-Initiative lässt die Nachfrage und die Preise für Kohlenstoffzertifikate im Rahmen des europäischen Emissionshandelssystems in die Höhe schnellen, was die Stromkosten noch weiter in die Höhe treibt, ein Zustand, der sich mit den Heizungsrechnungen für den Winter noch deutlich verschärfen wird.

Im vergangenen Monat stiegen die Strompreise in UK auf einen Rekordwert von 354 £ (490 $) pro Megawattstunde, was einem Anstieg von 700 % gegenüber dem Durchschnitt der Jahre 2010 bis 2020 entspricht.

Diese in die Höhe schießenden Strompreise haben die britischen Stahlhersteller veranlasst, ihre Produktion auszusetzen, während die europäischen Stahlkocher ihre Regierungen um Hilfe bitten.

Dies geschieht, während die europäischen Erdgasvorräte – die im September ein Rekordtief erreicht hatten – die Benchmark-Preise auf über 20 $ pro MMBtu ansteigen lassen, da sie um die weltweiten Flüssiggaslieferungen konkurrieren.

Russland nutzt Europas Energieprobleme aus, indem es die Gaslieferungen reduziert, vielleicht um Deutschland unter Druck zu setzen, die Zertifizierung seiner Nord Stream 2-Pipeline, die die Ukraine umgeht, abzuschließen.

Die Biden-Regierung gab Moskau einen Freibrief, dies zu erreichen, indem sie eine von Trump verhängte Sanktion gegen das Projekt aufhob.

Der weltweite Wettbewerb um fossile Brennstoffe zur Deckung des kritischen Energiebedarfs verschärft sich auch in Asien und Südamerika, wo Dürre die Wasserkraft beeinträchtigt hat, und auch die Hersteller verbrauchen mehr Energie, um westliche Länder mit Waren zu beliefern.

Japan ist besonders von Flüssiggasimporten abhängig geworden, nachdem es nach Fukushima 2011 die meisten seiner Kernkraftwerke abgeschaltet hat.

Sogar China war gezwungen, den Strom für die energiehungrigen Aluminiumhütten zu rationieren, weil die Kohlekraftwerke nicht mehr ausreichten, so dass die Aluminiumpreise weltweit auf ein 13-Jahres-Hoch stiegen.

China war außerdem gezwungen, viel mehr Kohle aus den USA zu kaufen, nachdem es die Einfuhr derselben aus Australien wegen eines diplomatischen Streits verboten hatte.

Da auch Kohle knapp ist, stellen gasbetriebene Generatoren in Asien auf Öl um, was die Preise in die Höhe treibt. Goldman Sachs geht davon aus, dass der Rohölpreis bis zum Jahresende auf 90 Dollar pro Barrel steigen könnte, was die Benzinpreise an der Zapfsäule um 10 bis 20 Cent pro Gallone [= ca. 4 Liter] erhöhen würde.

Die Politik von Biden trägt bereits zu einer weltweiten Verknappung des Erdölangebots bei, wobei die Rohölpreise im letzten Monat auf 80 Dollar pro Barrel gestiegen sind und die Organisation der erdölexportierenden Länder (OPEC) davor warnt, dass der Ölpreis ohne verstärkte Investitionen in neue Förderanlagen noch weiter in die Höhe schießen könnte.

Nachdem Joe Biden die Keystone XL-Pipeline und die Bohrungen im Arctic National Wildlife Refuge (ANWR) gestoppt und gleichzeitig Russland die Fertigstellung seiner Nord Stream 2-Pipeline durch die Ostsee nach Deutschland erlaubt hatte, bat er die OPEC vergeblich, das Angebot zu erhöhen, um die politisch unerwünschten Benzin- und Erdgaspreise in den USA zu senken.

Die Amerikaner bekommen die steigenden Energiepreise bereits zu spüren: Im August stiegen die Preise für Strom und Gas in den letzten 12 Monaten um 5,2 % bzw. 21,1 %. Einige Analysten sagen voraus, dass sich diese inflationären Kosten in diesem Winter verdoppeln könnten, wenn die US-Produktion nicht steigt und die weltweite Nachfrage hoch bleibt.

Erschwerend kommt hinzu, dass Energieunternehmen eine 116 Meilen lange Pipeline, die Gas von Pennsylvania nach New Jersey liefern sollte, wegen behördlicher Hindernisse gestrichen haben, da Blockaden durch von den Demokraten regierte Bundesstaaten im Nordosten der USA die Gaspreise und Investitionen in das Marcellus-Schiefergestein in Pennsylvania gedrückt haben.

Angesichts der Gasverknappung könnten New York und New Jersey daher in diesem Winter mehr Öl zur Stromerzeugung verbrauchen.

In der Zwischenzeit ging die Zahl der vom Innenministerium erteilten Genehmigungen für Bohrungen auf Bundesland von 671 im April auf 171 im August zurück.

Noch schlimmer ist, dass das von den Demokraten vorgeschlagene „Build Back Better“-Ausgabengesetz in Höhe von 3,5 Billionen Dollar – welches jeden der 143,3 Millionen amerikanischen Steuerzahler durchschnittlich 24.424 Dollar kostet – Lizenzgebühren- und andere Gebührenerhöhungen vorsieht, die die US-amerikanischen Öl- und Gasproduzenten weltweit wettbewerbsunfähig machen würden.

Obwohl sich diese sozialistische Extravaganz realistisch auf mehr als 5 Billionen Dollar belaufen wird, behauptet Joe Biden irgendwie, dass all dies „null“ kosten wird.

In der Zwischenzeit, trotz hunderter Milliarden Dollar an globalen Subventionen für intermittierende Wind- und Solarenergie, zeigt ein Renewables 2021 Global Status Report (GSR), der den Zeitraum von 2009 bis 2019 abdeckt, dass der Prozentsatz des weltweiten Endenergieverbrauchs aus fossilen Brennstoffen von 80,3 % auf 80,2 % gesunken ist … ein fast unmerklicher Rückgang um 0,1 %.

All dies unterstreicht, dass Amerika zwar nach wie vor der größte Gasproduzent der Welt ist und unsere Widersacher Russland, Iran und China übertrifft, aber dennoch nicht gegen Turbulenzen auf den Energiemärkten gefeit ist.

Wie das Wall Street Journal beobachtet hat, ist Europa ein Vorzeichen für die verheerenden Folgen der Politik der Regierung Biden, die darauf abzielt, die Produktion fossiler Brennstoffe einzustellen und das US-Netz in Abhängigkeit von „erneuerbaren Energien“ zu betreiben.

Stattdessen – egal wie stark subventioniert in der vergeblichen Hoffnung, CO2 (Pflanzennahrung) aus der Wirtschaft zu entfernen – bieten Europas Probleme eine düstere Warnung für Amerika, wenn nur die Demokraten sie beherzigen würden.

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2021/10/09/europes-delusional-green-energy-disasters/

Übersetzt von Christian Freuer für das EIKE

 




Analyse: Hurrikane sind während der letzten 170 Jahre weder stärker noch häufiger geworden

Pierre Gosselin

In dem neuesten Klima- und Energievideo der Website Die kalte Sonne werden die Behauptungen der Medien über immer stärkere und häufigere Hurrikane genau untersucht und kommen zu dem Schluss: „Während der letzten 170 Jahre sind Hurrikane weder häufiger noch stärker geworden.“

Nach dem Hurrikan Ida behaupteten einige Mainstream-Medien wie das ZDF, dass die Hurrikane in den letzten Jahrzehnten schlimmer geworden seien – wegen der globalen Erwärmung. Es hat sich jedoch herausgestellt, dass diese Aussage eher auf Alarmismus und Aktivismus zurückzuführen ist und nicht auf Daten beruht.

Neue Studie von Vecchi et al.

Unter Berufung auf eine neue Studie von Vecchi et al. (2021), die in der Fachzeitschrift Nature unter dem Titel Changes in Atlantic major hurricane frequency since the late-19th century erschienen ist, stellten die Autoren fest: „Die homogenisierte Aufzeichnung der HU- und MH-Häufigkeit für das gesamte Atlantikbecken zeigt keine eindeutigen Beweise für eine jahrhundertelange Zunahme der MH-Häufigkeit oder des MH/HU-Verhältnisses, die mit der jahrhundertelangen, durch Treibhausgase verursachten Erwärmung des Planeten in Zusammenhang stehen.“

[Die Bedeutung der Abkürzungen HU und MH konnte ich nicht finden. A. d. Übers.]

Die Aufzeichnung von Hurrikanen vor Beginn der Satellitenbeobachtung im Jahr 1972 basierte auf Augenzeugenberichten, was bedeutet, dass eine Reihe von Hurrikanen vor 1972 nie aufgezeichnet wurde. Nach einer Anpassung kamen die Autoren zu folgendem Diagramm:

bild

Source: Nature

Die bereinigte mittlere Häufigkeit schwerer Wirbelstürme war in den 1920er und 1950er Jahren höher als nach 2000.

Heute nichts Ungewöhnliches

Die Autoren vermuten, dass die Häufigkeit von Hurrikanen zu einem großen Teil durch die natürliche ozeanische Variabilität im Atlantik beeinflusst wird:

„Nach der Homogenisierung ist die Zunahme der Hurrikan- und schweren Hurrikanaktivität im gesamten Becken seit den 1970er Jahren nicht Teil eines jahrhundertelangen Anstiegs, sondern eine Erholung von einem tiefen Minimum in den 1960er bis 1980er Jahren. Wir vermuten, dass interne (z. B. atlantische multidekadische) Klimaschwankungen und aerosolbedingte Verringerungen der Häufigkeit großer Hurrikane Mitte bis Ende des 20. Jahrhunderts wahrscheinlich die Beiträge der Treibhausgaserwärmung im Jahrhundertmaßstab zur Häufigkeit großer Hurrikane im Nordatlantik überdeckt haben.“

Trotz der seit Mitte des 18. Jahrhunderts zu beobachtenden globalen Erwärmung um 1°C blieben Intensität und Häufigkeit der Hurrikane im Rahmen der natürlichen Variabilität und haben sich nicht erhöht. „Wenn überhaupt, dann ist es ein Rückgang“, berichtet Die kalte Sonne.

Link: https://notrickszone.com/2021/10/10/analysis-hurricanes-have-not-gotten-more-intense-frequent-over-past-170-years/

Übersetzt von Christian Freuer für das EIKE