Launen der Temperatur-Rückkopplung

Ist es wirklich das wärmste seit 125.000 Jahren, und wenn ja, was bedeutet das?

Chris Hall

Der Anlass für diesen Artikel waren die Behauptungen, dass der vorige Sommer der heißeste seit 125.000 Jahren war, nebst der atemlosen Angst, die damit verbunden war. Schon beim Überfliegen der Nachrichtenmeldungen wurde mir klar, dass diese Behauptung auf zwei wesentlichen Punkten beruht: der Annahme, dass das Klima sehr stabil ist und sich vor der jüngsten anthropogenen Beeinflussung nicht verändert hat, und dass die derzeitige Abweichung von der Mitteltemperatur so viele Standardabweichungen (Sigma) über dem erwarteten Wert liegt, dass sie in den letzten 125.000 Jahren unmöglich erreicht oder überschritten werden konnte.

Die erste Annahme entspricht einer Paläotemperatur-Rekonstruktion im Stil des „Hockeysticks“, bei der die natürliche Temperaturschwankung im letzten Jahrtausend sehr gering ist. Es gibt mehrere Rekonstruktionen dieser Art, z. B. einige der flacheren Temp12k-Aufzeichnungen, sowie den klassischen Hockeystick (Abb. 1 und 2). Die zweite Annahme beruht auf dem Glauben, dass sich die statistischen Eigenschaften der paläoklimatischen Temperaturaufzeichnungen über einen sehr langen Zeitraum hinweg überhaupt nicht verändert haben.

Abbildung 1: Klassische Paläo-Temperatur-Rekonstruktion „Hockeyschläger“ aus dem Wikipedia-Eintrag.

Abbildung 2: Sammlung von Paläotemperatur-Rekonstruktionen aus Abb. 3 von Kaufman et al., 2020.

Obwohl ich mich weder für die eine noch für die andere Paläotemperatur-Rekonstruktion aussprechen möchte, weise ich darauf hin, dass die 125.000 Jahre, die für unsere Rekordtemperaturen genannt werden, auf einem kleinen Taschenspielertrick beruhen. Wenn man sich die Temperaturaufzeichnungen des Wostok-Eiskerns auf der Paläoklima-Seite von wattsupwiththat (Abb. 3) ansieht, fällt die Temperatur, sobald man etwa 12.000 Jahre bis zum Beginn des Holozäns zurückgeht, drastisch in die Tiefen einer schweren Eiszeit ab, und erst wenn man etwa 125.000 Jahre in der Zeit zurückreist, bis man das warme Eem erreicht, kehrt man zur „Normalität“ zurück. In Wirklichkeit ist es also keine große Leistung, wärmer zu sein als der riesige Canyon des Eiszeitalters. Es stellt sich also die Frage, ob 2023 das heißeste Jahr und der August 2023 der heißeste Monat seit 12.000 Jahren war.

Abbildung 3: Leicht veränderte Rekonstruktion der Temperaturanomalie des Wostok-Eiskerns, entlehnt von der Paläoklima-Referenzseite von wattsupwiththat.

Für den Rest dieses Artikels werde ich den unwahrscheinlichen Fall annehmen, dass die Temperatur im Holozän extrem stabil war. Welche statistischen Eigenschaften hat dann die heutige instrumentelle Temperaturaufzeichnung, und was bedeutet das für die Behauptung von Rekordtemperaturen? Dies führt mich zu der Frage, was dies für die Rückkopplungs-Prozesse des Klimas bedeutet.

Globale monatliche Temperaturanomalien nach HadCRUT5: Das ist es, was wir haben

Ich beschloss, mir die offiziellen Temperaturaufzeichnungen aus einem Jahrhundert instrumenteller Daten anzusehen, das dem größten Teil des anthropogenen CO₂-Anstiegs vorausgeht, d. h. von 1850 bis 1950. Hierfür schien die globale monatliche HadCRUT5-Analyse eine vernünftige Wahl zu sein. Es gibt noch andere, aber sie sind hochgradig miteinander korreliert und basieren auf denselben Rohdaten, so wie sie sind. Dieser Datensatz ist in Abb. 4 dargestellt.

Der Mittelwert dieses Teils der Aufzeichnung beträgt -0,3078°C, was als Anomalie gegenüber einem späteren Teil der Aufzeichnung ausgedrückt wird, und die Standardabweichung beträgt 0,2066. Die Höchsttemperatur des gesamten globalen monatlichen Datensatzes stammt aus dem August 2023 mit einem Anomaliewert von 1,3520. Es zeigt sich also, dass der August über 8 Sigma über meinem Mittelwert von 1850 bis 1950 lag. Wahnsinn! Ich vermute, dass eine einfältige Extrapolation in die Vergangenheit nahelegen würde, dass wir diese sengende Temperatur während des Holozäns nicht überschritten hätten.

Abbildung 4: HadCRUT5 monatliche globale Temperaturaufzeichnungen 1850 bis 1950

SARIMA-Bereich

Der nächste Abschnitt ist etwas umfangreich und kann von allen übersprungen werden, die sich nicht mit der Frage beschäftigen wollen, wie ich simulierte Temperaturaufzeichnungen auf der Grundlage der statistischen Eigenschaften der bestehenden Temperaturaufzeichnungen von 1850-1950 erstellt habe. Sie passt sich einem Modell an, das von einer Autokorrelation innerhalb der Aufzeichnung ausgeht. Die verwendeten Verfahren sind bei Aktienhändlern sehr beliebt, und die meisten der verwendeten Programme sind in der R-Bibliothek „forecast“ enthalten. Wenn Sie sich für solche Dinge nicht interessieren, können Sie diesen Abschnitt überspringen.

Und genau dem folgt diese Übersetzung. Es ist ein theoretischer Teil, dessen Ergebnisse unten beschrieben werden. Jeder an Theorie Interessierte dürfte der englischen Sprache mächtig genug sein, diese Passage im Original zu betrachten. A. d. Übers.

Steuerknöpfe: „hoch“ oder „niedrig“, das ist hier die Frage

Die sich aus der Modellierung der Temperaturzeitreihen ergebenden Residuen des weißen Rauschens sind das zufällige, chaotische Hintergrundrauschen des Klimas. Sie sind wahrscheinlich das Ergebnis von Vulkanen, ozeanischen Wirbeln, Sonnenaktivität, dem Ausgasen von Reisfeldern und dem chaotischen Flattern von manischen Schmetterlingen. Was auch immer Sie tun, es scheint, dass die Temperaturaufzeichnungen der Erde jeden Monat chaotisch um etwa 1/8 Grad Celsius auf und ab schwanken, und diese Schwankungen sind nicht autokorreliert und hängen nicht von der Jahreszeit ab. Wichtig ist, wie sich die beiden oben abgeleiteten statistischen Modelle über einen längeren Zeitraum hinweg verhalten.

In Abb. 6 zeige ich die Ergebnisse von zwei Simulationen, die über 1000 Jahre laufen. Bei dem in Abb. 5c gezeigten Modell handelt es sich um eine klassische Version einer „Random Walk“-Zeitreihe. Bei einem „Random Walk“ ist die Reihe nicht an einen bestimmten „Sollwert“ (SP) gebunden und kann munter hin und her wandern, nach oben oder unten oder hin und her oszillieren. Diese Art von Verhalten steht in engem Zusammenhang mit dem physikalischen Prozess der Diffusion, und die durchschnittliche Entfernung vom ursprünglichen Ausgangspunkt, der hier als Temperaturanomalie von Null angenommen wird, nimmt mit der Quadratwurzel der Zeit zu. Im Wesentlichen fehlt bei dieser Art von Zeitreihen jede Art von negativer Rückkopplung, die die Temperatur an einen bestimmten SP bindet. Dieses Verhalten ist unvereinbar mit Proxy-Temperaturaufzeichnungen, die angeblich zeigen, dass es seit Jahrhunderten oder Jahrtausenden keine signifikanten Temperaturveränderungen gibt.

Das in Abb. 5b gezeigte Modell ist jedoch perfekt für diejenigen, die behaupten, dass sich die globale Temperatur über einen längeren Zeitraum hinweg nicht wesentlich verändert hat. In diesem Fall oszilliert die Temperatur zwar um den Nullpunkt, aber ihre durchschnittliche Abweichung von diesem SP nimmt mit der Zeit nicht zu. Dies deutet darauf hin, dass es eine Reihe von negativen Rückkopplungen gibt, die die Reihe in der Nähe des SP halten. Auf diese Art von Zeitreihen werde ich noch näher eingehen.

Abbildung 6: Typische SARIMA* simulierte 1000-Jahre-Temperaturzeitreihen für die beiden angepassten Modelle. Die Punkte stellen einzelne Monatswerte dar, und die dicken Linien sind die geglätteten Versionen der Zeitreihen nach Lowess. Das (2,0,0)x(2,0,0)12-Modell ist fest in der Nähe des Sollwerts 0 verankert, während das (3,1,1)x(2,0,0)12-Modell wie ein Random Walk wirkt, bei dem die Temperatur nicht an einen bestimmten Sollwert gebunden ist. Das letztgenannte Modell geht manchmal nach oben, manchmal nach unten und manchmal oszilliert es.

[*SARIMA = Seasonal Auto Regressive Integrated Moving Average]

Warum sollte man sich die Temperatur-Rückkopplung ansehen?

Ich weiß, was Sie sagen wollen: warum sollte man die Temperatur-Rückkopplung betrachten? Sicherlich wirken alle wichtigen Rückkopplungen auf die unzähligen Stellschrauben, die das Klima steuern, und nicht direkt auf die Temperatur. Und Sie hätten Recht – mit Ausnahme eines sehr wichtigen Reglers: CO₂. Im Falle von Kohlendioxid liegt die unmittelbare Klimaempfindlichkeit gegenüber einer Verdoppelung seiner Konzentration in der Atmosphäre irgendwo in der Nähe von 1,5°C. Die wirklich beängstigenden Folgen des Fahrens Ihres Geländewagens ergeben sich jedoch erst, wenn Sie die angenommene positive Rückkopplung des erhöhten Wasserdampfs in der Atmosphäre hinzurechnen, und diese positive Rückkopplung erfolgt über den Faktor Temperatur selbst. Erhöht man die Temperatur, entsteht mehr Wasserdampf, was zu einer höheren Temperatur führt. Senkt man sie, sinkt der Wasserdampfgehalt, wodurch es noch kühler wird. Da der Rückkopplungs-Prozess die Temperatur selbst ist, sollte jede Störung der Temperatur, sei es durch Rinderblähungen oder Schmetterlingsflügel, diese Rückkopplung aufweisen.

Um die Auswirkungen der Rückkopplung auf eine simulierte Temperaturaufzeichnung zu untersuchen, habe ich einen simulierten Proportional-Integral-Differential-Regler (PID) an das Ende der SARIMA-Simulation angehängt. Ich habe jahrzehntelang mit PID-Reglern gearbeitet, als ich versuchte, die Temperaturen von Laborproben auf einen bestimmten SP einzustellen, und zwar für Temperaturen zwischen 10°K und 1700°K. Obwohl diese Temperaturbereiche oft ein nicht-lineares Verhalten zeigen und man meinen könnte, dass ein inhärent lineares Regelsystem nicht funktionieren würde, zerlegt man in der Praxis die Temperaturbereiche in kleinere, nahezu lineare Bereiche, in denen der Regler recht gut funktioniert. Hier gehe ich davon aus, dass Temperaturabweichungen innerhalb weniger Grad von einer globalen Temperatur von etwa 288°K für einen PID-Regler „linear genug“ sind.

Der „P“-Wert ist ein negativer Rückkopplungsbetrag, der die Reaktion auf der Grundlage der aktuellen Abweichung vom gewünschten SP linear skaliert. Der „I“-Wert wird verwendet, um kleine Fehler auszugleichen, indem die Differenz zwischen der tatsächlichen Temperatur und dem SP über die Zeit integriert wird. Der Parameter „D“ wird verwendet, um große Überschwinger zu dämpfen, indem die Ableitung der Annäherung an den SP betrachtet wird. Da Temperaturableitungen oft verrauscht sind, wird der Parameter D bei vielen gut funktionierenden Systemen häufig nicht benötigt. Positive Werte für P und I deuten auf eine Gegenkopplung hin. Wenn jemand von Ihnen einen hochwertigen Holzpelletgrill besitzt, dann haben auch Sie wahrscheinlich einen PID-Regler.

Für die Zwecke dieses Artikels habe ich nur die P- oder Proportionalsteuerung implementiert und die Parameter I und D auf Null belassen. Genauer gesagt, habe ich implementiert:

Man beachte, dass das SARIMA-Modell, das von diesem Punkt an fortschreitet, auch alle vorherigen Schritte, die aus dem SARIMA-Modell abgeleitet wurden, sowie jegliche Rückkopplung enthält.

Nur mal so wollte ich sehen, wie viel negative Rückkopplung nötig wäre, um das Random-Walk-Modell von Abb. 5c an einen SP von Null zu binden. Es stellte sich heraus, dass ein Wert von nur etwa 1×10-³ Grad pro Monat für P ausreicht, um das zufällig wandernde Biest zu zähmen. Allerdings ist eine gewisse negative Rückkopplung erforderlich, um zu verhindern, dass die Abweichung von einem Anfangswert von Null mit der Zeit monoton zunimmt.

Das Modell in Abb. 5b ist viel stärker mit dem SP einer Temperaturanomalie von null Grad verankert, und deshalb sollten wir erwarten, dass es viel mehr Rückkopplung braucht, um diese Art von Zeitreihe vom Fall ohne PID-Regelung wegzubringen. Das liegt daran, dass in diesem Modell bereits eine Menge negativer Rückkopplung eingebaut ist. Ich zeige die Ergebnisse der Untersuchung der Auswirkungen zusätzlicher proportionaler Rückkopplung in Abb. 7, in der die maximale Abweichung von Null für eine Reihe von 1000-Jahre-Simulationen dargestellt ist. Die Abweichungen sind als Standardabweichungen (sigma) skaliert, wobei die Standardabweichung bei Null-Rückkopplung etwa 0,1748 Grad beträgt. Ist P positiv, liegt eine negative Rückkopplung vor, ist es negativ, liegt eine positive Rückkopplung vor. Für den Fall der Null-Rückkopplung kann man für die 12.000 Monate der Simulation eine maximale Abweichung von etwa 4 Sigma erwarten. Mit zunehmender negativer Rückkopplung sinkt die maximale Abweichung auf etwa 3 Sigma.

Abbildung 7: Maximale Abweichung für simulierte 12.000-Monats- (1.000-Jahres-) SARIMA-Simulationen auf der Grundlage der Anpassung (2,0,0)x(2,0,0)12 an die HadCRUT5-Temperaturaufzeichnung 1850-1950 plus einer Rückkopplungskorrektur auf der Grundlage eines konstanten Sollwerts.

Abb. 7 veranschaulicht jedoch auch etwas, das Ihnen Ihre Mutter wahrscheinlich beigebracht hat: Zu viel von allem kann schlecht sein. Bei extremer negativer Rückkopplung tritt ein Phänomen auf, das oft als „Hunting“ bezeichnet wird, d. h. die extreme Rückkopplung beginnt zu überkorrigieren, was zu immer stärkeren Schwingungen führt. Bei positiver Rückkopplung, bei der jede Störung des Systems vergrößert wird, setzt dieses Verhalten sogar noch früher ein. Tatsächlich explodiert das System bei einem -P-Wert von mehr als 0,19 vollständig.

Schlussfolgerung

Daraus schließe ich, dass es keine sehr starke positive Temperaturrückkopplung innerhalb des Klimasystems geben kann, wenn die „normale“ oder vorindustrielle Temperaturaufzeichnung völlig flach ist. Es ist möglich, dass es eine verzögerte Auswirkung des Wasserdampfanstiegs aufgrund eines Temperaturanstiegs gibt, aber dies könnte mit dem Parameter „I“ eines PID-Reglers berücksichtigt werden. Dieser Parameter kann ebenso leicht zu Instabilitäten führen wie der Parameter P. Wenn die Atmosphäre über den Ozeanen im Durchschnitt um ein paar Zehntel Grad steigt, warum sollte es dann mehr als einen Monat dauern, bis der Wasserdampfanteil in der Atmosphäre steigt? Im Grunde will ich damit sagen, dass, wenn ein Anstieg von 1°K aufgrund eines Anstiegs des CO₂ tatsächlich zu einem Temperaturanstieg von 2°K aufgrund einer positiven Rückkopplung führt, jede Störung der Temperatur aus irgendeinem Grund aufgrund einer positiven Rückkopplung ebenfalls verstärkt werden sollte.

Natürlich kann ein Teil oder vielleicht sogar der größte Teil des „Rauschens“ in unserer bestehenden Temperaturaufzeichnung auf Messungen oder instrumentelles Rauschen zurückzuführen sein. Wenn das der Fall ist, dann ändert sich in dieser Geschichte nur die Größe der Komponente des weißen Rauschens. Die allgemeine Temperaturrückkopplung muss in jedem Klimamodell berücksichtigt werden, wenn man gleichzeitig die Gleichgewichts-Klimasensitivität von Kohlendioxid über den Mechanismus der positiven Temperaturrückkopplung erhöhen will.

Reference

Kaufman, D., McKay, N., Routson, C., Erb, M., Davis, B., Heiri, O., Jaccard, S., Tierney, J., Dätwyler, C., Axford, Y. and Brussel, T., 2020. A global database of Holocene paleotemperature records. Scientific data, 7(1), p.115.

Link: https://wattsupwiththat.com/2024/02/13/temperature-feedback-follies/

Übersetzt von Christian Freuer für das EIKE

 




Woher kommt der Strom? 5. Analysewoche 2024 regenerative Stromerzeugung etwas geringer

5. Analysewoche 2024 von Rüdi Stobbe

Die regenerative Stromerzeugung war in der fünfen Kalenderwoche (KW) 2024 etwas geringer als in der vierten. Dennoch ist die KW speziell, weil sich die Windstromerzeugung besonders auf die letzten vier Tage der fünften KW erstreckte. Der Strom-Mix für die 4 Tage im Einzelnen:

  • Windstrom komplett 60,5 Prozent,
  • Photovoltaikstrom 3,1 Prozent,
  • Biomassestrom 7,4 Prozent,
  • Laufwasserstrom 2,9 Prozent.
  • Regenerativ gesamt 73,9 Prozent der gesamten Stromproduktion
  • Chart „Regenerative
  • Kreisdiagramm und Tabelle „Strom-Mix“ mit Vergleichsdaten ab 2016

Bezogen auf den Bedarf* liefern die Regenerativen 81,4 Prozent. 10,8 Prozent „überschüssiger“ Strom netto werden exportiert. Warum ist das so, wo doch der Chart „Regenerative“ kaum eine Produktion über Bedarf signalisiert. Beachtet werden muss immer, dass …

  1. Die konventionellen Stromerzeuger – abgesehen von Pumpspeicherkraftwerken – können nicht mir nichts dir nichts komplett abgeschaltet werden, um später von einer Sekunde auf die andere wieder in Betrieb genommen zu werden.
  2. Auch wenn, wie auch in den vier Tagen, die regenerative Stromerzeugung den Strombedarf übersteigt, ist immer eine Stromerzeugung mittels großer Generatoren aus Gründen der Netzstabilität unabdingbar. Die notwendige Strommenge liegt bei 20 bis 25 Prozent der Gesamtstromproduktion. Sehr schön erkennt man den Sachverhalt bei dieser Grafik.

Die physikalisch notwendige Stromübererzeugung hat Auswirkungen auf den Strompreis. Ohne auf die Detailpreisentwicklung einzugehen, erkennt man, dass der Höchstpreis während des Stromimportes zu Beginn des Viertagezeitraums aufgerufen wurde. Deutschland benötigte Strom. Ab Freitag, 18:00 Uhr nahm die Windstromerzeugung zu und der Preis verfiel. Genau 24 Stunden später gab es eine kleine Winddelle. Der Preis erholte sich. Danach sorgten insbesondere der geringe Sonntagsstrombedarf für hohe Stromübererzeugung und damit niedrige Preise.

Bleibt die spannende Frage, wie sich ein weiterer Ausbau von Windkraft- und PV-Anlagen auf die Übererzeugung auswirkt? Nehmen wir einen Ausbau auf rechnerisch 81 Prozent an. Der ist in etwa bis zum Jahr 2030 geplant. Das Agora-Zukunftsmeter liefert diesen Chart. Am 1.2.2024 bis zu Beginn 2.2.2024 gibt es einen Zeitraum (6:00 bis 1:00 Uhr), da liegt die Residuallast in der Spitze bei 40 GW. Das sind 8 GW mehr als die aktuell installierte Leistung Gas. Ab Freitag, den 2.2.2024, 20:00 Uhr kommt es zu einer massiven Stromüberzeugung bis Sonntag 24:00 Uhr. Da sind die auch dann notwenigen 20 Prozent fossil erzeugter Strom zwecks Netzstabilisierung noch nicht einkalkuliert. Ich behaupte, dass der überschüssige Strom in großen Mengen an unsere Nachbarn verschenkt werden muss. Und nicht nur das. Es werden hohe Bonuszahlungen fällig, damit der Strom überhaupt genommen wird. Man kann selbstverständlich auch Wind- und PV-Kraftwerke in hoher Zahl vom Netz nehmen. Eines aber kann getrost vergessen werden. Eine Speicherung dieser horrenden Mengen überschüssigen Stroms. Diese Speicherung wird weder in sechs Jahren und auch nicht in 25 Jahren möglich sein. Allein an den Kosten werden solche Projekte scheitern.

*Zu möglichen Differenzen zwischen Bedarf und Stromgesamterzeugung haben wir bei der Bundesnetzagentur nachgefragt. Die Antwort.

Wochenüberblick

Montag, 29.1.2024 bis Sonntag, 4.2.2024Anteil Wind- und PV-Strom 56,3 Prozent. Anteil regenerativer Energieträger an der Gesamtstromerzeugung 67,2 Prozent, davon Windstrom 51,9 Prozent, PV-Strom 4,4 Prozent, Strom Biomasse/Wasserkraft 10,9 Prozent.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Wochenvergleich zur 5. Analysewoche ab 2016.

Daten, Charts, Tabellen & Prognosen zur 5. KW 2024: Factsheet KW 5/2024 – ChartProduktionHandelswocheImport/Export/Preise, CO2Agora-Chart 68 Prozent AusbaugradAgora-Chart 86 Prozent Ausbaugrad.

  • Video-Schatz aus dem Jahr 2007 zum Klimawandel
  • Interview mit Rüdiger Stobbe zum Thema Wasserstoff plus Zusatzinformationen – Weitere Interviews zu Energiethemen
  • Viele weitere Zusatzinformationen
  • Achtung: Es gibt aktuell praktisch keinen überschüssigen PV-Strom (Photovoltaik). Ebenso wenig gibt es überschüssigen Windstrom. Auch in der Summe der Stromerzeugung mittels beider Energieträger plus Biomassestrom plus Laufwasserstrom gibt es keine Überschüsse. Der Beleg 2022, der Beleg 2023/24. Überschüsse werden bis auf wenige Stunden immer konventionell erzeugt!

Jahresüberblick 2024 bis zum 4. Februar 2024 

Daten, Charts, Tabellen & Prognose zum bisherigen Jahr 2024Chart 1Chart 2ProduktionStromhandelImport/Export/Preise/CO2

Tagesanalysen

Was man wissen muss: Die Wind- und PV-Stromerzeugung wird in unseren Charts fast immer „oben“, oft auch über der Bedarfslinie angezeigt. Das suggeriert dem Betrachter, dass dieser Strom exportiert wird. Faktisch geht immer konventionell erzeugter Strom in den Export. Die Chartstruktur zum Beispiel mit dem bisherigen Jahresverlauf 2024 bildet den Sachverhalt korrekt ab. Die konventionelle Stromerzeugung folgt der regenerativen, sie ergänzt diese. Falls diese Ergänzung nicht ausreicht, um den Bedarf zu decken, wird der fehlende Strom, der die elektrische Energie transportiert, aus dem benachbarten Ausland importiert.

Eine große Menge Strom wird im Sommer über Tag mit PV-Anlagen erzeugt. Das führt regelmäßig zu hohen Durchschnittswerten regenerativ erzeugten Stroms. Was allerdings irreführend ist, denn der erzeugte Strom ist ungleichmäßig verteilt.

Montag, 29. Januar 2024: Anteil Wind- und PV-Strom 42,9 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 55,0 Prozent, davon Windstrom 33,1 Prozent, PV-Strom 9,8 Prozent, Strom Biomasse/Wasserkraft 12,1 Prozent.

Die Windstromerzeugung ist noch gering. PV-Stromerzeugung für diese Jahreszeit ist ordentlich. Kurz: Es ist ein schöner Wintertag. Stromimporte werden notwendig. Die Strompreisbildung.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 29. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 29.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten.

Dienstag, 30. Januar 2024: Anteil Wind- und PV-Strom 45,7 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 57,4 Prozent, davon Windstrom 39,8 Prozent, PV-Strom 5,9 Prozent, Strom Biomasse/Wasserkraft 11,7 Prozent.

Die Windstromerzeugung nimmt zu. Die PV-Stromerzeugung lässt etwas nach. Weitere Stromimporte sind angesagt. Die Strompreisbildung

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 30. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 30.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Mittwoch, 31. Januar 2024: Anteil Wind- und PV-Strom 44,7 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 59,0 Prozent, davon Windstrom 44,4 Prozent, PV-Strom 3,3 Prozent, Strom Biomasse/Wasserkraft 11,3 Prozent.

Nach einer Winddelle, die durch Stromimporte ausgeglichen wird, steigt die Windstromerzeugung an. Die Strompreisbildung.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 31. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 31.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Donnerstag, 1. Februar 2024: Anteil Wind- und PV-Strom 54,6 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,1 Prozent, davon Windstrom 50,2 Prozent, PV-Strom 4,4 Prozent, Strom Biomasse/Wasserkraft 10,5 Prozent.

Beginn der Starkwindphase. Die Strompreisbildung

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 1. Februar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 1.2.2024: ChartProduktion, HandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Freitag, 2. Februar 2024: Anteil Wind- und PV-Strom 60,9 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 71,5 Prozent, davon Windstrom 57,7 Prozent, PV-Strom 3,2 Prozent, Strom Biomasse/Wasserkraft 10,5 Prozent.

Die  Windstromerzeugung nimmt weiter zu. Um 24:00 Uhr wird die Bedarfslinie erreicht. Die Strompreisbildung.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 2. Februar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 2.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Samstag, 3. Februar 2024: Anteil Wind- und PV-Strom 67,5 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 77,9 Prozent, davon Windstrom 64,7 Prozent, PV-Strom 2,8 Prozent, Strom Biomasse/Wasserkraft 10,4 Prozent.

Gleichmäßige Windstromerzeugung. Stundenweise reichen die Regenerativen aus, um den Bedarf zu decken. Die Strompreisbildung

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 3. Februar ab 2016.

Daten, Tabellen & Prognosen zum 3.2.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Sonntag, 4. Februar 2024: Anteil Wind- und PV-Strom 71,2 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 81,3 Prozent, davon Windstrom 69,3 Prozent, PV-Strom 12,81,9 Prozent, Strom Biomasse/Wasserkraft 10,5 Prozent.

Heute deckt die regenerative Stromerzeugung den Bedarf bis 16:00 Uhr und wieder ab 22:00 Uhr. Die Strompreisbildung. Der mittlere Strompreis liegt für den Sonntag bei 14,78€/MWh. 

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 4. Februar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 4.2.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Peter Hager: PKW-Neuzulassungen 2023

Der große Boom ´E-Auto` ist vorbei. Die Jahreswerte 2023 spiegeln noch eine positive Entwicklung. Nach dem Wegfall jeglicher Förderung von heute auf morgen werden die Zulassungszahlen für rein elektrische Fahrzeuge ähnlich stark einbrechen, wie es 2023 bei den Plug-In-Hybridfahrzeugen (minus 50 Prozent) der Fall war, nachdem im Januar 2023 die Förderung für diese Fahrzeugantriebsart regulär auslief.

Der deutsche PKW-Neuwagenmarkt befindet sich in einem schwierigen Umfeld. Auch wenn Corona, Chipmangel sowie Zulieferprobleme durch den Krieg in der Ukraine weitgehend überwunden sind, so wirken sich jetzt zunehmend die negative Wirtschaftslage sowie die Absatzschwäche bei den E-Autos aus. Allein der Zulassungsanstieg bei den bewährten Verbrennerfahrzeugen ist Beleg, dass die Zeit der E-Mobilität ihrem Ende entgegen geht. Wer investiert bei einem rückläufigen Markt noch in notwendigem Umfang zum Beispiel in die Ladeinfrastruktur. Ohne hoher Subventionen läuft da nichts. Und Geld für den praktisch selbst geschlachteten Gaul E-Mobilität (abrupter Wegfall der E-Autoförderung) , das hat der Staat aktuell nicht.

2023: 2.844.609 (+ 7,3% ggü. 2022)

2022: 2.651.237 (+ 1,1% ggü. 2021)
2021: 2.622.132 (- 11,2% ggü. 2020)
2020: 2.917.678 (- 19,1% ggü. 2019)
2019: 3.607.258

PKW-Antriebsarten

Benzin: 978.660 (+ 13,3% ggü. 2022), Anteil: 34,4% (2022: 32,6%)

Diesel: 486.581 (+ 3,0% ggü. 2022), Anteil: 17,1 % (2022: 17,8%)

Hybrid: 664.580 (+ 42,8% ggü. 2022), Anteil: 23,4% (2022: 17,2%)

Plug-In-Hybrid: 175.724 (- 51,5% ggü. 2022), Anteil: 6,2% (2022: 13,7%)

Elektro (BEV): 524.219 (+ 11,4% ggü. 2022), Anteil: 18,4% (2022: 17,7%)

Flüssiggas: 13.147 (-12,4% ggü. 2022), Anteil: 0,5%

Erdgas: 1.327 (- 28,1% ggü. 2022), Anteil: 0,0%

Der Anteil von PKW mit Verbrennungsmotor stieg auf 74,9 % (2022: 67,6%).

Quelle 

Die vielen Änderungen bei den „E-Auto-Subventionen“ im Jahr 2023 hatten zum Teil drastische Auswirkungen auf die Zulassungszahlen.
Durch den Wegfall der Förderung bei den Plug-in-Hybriden ab Januar 2023 war der Rückgang besonders stark. Aber auch die Änderungen bei den BEV-PKW – von der Reduzierung ab Januar 2023, dem Auslauf der Förderung für gewerbliche PKW im September 2023 für gewerbliche PKW bis zur abrupten Beendigung im Dezember 2023 – hat zu einem deutlich geringeren Zuwachs geführt.

Plug-in-Hybrid-PKW

2023: 175.724 (- 51,5% ggü. 2022)

2022: 362.093 (+ 11,3% ggü. 2021)
2021: 325.449 (KBA-Auswertung ab 2021)

Die Top 10 nach Herstellern (31 Hersteller mit 96 Modellen – 2022: 30 Hersteller mit 90 Modellen) und deren Marktanteile in 2023:

Mercedes (12 Modelle): 23,6% (2022: 15%)
BMW (9 Modelle): 12,4% (2022: 11,9%)
Audi (8 Modelle): 9,4% (2022: 8,2%)
Seat (3 Modelle): 8,4% (2022: 7,5%)
Ford (mit 2 Modellen): 6,5% (2022: 8,0%)
Volvo (mit 5 Modellen): 5,1% (2022: 4,1%)
VW (mit 7 Modellen): 4,4% (2022: 8,5%)
Opel (mit 2 Modellen): 3,7% (neu in den Top 10)
Skoda (mit 2 Modellen): 3,7% (neu in den Top 10)
Kia (mit 4 Modellen): 3,5% (2022: 5,5%)

Herausgefallen sind ggü. 2022 Mitsubishi und Hyundai.

Ausschließlich Mercedes bietet Plug-In-Hybrid-PKW mit Dieselmotor an (4 Modelle).

Elektro-PKW (BEV) 

2023: 524.219 (+ 11,4% ggü. 2022)

2022: 470.559 (+ 32,2% ggü. 2021)
2021: 355.961 (+ 83,3% ggü. 2020)
2020: 194.163 (+ 206,8% ggü. 2019)
2019:   63.281

Die Top 10 nach Herstellern (41 Hersteller mit 105 Modellen – 2022: 41 Hersteller mit 80 Modellen) und deren Marktanteile im Jahr 2023

VW (5 Modelle): 13,5% (2022: 13,4%)
Tesla (4 Modelle): 12,1% (2022: 14,9%)
BMW (6 Modelle): 7,7% (2022: 5,0%)
Mercedes (8 Modelle): 7,0% (2022: 5,4%)
Audi (6 Modelle): 5,8% (2022: 6,0%)
Hyundai (6 Modelle): 5,5% (2022: 7,0%)
Opel (5 Modelle): 5,3% (2022: 6,2%)
Skoda (mit 1 Modell): 4,5% (2022: 2,6%)
Fiat (4 Modelle): 4,4% (2022: 6,4%)
MG Roewe (4 Modelle): 3,5% (2022: 1,9%)

Im Jahr 2023 gab es etliche Veränderungen bei der Platzierung unter den Top 10. Bemerkenswert:  VW hat Tesla als Nummer 1 abgelöst. Von den Top 10 des Vorjahres konnten BMW und Mercedes Marktanteile hinzugewinnen. Neu hinzugekommen sind Skoda und mit MG Roewe erstmals ein chinesischer Hersteller. Herausgefallen sind Renault (2022: 5,9%) und Peugeot (2022: 3,6%).

In den KBA-Zahlen tauchen in 2023 mittlerweile sieben chinesische Hersteller (fünf davon erstmalig) mit folgenden Neuzulassungen auf:

AIWAYS – Hauptsitz Shanghai: (2 Modelle): 50
BYD – Hauptsitz Shenzhen (3 Modelle): 4.135
GWM – Hauptsitz Boading (1 Modell): 4.585
Maxus – Hauptsitz Shanghai (1 Modell): 63
MG Roewe – Hauptsitz Shanghai (4 Modelle): 18.526 (2022: 8.774)
Nio – Hauptsitz Shangai (4 Modelle): 1.263
Polestar – Hauptsitz Göteborg (1 Modell): 6.288 (2022: 6.984)

Die beliebtesten zehn E-Modelle im Jahr 2023 waren:

Tesla Model Y (SUV): 45.818 (2022: 35.426)
VW ID.4/ID5 (SUV): 36.353 (2022: 24.847)
Skoda Enyaq (SUV): 23.498 (2022: 12.184)
Fiat 500 (Minis): 22.608 (2022: 29.635)
VW ID3 (Kompaktklasse): 22.270 (2022: 23.487)
Audi Q4 (SUV): 18.061 (2022: 12.406)
Seat Born (Kompaktklasse): 17.464 (2022: 12.564)
Tesla Model 3 (Mittelklasse): 15.865 (2022: 33.841)
BMW X1 (SUV): 14.694 (2022: 884)
Mini (Kleinwagen): 13.953 (2022: 11.744)

War das Ziel der Ampel bei Regierungsbeginn mit 15 Millionen BEV-Autos im Jahr 2030 auf der Straße bereits hoch ambitioniert, so ist es mittlerweile vollkommen unrealistisch. Es müssten in den verbleibenden sieben Jahren jeweils rund 1,9 Millionen BEV-PKW neu zugelassen werden.  Ein weiterer Energiewendetraum ist geplatzt.  Grund- und Waldbesitzer hingegen können noch richtig Geld verdienen. 

Pacht für Windkraftanlagen steigt in neue Höhen

Nicht nur die Nabenhöhen der Windkraftanlagen steigen, sondern auch deren Herstellungs-, Betriebs- und Finanzierungskosten. Dem zufolge hat die Bundesnetzagentur bei den Wind an Land – Ausschreibungen die Höchstwerte der Einspeisevergütung von 5,88 Cent/kWh in 2022 auf 7,35 Cent/kWh in 2023 angehoben. Diese gilt auch für die Ausschreibungen in 2024.

Quelle 

Mit den hohen Ausbauzielen der Ampel für Windkraftanlagen (Land) von 115 GW installierte Leistung bis 2030 (Ende 2022: 58,23 GW) steigen auch die Pachtpreise. Die Verpachtung von Standorten für Windkraftanlagen wird für die jeweiligen Grundbesitzer immer lukrativer. Diese liegen in der Regel bei 50.000 bis 150.000 Euro (bei guten Windstandorten) pro Jahr.

Ein Beispiel aus Hessen zeigt, dass es auch noch deutlich höher gehen kann. Dort wird für Windkraftanlagen mit 7 MW eine Jahrespacht von 460.000 Euro je Anlage fällig.

Quelle

Bei solchen Pachtpreisen kann man sehr gut die neue Vorliebe von Landesregierungen und Kommunen für Windkraftanlagen in Staatsforsten und auf Gemeindegebieten verstehen. Dabei heißt es doch immer von den „Energiewendern“: Je mehr die „Erneuerbaren Energien“ ausgebaut werden desto billiger wird der Strom.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.

Rüdiger Stobbe betreibt den Politikblog Mediagnose.




PIK-Edenhofer fordert weitere Billionen Euro für „Klimaschutz“ und „Entwicklungshilfe“

von AR Göhring

„Wenn wir die globale Erwärmung begrenzen wollen, müssen wir Billionen ausgeben“

Der Chefökonom und Direktor des Potsdam Instituts für Klimafolgenforschung e.V. PIK, Ottmar Edenhofer, fordert in einem Interview mit dem Focus einen Ausbau der Klima-Entwicklungshilfe:

Wir brauchen Mechanismen, die Länder dabei unterstützen, dass sie ihre CO₂-Preise anheben. Ein Entwicklungsland kann nicht den gleichen CO₂-Preis haben wie die EU. Dafür muß es Fonds geben. Und die Klima-Entwicklungshilfe müßte daran gekoppelt sein, dass die Länder einen CO₂-Preis einführen.
Im Klartext: Westliche Länder sollen Milliarden und Billionen Euro Steuergeld bereitstellen, damit Entwicklungs- und Schwellenländer mehr Klimaschutz machen. In der Wirklichkeit wird das erfahrungsgemäß daraus hinauslaufen, daß vor allem Deutschland an Raumfahrtnationen und andere nicht ganz arme Länder einen Großteil seiner Steuereinnahmen überweist. Ob im Zielland tatsächlich irgend etwas „fürs Klima“ gemacht wird, ist fraglich – das Geld wird gern genommen, und dann irgendeine eine Vorzeige-Investitionsruine damit errichtet.
Nur eine Klimaleugner-Fantasie à la EIKE? Keineswegs – eine kleine Anfrage der Unionsfraktion im Bundestag ergab, daß die grüne Ampelregierung Hunderte Millionen zum Beispiel nach Peru schickt, damit dort Busse gekauft oder Fahrradwege gebaut werden. Andere Beispiele:
  • Klimafreundliche Urbane Mobilität III
    Indien
    210.889.058 Euro
  • Klimafreundliche urbane Mobilität IV
    Indien
    206.018.172 Euro
  • Finanzierungsfazilitäten für städtische Entwicklung I
    Indien
    205.375.237
  • Nachhaltige Stadtentwicklung – Smart Cities
    Indien
    164.577.625

Laut Dieter Nuhr sollen weltweit über 8.000 Projekte von deutscher Entwicklungshilfe (über verschiedenste Töpfe) finanziert sein. Selbst wenn die Ampelmänner die Unterstützung irgendwelcher Klimaschutzmaßnahmen tatsächlich ernst meinen sollten – wie will man bei DER Menge und DEN Entfernungen kontrollieren, ob das Geld im Sinne der Klimaschützer ausgegeben wird?

Dabei gibt selbst Edenhofer in einem Nebensatz so halb zu, daß der angebliche Klimaschutz ein Elitenprojekt zu Lasten der unteren Hälfte ist:
Aber auch wir als Wissenschaft haben viel zu wenig darauf hingewiesen, dass die Klimapolitik die ärmeren Haushalte stärker belastet als die reicheren.
Beachte: „Wir“, also die Alarmisten, sind „die“ Wissenschaft.



Niederländischer Klimaexperte und emeritierter Professor Guus Berkhout: „Es gibt keinen Klimanotstand, er ist ein Schwindel“

Arthur Blok
Hat der Klima-Wahnsinn seinen Höhepunkt erreicht? Immer mehr wirkliche Klimaexperten wagen es, sich gegen den von Politikern, Bewegungen und den gefärbten Mainstream-Medien verbreiteten Diskurs der Angst zu stellen. Climate Intelligence (Clintel), eine globale Stiftung für Klimawandel und Klimapolitik, übernimmt die Führung mit ehrlicher Klimawissenschaft und versichert, dass es keinen Klimanotstand gibt. „Wir erzählen eine wahrheitsgetreue Geschichte, nicht nur eine Seite“, sagt der Clintel-Gründer und emeritierte Professor Guus Berkhout.

„Traurigerweise wird das, was von vergangenen Generationen sorgfältig aufgebaut wurde, jetzt durch die unheilvolle Klima- und grüne Energiepolitik schnell zerstört“, fügte Berkhout hinzu. „Die Bürger zahlen den Preis.“

Der niederländische Professor im Ruhestand, fast 84 Jahre alt und immer noch voller Energie erwartet, dass 2024 ein entscheidendes Jahr für das sein wird, was er als ehrliche Klimawissenschaft bezeichnet. Er wird sehr leidenschaftlich, wenn er gefragt wird, wie der sogenannte globale Klimanotstand in den Mainstream-Medien dargestellt wird.

Berkhout: „Am Klimawandel ist viel mehr dran als in den letzten Jahrzehnten berichtet wurde. Ihre Geschichte ist peinlich einseitig.“ Das Hauptziel von Clintel ist es, ein breites Wissen und Verständnis für die Ursachen und Auswirkungen des Klimawandels sowie für die Auswirkungen der Klimapolitik zu schaffen.

Nach seiner Gründung im Jahr 2019 veröffentlichte es die Weltklimaerklärung (WCD), die eine beeindruckende Liste von über 1850 Unterzeichnern weltweit aufweist, darunter Nobelpreisträger sowie führende Wissenschaftler und Klimaexperten.

Die WCD hält der wissenschaftlichen Welt einen Spiegel vor, die kühne Behauptungen aufgestellt und Untergangsszenarien über den vom Menschen verursachten Klimawandel und seine Folgen für die Welt präsentiert hat. In seiner Erklärung fordert Clintel, dass die Klimawissenschaft weniger politisch und die Klimapolitik mehr wissenschaftlich sein sollte.

Berkhout: „Wir versuchen, die ganze Geschichte zu erzählen. Und zwar nicht, weil es einer politischen Agenda entspricht oder weil uns jemand dafür bezahlt, sondern weil wir ehrliche Wissenschaftler sind. Die Wahrheit über den Klimawandel ist in den letzten 30 Jahren völlig aus den Angeln gehoben worden.“

Der niederländische Geophysiker betonte, dass er die Förderung der Nachhaltigkeit, den Erhalt der Artenvielfalt und die Pflege der Natur voll und ganz unterstütze. Aber es sollte auf eine vernünftige Art und Weise geschehen: „Viele Maßnahmen sind ideologisch und erreichen das Gegenteil.“

Berkhout weiß, wie sich die Räder in der Branche drehen. Während seiner beeindruckenden Karriere arbeitete der niederländische Wissenschaftler für die Öl- und Gasindustrie und als Professor an der Universität Delft. Ein großer Teil seiner Forschung wurde von geophysikalischen Unternehmen weltweit finanziert.

Er erklärte wiederholt, dass Klimawarnungen und -vorhersagen nicht auf einem wahrheitsgemäßen wissenschaftlichen Ansatz beruhen. „Auch wenn es so dargestellt wird“, sagte er. Wissenschaftler sollten die Annahmen und Unsicherheiten in ihren Prognosen zur globalen Erwärmung offen ansprechen. Die Politiker sollten nicht nur den vermeintlichen Nutzen, sondern auch die tatsächlichen Kosten ihrer politischen Maßnahmen nennen.

Berkhout: „Das Klimasystem ist sehr komplex, und wir wissen immer noch wenig darüber, wie es funktioniert. Falsche Wissenschaftler behaupten, dass ‚die Wissenschaft feststeht‘, aber ehrliche Wissenschaftler sagen das Gegenteil. Sie räumen ein, dass die derzeitigen theoretischen Modelle noch primitiv sind und nicht für die Klimapolitik verwendet werden dürfen. Mit anderen Worten: Die Klimamodelle sind nicht brauchbar!“

Die leidenschaftliche Art, mit der der emeritierte Professor spricht, ist geradezu ansteckend. Er ist entschlossen, mit seinem Team die Wahrheit aufzudecken, um der zukünftigen Generationen willen.

Er wiederholt: „Da man theoretischen Modellen nicht trauen kann, sollte sich die Klimawissenschaft in erster Linie auf Messungen stützen.“ Sein Leitmotiv lautet ‚Lasst die Daten sprechen‘. „Die meisten Klimawissenschaftler sind jedoch mehr an ihren Modellen als an Daten interessiert. Das sehen wir leider auch bei der UN-Forschungsorganisation IPPC.“

„Wie funktioniert die Wissenschaft des IPCC? Sie begannen vor 30 Jahren mit der Behauptung: Die globale Erwärmung wird durch den Anstieg des Kohlendioxids in der Atmosphäre (CO₂) verursacht.‘ Dann haben sie ein theoretisches Modell entwickelt, das ihre Behauptung bestätigt. Eine Vorgehensweise, die in der Wissenschaft eine Todsünde ist“, erklärte er.

In der echten Wissenschaft ist der Modus Operandi das Gegenteil. Berkhout: „Sie haben eine oder mehrere Hypothesen, die Sie überprüfen wollen? Dann vergleicht man Modellierungsergebnisse, so genannte synthetische Messungen, mit genauen Messungen. Entscheidend bei diesem Prozess ist, dass man nicht nach Messungen sucht, die die eigene Hypothese bestätigen, sondern nach Messungen, die die Hypothese widerlegen können! Das ist Wissenschaft auf den Punkt gebracht“.

Das Problem, erklärt Berkhout, geht noch viel weiter. Viele Klimaexperten trauen sich nicht, offen Kritik zu üben, weil sie fürchten, die Finanzierung des Instituts zu verlieren, für das sie arbeiten. Die Unterstützung für Clintel ist in dieser Hinsicht beispielhaft. Viele Wissenschaftler unterstützen seine Stiftung anonym, weil sie befürchten, dass ihre Arbeitgeber und Kollegen ihnen kündigen könnten.

Berkhout: „Hinter dem Klimawahnsinn steckt eine massive, durch Subventionen getriebene Maschinerie. Man wird als Wissenschaftler exkommuniziert, wenn man da nicht mitmacht. Clintel kämpft als David gegen Goliath“.

„Wir sind auf dem Weg in die Klimahölle, mit dem Fuß auf dem Gaspedal“, sagte (Goliath) Antonio Guterres letztes Jahr. Dies ist ein typisches Beispiel dafür, wie die Medien uns mit Untergangsgeschichten über das Klima Angst einjagen: steigende Meeresspiegel, Hurrikane und Überschwemmungen, Dürren und Waldbrände. Infolgedessen beschloss der Westen, für das Jahr 2050 das Ziel „Netto-Null“ anzustreben. Die Folgen sind verheerend, nicht nur für das Klima, sondern auch für unsere Gesellschaft.

Zum Beispiel steht die deutsche Wirtschaft wegen der hohen Energiepreise kurz vor dem Zusammenbruch. Die Landschaft wird durch industrielle Windkraftanlagen zerstört, die so hoch wie der Eifelturm sind. Wälder werden abgeholzt, das Holz wird verbrannt, und das soll angeblich „klimaneutral“ sein. Gleichzeitig werden unsere Kinder in der Schule und auf ihren Social-Media-Kanälen einer Gehirnwäsche unterzogen und leiden unter Klimaangst.

[Hervorhebung vom Übersetzer]

Berkhout hat jedoch eine sehr positive Botschaft. Die 1850 Wissenschaftler und Experten, welche die WCD unterzeichnet haben, stellen fest, dass es keinen Klimanotstand gibt! Außerdem sehen sie immer mehr Beweise dafür, dass andere Faktoren eine wesentlich wichtigere Rolle bei der globalen Erwärmung spielen als die CO₂-Moleküle. Sie sagen laut und deutlich, dass die Wissenschaft noch lange nicht abgeschlossen ist.

Die Entdeckungen müssen genutzt werden, um die aktuelle Klimapolitik zu aktualisieren. Die politischen Entscheidungsträger folgen jedoch weiterhin dem Angst erzeugenden CO₂-Narrativ des IPCC. Abgesehen von der Angstmacherei schadet dies der Energiewirtschaft. Sogenannte grüne Energiesysteme sind unzuverlässig, und die Preise für grüne Energie werden unerschwinglich. Berkhout: „Die Welt braucht fossile Brennstoffe noch mindestens einige Jahrzehnte. Zumindest die letzte Veranstaltung in Dubai war in dieser Hinsucht realistischer, denn dort wurde deutlich gemacht, dass wir jetzt und in der nächsten Generation einfach fossile Brennstoffe brauchen, um zu überleben. Das war die realistischste Schlussfolgerung aller bisherigen Gipfeltreffen“, fuhr Berkhout fort.

Er erwartet, dass 2024 ein spektakuläres Jahr wird, in dem ehrliche Klimawissenschaftler neue Erkenntnisse gewinnen, die Bürger den alarmistischen Geschichten über Klimakatastrophen keinen Glauben mehr schenken und unsere Jugend hoffnungsvoll in die Zukunft blickt. Gleichzeitig werden sich immer mehr Politiker mit der Einsicht anfreunden, dass die Wirtschaft ohne fossile Brennstoffe nicht überleben kann.

Die globale Erwärmung muss auch aus einer viel umfassenderen Perspektive betrachtet werden. Berkhout hat dafür eine sehr pragmatische Botschaft. Aus dem geologischen Archiv geht hervor, dass das Klima der Erde seit ihrem Bestehen Schwankungen unterworfen war, mit natürlichen Kalt- und Warmzeiten.

Die kleine Eiszeit endete erst um das Jahr 1800. Daher ist es nicht verwunderlich, dass wir jetzt eine Erwärmungsphase erleben. Aber diese Erwärmung wird zu Ende gehen, und wir werden wieder in eine kalte Phase übergehen. So verhält sich das Klimasystem der Erde seit Milliarden von Jahren, ob uns das gefällt oder nicht.

Berkhout: „Wir betrachten unser Klima jetzt durch ein Schlüsselloch. Die Erde ist Milliarden von Jahren alt. Aber was machen wir jetzt? Wir schauen auf, sagen wir, 200 Jahre. Das ist unglaublich kurz.“

Zusammenfassend lässt sich sagen, dass die Pseudo-Klimawissenschaft und ihre Untergangsverkünder von dem Molekül Kohlendioxid (CO₂) besessen sind. Eine zu hohe(?) CO₂-Konzentration in der Atmosphäre wird als Schuldige für alles angesehen. CO₂ wird in der Tat verteufelt.

Berkhout bezweifelt nicht, dass CO₂ eine erwärmende Wirkung hat, aber seine Forschungsergebnisse zeigen, dass diese sehr bescheiden ist. Andere Faktoren scheinen viel wichtiger zu sein.

Berkhout: „Wir pumpen jetzt jährlich Dutzende von Milliarden in dieses so genannte Problem, um es zu reduzieren, während CO₂ das Molekül des Lebens ist. Es wird als Nährstoff für alle Bäume und Pflanzen benötigt. Die gesamte Biologie der Erde wird von CO₂ angetrieben. Wenn der Prozentsatz zu niedrig wird, weniger als 150 ppm, wird fast alles Leben auf der Erde verschwinden. Wir brauchen mehr CO₂, um unseren Planeten grüner zu machen. Das ist die andere Seite der Geschichte: Nach Jahrzehnten der Pseudowissenschaft ist dies für viele eine unbequeme Wahrheit.“

Link: https://theliberum.com/dutch-climate-expert-emeritus-professor-guus-berkhout-there-is-no-climate-emergency-it-is-a-hoax/

Übersetzt von Christian Freuer für das EIKE

 




Der Betrug um einen Zusammenbruch der AMOC ist wieder da!

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Das ist der ganz normale Schwindel:

Die Zirkulation des Atlantischen Ozeans steuert auf einen Kipppunkt zu, der laut einer Studie „eine schlechte Nachricht für das Klimasystem und die Menschheit“ ist.

Die hinter der Studie stehenden Wissenschaftler sagten, sie seien schockiert über die prognostizierte Geschwindigkeit des Zusammenbruchs, wenn der Punkt erreicht ist, obwohl sie sagten, es sei noch nicht möglich vorherzusagen, wie schnell das geschehen wird.

Anhand von Computermodellen und Daten aus der Vergangenheit entwickelten die Forscher einen Frühwarnindikator für den Zusammenbruch der atlantischen meridionalen Umwälzzirkulation (Atlantic Meridional Overturning Circulation AMOC), eines riesigen Systems von Meeresströmungen, das eine Schlüsselkomponente des globalen Klimasystems darstellt.

Sie fanden heraus, dass die AMOC bereits auf dem Weg zu einer abrupten Verschiebung ist, die seit mehr als 10.000 Jahren nicht mehr stattgefunden hat und katastrophale Folgen für weite Teile der Welt haben würde.

Die AMOC, zu dem ein Teil des Golfstroms und andere starke Strömungen gehören, ist ein maritimes Förderband, das Wärme, Kohlenstoff und Nährstoffe aus den Tropen in Richtung Polarkreis transportiert, wo er abkühlt und in die Tiefsee sinkt. Diese Umwälzungen tragen dazu bei, die Energie auf der Erde zu verteilen und die Auswirkungen der vom Menschen verursachten globalen Erwärmung zu dämpfen:

In der Studie heißt es, die Ergebnisse lieferten eine „klare Antwort“ auf die Frage, ob eine solche abrupte Verschiebung möglich sei: „Das ist eine schlechte Nachricht für das Klimasystem und die Menschheit, denn bisher konnte man denken, dass das AMOC-Kippen nur ein theoretisches Konzept ist und es verschwinden würde, sobald das gesamte Klimasystem mit all seinen zusätzlichen Rückkopplungen berücksichtigt wird.“

Soweit der Auszug aus dem Guardian. Homewood weiter:

Wie viele andere Klimaschwindel basiert auch dieser auf Daten aus nur wenigen Jahren, aus denen die „Wissenschaftler“ schließen, dass sie katastrophale Veränderungen festgestellt haben, die es seit Jahrtausenden nicht gegeben hat.

Das Met Office gibt eine ausgewogenere Zusammenfassung:

Übersetzung:

Wie funktioniert die AMOC?

Die AMOC ist ein großes System von Meeresströmungen, das wie ein Förderband durch Unterschiede in der Temperatur und dem Salzgehalt – der Dichte des Wassers – angetrieben wird. Wenn warmes Wasser nach Norden fließt, kühlt es ab und es kommt zu einer gewissen Verdunstung, wodurch sich der Salzgehalt erhöht. Die niedrige Temperatur und der hohe Salzgehalt machen das Wasser dichter, und dieses dichte Wasser sinkt tief in den Ozean. Das kalte, dichte Wasser breitet sich langsam in Richtung Süden aus, mehrere Kilometer unter der Oberfläche. Schließlich wird es wieder an die Oberfläche gezogen und erwärmt sich in einem Prozess, der „Auftrieb“ genannt wird, und die Zirkulation ist abgeschlossen.

Dieser globale Prozess sorgt dafür, dass die Weltmeere ständig durchmischt sind und sich Wärme und Energie auf der Erde verteilen. Dies wiederum trägt zu dem Klima bei, das wir heute erleben.

Übersetzung:

Hat sich die AMOC verändert?

Ozeanographen haben die AMOC seit 2004 kontinuierlich gemessen. Die Messungen haben gezeigt, dass die AMOC von Jahr zu Jahr schwankt, und es ist wahrscheinlich, dass diese Schwankungen einen Einfluss auf das Wetter in UK haben. Es ist jedoch noch zu früh, um mit Sicherheit sagen zu können, ob es irgendwelche langfristigen Trends gibt. Vor 2004 wurde die AMOC nur wenige Male gemessen, und um weiter in die Vergangenheit zurückzugehen, müssen wir indirekte Beweise heranziehen (z. B. aus Sedimenten am Meeresboden). Die indirekten Belege stimmen nicht immer in allen Einzelheiten überein, aber es scheint wahrscheinlich, dass es in der Vergangenheit einige große, schnelle Veränderungen der AMOC gegeben hat (z. B. gegen Ende der letzten Eiszeit).

Übersetzung:

Wie wird sich der Klimawandel auf die AMOC auswirken?

Klimamodelle deuten darauf hin, dass sich die AMOC im Laufe des 21. Jahrhunderts abschwächen wird, da die Treibhausgase zunehmen. Denn wenn sich die Atmosphäre erwärmt, speichert der darunter liegende Ozean mehr von seiner Wärme. Durch die Zunahme der Niederschläge und der Eisschmelze wird das Wasser auch frischer. All diese Veränderungen machen das Ozeanwasser leichter und verringern so das Absinken im „Förderband“, was zu einer schwächeren AMOC führt. Es ist also sehr wahrscheinlich, dass die AMOC schwächer wird, aber es gilt als sehr unwahrscheinlich, dass es schon im 21. Jahrhundert dazu kommt.

Die Auswirkung einer schwächeren AMOC wird bei der Erstellung von Projektionen des zukünftigen Klimawandels für UK berücksichtigt. Eine schwächere AMOC wird weniger warmes Wasser nach Norden bringen, was die erwärmende Wirkung der Treibhausgase über Westeuropa teilweise ausgleichen wird. Bei der allmählichen Abschwächung, die im Laufe des 21. Jahrhunderts zu erwarten ist, ist der Gesamteffekt immer noch eine Erwärmung.

Link: https://www.metoffice.gov.uk/weather/learn-about/weather/oceans/amoc

Nicht dieser spezielle Satz:

Ozeanographen haben die AMOC seit 2004 kontinuierlich gemessen. Die Messungen haben gezeigt, dass die AMOC von Jahr zu Jahr schwankt, und es ist wahrscheinlich, dass diese Schwankungen einen Einfluss auf das Wetter in UK haben. Es ist jedoch noch zu früh, um mit Sicherheit sagen zu können, ob es irgendwelche langfristigen Trends gibt. Vor 2004 wurde die AMOC nur ein paar Mal gemessen.

Wir haben also nur Daten seit 2004, und die Schwankungen von Jahr zu Jahr sind groß. Die Behauptung, dass eine so kurze Reihe in irgendeiner Weise signifikant ist, ist nicht nur unwissenschaftlich, sondern auch betrügerisch.

Die Reihe zeigt Folgendes:

Es hat den Anschein, dass es seit etwa 2008 kaum einen Trend gibt.

Die Vorstellung, dass sich die AMOC vor 2004 nie verändert hat, ist ohnehin absurd. Bob Dickson & Svein Østerhus haben in ihrer Studie „One hundred years in the Norwegian Sea“ die wichtigsten klimatischen Veränderungen in der Norwegischen See und der übrigen Arktis dargelegt:

Alle waren mit Veränderungen in den atlantischen Strömungen und der AMOC verbunden. Die Erwärmung im Norden beispielsweise ist auf den Zustrom warmen atlantischen Meerwassers zurückzuführen, und zwar auf genau dieselbe Weise wie bei der jüngsten Erwärmung der Arktis. Wie das Met Office erklärt, verdunstet warmes Wasser und hinterlässt salzigeres Wasser, das sinkt, weil es dichter ist. Salzigeres Wasser gefriert natürlich bei niedrigeren Temperaturen, so dass das arktische Meereis tendenziell schrumpft. (Beachten Sie, dass beim Gefrieren das Salz aus dem Eis austritt, so dass das Meer in jedem Fall salziger wird).

Die auf die Erwärmung folgende große Salzgehalt-Anomalie (GSA) war das Ergebnis dieses Zustroms von wärmerem Wasser, das sich zum Teil aufgrund der nördlichen Luftströmung zurückzog:

Übersetzung:

Die große Salzgehalt-Anomalie 1968-1982

In den Wintern der 1960er Jahre entwickelte sich die Nordatlantische Oszillation (NAO), der führende Modus der winterlichen Luftdruckschwankungen in dem hier betrachteten Sektor, zu ihrem extrem niedrigen Indexzustand in einer instrumentellen atmosphärischen Aufzeichnung von über einem Jahrhundert Dauer (Hurrell 1995; Hoerling et al. 2001), möglicherweise sogar noch viel länger (z.B. Cook et al. 2002; Luterbacher et al. 2002). Da über Grönland weiterhin anomaler Hochdruck herrschte, stellte sich eine rekordverdächtige nördliche Luftströmung über die Norwegische See und die Grönlandsee hinweg ein und brachte einen zunehmenden Anteil an polarem Wasser nach Süden zu den Meeren nördlich von Island, wo der Ostgrönlandstrom anschwoll. Der Ost-Island-Strom, der von 1948-1963 eine eisfreie arktische Strömung gewesen war, wurde von 1965-1971 zu einer polaren Strömung, die Treibeis transportierte und konservierte (Malmberg 1969). Unterstützt durch die aktive Eisbildung unter diesen polaren Bedingungen breitete sich die ozeanische Polarfront weit nach Südosten aus, und das Meereis reichte bis an die Nord- und Ostküste Islands. – Quelle

Diese Wetterlagen sind ein wesentlicher Bestandteil der Arktischen Oszillation, eines weiteren vollkommen natürlichen Zyklus‘. Der anomal höhere Druck über Grönland markiert die Zeit der negativen AO:

Vom NSIDC:

Übersetzung:

Die Arktische Oszillation beeinflusst das Meereis hauptsächlich durch Wind, welcher Änderungen der Richtung bewirkt, in die das Treibeis strömt. Ist die arktische Oszillation negativ, tendieren Wind und Eis dazu, im Uhrzeigersinn zu rotieren, wobei allgemein das ältere, dickere Eis in der Mitte der Arktis gehalten wird. In der positiven Phase neigt dieses alte Eis dazu, entlang der Küsten von Grönland nach Süden zu treiben. Dies bedeutet, dass das Meereis dazu neigt, jünger und dünner zu sein und daher anfälliger für das Schmelzen ist als nach einem Winter mit einer stark positiven Arktischen Oszillation. – Quelle

Als kühleres polares Wasser das wärmere Atlantikwasser ersetzte, sank der Salzgehalt – daher der Name des Ereignisses. So wie sich das arktische Meereis während der Erwärmung zurückgezogen hatte, breitete es sich in dieser Zeit rasch aus. Die GSA war nicht nur ein Phänomen in der Norwegischen See, da der Polarwirbel dieses Süßwasser durch den gesamten Arktischen Ozean transportierte.

Ein weiterer Faktor, den Dickson und Osterhus für die Zunahme des Süßwassers im Arktischen Ozean verantwortlich machen, ist der zunehmende Abfluss der eurasischen Flüsse in das Meeresbecken. Ein wärmeres Klima bedeutet ein feuchteres Klima in diesen Regionen. Und mehr Flussabfluss führt zu mehr Meereis und einer kälteren Arktis.

Mit anderen Worten, diese Prozesse gleichen sich in der Regel selbst aus. Milderes Wetter führt schließlich zu mehr Meereis und einem kälteren Klima, bis die AO schließlich wieder ins Positive kippt.

Den letzten Kommentar überlasse ich Dickson & Osterhus:

All diese Veränderungen waren das Ergebnis natürlicher Prozesse. Es gibt keine Anzeichen dafür, dass sich diese in Zukunft ändern werden.

Link: https://wattsupwiththat.com/2024/02/12/amoc-to-collapse-scam-is-back/

Übersetzt von Christian Freuer für das EIKE