Woher kommt der Strom? Eine zweigeteilte Woche

2. Woche 2021

Abbildung, bitte unbedingt anklicken. Es öffnen sich alle Abbildungen & Mehr

Abbildung 1

Dahinter steckt eine Meisterleistung der Ingenieure und Techniker, der Kraftwerksmeister, die das auf und ab der Windstromerzeugung nahezu perfekt nachbilden können. Nur einmal ist zu viel Strom im Markt; der Preis fällt in der Nacht von Sonntag auf Montag auf gut 15€/MWh. Zu Beginn des Mittwochs beträgt die regenerative Stromerzeugung noch über 40 GW. Um 12 Uhr mittags sind es nur noch gut 15 GW, die regenerativ erzeugt werden. Dass sich mit diesem gewaltigen Absturz der erneuerbaren Stromproduktion eine Strom-Versorgungslücke ergibt, ist fast selbstverständlich. Das Hochfahren der konventionellen Produktion braucht seine Zeit. Deshalb fallen für den Importstrom Preise bis zu über 100€/MWh (17:00 Uhr) an. Am Donnerstag fallen nochmals so hohe Preise an. Diesmal profitiert Deutschland. Der Saldo Im-, Export ist manchmal gerade noch positiv. So wird Gewinn eingefahren.

Ab Mittwochmittag verbleibt die regenerative Stromerzeugung für den Rest der Woche auf niedrigem Niveau. Den Beitrag, den die Steinkohleverstromung zur Deckung des Bedarfs liefert, liegt zum Beispiel am Donnerstag um 9:00 Uhr bei knapp 12 GW. Gasstrom liefert knapp 20 GW. Das sind übliche Werte. Es hat den Anschein, dass Moorburg und die weiteren stillgelegten Steinkohlekraftwerke durch die Aktivierung anderer Steinkohlekraftwerke ersetzt wurden (Abbildung 2). Abbildung 3 liefert detaillierte Aussagen zum Strom-Im- und Export der zweiten Woche.

Die Tabelle mit den Werten der Energy-Charts finden Sie unter Abbildung 4. Dort liegt auch der aus dieser Tabelle generierte Chart der zweiten Woche 2021 ab.

Bei der angenommenen Verdoppelung der Wind- und Solarstromerzeugung fällt auf, dass diese lediglich an 2 Tagen der bisher analysierten 17 Tage ausgereicht hätte, um den Strombedarf Deutschlands zumindest im Tagesdurchschnitt zu decken (Abbildung 5). Gut 10 TWh zusätzlich benötigter Strom stehen 0,34 TWh überschüssiger Strom gegenüber. Für 17 Tage. Ein erschütterndes Ergebnis für die angenommene Verdoppelung. Erst bei einer angenommenen Verfünffachung reicht der Strom an zehn Tagen. An diesen 10 Tagen würde eine erhebliche Überproduktion von insgesamt mehr als 12 TWh anfallen. Der stünden nur gut 3 TWh zusätzlich benötigter Strom für die restlichen sieben Tage gegenüber. Diese 3 TWh würden ziemlich genau übrigbleiben, wenn die 12 TWh Überschuss in Wasserstoff gespeichert und per Brennstoffzelle wieder in Strom gewandelt würden. Zur Erinnerung. Damit das auch so funktioniert müsste die fünffache Menge Strom mittels Wind- und Solarenergie gewonnen werden. Was mindestens fünfmal so viel installierte Leistung in diesen Bereichen nötig machen würde wie heute. Plus Elektrolyseanlagen, plus Wasserstoffspeicher, plus Brennstoffzellen in erheblichem Umfang. Ein weiterer Netzausbau, der der nun komplett dezentralisierten Stromerzeugung gerecht wird, ist ebenso notwendig wie die Digitalisierung des Stromnetzes inkl. Smartmeter für jeden Stromkunden, ein digitales Stromnetz, welches über Wechselrichter die Netzstabilität gewährleisten soll. Dass es dabei zu großflächigen Strom-Abschaltungen/Stromzuteilungen kommen kann, ist Bestandteil der Energiewende in der Endphase. Große Schwungmassen in Großkraftwerken, welche die Netzfrequenz konstant bei 50 Hertz halten, gibt es nicht mehr.

Mit dem Energierechner unter Abbildung 6 können Sie den Weg zur Endphase der Energiewende nachzeichnen. Die Auswirkungen des (Teil-) Wegfalls diverser konventioneller Energieträger in den nächsten Jahren, und die deshalb notwendigen Maßnahmen können Sie mit dem Rechner durchspielen.

Brandaktuell

Die Seite mit den Strom-Analysetools http://www.stromdaten.info ist ab sofort online.

Die Tagesanalysen

Montag, 11.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,28 Prozent, davon Windstrom 38,51 Prozent, Solarstrom 1,15 Prozent, Strom Biomasse/Wasserkraft 8,62 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung zieht über den Montag kontinuierlich an. Solarstrom wird erzeugt, spielt aber für die Gesamtstromerzeugung kaum eine Rolle. Die konventionelle Stromerzeugung führt gut nach. Spitzenbedarf kann von Pumpspeicherstrom = konventioneller Strom gedeckt werden. Die Preise für den Exportstrom sind insgesamt auskömmlich und werden von diesen Nachbarn bezahlt. Schweden, Dänemark und Polen exportieren Strom nach Deutschland. Tschechin verkauft am Morgen den Strom günstig, um ihn über Tag teuer zurückzukaufen. Verkalkuliert, oder?

Dienstag, 12.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 50,86 Prozentdavon Windstrom 41,71 Prozent, Solarstrom 0,57 Prozent, Strom Biomasse/Wasserkraft 8,57 Prozent. Die Agora-Chartmatrix: Hier klicken.

In der Nacht zum Dienstag erreicht die Windstromerzeugung ihren Peak. Sie sinkt dann leicht ab, um auf dann auf dem Niveau um die 40% der Gesamtstromerzeugung zu verbleiben. Die konventionelle Stromerzeugung wird der regenerativen wieder gut angepasst, so dass über Tag erquickliche Exportpreise von Deutschland erzielt werden. Die Nachbarn kaufen/verkaufen Strom.

Mittwoch, 13.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 56,59 Prozentdavon Windstrom 46,70 Prozent, Solarstrom 1,65 Prozent, Strom Biomasse/Wasserkraft 8,24 Prozent. Die Agora-Chartmatrix: Hier klicken.

Noch ein recht starker Windtag. Konventionell wird wieder gut nachgeführt. Die Preise liegen von 6:00 bis 22:00 fast ausnahmslos (Ausnahme 14:00 Uhr) über 40€/MWh. In der Spitze um 8:00 Uhr sogar über 56€/MWh. Über Mittag lassen die Preise dann etwas nach. Das liegt an Sonnenstromerzeugung, die wohl unerwartet hoch ist und etwas Überangebot im Markt verursacht. Der Stromhandel sieht so aus.

Donnerstag, 14.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 32,30 Prozent, davon Windstrom 21,74 Prozent, Solarstrom 0,62 Prozent, Strom Biomasse/Wasserkraft 9,94 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der massive Rückgang der Windstromerzeugung führt heute ab etwa 11:00 Uhr zu einer Strom-Versorgungslücke. Die konventionellen Kraftwerke bullern kräftig. Der zur Deckung der erwarteten Lücke bereitgestellte Pumpspeicherstrom reicht dann allerdings nicht aus, um die Lücke zu schließen. Der notwendige Importstrom liegt in der Spitze mit um die 100€/MWh im hochpreisigen Bereich. Diese Nachbarn profitieren.

Freitag, 15.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 22,78 Prozent, davon Windstrom 10,76 Prozent, Solarstrom 1,90 Prozent, Strom Biomasse/Wasserkraft 10,13 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ein feiner Freitag für den Stromexport. Deutschland produziert nahezu passgenau den konventionellen Strom mit teilweise über 60 GW fast in Rekordmengen. Dementsprechend hoch sind die Preise, die den ganzen Tag erzielt werden. Sie lieg den ganzen Tag immer über 46€/MWh. In der Spitze sogar bei 99,5€/MWh. Diese Nachbarn zahlen/verdienen trotzdem.

Samstag, 16.1.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 24,31 Prozent, davon Windstrom 11,81 Prozent, Sonnenstrom 1,39 Prozent, Strom Biomasse/Wasserkraft 11,11 Prozent. Die Agora-ChartmatrixHier klicken.

Das Preisniveau ist auch am heutigen Samstag hoch. Die Konventionellen führen so gut nach, dass es kaum zu einem Überangebot im Markt kommt. Da ab 10:00 Uhr die regenerative Stromerzeugung etwas – und nicht nur wegen der Solarenergie – anzieht, kommt es von 11:00 bis 16.00 Uhr zu einem Preisrückgang auf hohem Niveau. Wird diese Volatilität zu Preisdifferenzgeschäften genutzt? Ja, von Dänemark.

Sonntag, 17.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 23,85 Prozent, davon Windstrom 10,77 Prozent, Sonnenstrom 1,54 Prozent, Strom Biomasse/Wasserkraft 11,54 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wochenende. Wenig Bedarf. Deshalb reicht konventionelle Stromerzeugung von um die 50 GW aus. Die erneuerbaren Energieträger Wind- und Solarkraft bleiben den ganzen Tag über schwach. Sie liefern nur etwa 12 Prozent des Gesamtstrombedarfs. Deutschland exportiert  per Saldo den ganzen Tag überschüssigen Strom zu diesen Preisen an diese Nachbarn.

Peter Hager aus Lauf in Franken liefert eine feine Analyse zur E-Mobilität des Jahres 2020:

Die Zahlen des Kraftfahrtbundesamtes (KBA) für 2020 (VJ-Zeitraum in Klammern).

Gesamtzulassungen 1-12/2020: 2.917.678 (3.607.258): – 20%

Anmerkungen zum Jahr 2020:

Die Einschätzung von KBA-Präsident Damm „Die E-Mobilität ist in der Mitte der mobilen Gesellschaft angekommen. Positive Nutzererfahrungen, verlässliche Technologien und ein wachsendes Angebot erleichtern den Umstieg in die E-Mobilität.“ kann ich nur bedingt teilen.

Es sind vor allem die massiven Subventionen plus nochmalige Erhöhung der Kaufprämie durch den Bund (z.B. bei E-PKW: 6.000 statt 3.000 €)

plus

  • zehnjährige Kfz-Steuerbefreiung
  • geringerer geldwerter Vorteil bei Dienstwagen
  • Bezuschussung von privaten Ladestationen
  • individuelle Zuschüsse von Bundesländern, Kommunen oder Energieversorgungsunternehmen

die besonders stimulierend auf den Absatz wirkten.

Weitere Wachstumsfaktoren waren die deutlich erweiterte Modellpalette der Hersteller sowie die befristete Reduzierung der Mehrwertsteuer auf 16% im zweiten Halbjahr.

Hybrid-PKW sind vornehmlich Fahrzeuge ab Mittelklasse bei diesen Marken der deutschen Premiumhersteller:

  • Audi (1 unverändert),
  • Mercedes (von 3 auf 2)
  • BMW (von 4 auf 3)

liegen jetzt vorne.

  • Verlierer ist Toyota (von 2 auf 4)
  • Ford und VW mit sehr hohen Zuwächsen

Elektro-PKW

Neuzulassungen bei reinen Elektro-PKW sind überwiegend Klein- und Mittelklassewagen, zunehmend auch kleine SUV, nennenswerte Ausnahme ist Audi mit dem E-Tron

Bei diesen Marken:

  • VW ist der große Gewinner (von 4 auf 1),
  • gefolgt von Renault (Platz 2 wie bisher) und Tesla (von 1 auf 3)
  • Großer Verlierer ist der deutsche E-Autopionier BMW (von 3 auf 6)
  • Opel, Škoda und Peugeot mit sehr hohen Zuwächsen

Hybrid-PKW: 527.864 (239.250): + 220%

  • Audi: 20,1% (37%)
  • Mercedes: 15,3% (15,3%)
  • BMW: 12% (5,8%)
  • Toyota: 8,6% (19,9%)
  • Ford: 6,3% (0,8%)

Elektro-PKW: 194.163 (63.281): + 307%

  • VW: 23,8% (13%), mit 5 Modellen
  • Renault: 16,2% (14,9%), mit 2 Modellen
  • Tesla: 8,6% (16,9%), mit 3 Modellen
  • Smart: 8,3% (12,1%), mit 2 Modellen
  • Hyundai: 8,2% (8%), mit 2 Modellen

Die beliebtesten zehn E-Modelle in 12/2020 (Gesamt: 43.671)

  • VW ID3: 7.144
  • Renault ZOE: 5.349
  • Tesla Model 3: 3.293
  • Hyundai Kona: 2.995
  • VW ID4: 2.306
  • VW Up: 2.196
  • Smart FourTwo: 2.120
  • VW Golf: 1.652
  • Mazda MX-30: 1.509
  • Opel Corsa: 1.299

Meine Einschätzung für 2021:

Auch 2021 dürfte das prozentual starke Wachstum bei Hybrid- und Elektro-PKW anhalten. Gründe:

  • viele Subventionen (u.a. erhöhte Kaufprämie bis 2025, Kfz-Steuerbefreiung) laufen weiter
  • + Betrieb von PKW mit Verbrennungsmotoren wird teurer: Erhöhung der Kfz-Steuer ab 115 g CO2 / km
  • Einführung der CO2-Abgabe auf Benzin (+ 7 Ct / l) und Diesel (+ 8 Ct / l) mit jährlicher Erhöhung
  • weiter verschärfte Abgaswerte von 95 g CO2 / km für Neuwagen in der EU: um Strafzahlungen möglichst zu vermeiden bieten immer mehr Hersteller Modelle mit E-Antrieb an, z. T. mit sehr attraktiven Konditionen

Bei den E-PKW dürfte Tesla – der große Liebling der E-Mobilisten – weiter an Marktanteilen verlieren, da immer mehr Anbieter Modelle im Kleinwagenbereich und bei kleinen SUV anbieten (in beiden Segmenten hat Tesla kein Modell)

Bei Tichys Einblick gibt es einen sehr guten Artikel von Helmut Becker, der den Hype ums „Steckdosenauto“ geraderückt:

Lesen Sie unter Abbildung 7 auch die Ausführungen von Peter Hager zur E-Mobilität in Norwegen.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

 




Sowjetunion Reloaded: Deutschlands Windflaute- und Solardürre führt zu Stromrationierung nach sowjetischem Vorbild

Und auch die rund 30.000 Windkraftanlagen stehen nutzlos still. Bei bitterkalten, absolut ruhigen Wetterlagen im ganzen Land wurde die Windkraftleistung auf ein gelegentliches Rinnsal reduziert.

Die Stromrationierung ist das einzige, was einen völligen Zusammenbruch des deutschen Stromnetzes verhindert. In der ersten Januarwoche wurden damit weit verbreitete Stromausfälle nach dem völligen Zusammenbruch der Wind- und Sonnenleistung verhindert..

Aber wenn Sie Ingenieure in den Status wohlmeinender Idioten versetzen und sie durch grüne Ideologen mit genderspezifischen Abschlüssen ersetzen, dann sollten Sie bereit für das folgende Chaos sein. Genau so weit befindet sich jetzt das durch „grüne“ Energie überwältigte Deutschland.

Lesen Sie auf NoTricksZone, um zu erfahren, wie ein „unvermeidlicher“ Übergang zu Wind und Sonne wirklich aussieht.

 

Letzte Anstrengung: Deutschlands Grüne nehmen Zuflucht zu Stromrationierungen, um das jetzt instabile Stromnetz nicht kollabieren zu lassen

Pierre Gosselin, No Tricks Zone 19. Januar 2021

Vor den Tagen des Klimaalarmismus und der Hysterie war die Entscheidung über die beste Stromerzeugung den Ingenieuren und Experten der Stromerzeugung überlassen – Menschen, die dies tatsächlich verstanden haben. Das Ergebnis: Deutschland hatte eines der stabilsten und zuverlässigsten Stromnetze weltweit.

Grüne Energien destabilisierten das deutsche Stromnetz

In den neunziger Jahren beschlossen Umweltaktivisten, Politiker, Klimaalarmisten und Pseudoexperten, dass sie die Stromerzeugung in Deutschland besser auf ihre Ideologie umstellen könnten und verabschiedeten schließlich das ausgefallene EEG-Gesetz und die Vorrangregelung für die Einspeisung grüner Energie. Sie versteiften sich darauf, dass stark schwankende, intermittierende Stromversorgungen ohne Probleme und zu geringen Kosten genutzt werden könnten.

Blackouts drohen

Schneller Vorlauf bis heute: Das Ergebnis aller Einmischungen der Regierung wird deutlich: Das Land befindet sich aufgrund von Netzinstabilität am Rande von Stromausfällen, hat die höchsten Strompreise der Welt, ist mehr auf Importe angewiesen denn je vorher und ist nicht einmal nah dran an der Erreichung seiner Emissionsziele. Das klapprige und launische deutsche Stromnetz bedroht jetzt die gesamte Stabilität des europäischen Stromnetzes, wie wir kürzlich gesehen haben.

Die Notwendigkeit, die Nachfrage zu „glätten“, ist am höchsten

Welche Lösung favorisiert Berlin heute? Sie haben es erraten: mehr Einmischung und Beeinträchtigung, mehr haarsträubende bürokratische Vorschriften. Dazu gehören die Stilllegung der verbleibenden Grundlast-Kohle- und Kernkraftwerke und die noch stärkere Abhängigkeit von den Stromquellen, die das Land überhaupt in sein derzeitiges Chaos gebracht haben.

Und neu sind die Regelungen, wann Verbraucher und Industrie Strom überhaupt verbrauchen dürfen: Energierationierung und gezielte Stromausfälle!

No Tricks Zone

https://stopthesethings.com/2021/01/24/russia-revisited-germanys-winter-wind-solar-drought-results-in-soviet-style-power-rationing/

Übersetzt durch Andreas Demmig




Verursachung des Klimawandels und das wissenschaftliche Verfahren

Die These, die wir ansprechen, ist diejenige, die uns ständig eingehämmert wird. Sie lautet in etwa: „Das Klima verändert sich, und wir sind die Ursache“. OK, niemand bestreitet, dass sich das Klima ändert; aber was ist mit dem Teil „wir sind die Ursache“? Welche Beweise gibt es dafür?

Lassen Sie uns die wissenschaftliche Methodik anwenden. Wir beginnen mit der grundlegenden Maxime, dass „Korrelation keine Kausalität beweist“. Stattdessen wird die Kausalität durch Widerlegung aller relevanten alternativen („Null“-) Hypothesen nachgewiesen.

Wie das funktioniert, weiß jeder von Medikamententests. Wir können nicht beweisen, dass Medikament A Krankheit X heilt, indem wir Medikament A tausendmal verabreichen und beobachten, dass Krankheit X fast immer verschwindet. Die Krankheit X könnte aus anderen Gründen oder von selbst verschwunden sein. Selbst falls wir das Medikament A eine Million Mal verabreichen und Krankheit X fast immer verschwindet, haben wir nur die Korrelation bewiesen, nicht die Kausalität. Um die Kausalität zu beweisen, müssen wir die Nullhypothese widerlegen, indem wir das Medikament A gegen ein Placebo testen. Das Placebo repräsentiert die Nullhypothese, dass etwas anderes (nennen wir es „natürliche Faktoren“) die Krankheit X heilt. Wenn Medikament A bei der Heilung von Krankheit X signifikant wirksamer ist als das Placebo, dann haben wir die Nullhypothese widerlegt und die Wirksamkeit von Medikament A zumindest vorläufig nachgewiesen.

Zurück zum Klimawandel. Die Hypothese lautet: „Der Mensch verursacht einen signifikanten Klimawandel.“ Eine geeignete Nullhypothese wäre „Der beobachtete Klimawandel kann vollständig durch eine Kombination natürlicher Faktoren erklärt werden.“ Wie könnte man dies testen?

Der naheliegendste Test wäre, zu fragen, ob es in der jüngeren Erdgeschichte wärmer war als heute – wobei die Gegenwart Gegenstand signifikanter menschlicher Treibhausgasemissionen ist. Falls Perioden in der jüngeren Vergangenheit vor den menschlichen Emissionen wärmer waren als die Gegenwart, dann ist ganz offensichtlich eine Kombination von „natürlichen Faktoren“ ausreichend, um Temperaturen zu erzeugen, die so hoch oder höher liegen als wir es heute erleben.

[Hervorhebung vom Übersetzer]

Und es spielt keine Rolle, ob wir wissen, was die alternativen „natürlichen Faktoren“ sein könnten, genauso wenig wie es bei der fehlgeschlagenen Medikamentenstudie eine Rolle spielt, ob wir wissen, warum das Placebo das experimentelle Medikament geschlagen hat oder nicht. In der fehlgeschlagenen Medikamentenstudie könnte es das menschliche Immunsystem gewesen sein, oder es könnten Darmbakterien gewesen sein, oder es könnte das Wetter gewesen sein, oder irgendetwas anderes. Tatsache ist, dass die „natürlichen Faktoren“, welche auch immer das sein mögen, das experimentelle Medikament übertrafen.

Als Test für die Klimahypothese dient ein Blogbeitrag des pensionierten Physikers Ralph Alexander vom 28. Dezember mit dem Titel [übersetzt] „Neue Beweise, dass das antike Klima wärmer war als das heutige“. Alexander fasst die Ergebnisse von zwei aktuellen Studien zusammen:

● Eine Arbeit vom Juni 2020 aus Nature mit dem Titel [übersetzt] „Anhaltend warmes Meerwasser im Mittelmeer während der Römerzeit“ von einer Gruppe italienischer und spanischer Autoren unter der Leitung von G. Margaritelli.

● Ein Artikel aus dem New Scientist vom November 2020 mit dem Titel [übersetzt] „Der Klimawandel hat in Norwegen eine große Menge alter Pfeile freigelegt“ von C. Baraniuk.

Die Arbeit von Margaritelli et al. analysiert Proxy-Daten von „versteinerten Amöben-Skeletten, die in Sedimenten des Meeresbodens gefunden wurden“, um die Temperaturen des Mittelmeers in den letzten 2000 Jahren zu rekonstruieren. „Das Verhältnis von Magnesium zu Kalzium in den Skeletten ist ein Maß für die Temperatur des Meerwassers zu der Zeit, als das Sediment abgelagert wurde; eine Zeitlinie kann durch Radiokarbondatierung erstellt werden.“

Fazit: Mit Ausnahme der Daten aus der Ägäis zeigen alle Ergebnisse eine deutliche Erwärmung während der römischen Periode von 0 bis 500 n. Chr., als die Temperaturen etwa 2 Grad Celsius höher lagen als der Durchschnitt für Sizilien sowie der westlichen Mittelmeerregionen in späteren Jahrhunderten, und sie lag viel höher als die heutigen Temperaturen in Sizilien.

Die Baraniuk-Studie aus Norwegen analysiert große neue Funde von antiken Artefakten, darunter Pfeile, Pfeilspitzen und Kleidung, die durch den jüngsten Rückzug der Gletscher in diesem Land freigelegt wurden. Das Vorhandensein der Artefakte in diesen Gebieten impliziert natürlich, dass die Gebiete zu der Zeit, als die Artefakte abgelagert wurden, nicht mit Eis bedeckt waren:

Die Tatsache, dass die Artefakte aus mehreren verschiedenen Perioden stammen, die durch Hunderte oder Tausende von Jahren voneinander getrennt sind, impliziert, dass sich das Eis und der Schnee in der Region in den letzten 6.000 Jahren mehrmals ausgedehnt und zurückgezogen haben muss. Während des holozänen Thermischen Maximums, das vor etwa 10.000 bis 6.000 Jahren stattfand und dem Zeitraum der erstaunlichen norwegischen Funde vorausging, waren die globalen Temperaturen noch höher. In den höheren Breiten, wo die zuverlässigsten Proxies zu finden sind, war es schätzungsweise 2-3 Grad Celsius wärmer als heute.

Ob vor 2000 Jahren (Römische Warmzeit) oder vor 6000 Jahren (Holozänes Thermisches Maximum) – diese Perioden lagen eindeutig lange vor jeglichen signifikanten menschlichen Treibhausgas-Emissionen aus der Verbrennung fossiler Brennstoffe. Offensichtlich reicht also eine Kombination von „natürlichen Faktoren“, was immer sie auch sein mögen, aus, um die Erdtemperaturen auf ein Niveau steigen zu lassen, das so hoch oder höher ist als das, was wir heute, in der Ära der menschlichen Nutzung fossiler Brennstoffe, erleben.

Ich sollte erwähnen, dass die beiden von Alexander besprochenen Arbeiten nur die jüngsten von vielen Dutzenden von Studien sind, die Beweise für die Behauptung liefern, dass Zeiten in der jüngeren geologischen Vergangenheit – entweder die mittelalterliche Warmzeit oder die römische Warmzeit oder das holozäne thermische Maximum – wärmer waren als heute. Eine Sammlung vieler Arbeiten, die sich hauptsächlich auf die mittelalterliche Warmzeit konzentrieren, finden Sie auf Craig Idsos CO2 Science Website.

Man sollte meinen, dass die Mainstream-Klima-„Wissenschaft“ sich wie ein Laserstrahl auf den Versuch konzentrieren würde, diesen frühen Perioden zu untersuchen, die wärmer waren als heute. Aber stattdessen haben diese Leute fast vollständig einen anderen Ansatz gewählt. Sie nennen ihren Ansatz „detection and attribution“ [etwa: Edrkennen und zuordnen]. Von den vielen Beispielen ist hier eine wichtige Studie aus dem Jahr 2018, das vom Weltklimarat der Vereinten Nationen gefördert wurde, mit dem Titel [übersetzt] „Erkennen des Klimawandels und Zuordung der Ursachen desselben“ Die Autoren sind ein „Who is Who“ des offiziellen Klima-Establishments, darunter solche wie Phil Jones, Michael Mann, Gerald North, Gabriele Hegerl und Ben Santer.

Anstatt zu prüfen, ob die verfügbaren Daten entweder ihre Haupthypothese (menschliche Ursachen) oder die Nullhypothese (natürliche Faktoren) widerlegen, verfolgen diese Leute einen anderen Ansatz, den ich als „wir können uns nichts anderes als menschliche Treibhausgasemissionen vorstellen, die dies verursachen könnten, also sind es menschliche Emissionen“ beschreiben würde. Sie erstellen sogenannte Modelle darüber, was ihrer Meinung nach natürliche Faktoren für die Erwärmung verursachen könnten, und testen diese dann anhand der Daten. Seit wann beweist das irgendetwas? Der Artikel ist sehr lang und gespickt mit fast undurchdringlichem Jargon, der es fast unmöglich macht, ein gutes Zitat zu bekommen, aber hier sind ein paar der besten:

In Zuordnungs-Studien wurden Multi-Signal-Techniken angewandt, um festzustellen, ob die Größe der beobachteten Reaktion auf einen bestimmten Einflussfaktor mit der modellierten Reaktion übereinstimmt und vom Einfluss anderer Einflussfaktoren getrennt werden kann. Die Einbeziehung von zeitabhängigen Signalen hat geholfen, zwischen natürlichen und anthropogenen Einflussfaktoren zu unterscheiden. Je mehr Antwortmuster einbezogen werden, desto mehr stellt sich zwangsläufig das Problem der Entartung (verschiedene Kombinationen von Mustern, die nahezu identische Anpassungen an die Beobachtungen ergeben). Nichtsdestotrotz bleibt auch bei Einbeziehung der Antworten auf alle wichtigen Antriebsfaktoren in die Analyse ein deutliches Treibhausgassignal nachweisbar. Insgesamt zeigt sich, dass die Größe der modellsimulierten Temperaturreaktion auf Treibhausgase mit der beobachteten Treibhausgasreaktion auf den betrachteten Skalen konsistent ist.

Und noch einer:

Um die Reaktion auf anthropogene oder natürliche Klimaantriebe in Beobachtungen zu erkennen, benötigen wir Schätzungen des erwarteten Raum-Zeit-Musters der Reaktion. Die Einflüsse des natürlichen und des anthropogenen Antriebs auf das beobachtete Klima können nur getrennt werden, falls die räumliche und zeitliche Variation jeder Komponente bekannt ist. Diese Muster können nicht aus der beobachteten Aufzeichnung bestimmt werden, da sich die Variationen aufgrund verschiedener externer Einflüsse gegenseitig und die internen Klimavariationen überlagern. Daher werden in der Regel Klimamodelle verwendet, um den Beitrag der einzelnen Faktoren abzuschätzen.

Offensichtlich ist diese Art von Hokuspokus gut genug, um so ziemlich die gesamte akademische Welt und die meisten Journalisten zu täuschen, ganz zu schweigen von einer Schar von Milliardären. Aber was ist mit der mittelalterlichen bzw. der römischen Warmzeit? Widerlegen die nicht die ganze Sache?

Link: https://www.manhattancontrarian.com/blog/2021-1-2-causation-of-climate-change-and-the-scientific-method via http://icecap.us/index.php/go/new-and-cool

Übersetzt von Chris Frey EIKE




Ein weiterer Blick auf den städtischen Wärmeinsel-Effekt

Nicola Scafetta hat gerade eine neue Arbeit in Climate Dynamics veröffentlicht, in der ser den Nachweis des städtischen Wärmeinseleffekts (UHI) untersucht (Scafetta, 2021). Die Arbeit ist nicht kostenpflichtig und kann hier heruntergeladen werden. Zusammengefasst zeigt Scafetta, dass ein Teil der jüngsten Erwärmung, die in der globalen HadCRUT 4 Temperaturaufzeichnung gezeigt wird, auf den UHI-Effekt zurückzuführen sein könnte. Er verwendet eine Analyse der täglichen Maximal- (Tmax) und Minimaltemperaturen (Tmin), Klimamodellausgaben und einen Vergleich der Meeresoberflächentemperaturen (SST) mit den Landtemperaturen, um den möglichen Einfluss auf den HadCRUT 4 Datensatz abzuschätzen.

Die verschiedenen Aufzeichnungen der Festlands-Temperatur werden nicht speziell bzgl. des UHI-Effektes korrigiert, sondern die NOAA und das Hadley Climatic Research Centre verlassen sich auf Homogenitäts-Algorithmen, um Anomalien zu glätten. Die NOAA nennt ihren Homogenisierungsprozess „PHA“, und der Algorithmus des Hadley Centre ist ähnlich, siehe diesen Beitrag oder den Artikel von Menne und Williams aus dem Jahr 2009 (Menne & Williams, 2009a) für eine Diskussion der Temperaturhomogenisierung. Während diese Algorithmen die Temperatur in den Städten senken, erhöhen sie auch die Temperaturen in den ländlichen Gebieten in der Umgebung der Städte. Erschwerend kommt hinzu, dass die letzten 70 Jahre eine Periode schnellen Bevölkerungswachstums und zunehmender Urbanisierung waren. Die Weltbevölkerung ist von 2,5 Milliarden Menschen im Jahr 1950 auf 7,5 Milliarden im Jahr 2020 gewachsen. Der UHI in London wurde auf bis zu 2,8°C in den Sommern zwischen 1990 und 2006 geschätzt.

UHI bewirkt, dass Tmin und Tmax im Vergleich zur Umgebung höher liegen, wobei jedoch die Differenz bei Tmin größer ist*. Dies bedeutet, dass der Tagesgang der Temperatur mit der Zeit abnimmt. Scafetta verwendet die Hadley Climatic Research Unit Temperaturaufzeichnungen (HadCRUT) und die Daten des Coupled Model Intercomparison Project 5 (CMIP5), um dieses Problem zu untersuchen. Er vergleicht ein Ensemble-Mittel der CMIP5 Tmax und Tmin Daten mit den HadCRUT Daten und untersucht die Unterschiede zwischen ihnen.

[*Im Stadtgebiet von Berlin wurden nach heißen Sommertagen bei Windstille und wolkenlosem Himmel gleichzeitigeTemperaturunterschiede bis 10 K zwischen Innenstadt und den Waldgebieten am Stadtrand gemessen! Anm. d. Übers.]

Die CMIP5-Modelle wurden auf die globalen und regionalen HadCRUT-Anomalien abgestimmt, so dass lokale Anomalien, wie z.B. UHI, in den Karten der Unterschiede zwischen den beiden Datensätzen sichtbar sind. Die CMIP5-Modelle parametrisieren keine Städte, so dass Unterschiede über Städten und umliegenden Gebieten auf einen verbleibenden UHI-Einfluss im HadCRUT-Datensatz hinweisen könnten.

Abbildung 1. Dies sind die globalen Tmax (rot)- und Tmin (blau)-Anomalien aus HadCRUT (A) und CMIP5 (B). Die Unterschiede sind in C und D dargestellt. Quelle: (Scafetta, 2021).

Abbildung 1 vergleicht die globalen Tmin- (blau) und Tmax- (rot) Anomalie-Aufzeichnungen von HadCRUT4 mit den CMIP5-Ensemblemittelwerten, die Scafetta in seiner Studie verwendet hat. Die Aufzeichnungen sind Anomalien von 1945-1954. Vergleicht man die Dekaden 1945-1954 und 2005-2014, so ist die Tmin-Tmax (DTR)-Differenz unterschiedlich. Der DTR bei HadCRUT4 beträgt 0,25 und der CMIP5 DTR 0,1. In beiden Fällen war die Differenz bei Tmin größer als bei Tmax.

Abbildung 2 zeigt, wie die Tmin-Tmax-Anomalieunterschiede im HadCRUT4-Datensatz verteilt sind:

Abbildung 2. Globale Verteilung der HadCRUT Tmin-Tmax Anomalien (DTR). Orange, lila und rot bedeuten, dass Tmin stärker vom UHI beeinflusst wird als Tmax. Weiße Gebiete, einschließlich der Ozeane, haben keine Tmin- und Tmax-Daten. (Scafetta, 2021).

Wie man in Abbildung 2 sieht, zeigen die meisten Landgebiete einen positiven Wert, was bedeutet, dass Tmin stärker vom UHI beeinflusst wird als Tmax. Die in Abbildung 2 dargestellten HadCRUT-Daten zeigen, dass in großen Gebieten in Nordamerika und Asien Tmin viel schneller ansteigt als Tmax. Am deutlichsten ist dies im schnell urbanisierenden China und in den Wachstumsgebieten der USA und Kanadas.

In Abbildung 3 sehen wir, wie die Tmin-Tmax-Anomalien (DTR) des CMIP5-Ensembles verteilt sind. Die modellierten Tmin-Tmax-Anomalien sind viel gedämpfter und liegen näher an Null als die gemessenen und homogenisierten Werte.

Abbildung 3. Globale Verteilung der CMIP5 Tmin-Tmax-Anomalien (DTR). An den Polen, im hohen Norden und in Teilen Asiens und Zentralafrikas erwärmt sich Tmin etwas schneller als Tmax. Der größte Teil des Rests der Welt liegt nahe Null, einschließlich der Ozeane. (Scafetta, 2021).

Nur in der Nähe der Pole zeigen die Modelle einen größeren Anstieg von Tmin-Tmax, zusammen mit verstreuten Gebieten in Asien und Afrika. Grönland ist eine große Insel mit sehr geringer Bevölkerung, ~56.000 Menschen, und dort zeigt sich nur ein kleiner Unterschied zwischen den modellierten und den gemessenen Werten. Die tatsächlichen Werte variieren von -0,2 bis 0,2 und die modellierten Werte liegen zwischen 0 und 0,2.

Scafetta zeigt anhand zahlreicher Beispiele, „dass die Landklima-Aufzeichnungen von signifikanten, nicht klimatischen Verzerrungen betroffen sind.“ Tmin und Tmax gibt es nicht in den SST-Aufzeichnungen (Meeresoberflächentemperatur), aber wir können die SST-Aufzeichnungen mit den HadCRUT-Landaufzeichnungen über das CMIP5-Modellensemble vergleichen. Dabei stellte Scafetta fest, dass nach Berücksichtigung der thermodynamischen Unterschiede zwischen Land und Ozean die CMIP5-Simulationen mit den wärmeren Landaufzeichnungen übereinstimmen, aber die SST deutlich überbewerten. Eine Land-Simulation der Temperaturdifferenz zwischen dem Mittelwert von 1940 bis 1960 und dem Mittelwert von 2000-2020 zeigte eine Differenz zwischen Modell und HadCRUT von nur 0,06°C. Ein Vergleich zwischen CMIP5 (+0,69°C) und HadSST (+0,41°C) über den Ozeanen ergab eine Erwärmung von 0,28°C, was fünfmal höher ist.

Die Erwärmung der Landtemperatur nach HadCRUT beträgt etwa ein Grad von der Periode 1940-1960 bis zur Periode 2000-2020. Falls die CMIP5-Modelle und die HadSST-Aufzeichnungen genau sind, dann haben die Landaufzeichnungen eine Abweichung von +0,36°C. Dies ist ein Fehler von fast 60 %. Wir haben den großen Einfluss von Korrekturen auf die Temperaturaufzeichnungen schon früher diskutiert, siehe diesen Beitrag für mehr zu diesem Thema [in deutscher Übersetzung beim EIKE hier].

Diskussion

Scafettas Studie zeigt eine mögliche systemische Verzerrung in den HadCRUT-Aufzeichnungen. Der größte Teil der Verzerrung, wie in Abbildung 2 gezeigt, befindet sich in Gebieten mit schneller städtischer Entwicklung über den Untersuchungszeitraum von 1940 bis 2020. Es gibt weitere Anomalien, die bemerkenswerte in Bolivien könnte auf die schnelle Abholzung in diesem Gebiet zurückzuführen sein. Die Anomalien in den trockenen Teilen Nordafrikas könnten auf einen umgekehrten urbanen Effekt zurückzuführen sein, da in diesen Gebieten die Urbanisierung ein kühleres Gebiet im Vergleich zu den umliegenden ländlichen Gebieten schafft.

Alle in der Studie verwendeten Daten sind fehlerhaft. Endgültige Schlussfolgerungen können nicht gezogen werden. Aber es scheint, dass der Landteil des HadCRUT 4 Datensatzes wärmer ist als er sein sollte, relativ zur SST. Es ist auch wahrscheinlich, dass dieser warme Bias in die CMIP5-Modelle durchgesickert ist. Die jüngsten DTR-Werte (Tmax-Tmin) sind stärker gesunken, als die CMIP5-Modelle vorhergesagt haben. Dies könnte ein Problem mit den Modellen in städtischen Gebieten sein, oder es könnte an den Homogenisierungs-Algorithmen liegen, die vom Hadley Climatic Research Centre verwendet werden und welche die Erwärmung der städtischen Wärmeinsel über große Gebiete verschmieren. So oder so hat Scafetta gezeigt, dass diese Datensätze nicht konsistent sind und einer oder mehrere von ihnen eine erhebliche systemische Verzerrung enthalten können.

Ein letzter Punkt. Wenn die Daten um die oben beschriebene offensichtliche Verzerrung korrigiert und mit der unabhängigen globalen Mitteltemperatur der unteren Troposphäre (hier) von UAH (Spencer, et al., 2017) verglichen werden, sehen wir, dass der korrigierte HadCRUT-Datensatz näher an diesem liegt als das Original, das in Abbildung 4B schwarz dargestellt ist. Dieser Vergleich zeigt, dass die offensichtliche Verzerrung, die von Scafettas Studie entdeckt wurde, eine gewisse empirische Unterstützung hat.

Abbildung 4A vergleicht den originalen HadCRUT 4.6 Datensatz (schwarz) mit Scafettas korrigiertem Datensatz in rot. Der CMIP5-Modell-Ensemble-Mittelwert (gelb) ist zusammen mit 106 unabhängigen Modellläufen in grün dargestellt. Die Abbildungen 14A und 14B verwenden die gleichen Farben. Abbildung 14B fügt die globale UAH-Durchschnittstemperatur der unteren Troposphäre in blau hinzu. Alle Kurven sind Anomalien zum Zeitraum 1940-1960.

Relativ zu 1940 bis 1960 zeigt die ursprüngliche HadCRUT-Kurve 0,59°C Erwärmung und 0,48°C mit Scafettas Korrekturen. Die UAH-Aufzeichnung zeigt 0,44°C. Die CMIP5-Klimamodelle zeigen eine Erwärmung von 0,78°C.

Nach Scafettas Korrektur ist es möglich, dass nicht-klimatische Verzerrungen ein Fünftel der berichteten globalen Erwärmung der HadCRUT seit 1940-1960 beigetragen haben. Es ist auch möglich, dass die CMIP5-Klimamodelle die Erwärmung um ein Drittel überbewerten. Dies sind signifikante Probleme.

Abbildung 4. Grafik A zeigt die einzelnen Modellläufe in grün, den CMIP-5-Mittelwert in gelb, den unkorrigierten HadCRUT-Rekord in schwarz und den korrigierten HadCRUT-Rekord in rot. B zeigt den gleichen HadCRUT korrigierten Datensatz in rot, den UAH Datensatz der unteren Troposphäre in blau und den ursprünglichen HadCRUT Datensatz in schwarz. Die roten und schwarzen Linien in A & B sind die gleichen.

Literatur:

Menne, M., & Williams, C. (2009a). Homogenization of Temperature Series via Pairwise Comparisons. Journal of Climate, 22(7), 1700-1717. Retrieved from https://journals.ametsoc.org/jcli/article/22/7/1700/32422

Scafetta, N. (2021, January 17). Climate Dynamics. Retrieved from https://doi.org/10.1007/s00382-021-05626-x

Spencer, R., Christy, J., Braswell, W. (2017), UAH Version 6 global Satellite Temperature Products: Methodology and Results, Asia-Pac J Atmos Sci 53:121-130.

Link: https://wattsupwiththat.com/2021/01/22/a-new-look-at-the-urban-heat-island-effect/

Übersetzt von Chris Frey EIKE

 




Klimaschau 11 – die Tagesschau von Sebastian Lüning

Nichts zu sehen? HIER KLICKEN!