Die große Transition! – Europas Strompreise explodieren, wenn die Sonne untergeht und der Wind nicht weht

Diese opportunistischen „Teufel“, die zuverlässige, mit fossilen Brennstoffen betriebene Kraftwerke beherrschen, verhalten sich wie wahre Banditen. Während die Energie-Spekulanten-Punters sich auf einen weiteren bitteren Winter vorbereiten, lassen sie die ärmeren Bewohner im Dunkeln frieren.

 

Die Strompreise in Großbritannien steigen, nachdem der nationale Stromnetzbetreiber  vor Versorgungsrisiken gewarnt hat

Rachel Morison, Bloomberg, 6. Dezember 2020

Die Strompreise in Großbritannien stiegen auf ein Vierjahreshoch, nachdem der britische Netzbetreiber gewarnt hatte, dass sein Sicherheitspuffer für die Versorgung am Sonntagabend fast erodiert ist.

National Grid Plc sagte in einer auf Twitter veröffentlichten Warnung, dass es „die Situation genau überwacht“. Der Netzbetreiber verbreitete keine offizielle Warnung mehr, die als Electricity Margin Notice [~Strommangel …] bezeichnet wurde und zuletzt am Donnerstag ausgelöst wurde. Normalerweise wird es veröffentlicht, wenn die Sicherheitsmarge für den Betrieb des Systems unter das von der Regierung zugelassene Niveau sinkt.

National Grid ESO – EoZWP2pW8AICxiR

Es ist ungewöhnlich, dass es an einem Wochenende Probleme gibt,  wenn der Verbrauch typischerweise niedriger ist, da Büros und Industrie geschlossen sind. Das zeigt, wie nahe das britische Stromnetz in diesem Winter an die Belastungsgrenze gekommen ist. National Grid erwartet in diesem Jahr weitere Versorgungswarnungen, sagte der Vorstandsvorsitzende John Pettigrew in einem Interview mit Bloomberg im vergangenen Monat. Der Spielraum zwischen Angebot und Nachfrage sei der knappste, den Großbritannien seit etwa vier Jahren gesehen habe.

Read more of the interview with National Grid’s CEO here

Der Strom für die Lieferung am Sonntagabend wurde in einer Auktion am Samstag auf der Epex Spot SE mit bis zu 350 Pfund (470 USD) pro Megawattstunde gehandelt. Dies ist der höchste Wert für den Zeitraum von 17 bis 18 Uhr seit November 2016. Der Peakload [Spitzenlast]-Vertrag stieg auf 96,29 Pfund pro Megawattstunde, der höchste Wert seit 2018, wie die Daten zeigen.

 

National Grid ESO, Prognosen für den Winter 2020 Seite 12.

Wir erwarten Nettoimporte von Strom durch Verbindungsleitungen von Kontinentaleuropa nach GB für den größten Teil des Winters. Wir erwarten typischerweise Strom- Export von GB nach Nordirland und Irland während der Spitzenzeiten.

Diesen Winter erwarten wir…

  • steigende-Preise in GB vor denen in Kontinentaleuropa für den größten Teil der Winterperiode
  • Importe in GB zu Spitzenzeiten über IFA, BritNed und Nemo Link Verbindungsleitungen, obwohl gelegentlich nicht vollständig importiert und vorbehaltlich Wettervariationen
  • Moyle- und EWIC-Interkonnektoren werden normalerweise von GB nach Nordirland und Irland in Spitzenzeiten exportiert
  • Einige Importe über Moyle und EWIC in Zeiten hoher Windleistung in Irland oder in Zeiten von Systemstress in GB

https://www.nationalgrideso.com/document/178126/download

Epex Spot Data – Preisspitzen

National Grid bemüht sich, das System in der Balance zu halten, da die Nachfrage bei kälterem Wetter steigt und die Winderzeugung voraussichtlich gering ist. Die Prognosen zeigen, dass sich die Situation nächste Woche fortsetzt. National Grid identifizierte nächste Woche als einen der Krisenpunkte in seinen Winteraussichten.

National Grid – Weather outlook

Großbritannien bezieht etwa 8% seiner Stromversorgung über Verbindungsleitungen  aus Europa. Eine dieser sogenannten Interkonnektoren führt nach Frankreich. Die angespannte Stromversorgung könnte durch einen geplanten Streik der Mitarbeiter von Electricite de France SA am 10. Dezember noch verschärft werden. Wenn sich der Streik auf die Kernkraftwerke ausweitet und Frankreich keinen Strom nach Großbritannien exportieren kann, könnte National Grid vor einer noch härteren Herausforderung stehen, die Lichter nicht ausgehen zu lassen.

Wenn die verfügbaren Strommengen niedrig sind, fordert National Grid zunächst alle ansprechbaren Kohle- und Gaskraftwerke zum Betrieb auf. Reicht das dann nicht, können einige Großverbraucher aufgefordert werden, ihre Nachfrage zu drosseln, um zu versuchen, das System auf diese Weise am Laufen zu halten. Danach fordert der Netzbetreiber die lokalen Versorger auf, die Stromversorgung der Verbraucher vorübergehend zu unterbrechen. [das heißt dann smart Energiemanagement]

Bloomberg

 

Die Strompreise erreichen in Belgien ein Rekordhoch.

The Brussels Times, 11. Dezember 2020

Die Strompreise stiegen am Montagmorgen in Belgien aufgrund ungünstiger Wetterbedingungen auf Rekordhöhen.

Die Preise schossen auf 2.300 € pro MWh, weil Mangels an Wind und Sonne Windkraftanlagen und Sonnenkollektoren kaum „erneuerbare [?] Energie“  produzierten.

Im Oktober hatten Solar- und Windenergie einen Rekordanteil von 23% im Stromnetz, da in Belgien immer mehr Solarmodule und Windparks errichtet wurden. Darüber hinaus waren die Temperaturen in Belgien niedrig, was dazu führte, dass viele ihre elektrischen Heizungen einschalteten. In Verbindung mit dem Mangel an nuklearer Kapazität in Frankreich stiegen die Kosten für die Stromversorgung auf 66 EUR / MWh.

The Brussels Times

 

https://stopthesethings.com/2020/12/16/some-transition-europes-power-prices-rocket-whenever-the-sun-sets-calm-weather-sets-in/

Übersetzt durch Andreas Demmig

***

Fundstück zur Smart Home Lösung auf der Seite des BMWI

… Die intelligente Verknüpfung von Verbrauchs- und Erzeugungsanlagen ermöglicht es, den Eigenverbrauch unter Berücksichtigung der Wetterentwicklung zu prognostizieren und zu optimieren. Mit einer einzigen App kann ein Haushalt mit Solaranlage beispielsweise bei Vorhersage eines sonnigen Tages die Wasch- oder Spülmaschine am Morgen so programmieren, dass sie mittags läuft. Der zusätzlich gespeicherte Solarstrom kann abends zum gemeinsamen Kochen oder dem Aufladen des Elektroautos genutzt werden.

… Die Einspeisung von Sonnen- und Windenergie unterliegt zudem starken Schwankungen. Intelligentes Energiemanagement muss unter diesen Voraussetzungen Erzeugungs- und Verbrauchsmuster in Einklang bringen“, erklärt Dr. Thomas Goette, Geschäftsführer der Kölner GreenPocket GmbH.

https://www.bmwi.de/Redaktion/DE/Artikel/Digitale-Welt/Intelligente-Vernetzung/KARTE-Best-Practice/036-green-pocket-energiemanagement-projektsteckbrief.html

Zum Smart (?)  kein Kommentar, aber das hier zur Erinnerung

Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlast­fähigkeit




Maja Göpel: „Das Wichtige an der Pandemie­erfahrung ist, daß die Idee implodiert ist, dass es nicht anders geht, als wir es bisher machen“

Maja Göpel ist unseren Lesern bekannt als ehemalige Generalsekretärin des Wissenschaftlichen Beirates der Bundesregierung Globale Umweltveränderungen (WBGU) und Leiterin der Berliner Dependance des Wuppertal Instituts für Klima, Umwelt, Energie, der NRW-Version des PIK von Schellnhuber und Rahmstorf. Außerdem ist sie Mitglied des Club of Rome und Mitgründerin von Scientists for Future SFF

Als interessenneutrale Wissenschaftlerin kann man sie also nicht so recht bezeichnen; gerade ihr Engagement für SFF mit Eckart von Hirschhausen („Die Erde hat Fieber!“) macht klar, daß sie eine Aktivistin ist. Im November wechselte sie als Forschungsleiterin an The New Institute TNI, eine Denkfabrik (Thinktank) des Hamburger Großreeders Erck Rickmers. Der seltsame Name des Institutes verwundert zunächst; die Selbstbeschreibung läßt aber keinen Zweifel, worum es dieser NGO geht:

Die Klimakrise ist eine Herausforderung und ein Symptom für unser weit verbreitetes Versagen, das Leben auf der Erde mit unserem Verhalten und Handeln zu unterstützen. Wir befinden uns in einem Kreislauf des Überkonsums mit der Ausbeutung und Zerstörung unserer natürlichen Ressourcen. Wir stehen vor einer Zukunft in einer anderen Welt. Die Klimakrise ist Teil einer Reihe miteinander verbundener Krisen. Wir müssen unsere Volkswirtschaften und Demokratien grundlegend überdenken und umstrukturieren, wenn wir das Leben auf der Erde erhalten wollen.

Im Klartext: TNI käut das 50 Jahre alte Dogma des Club of Rome wieder, nach dem unsere kapitalistische (?) und auf Wachstum ausgelegte Wirtschaftsweise die Biosphäre der Erde zerstöre und bald unbewohnbar mache, mit dem aktuellen Fokus auf den „Klimakollaps“. Daß die vielen unterschiedlichen behaupteten Weltuntergänge frei erfunden sind, bewies zum Beispiel unser Autor Peter Ridd anhand des Großen Barriere-Riffes vor Australien.

Politische, also finanzielle Interessen ideologisieren meist schnell, wenn eine genügend große Anzahl privilegierter und an Transferzahlungen interessierter Kostgänger vorhanden ist. Da werden dann nicht nur „Narrative“ über böse alte weiße Männer erzählt, sondern auch Versatzstücke der echten Wissenschaft benutzt, um dem eigenen Weltbild einen vernünftigen und moralischen Anstrich zu geben.

Das können nicht nur Vertreter aus den Natur- und Meteowissenschaften wie Rahmstorf, Schellnhuber und Latif sehr gut, sondern auch politische Wirtschaftswissenschaftler wie Edenhofer und Maja Göpel, die die Stichwörter zur Etablierung der enormen finanziellen Transferleistungen liefern, man denke an die CO2-Steuer.

Passend dazu die erste Antwort von Göpel im Interview:

Ideologien sind geschlossene Weltbilder. Die helfen uns nicht weiter in liberalen, aufklärungsorientierten Gesellschaften mit einem hohen Anspruch an ihre Innovations- und Erneuerungsfähigkeit. Denkmuster zu hinterfragen, ist deshalb auch eine emanzipatorische Agenda. Einer meiner liebsten Theoretiker ist Antonio Gramsci.

Der Verweis auf Gramsci ist fast schon frech, da der Kommunist in den 1920ern die Strategie formulierte, die Genossen seien im Bereich der Wirtschaft und Politik chancenlos und müßten daher den Bildungs- und Kultursektor erobern, um das Land für ihre Bedürfnisse umzudrehen. Und genau das haben die extremistischen 68er gemacht – ihr „Marsch durch die Institutionen“ und die Nutzung von ökologischen Panik-Erzählungen unterschiedlichster Art haben ihnen viel Macht und Geld ohne Leistung beschert. Göpel gibt durch ihren Verweis auf Gramsci erstaunlich offen zu, was sie und ihre Kollegen antreibt.

Allerdings baut sie noch einen besonderen Dreh ein und behauptet, daß es nur eine „Erzählung“ sei, wirtschaftliches Wachstum und Umweltschutz (Klimaschutz?) seien vereinbar. Die Kapitalisten seien also die wahren Gramscisten – das ist nun wirklich eine Wendung, wie sie Orwell nicht besser hätte erfinden können.

Im weiteren sieht Göpel sich und ihre Kollegen als die neutralen Wissenschaftler, denen zu Unrecht vorgeworfen werde, Lobbyisten für elitäre Transferempfänger zu sein.

Da kann es schon kommod sein, die Übermittler der Analysen als Interessenvertreter für eine bestimmte Klientel abzustempeln.

Passend dazu will Göpel die liberale Marktwirtschaft wie z.B. Katja Kipping zur Lösung des „Klimaproblems“ gar nicht abschaffen, sondern behauptet sogar, daß das gegenwärtige System mangels Berücksichtigung der Ökologie gar nicht liberal sei.

Auch eine unsichtbare Hand als Marktmechanismus kann nur funktionieren, wenn die Preise in etwa die Kostenwahrheit abbilden und ein gewisses Maß an Gerechtigkeit in der Verteilung von Informationen, Bildung, Geld, Besitz und Macht nicht unterschritten wird.

Mit „Kostenwahrheit“ sind angebliche Schäden wie zum Beispiel die Folgen von Kohlendioxid-Emissionen in die Atmosphäre gemeint. Was aus so einer Argumentation folgen könnte, zeigt der ARD-Spielfilm Ökozid, in dem eine Gerichtsverhandlung gezeigt wird, an deren Ende Deutschland zu gewaltigen Zahlungen an „klimageschädigte“ Länder im Süden verpflichtet wird.

Große Stellschrauben sind: CO2 ausreichend hoch zu bepreisen und die dreckigen Subventionen endlich abzubauen, um die Energiewende hin zu erneuerbaren Quellen und diversen Speicherformen für Energie so schnell wie möglich voranzutreiben. (…)

Von der europäischen Ebene ist mit dem Green Deal nun endlich ein Ansatz formuliert worden, der dem entspricht, was wir „Whole Institution Approach“ nennen, also das Ziel der Dekarbonisierung und Kreislaufwirtschaft wirklich als Querschnittsthema und auch Wettbewerbsstrategie zu verankern.

Heißt, unsere sowieso schon durch zahlreiche Hindernisse wie Öko- und Gendergesetze durchregulierte Rest-Marktwirtschaft vollends in ein Kommandosystem umzuwandeln, in dem von Steuern lebende Eliten die Früchte der Arbeit anderer problemlos abschöpfen können, oder zumindest leichter.

Interessanterweise kritisiert Göpel das dogmatische „Folgt DER Wissenschaft“ von Greta, Lesch & Co.:

Darüber hinaus gibt es bei Studien Unsicherheiten, sobald es sich um komplexe lebendige Systeme handelt und nicht um Maschinen. „Unite behind the Science“ bedeutet daher nicht, dass es nur eine klare Wahrheit gibt. Der Wunsch nach Orientierung in einer Umbruchzeit darf nicht in dogmatische Fronten münden, dann wird die Suche nach dem nächsten gemeinsamen Schritt sehr schwer. Deshalb ist es wichtig, die eigenen Erkenntnisse und Interessen stark und offen zu vertreten, aber idealerweise ohne Aversion oder gar Hass gegen diejenigen, die andere haben.

In dem Zusammenhang sei erinnert, daß Anders Levermann vom PIK der taz sagte, die sonst so häufig bemühten Kipp-Punkte gäbe es gar nicht mehr. Man hat den Eindruck, daß die Klima-Gramscisten im Sinne des „Doppeldenks“ von Orwell in 1984 versuchen, Festlegungen zunehmend zu vermeiden, um nicht für die absehbaren Folgen haftbar gemacht werden oder schnell situationsbezogen für sie selbst günstig reagieren zu können.

Die von der Politik ausgerufene Corona-Pandemie ist ein wichtiger Konkurrenzfaktor für die Klimaaktivisten, die aus den Medien verdrängt wurden und auch nicht mehr ihre freitäglichen Demos veranstalten dürfen. Nichtsdestotrotz nutzt Göpel die Seuchenerzählung in ihrem Sinne, als „Beweis“ für die Notwendigkeit einer Transformation:

Das Wichtige an der Pandemieerfahrung ist, dass die Idee implodiert ist, dass es nicht anders geht, als wir es bisher machen. Nicht für alle, aber für diejenigen mit sicheren Jobs war neuer Zeitwohlstand eine positive Erfahrung, und es gibt viele Umfragen, in denen die dauernde Pendelei ins Büro und auch die volle Arbeitszeit lieber nicht wiedergewollt werden. Aber solange unsere Alltagsroutinen durch To-go-Verkaufsbuden führen und unsere Aufmerksamkeit mit Werbe- und Marketingbotschaften vermüllt wird oder auf Kurzlebigkeit getrimmte Trends und Halbwertzeiten wie Fast Fashion und Elektrogeräte nicht politisch angegangen werden, bleibt Konsumismus eben die vermeintliche „Normalität“.

Fazit: Man merkt schon, daß Göpel aus ihrer privilegierten Position einer Tochter der diskutierenden Klasse heraus spricht und deren Interessen vertritt. Es ist ihr übrigens quasi in die Wiege gelegt: Sie wuchs in einer Art Ökobauernhof-Kommune in Niedersachsen auf, mußte den Ökologismus als finanzielle oder Karriere-Strategie also gar nicht erst entdecken.




Was macht die Temperatur?

Die Computermodelle des IPCC (Intergovernmental Panel on Climate Change, Weltklimarat) sind nach wie vor von sehr begrenztem Wert, die resultierenden Vorhersagen so gut wie unbrauchbar – das Weltklima ist einfach zu kompliziert. So reichen die Prognosen des IPCC für die CO2-Klimasensitivität (Temperaturanstieg bei Verdoppelung des CO2) von 1,6 bis 5,6 Grad C, aber nur mit einer Wahrscheinlichkeit von 66%. Vor diesem unbefriedigenden Hintergrund haben, wie überall in der Physik, Messungen das letzte Wort. Und die gibt es inzwischen schon seit längerer Zeit. Ist es da nicht besser, man orientiert sich an konkreten Messergebnissen anstelle von fragwürdigen und in aller Regel übertriebenen Alarm-Prognosen?

Die Temperatur-Werte, ermittelt von vielen tausend Stationen, enthalten allerdings auch Fehlerquellen wie unregelmäßig verteilte Messstationen, welche Stationen ausgewählt werden, Messungenauigkeiten sowie die meist intransparenten Adjustierungen und Homogenisierungen der Messdaten. Über den Ozeanen und vor allem auf der Südhalbkugel gibt es weniger Messstationen. Je älter die Temperaturdaten, desto größer sind die Ungenauigkeiten. Belege für „gezielte“ Anpassungen gibt es ebenfalls. Nachfolgende HadCRUT4-Bodendaten werden auch vom IPCC verwendet – schon deshalb ist eine „Untertreibung“ eher unwahrscheinlich.

Unschwer ist zu erkennen, dass den Temperaturverläufen Periodizitäten überlagert sind, für die es teilweise gute Beschreibungsansätze gibt (Ozeanische Oszillationen, El Niño, Nord-Süd-Klimaschaukel, Solarzyklen verstärkt durch kosmische Strahlung und Wolkenbildung), die aber in den Klimamodellen bisher kaum Berücksichtigung finden. Auch ist bis heute nicht sicher bekannt, welche natürlichen Vorgänge die historischen Klimaschwankungen verursacht haben – wie damals die Mittelalterlichen Warmzeit, als u.a. die Wikinger Grönland besiedelten, und die vorausgegangenen Warmzeiten davor.

Die Ozeane stellen einen riesigen Wärmespeicher dar, mehr als 100mal größer als die gesamte Atmosphäre. Insbesondere in den tieferen Ozeanbereichen folgen die Meerestemperaturen einer Erderwärmung nur sehr langsam, von bis etwa 1000 Jahren Verzögerung ist die Rede. Auch wird über den Ozeanen weniger Temperaturanstieg gemessen als über Land. Zusätzlich sind die Temperaturanstiege auf der Nordhalbkugel größer als auf der Südhalbkugel (Klimaschaukel?).

Zusätzliche Einflüsse wie die Wärmeinseleffekte durch zunehmende Bebauung und möglicherweise der Luftverkehr (Eintrag von Aerosolen in die Stratosphäre) bis hin zur wachsenden Energiefreisetzung von immer mehr Menschen spielen ebenfalls eine Rolle. Worauf hier nicht näher eingegangen wird, weil der Einfluss von natürlichen Ursachen auf den Temperaturverlauf zwar oftmals plausibel ist, aber aus heutiger Sicht dennoch meist spekulativ. Die Vorgaben der 1,5 Grad bzw. 2 Grad-Ziele gemäß Paris-Abkommen beziehen sich immer auf globale Mitteltemperaturen, worauf auch hier der Schwerpunkt gelegt wird.

Der Temperaturanstieg seit Beginn der Industrialisierung fand vor allem im Laufe des letzten 120 Jahre statt (Darstellung unten nach Dr Kevin Cowtan – University of York, gefunden bei Kalte Sonne). Der Temperaturrückgang/-stillstand nach dem Jahr 2000 („Hiatus“), der den Temperaturrückgang zwischen 1945 und 1975 im Ansatz zu wiederholen schien, wurde seit 2016 von zwei El Niños unterbrochen. Was den Medien Gelegenheit gibt, fortlaufend „hohe“ Temperaturwerte zu vermelden, auch wenn es nur Zehntelgrad-Rekorde sind. Dennoch, in den kommenden zehn Jahren wird es spannend, wie es mit den Temperaturen weitergeht.

Setzt man diesen 120-jährigen Temperaturtrend fort, dann ist bis 2100 ein weiterer Temperaturanstieg von nur etwa 0,66 +/- 0,07 Grad C zu erwarten, was niemanden beunruhigen muss.

Von 1978 bis etwa 2005 korrelierten das CO2 und die Temperaturen kurzzeitig, was der Alarmforschung bekanntlich Auftrieb gab. Dazu in der nachfolgenden Grafik (von climate4you) rot eingetragen die CO2-Konzentration in der Atmosphäre, gemessen auf dem Mauna Loa. Davor und danach ist die Korrelation deutlich schlechter. Die beiden Peaks seit 2016 sind, wie bereits erwähnt, Folge des unregelmäßig wiederkehrenden Klimaphänomens El Niño, das von den Klimamodellen ebenfalls nicht dargestellt werden kann. Der CO2-Anstieg müsste genau genommen logarithmisch eingetragen werden, weil auch die spektroskopische Erwärmung nur dem Logarithmus der CO2-Konzentration folgt. Was dann den CO2-Anstieg etwas weniger „dramatisch“ aussehen lässt.

Seit etwa 1979 gibt es Satellitenmessungen, bei denen ebenfalls global gemessen wird und zwar die Mikrowellenstrahlung von O2 (Sauerstoff) in der Troposphäre:

Bei den Satellitendaten wird offenbar weniger manipuliert, doch auch hier gibt es einige Fragen: Man misst die Temperaturen in der Troposphäre und nicht in Bodennähe. Auch sind Nachjustierungen bei den Bahnparametern von Zeit zu Zeit erforderlich – zumindest, wenn dies bei den Satelliten nicht automatisch erfolgt. Auch gibt es z.B. bei El Niño Zeitverzögerungen, bis die Troposphäre den Bodentemperaturen folgt. Die hier gezeigten Satellitendaten schneiden immerhin gut ab beim Vergleich mit Ballonmessungen und sog. Nachrechnungen – siehe hier.

Bei Satellitendaten ist ferner zu beachten, dass es sie erst seit 1979 gibt, also seit Beginn der relativ steilen Anstiegsphase, ähnlich, wie sie auch schon von 1910 bis 1945 aufgetreten ist – was für eine „Übertreibung“ aufgrund der Auswahl des Zeitfensters spricht. In diesem kurzen Zeitabschnitt ist der Temperaturanstieg pro Dekade beinahe doppelt so hoch wie in den letzten 120 Jahren. Auch ist das Unsicherheitsintervall mehr als fünfmal größer.

Statistisch gesehen erlaubt deshalb der 120-jährige Messzeitraum, wie in der ersten Abbildung oben dargestellt, die verlässlichste Prognose mit einem Temperaturanstieg von nur 0,66 +/- 0,07 Grad C bis 2100. Wobei mit längerer Messdauer die Unsicherheitsintervalle immer kleiner werden.

Der reale Temperaturanstieg dürfte in Wirklichkeit sogar noch kleiner sein, wie z.B. der dänische Geologe Prof. em. Dr. Johannes Krüger ausführte:

Die offizielle, von NOAA (National Oceanic and Atmospheric Administration) entwickelte Temperaturkurve der globalen Temperatur für den Zeitraum 1900-1999, die das IPCC in seinen Berichten vorgestellt hat, wurde umfassend angepasst, um einen viel höheren Temperaturanstieg als die ursprünglichen Temperaturdaten zu zeigen. Die Anpassung trägt bis zu 0,3 ° C der postulierten globalen Erwärmung von 0,7–0,8 ° C während des 20. Jahrhunderts bei. Die Schlussfolgerung ist daher, dass die globale Temperatur zwischen 0,4 ° C und 0,7 ° C angestiegen ist, wobei die erste Zahl auf der ursprünglichen Temperaturreihe und die letzte auf angepassten und manipulierten Daten basiert. Keiner dieser Werte ist in irgendeiner Weise alarmierend.“

Was folgt daraus? Man sollte die Temperaturen unaufgeregt weiter beobachten, zumal Ozeane und Pflanzen immer mehr von dem atmosphärischen CO2 aufnehmen. Was auch die stark zunehmende Begrünung der Erde sowie die gestiegenen Ernteerträge beweisen. Und hinzu kommt, dass die Temperaturen, wenn überhaupt, aus spektroskopischer Sicht nur logarithmisch mit dem CO2 ansteigen. Auch gehen die „Fossilen“ sowieso früher oder später zur Neige. Selbst wenn nicht, was vor allem russische Wissenschaftler behaupten, ist genügend Zeit vorhanden, Temperaturen und das CO2 in der Atmosphäre vorerst weiter zu beobachten. Auch sollte man notwendige Folgetechniken möglichst dem Markt überlassen und nicht einer grünen Staatsplanwirtschaft!

Da die deutsche Energiewende kein tragfähiges Energiekonzept für die Zukunft bietet, wird voraussichtlich an Dual Fluid-Reaktoren der 4. Generation längerfristig kein Weg vorbei führen – sie sind inhärent sicher. Auch sind damit die bisher gelagerten Brennstäbe zu 90 bis 95% nutzbar. Bereits heute ist die Kerntechnik die mit Abstand sicherste Energietechnik – und dies trotz der Tschernobyl-Katastrophe. Letztere trat ein als Folge eines untauglichen Reaktorkonzepts sowie unglaublicher Bedienungsfehler. Die 20.000 Fukushima-Opfer waren ausschließlich dem Tsunami geschuldet, und nicht, wie es uns Grüne suggerieren, der Reaktor-Havarie, die sich dank unzureichendem Tsunami-Schutz ereignete. Der Kernbrennstoff Thorium sollte bei dem neuen Reaktorkonzept für mindestens 1 Mio. Jahre reichen. Bis dahin funktioniert auch die Fusion… Prozesswärme für synthetische Kraftstoffe gäbe es dann auch – Mobilität mit gewohntem Komfort und Reichweiten wäre möglich.

Die erhofften Resultate der geplanten CO2-Reduktion sind dagegen in jeder Hinsicht höchst ungewiss. Das beginnt mit der Frage, welche Staaten dabei überhaupt mitmachen – Deutschland alleine ist hier vollkommen bedeutungslos! Schon deshalb bleibt offen, wie viel CO2 überhaupt reduziert werden kann, und was, last but not least, bei den Temperaturen damit letztlich erreicht werden wird (und welches Temperaturziel überhaupt gelten soll). Auf die Klimamodelle kann man sich dabei nicht verlassen. Somit ist die Dekarbonisierung eine jahrzehntelange sehr kostspielige Geisterfahrt mit höchst ungewissem Ergebnis – die nachhaltige Schädigung des Industriestandorts Deutschland ist dagegen gewiss!

Wenn überhaupt, wären für eine CO2-Reduktion weltweite Aufforstungsprogramme sinnvoller und  für eine zuverlässige Temperaturabsenkung Geoengineering billiger, zeitnah und effektiver!

Ärgerlich, warum sieht das Frau Merkel nicht genauso? Klar, sie hat bereits Billionen auf „Klima-Weltrettung“ durch Dekarbonisierung gesetzt, da gibt es kein Zurück…

Über den Autor

Dr. Roland Ullrich ist Physiker und promovierte an der LMU über Plasmaphysik.Sein Berufsweg führte ihn von der Plasmaphysik, einem kurzen Ausflug in die Welt der Metallhydridspeicher zu einer überwiegend gutachterlichen Tätigkeit in der technisch-wissenschaftlichen Analyseabteilung einer Bundesbehörde.

 




Grüne Verwahrlosung*

Daher geht ihnen auch jedes Gespür abhanden dafür, was geht oder was verantwortbar ist. Den weniger Gesicherten und jenen mit mehr Überblick erteilt das Leben selbst die erforderlichen Lehren, die es braucht, um diese Grenzen zu erkennen und zu respektieren. Wohlstandsverwahrloste verachten die Realität und die Grenzen, die sie zieht.

Grünen-Co-Chefin Annalena Baerbock hat im Interview mit der linken „taz“ ein Paradebeispiel dafür geliefert, was herauskommen kann, wenn Wohlstandsverwahrlosung das politische Bewusstsein verwüstet. Bei ihr heißen die Resultate Fanatismus, Rücksichtslosigkeit und Machtrausch.

Baerbock will das ganze Land ihren „Klimazielen“ unterordnen, „alle Sektoren müssen liefern“, fordert sie im Duktus eines Diktators. Zum totalen Kohleausstieg müsste „fünfmal so viel Windkraft an Land“ „gebaut“ werden „wie jetzt“. Die Naturzerstörung, die das mit sich brächte, ist kaum auszumalen. Bauern dürften nur noch zwei Kühe pro Hektar halten, ab 2030 sollten nur noch „emissionsfreie Autos“ zugelassen und ab sofort pro Jahr „eine Million Solaranlagen“ installiert werden.

Das Ergebnis dieser Politik ist absehbar:

Strom wird zum Luxus ebenso wie Autofahren oder Fleischessen. Die Energieversorgung Deutschlands verkäme zum Glücksspiel, das aufs Wetter angewiesen wäre, Stromausfälle würden zum Normalfall, eine massive Deindustrialisierung wäre die Folge. Der Wohlstand der Deutschen ginge steil den Bach runter, derweil die Belastungen für die Bürger immens stiegen. Es ist ein umfassendes Verarmungsprogramm. Nur Wohlstandsverwahrlosung kann solchen Irrsinn gebären.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  18. Dezember 2020, S.8; EIKE dankt der PAZ-Redaktion sowie dem Autor  Hans Heckel für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/;  Hervorhebungen:EIKE-Red.

=================================================================




Wassertem­peratur an der Ozean-Oberfläche: Vergleich Hadley Centre und NOAA

Abbildung 1. Der ursprüngliche Vergleich von ERSST und HadSST aus meinem vorherigen Beitrag.

Ich habe Kennedy gefragt, ob er eine Maske des besiedelten Gebiets in seinem SST-Gitter hat, aber das hat er nicht, was bedauerlich ist. Eine Maske ist ein Bereich von Längen- und Breitengraden, der digital auf einer Karte überlagert werden kann und verwendet wird, um alle Daten auszuschneiden, die außerhalb dieses Bereichs liegen. Außerdem wies Kennedy darauf hin, dass sich die Maske von Monat zu Monat ändert, da ein Großteil der Daten von Schiffen, treibenden Bojen und Schwimmern stammt. Schade, mehr Arbeit für mich.

HadSST ist ein Fünf-Grad-mal-Fünf-Grad-Gitter für Breiten- und Längengrade, und ERSST ist ein Zwei-Grad-Gitter. Sie sind nicht einmal Vielfache voneinander, so dass das Erstellen einer Maske von Nullbereichen in HadSST, die zum Abschneiden von ERSST-Daten verwendet werden kann, kompliziert und zeitaufwändig ist. Glücklicherweise war ich nach der Programmierung von zwei „cleveren“ Lösungen, die fehlschlugen, bei meinem dritten Versuch erfolgreich, obwohl mein Computer vielleicht nie mehr derselbe sein wird. Die „cleveren“ Methoden hätten dem Computer Zeit gespart, aber keine von beiden hat funktioniert. Am Ende verwendete ich eine „Brute-Force“-Methode, die eine schrecklich aussehende, fünf tiefe Computerschleife war, die jede Gitterzelle mit jeder Gitterzelle verglich. Hässlich, aber es funktionierte, und es ist relativ sicher vor Fehlern.

Die Ergebnisse meiner hässlichen Logik sind in Abbildung 2 zu sehen. Diese Abbildung zeigt den originalen NOAA ERSST-Datensatz, der mit der Linie in Abbildung 1 identisch ist, den „HadSST maskierten“ ERSST-Datensatz und HadSST selbst, der ebenfalls mit der Linie in Abbildung 1 identisch ist. Zumindest HadSST fällt zwischen die beiden NOAA-Linien.

Abbildung 2. Die globale NOAA ERSST-Durchschnittstemperatur vor Anwendung der HadSST-Maske (Original) und nach Anwendung der Maske. HadSST ist ebenfalls dargestellt.

Wir erinnern uns aus dem ersten Beitrag, dass HadSST durch Mittelwertbildung der Punkte innerhalb jeder 5-Grad-Gitterzelle konstruiert wird. Wenn es nicht genügend Punkte in einer Zelle gibt, wird die Zelle leer gelassen. NOAA beginnt im Wesentlichen mit den gleichen Daten, verwendet aber eine andere Methode, um ihre Zellen zu füllen. Sie verwenden einen Gitteralgorithmus, der jede ihrer 2-Grad-Zellen mit Interpolation und etwas Extrapolation auffüllt. Auf diese Weise erhalten sie ein Gitter, das viel weniger Nullzellen und eine fast globale Abdeckung hat. Da die meisten HadSST-Nullzellen in der Nähe der Pole liegen, hat die NOAA ERSST-Aufzeichnung eine niedrigere Temperatur, wie in den Abbildungen 1 und 2 zu sehen ist. Um den Unterschied zu verdeutlichen, ist es aufschlussreich, einen Teil des ursprünglichen 2-Grad ERSST-Gitters zu betrachten, siehe Tabelle 1. Der gezeigte Bereich liegt im Arktischen Ozean, nördlich von Russland und Alaska.

Tabelle 1. Ein Teil des ERSST-2-Grad-Gitters der SSTs 2018 im Arktischen Ozean, nördlich von Alaska und Russland. Beachten Sie den konstanten „Füllungs“-Wert von 1,8 °C über einem Großteil des Gebiets.

Als Nächstes sehen wir uns das HadSST-Gitter über demselben Teil des Arktischen Ozeans in Tabelle 2 an. Diese Werte sind keine Temperaturen, sondern die Anzahl der Nullmonate 2018 für diese Zelle. Mit unserer Methodik, nur einen Nullmonat pro Jahr zuzulassen, würde nur eine dieser Zellen, Breitengrad = 62,5 und Längengrad = -177,5, in unserem Mittelwert verwendet werden. Während der in Tabelle 1 gezeigte Teil des Arktischen Ozeans im ERSST-Gitter vor der Anwendung der HadSST-Maske vollständig gefüllt ist, werden alle Werte nach Anwendung der Maske null.

Tabelle 2. Arktischer Ozean HadSST-Gitterzellen. Die Werte sind die Anzahl der fehlenden Monatswerte im Jahr 2018.

Abbildung 3 ist die ursprüngliche ERSST-Durchschnittstemperaturkarte für 2018. Wie man sieht, hat sie Werte über den größten Teil des Globus, die Nullen sind im Allgemeinen in den polaren Ozeanen unter Meereis. Der blaue Fleck im äußersten Nordwesten, nördlich von Alaska und Russland, ist das Gebiet, das in den Tabellen eins und zwei gezeigt wird. Abbildung 3 ist die Karte, die die untere ERSST-Linie in den Abbildungen 1 und 2 darstellt. Die Linie zeigt einen steigenden Temperaturtrend von etwa 1,6°C pro Jahrhundert.

Abbildung 3. Die ursprünglichen ERSST-Gitterzellen in 2-Grad-Breiten- und Längengraden. Weiße Regionen sind Null.

Abbildung 4 zeigt die gleichen Daten wie in Abbildung 3, aber jede HadSST-Zelle, die mehr als einen Monat ohne Wert im Jahr 2018 hat, wurde gelöscht. Man beachte, dass der blaue Fleck nördlich von Alaska und Russland, im Arktischen Ozean, verschwunden ist. Die Null-Zellen sind in weiß dargestellt. Wir haben subjektiv zugelassen, dass ein Monat keinen Wert hat, aber zwei wurden als zu viel angesehen. Die großen saisonalen Temperaturschwankungen in den Polarregionen hätten dazu führen können, dass mehr als ein Nullmonat den Durchschnitt beeinflusst. Die oberste Linie in Abbildung 2 wird durch Abbildung 4 dargestellt. Die Linie liegt zwischen 20°C und 21,5°C. Durch das Ausblenden genau der Zellen, in denen HadSST mehr als einen Nullmonat hatte, sprang der ERSST-Mittelwert von 14°C auf 21°C, ein Anstieg von 7°! Außerdem ist die neue Linie mehr als 2°C wärmer als HadSST. Die neue ERSST-Linie hat auch ihren Trend umgekehrt, sie zeigt jetzt einen abnehmenden Temperaturtrend von 3,5°C/Jahrhundert, fast genau so wie HadSST (3,48°C/Jahrhundert).

Abbildung 4. Die ERSST-Karte mit einer angewandten HadSST-Null-Gitterzellenmaske. Weiße Regionen sind null.

Abbildung 5 zeigt die Maske, die verwendet wurde, um die HadSST-Nullzellen in der ERSST-Karte in Abbildung 4 zu löschen. Die Farben in Abbildung 5 repräsentieren die Anzahl der fehlenden HadSST-Monatswerte. Wir haben einen fehlenden Monat zugelassen, also sind einige der blauen Zellen null, die eine „1“ darstellen und einige nicht, die eine „2“ darstellen. Alle anderen Farben sind „nulled“. Weiße Bereiche haben keine fehlenden Monate. Bitte beachten, dass die Formen in Abbildung 4 nicht exakt mit den Formen in Abbildung 5 übereinstimmen werden. Das ERSST-Gitter ist ein 2-Grad-Gitter und wir wenden eine 5-Grad-Gittermaske darauf an. Dazu musste ich von jeder Zelle aus 2,5 Grad in alle Richtungen suchen und ein 2-Grad-Zellengitter mit den fehlenden Monaten aus einem 5-Grad-Gitter auffüllen. Dieses Verfahren ist so genau wie möglich, kann aber die Nullbereiche um bis zu einer Zwei-Grad-Zelle verzerren. Es gibt keinen genaueren Weg, dies zu tun, ohne zwei Gitter mit übereinstimmenden Gitterzellengrößen zu haben.

Abbildung 5. Die HadSST-Maske, die auf Abbildung 3 angewendet wurde, um Abbildung 4 zu erhalten. Wir akzeptierten Zellen, die einen monatlichen Nullwert (dunkelblau) oder keine monatlichen Nullwerte (weiß) hatten. Zwei monatliche Nullwerte oder mehr wurden abgelehnt. Die Farben stellen die Anzahl der Monate im Jahr 2018 dar, die keine Werte aufweisen. Daher sind die meisten der farbigen Boxen in Abbildung 4 Nullen. Einige der tiefblauen Kästchen werden akzeptiert, die für „1“ stehen, einige nicht, die für „2“ stehen.

Diskussionen und Schlussfolgerungen

John Kennedy hatte recht, dass die Anwendung der HadSST-Nullmaske auf die NOAA ERSST-Aufzeichnung einen Unterschied machte, die durchschnittliche globale Temperatur sprang um 7°C! Was vielleicht noch wichtiger ist: Der Trend kehrte sich von einem Erwärmungstrend von 1,6°C/Jahrhundert zu einem Abkühlungstrend von 3,5°C/Jahrhundert um. Da die Polarregionen die meisten der neu ausgefallenen Zellen enthalten, könnte man daraus schließen, dass sich die Polarregionen ziemlich stark erwärmen und der Rest des Weltozeans sich abkühlt. Dies ist konsistent mit den Beobachtungen, insbesondere in der Region um den Nordpol. Aber es ist nicht konsistent mit der „CO2-Kontrollknopf“-Hypothese (Lacis, Schmidt, Rind, & Ruedy, 2010). Wenn steigendes CO2 die jüngste Erwärmung verursacht, warum sollte sich dann der größte Teil der Welt abkühlen?

Wir werden nicht beurteilen, welche Schätzung der globalen Ozeanoberflächentemperatur besser ist, beide haben einen Nutzen. Die HadSST-Schätzung spiegelt die zugrunde liegenden Daten genau wider, Durchschnittswerte repräsentieren Daten besser als Interpolation und Extrapolation. Wenn das Ziel jedoch darin besteht, die bestmögliche Schätzung der globalen Durchschnittstemperatur mit den uns zur Verfügung stehenden Daten zu erreichen, dann ist das ERSST-Gitter besser. Unser Ziel war es, die beiden Gitter zu vergleichen, ohne Anomalien zu verwenden, die hier nicht benötigt werden. Kennedys Kommentare haben uns dabei geholfen, und wir sind dankbar für die Hilfe. Das Ergebnis zeigt, dass die ERSST-Schätzung, die auf die Mehrjahresschätzungen der Universität Hamburg und des NOAA MIMOC fällt, zwar wahrscheinlich die beste Schätzung der globalen Ozeanoberflächentemperatur, aber dennoch spekulativ ist. Die wahren Ozeanmessungen, die durch HadSST gut repräsentiert werden, unterstützen ERSST nicht. Daher ist die ERSST-Schätzung zwar logisch, aber sie leitet sich nicht aus den zugrunde liegenden Daten ab. Nur weil eine Karte so aussieht, wie sie Ihrer Meinung nach aussehen „sollte“, ist sie noch lange nicht richtig.

Wir können auch folgern, dass wir keine Ahnung haben, was die globale durchschnittliche Oberflächentemperatur der Ozeane ist oder ob sie sich erwärmt oder abkühlt. Die in den Abbildungen 1 und 2 dargestellten Daten zeigen eine riesige Temperaturspanne, und alle basieren im Wesentlichen auf den gleichen Rohdaten. Der Fehler, den die Schätzungen implizieren, liegt bei mindestens ±3,5°C. Die von HadSST/ERSST geschätzte Erwärmung über unnötige und irreführende Anomalien beträgt 1,7°C/Jahrhundert für diesen 19-jährigen Zeitraum. Doch sowohl die HadSST- als auch die ERSST-Ist-Temperaturen zeigen eine Abkühlung von 3,5°C/Jahrhundert über denselben Zeitraum.

Jeder, der glaubt, er wisse, was das Klima heute tut oder in zehn Jahren tun wird, hat einfach nicht aufgepasst. Es sollte jedem klar sein, dass die Ozeane der wichtigste Treiber unseres langfristigen Klimas sind, und die Aufzeichnungen, auf die wir uns verlassen, um uns zu sagen, wie sich die Temperaturen der Meeresoberfläche und der gemischten Schicht verhalten, sind dieser Aufgabe nicht gewachsen. Man könnte genauso gut Würfel benutzen, um eine Temperatur zu wählen.

[Hervorhebung vom Übersetzer]

I processed a lot of data to make this post, I think I did it correctly, but I do make mistakes. For those that want to check my work, you can find my R code here.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

Works Cited

Lacis, A., Schmidt, G., Rind, D., & Ruedy, R. (2010, October 15). Atmospheric CO2: Principal Control Knob Governing Earth’s Temperature. Science, 356-359. Retrieved from https://science.sciencemag.org/content/330/6002/356.abstract

Link: https://wattsupwiththat.com/2020/12/16/sea-surface-temperatures-hadley-centre-v-noaa/

Übersetzt von Chris Frey EIKE