Immer teurere und ineffek­tivere Klimaziele

Nur eine massive und weltweite Transformation von Stromverbrauch, Transportwesen und Landwirtschaft kann den Temperaturanstieg um 2°C verhindern. Genau dazu haben sich Nationen im Pariser Klima-Abkommen verpflichtet.

In einem Kommentar zu dem Report sagte der norwegische Umweltminister Ola Elvestuen: „Wir bewegen uns viel zu langsam. Wir müssen mehr schneller tun. Um die Ziele des Paris-Abkommens zu erreichen brauchen wir große strukturelle Änderungen“.

Das Problem: Regierungen tun sich immer schwerer, die Bevölkerung von den radikalen Restriktionen bzgl. fossiler Treibstoffe sowie von fundamentalen Änderungen ihrer Lebensweise zu überzeugen, um den Pariser Klima-Verpflichtungen gerecht zu werden. Dabei zeigen schon die IPCC-eigenen Berechnungen, dass diese Verpflichtungen unzureichend sind, um den befürchteten Temperaturanstieg zu verhindern. Die Menschen verstehen nicht, dass die minimalen Vorteile des Klimawandels nur dann zu erreichen sind, wenn sie Opfer bringen, welche ihnen einen niedrigeren Lebensstandard beschert.

Selbst für die minimalen, von Regierungen durchgeführten oder geplanten Maßnahmen muss man schon einen hohen Preis zahlen.

Im Jahre 2016 und dann wieder 2018 beispielsweise hat das Repräsentantenhaus Resolutionen zugestimmt, in denen eine Steuer auf Kohlendioxid-Emissionen zurückgewiesen wird, haben doch Forschungen gezeigt, dass schon eine so geringe Steuer wie 28 Dollar pro Tonne zu verminderter ökonomischer Aktivität führen, während der nächsten vier Jahrzehnte bis zu 21 Millionen Arbeitsplätze kosten und die Löhne der Arbeiter um 8,5% sinken lassen wird. Eine andere, separat durchgeführte Studie ergab, dass eine Kohlenstoff-Steuer von 37 Dollar pro Tonne zu einem Verlust des gesamtwirtschaftlichen US-Bruttoinlandproduktes von über 2,5 Billionen Dollar führen würde. Das bedeutet über 21.000 Dollar Einkommensverlust pro Familie – und bis zum Jahre 2030 den Verlust von über 500.000 Arbeitsplätzen im produzierenden Gewerbe und über 1 Million Arbeitsplätze allgemein.

Die kanadische Zeitung Financial Post berichtet, dass die von Premierminister Justin Trudeau ins Spiel gebrachte Kohlenstoff-Steuer von 50 Dollar pro Tonne die Haushalte in Nova Scotia mit 1120 Dollar pro Jahr zu stehen kommt, in Alberta sind es 1111 Dollar pro Jahr. In beiden Provinzen bewirkt diese Steuer die höchsten Preissteigerungen für Energie. Selbst in Quebec und Manitoba, wo die Energiepreise aufgrund der Steuer am wenigsten steigen werden, müssen Haushalte immer noch jeweils 662 bzw. 683 Dollar mehr pro Jahr für Strom bezahlen.

Es kommt für die Kanadier aber noch schlimmer. Die Financial Post berichtet von vielen Experten, die sagen, dass eine zur Verhinderung einer Katastrophe ausreichenden Reduktionen von Kohlendioxid-Emissionen mit bis zu 100 Dollar pro Tonne besteuert werden müssen.Bei einem solchen Szenario „werden die Haushalte in Alberta bis zu 2223 Dollar, in Saskatchewan 2065 Dollar und in Nova Scotia 2240 Dollar berappen müsse. Tatsächlich wird der mittlere Preis für Haushalte bei einer Steuer von 1000 Dollar pro Tonne deutlich über 1000 Dollar pro Jahr liegen“. So weit die Financial Post.

Als Reaktion auf steigende Energiepreise haben die Premierminister von vier kanadischen Provinzen beschlossen, die Steuern, Programme und Abgaben in ihren Provinzen zu kassieren, welche den Bürgern auferlegt worden waren, um Trudeaus Kohlenstoff-Steuer umzusetzen.

All dies kommt vor dem Hintergrund, dass neuen Forschungen zufolge der Preis von Kohlendioxid viel höher als derzeit sein müsste, um die vermeintliche Klimakatastrophe zu verhindern. …

Politiker, welche damit konfrontiert sind, von den Wählern aus dem Amt gewählt zu werden aufgrund deren Unwillen, höhere Strompreise zu zahlen für immer unzuverlässig fließenden Strom und dafür den hohen Preis für Kohlenstoff zahlen sollen, sagen aber, dass eben dies notwendig ist zur Vermeidung einer Katastrophe. Führende Politiker in Australien, Brasilien und Kanada distanzieren sich öffentlich von ihren Verpflichtungen zur Reduktion von Kohlenstoff-Emissionen, obwohl sie unwillig sind, sich explizit aus dem Paris-Abkommen zurückzuziehen, wie Präsident Trump es vorgemacht hatte. In China, Europa und Japan verleihen politische Führer ihrer Treue zu dem Abkommen Ausdruck, während sie ihre Emissions-Reduktionsziele verfehlen, still und leise neue Kohle- und Gaskraftwerke genehmigen und mehr durch fossile Treibstoffe angetriebene Fahrzeuge verkaufen.

Aber ich habe gute Nachrichten. Allen vorliegenden Beweisen zufolge verursachen die Menschen nicht eine Klima-Apokalypse. Das bedeutet, dass ein Scheitern von Paris völlig in Ordnung und sogar wünschenswert ist, weil die Annullierung desselben mehr und preiswertere Energie für alle bedeutet.

H. Sterling Burnett

Quellen: The Hill; IHS Markit; Anti-Carbon Tax Coalition 2018; Anti-Carbon Tax Coalition 2016; Financial Post; Vox

Link: https://www.heartland.org/news-opinion/news/increasingly-costly-ineffective-climate-targets

Übersetzt von Chris Frey EIKE




Wenn etwas schlechter wird, hat die Schuld immer der Klimawandel …

Deutsche Stromversorgung bleibt verlässlich, aber …

Die Pressemitteilung der Bundesnetzagentur [2] dient dem Zweck, den deutschen Untertanen zu vermitteln, dass das EEG ein Segen für unser Energiesystem ist und alle bösen Stimmen, welche Probleme vermitteln wollen, Unrecht haben. Wenn es überhaupt Probleme gibt, dann ist es der Klimawandel mit seinen unerbittlichen Folgen:
BNetzA: [3]:
BNetzA: Nun gibt es in Deutschland aber keine Zunahme von Extremwetter …

Und so stellt sich die Frage: wie kommt die Bundesnetzagentur auf ihre Aussage, dass der Anstieg der Länge der Ausfallzeiten vom Jahr 2016 auf das Jahr 2017 zunehmenden, extremen Wetterereignissen geschuldet ist?
Vergleichen wir dazu die Extremereignisse dieser beiden Jahre.

Wetterrückblick Deutschland zum Jahr 2016

DWD 29.12.2016: Deutschlandwetter im Jahr 2016
Schnee bis ins Flachland. Ende Mai und im Juni entluden sich schwere Gewitter mit extremen Regenfällen, die örtlich zu katastrophalen Überflutungen führten. Damit war in der ersten Jahreshälfte 2016 an zahlreichen DWD-Stationen schon mehr Niederschlag gefallen als im ganzen Jahr 2015. Dann stellte sich die Großwetterlage um: Die folgenden Monate blieben teils erheblich zu trocken, ab Juli rollten mehrere Hitzewellen heran. Der September gehört zu den drei wärmsten seit Aufzeichnungsbeginn 1881, der Oktober und November blieben zu kühl. Der Dezember verlief zwar deutlich kälter als im Jahr 2015, aber fast genauso schneearm.

Wetterrückblick Deutschland zum Jahr 2017

2017 war ein Jahr der Wetterextreme
02.01.2018 – 2017 war erneut ein sehr warmes Jahr, unbeständig und oft extrem. Vizepräsident Dr. Becker berichtet darüber unter anderem in Tagesschau und Tagesthemen.
Das Wettergeschehen zeigte im Jahresverlauf oft wenig Beständigkeit, dafür aber immer wieder extreme Ausprägung. Der Januar begann mit teilweise strengen Nachtfrösten, die zahlreiche Gewässer zufrieren ließen. Im Februar schien der Winter bereits auf dem Rückmarsch zu sein: Im Flachland fiel verbreitet keine einzige Schneeflocke. Der März war sogar der wärmste seit Messbeginn 1881. Im April folgte dann jedoch ein jäher Kälterückfall mit Minusgraden, der sich katastrophal auf die schon sehr weit fortgeschrittene Vegetation auswirkte. Nach nass-kühlem Beginn rollte bereits Ende Mai die erste Hitzewelle heran. Der Sommer präsentierte sich im Süden sehr heiß, im Norden eher kühl. Dabei herrschte zunächst Trockenheit, im Juli und August fiel dann oft reichlich Niederschlag. Auch der September verlief nass und dabei etwas zu kühl. Der Oktober gehörte dann wieder zu den wärmsten seit 1881. Die Orkane „Xavier“ und „Herwart“ forderten Menschenleben und verursachten große Schäden. Anfang November begann eine längere Niederschlagsperiode mit nur wenigen trockenen Tagen, die bis zum Jahresende anhielt. In der Adventszeit fiel gelegentlich auch im Flachland etwas Schnee, der jedoch bei Tauwetter immer wieder rasch verschwand.

Was sagte ein Versicherer dazu:
GDV 27.12.2017: Naturgefahrenbilanz 2017
… Wie bereits im Jahr 2016 fällt die Naturgefahrenbilanz 2017 mit erneut 2 Milliarden Euro Versicherungsleistung
unterdurchschnittlich aus: Es wüteten nur wenige, regional begrenzte Unwetter. Schon diese Wetterlagen können hohe Schäden verursachen; große Naturkatastrophen blieben 2017 allerdings aus.

Bild 1.1 Verlauf jährlicher Schadensaufwand durch Umweltereignisse. Quelle: GDV

Bild 1.2 Verlauf Sturmereignisse in Deutschland. Quelle: MunichRE NatCatSERVICE

Bild 1.3 Verlauf Sturmereignisse in Westeuropa. Quelle: MunichRE NatCatSERVICE

Was war dazwischen der Extremwetter-Unterschied?

Die Bundesnetzagentur berichtet als Ursache der „Probleme“:
BNetzA: Anstieg wegen extremer Wetterereignisse“ deuten zu können, vollkommen unsachlich, aber inzwischen leider in der Berichterstattung von (politisch gelenkten) Organisationen Standard. Solche Betrachtungen sind jedoch zur Generierung von „Extremen“ erforderlich, da auch in Deutschland mittel- und langfristig keinerlei Zunahme von AGW-Klimawandel-bedingten Extremereignissen messbar ist:
EIKE 6. Oktober 2018:
Das FAZ-Klima-Interview vom 2.10.2018: Nachdem sie das Ziel endgültig aus den Augen verloren hatten, verdoppelten sie ihre Anstrengungen
EIKE 09. September 2018: [3] Deutschland in den Klauen des Klimawandels
kaltesonne
Unwetter in Europa: Nicht mehr Überflutungen als früher (3.6.2018)
Hessischer Starkregen aus dem Juli 2014 eine Folge des Klimawandels? Eher unwahrscheinlich. Statistiken zeigen eine Abnahme schwerer sommerlicher Regengüsse während der letzten 100 Jahre (21.8.2014)
Deutscher Wetterdienst: Es gibt in Deutschland keinen Trend zu heftigeren Regenfällen (8.6.2016)
Eine unbequeme Wahrheit: Während der Kleinen Eiszeit waren die Stürme in Europa stärker als heute (5.8.2012)
PIK endlich einmal mit guten Nachrichten: Sturmaktivität der nördlichen mittleren Breiten hat signifikant abgenommen (3.10.2016)
Neue begutachtete Studie in Nature Climate Change: Klimawandel lässt Hochwasser in Europa wohl in Zukunft seltener werden (11.6.2013)

Wie sehen die Versorgungsdaten eigentlich aus?

Interessant wird es (wieder), wenn man sich die Versorgungsdaten bei der Bundesnetzagentur selbst ansieht, grafisch aufbereitet und betrachtet, welche Aussagen daraus abgeleitet werden können.

Für die Grafiken vorab die Erklärung der verwendeten Kenndaten:
Die Bundesnetzagentur ermittelt aus den von den Netzbetreibern übermittelten Daten zu Versorgungsunterbrechungen mit einer Dauer über drei Minuten bestimmte Kennzahlen.
Kennzahlen bzw. Indizes
SAIDIEnWG (System Average Interruption Duration Index)
Spiegelt die durchschnittliche Versorgungsunterbrechung je angeschlossenen Letztverbraucher innerhalb eines Kalenderjahres wieder.
ASIDIEnWG (Average System Interruption Duration Index)
Spiegelt die durchschnittliche Versorgungsunterbrechung je angeschlossenen Bemessungsscheinleistungen innerhalb eines Kalenderjahres wider.
SAIDIEnWG-Gesamt
Summe aus dem SAIDI
EnWG und dem ASIDIEnWG

Zuerst das Gesamtbild, wie es die BNetzA zeigt. Die Darstellung der Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 zeigt keinen verschlimmernden Einfluss durch einen „Anstieg wegen extremer Wetterereignisse“. Nur ist richtig zu erkennen, dass das Jahr 2017 gegenüber dem Vorgängerjahr leicht schlechter ist, der Gesamttrend aber seit dem Jahr 2006 deutlich zu niedrigeren Versorgungsunterbrechungen zeigt. Ein negativer Trend, oder eine signifikante Trendumkehr ist daraus nicht ableitbar.

Bild 2 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006. Quelle: BNetzA

Im folgenden Bild 3 sind anhand der verfügbaren Einzeldaten die Unterbrechungen nach Netzart dargestellt. Man sieht, dass Die Ausfallzeiten im Niederspannungsnetz fast durchgehend gleich bleiben, eher abnehmen, nur im Mittelspannungsnetz nahmen sie das eine Jahr von 2016 auf 2017 etwas deutlicher zu.
Trotzdem textet die BNetzA;
BNetzA:

Bild 3 Durchschnittliche Versorgungsunterbrechungen seit 2006. Grafik vom Autor erstellt. Datenquelle: BNetzA

Von der BNetzA lassen sich auch die Daten der einzelnen Bundesländer laden. Dann sehen die Verläufe wie im folgenden Bild 4 aus. Dabei ist zu beachten, dass die BNetzA-Daten anstelle mit dem Jahr 2006 wie in der vorhergehenden Übersichtsgrafik, erst mit dem Jahr 2008 beginnen. Dann hat das Jahr 2017 einen „Zuwachs“ seit 2008 von 2,8 % (was nicht mehr als statistisches Rauschen ist). Seit dem Jahr 2011 aber eine Verringerung von -24 %!
Ergänzt man jedoch die fehlenden, zwei Anfangsjahre, dann weist das Jahr 2017 plötzlich eine Verringerung um -19,6 % aus!

Bild 4 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 mit prozentualer Normierung auf das Jahr 2006 (Y-Achse: % Abweichung). Die Daten von 2006/2007 für den Mittelwert sind vom Autor zugefügt. Grafik vom Autor erstellt. Datenquelle: BNetzA

Schlägt der Klimawandel nur im (falsch wählenden) Osten zu?

Auffallend am Bild 4 ist, dass sich herausragend schlechte Netzdaten auf wenige, ausschließlich im Osten gelegene Länder konzentrieren, von denen aber trotzdem die meisten von 2016 auf 2017 eine Verbesserung zeigen. Und es fällt natürlich auch auf, dass trotzdem in Summe eine Verbesserung und vor allem weder langfristig, noch kurzfristig, keinerlei Verschlechterungstendenz vorliegt.

Es kann aber unmöglich sein, dass sich der „schlimme Einfluss“ der „Zunahme extremer Wettereignisse“ ausgerechnet auf wenige, im Osten konzentrierte Bundesländer beschränken sollte.
Nimmt man die Ost-Versorgungsgebiete (welche ausschließlich im Bereich des Betreibers 50herz liegen) weg (Bild 5), verhalten sich die Schwankungen der Versorgungsstabilität auf einmal vollkommen normal und in einer „sinnvollen“ Schwankungsspanne. Wirklich nichts – auch nicht die geringste Spur – lässt auf den signifikanten Einfluss oder eine signifikante Einfluss-Zunahme von Extremereignissen schließen.

Die Frage stellt sich, wie der unerbittliche Klimawandel mit seinem angeblich schon zunehmendem Extremwetter sich so konsequent auf die Ost-Versorgungsgebiete eines Betreibers „beschränkt“.

Bild 5 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 mit prozentualer Normierung auf das Jahr 2006 (Y-Achse: % Abweichung). Daten von Bild 4 ohne die Ost-Versorgungsgebiete (außer Berlin), Maßstab wie Bild 4. Grafik vom Autor erstellt. Datenquelle: BNetzA

Dafür muss – und wird – es ganz andere Erklärungen geben. Zum Beispiel könnte die Folgende ein kleiner Hinweis sein:
energatemessenger 02.01.2018 [4]Dass der Netzausbau zur Stabilisierung der Kosten für Redispatch- und Einspeisemanagement-Maßnahmen beiträgt, zeigt das Beispiel „Thüringer Strombrücke“. Die Kuppelleitung wurde im November 2017 vollständig in Betrieb genommen und ist ein wesentlicher Faktor, warum sich die Engpasskosten im Netzgebiet des ostdeutschen Übertragungsnetzbetreibers 50 Hertz stabilisiert haben.

Und somit kann man schon einmal über die BNetzA-Pressemitteilung eine Aussage treffen:
Die BNetzA in Vertretung durch ihren Vizepräsidenten Franke, hat in ihrer Pressemitteilung wie üblich, in vorauseilendem Gehorsam bewusst eine politisch gewünschte Klimawandel-Tendenzaussage „dazugedichtet“.
Der Autor hat dazu bei deren Pressestelle nachgefragt und ist auf die Antwort gespannt.

Wenn es nicht am Klimawandel liegt, wer könnte trotzdem einen Trend hervorrufen?

Die bisherige Darstellung zeigt, dass die Netzstabilität – bezogen auf die Länge der Ausfallzeiten – stetig besser geworden ist.
Allerdings kaschieren diese Darstellungen vollständig bereits im System erkennbare und wirklich stetig zunehmenden Probleme, welche die BNetzA in ihrer Pressemitteilung allerdings verschwiegen hat. Es gibt sie bereits massiv und bald werden Blackouts folgen.

Die Kosten haben wir schon, die Verschlechterung kommt noch

Allerdings nicht wegen eines sich ständig verändernden Klimas, sondern genau wegen dem, was offiziell nicht sein darf:
BNetzA: energatemessenger: [4] Bayreuth/Berlin (energate) – Die Kosten zur Stabilisierung des Stromnetzes sind auf ein Rekordniveau gestiegen. Beim Übertragungsnetzbetreiber Tennet belaufen sich die Kosten für netzstabilisierende Maßnahmen für das Jahr 2017 auf voraussichtlich mehr als eine Mrd. Euro, gab das Unternehmen bekannt. Dieser Höchstwert entspreche einem Zuwachs von etwa 50 Prozent gegenüber 2016 (660 Mio. Euro). Im bisherigen Rekordjahr 2015 betrug der Wert 710 Mio. Euro … „Wir haben mehr denn je damit zu tun, das Netz zu stabilisieren“, sagte Tennet-Geschäftsführer Lex Hartman. Grund für den hohen Einsatz von Netz- und Systemsicherheitsmaßnahmen sei der unzureichende Netzausbau, der mit dem Erneuerbarenumbau nicht Schritt halte. „Bis das Energiewende-Netz gebaut ist, werden wir das Stromnetz weiter mit teuren Notmaßnahmen stabilisieren müssen“, so Hartman. Besserung sei nicht in Sicht: „Ich sehe für die nächsten Jahre keine Entspannung. Bevor es besser wird, wird es erst einmal schlechter.“

Bild 6 Entwicklung der Redispatch-Maßnahmen im deutschen Stromnetz. Quelle: BNetzA

Die Versorger und die Politik wissen um die kommende Problematik und bauen schon für den ersten Blackout (und die folgenden) vor:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Die Süddeutsche Zeitung meldete es am 6./7.Oktober 2018 als eine grandiose, dem Fortschritt dienende Maßnahme:
SZ: Intelligenter Strom – Bayernwerk weiht Europas modernste Energieanlage ein
… hat die Bayernwerk AG am Freitag in Dachau ihre neue Leitstellen-Technologie in Betrieb genommen. Sinn und Zweck der 22 Millionen teuren Hard- und Software ist es, künftig flexibel und effizient auf ein Zuviel oder Zuwenig an eingespeistem Strom und Bedarf reagieren zu können … somit haben die Betreiber die Kontrolle über Einspeisung und Verbrauch, Zustand der Leitungen, Störungen und sogar über Wind und Wetter … Personal spart sich das Bayernwerk dadurch nicht. „Geht die Entwicklung so weiter, müssen wir sogar noch mehr Techniker einstellen“ ..
.

Intelligenz“ beginnt in Deutschland, wenn ein Schalter betätigt werden kann

Die im SZ-Artikel von der Redakteurin, dem Staatssekretär Pschierer und dem Bayernwerk als Betreiber hochgelobte, „modernste Energieanlage Europas“ liefert also „Intelligenten Strom“.
Dazu muss man seine eigene schon sehr stark reduzieren (so man sie vorher hatte), um dem Strom eine Intelligenz zu geben. Denn diese „Energieanlage“ liefert keine Energie, sondern macht nichts weiter, als Strom zu- und abzuschalten, wenn zu wenig, oder zu viel vorhanden ist. Und natürlich ermittelt und verrechnet sie die Kosten, mit denen die Verbraucher zu belasten und die Profiteure zu belohnen sind.
Der Autor kann dem Zu- und Abschalten von Strom trotzdem nach wie vor keine besondere „Intelligenz“ einräumen und schon gar nicht feststellen, dass der Strom dank dieser „Schulung“ irgendwie eine Intelligenz bekommen hätte.

Spinnt man diese „Intelligenz“ nämlich weiter, dann haben die Mangel-Stromversorgungen in Afrika weltweit die größte Intelligenz. Da die (Strommangel-)Schaltungen dort nicht von teuren Computersystemen, sondern direkt von Menschen „gelenkt“ und ausgeführt werden, sind diese wohl auch die intelligentesten auf der Welt ….

Aber Intelligenz durch Schaffen eines in sich stabilen Versorgungssystems – wie es über viele Jahrzehnte in Deutschland weltweit beispielhaft war – ist „langweilig“ und entspricht nicht mehr modernen Zeiten. Vor allem konnte am früheren, inhärent stabilen Energiesystem kein Wählerklientel verdienen:
EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern
EIKE 14.04.2018: Die wundersame Speicherung des EEG-Zappelstroms, oder: Die nächste Abzocke privater Stromkunden durch die EEG-Energieernter
Von einem modernen System erwartet „man“ keine Stabilität, sondern fordert, dass es hip ist:
EIKE 27.07.2017: Der letzte Enabler hat ja einen super Elevator-Pitch hingelegt, aber ohne Blockchain sehe ich da keine scalability

Damit Deutschland Intelligenz ausreichend bekommt, wird entsprechend ausgebildet

Die Wahl-Werbeslogans der Parteien sind inzwischen so schlecht und nichtssagend, dass man fast Beliebiges in sie hineininterpretieren kann. Bei einer Partei könnte man interpretieren, dass sie einen Slogan, der aus der Maobibel – oder modifiziert, aus der ehemaligen DDR – stammen könnte verkündet: „Übersetzt“: Zuerst indoktrinieren wir die Kinder, dann indoktrinieren diese die Welt, nun auch in Bayern umsetzen will.

Bild 7 Wahlplakat zur Bayernwahl. Foto vom Autor

Dazu passt, was man im Bund angeblich vorhat: Den Untertanen soll die Nutzung alternativer Information endlich eingeschränkt werden. Zu Viele Untertanen zeigen inzwischen „eingeschränkte Kompetenz“, was die Politik zunehmend beunruhigt:

Bild 8 News-Information (Auszug). Quelle: Zeitschrift Smartphone 7/18 Okt. Nov. 2018

Die Lokalzeitung des Autors hat das auch schon festgestellt. Die unter 18 dürfen inzwischen ja wählen üben. Das erste Ergebnis zeigte, dass die 12- bis 17jährigen in Bayern doppelt so oft GRÜN wählen (würden), als die Erwachsenen und nur verschwindend die AFD. Die Lokalredaktion konnte sich im Bericht vor Begeisterung über die politische Sachkunde der heutigen Jugendlichen und deren vorbildliches Wahlverhalten kaum bremsen.

Quellen

Weniger Stromausfälle gemeldet

[2] BNetzA 05.10.2018: Versorgungsunterbrechungen Strom 2017

[3] EIKE 09. September 2018: Deutschland in den Klauen des Klimawandels

[4] energatemessenger 02.01.2018:Netzstabilität Kosten für Netzeingriffe auf Rekordniveau




Brandaktuell: Untersuchung des Globale-Erwärmung-Daten­satzes zeigt, dass er von Fehlern wimmelt

Vom IPCC:

Globale Erwärmung um 1,5°C – ein Sonderbericht des IPCC zu den Auswirkungen einer globalen Erwärmung um 1,5°C über das vorindustrielle Niveau und damit zusammenhängende Treibhausgas-Emissionen im Zusammenhang mit der Intensivierung der globalen Bemühungen gegen die Bedrohung des Klimawandels, nachhaltige Entwicklung und Bemühungen zur Bekämpfung der Armut.

Das hat man nun von Konsens-Wissenschaft – groupthink ohne Qualitätskontrolle.

HadCRUT4 ist der primäre, vom IPCC herangezogene globale Temperatur-Datensatz für dessen dramatische Behauptungen über eine „vom Menschen verursachte globale Erwärmung“. Es ist auch der Datensatz im Mittelpunkt von „Klimagate 2009“, gemanagt von der Climate Research Unit (CRU) an der East Anglia University.

Die Überprüfung ergab über 70 bedenkliche Bereiche – bedenklich hinsichtlich der Qualität und der Präzision der Daten.

Einer Analyse des australischen Forschers John McLean zufolge ist der Datensatz viel zu schlampig, um selbst von Klimawissenschaftlern ernst genommen werden kann, geschweige denn von einer so einflussreichen Institution wie dem IPCC oder von den Regierungen der Welt.

Wesentliche Punkte:

Die Hadley-Daten sind unter den von den wichtigsten Datensätzen am meisten angeführten Daten zur Klima-Modellierung und damit für politische Maßnahmen, bei denen Milliarden von Dollars involviert sind.

Mclean fand sonderbar unglaubwürdige Daten sowie systematische Adjustierungs-Fehler, große Lücken ohne irgendwelche Daten, Fehler bei der Zuordnung von Standorten, Grad Fahrenheit, die als Grad Celsius angegeben worden sind, und Rechtschreibfehler.

Es wurden keinerlei Qualitätskontrollen durchgeführt: Ausreißer, welche offensichtliche Fehler sind, wurden nicht korrigiert – eine Stadt in Kolumbien soll im Jahre 1978 drei Monate lang eine mittlere tägliche Temperatur von über 80°C aufgewiesen haben. Eine Stadt in Rumänien sprang direkt aus dem Sommer des Jahres 1953 in einem Frühlingsmonat mit minus 46°C. Dies sind vermeintlich „mittlere“ Temperaturen für einen ganzen Monat insgesamt. Aus St. Kitts, einer Insel in der Karibik, wurde einen ganzen Monat lang eine Temperatur von 0°C aufgezeichnet – und das zwei mal!

Die Temperaturen der gesamten Südhemisphäre im Jahre 1850 und der folgenden drei Jahre beruhen auf einer einigen Station in Indonesien und einigen zufälligen Schiffsbeobachtungen.

Wassertemperaturen der Ozeane repräsentieren 70% der Erdoberfläche, aber einige Messungen stammen von Schiffen, welche von Standorten 100 km landeinwärts geortet wurden. Andere Meldungen stammen von Schiffen in Häfen, wo die Wassertemperatur kaum repräsentativ für den offenen Ozean sein dürfte.

Wenn ein Thermometer an einer anderen Stelle aufgestellt wird, lässt die Adjustierung vermuten, dass die alte Messstelle immer zugebaut war und „aufgeheizt“ wurde durch Beton und Gebäude. In Wirklichkeit kam die künstliche Erwärmung schleichend daher. Mittels einer Korrektur aufgrund von Gebäuden, die im Jahre 1880 noch gar nicht existierten, wurden alte Aufzeichnungen künstlich kälter gemacht. Adjustierungen von nur wenigen Änderungen der Messorte können ein ganzes Jahrhundert lang künstliche Erwärmungstrends erzeugen.

Details der schlimmsten Ausreißer

Die Monats-Mitteltemperatur vom September 1953 in der rumänischen Stadt Paltinis wird mit -46,4°C angegeben (in anderen Jahren betrug das September-Mittel etwa 11,5°C).

Am Golden Rock Airport auf der Karibikinsel St. Kitts werden für Dezember 1981 und 1984 mittlere monatliche Temperaturen von 0,0°C gemeldet. Aber von 1971 bis 1990 betrug das Mittel in allen anderen Jahren 26,0°C.

Mehr dazu bei Jo Nova.

Der Report

Unglücklicherweise liegt der Report hinter einer Zahlschranke. Aber die beträgt nur 8 Dollar.

Der Forscher John McLean führte seine Forschungen ausschließlich auf eigene Kosten durch, so dass ihm die Zahlschranke ein wenig Ausgleich bietet für die Zeit und Mühe, die er aufgebracht hat. Er schreibt:

Dieser Report basiert auf einer Aufgabenstellung für meine PhD-Arbeit. Ich erhielt meinen PhD im Dezember 2017 von der James Cook University in Townsville, Australien. Die Aufgabenstellung beruhte auf dem HadCRUT4-Datensatz und damit zusammenhängenden Datensätzen mit Stand von Ende Januar 2016. Dabei wurden 27 bedenkliche Umstände hinsichtlich des Datensatzes erkannt.

Die Versionen vom Januar 2018 der Datensätze enthielten nicht nur Aktualisierungen für die inzwischen vergangenen 24 Monate, sondern auch zusätzliche Messpunkte und daraus resultierende Änderungen der monatlichen globalen mittleren Temperatur-Anomalie bis zurück zum Beginn des Datensatzes im Jahre 1850. Der Report zieht die Daten vom Januar 2018 heran und überarbeitet die Analyse der ursprünglichen These bzw. erweitert diese, manchmal mit dem Weglassen unbedeutender Dinge, manchmal mit der Aufteilung wichtiger Themen und manchmal mit der Analyse neuer Bereiche. Die Ergebnisse werden in diesem Report beschrieben.

Die These wurde von Experten außerhalb der Universität unter die Lupe genommen, mit Bezug auf die Kommentare der Inspektoren überarbeitet und dann von der Universität akzeptiert. Der Prozess war zumindest äquivalent zu einem „peer review“, wie es von wissenschaftlichen Journalen durchgeführt wird.

Ich habe eine Ausgabe gekauft und daraus die folgende executive summary erstellt. Ich empfehle jedem dringend, ebenfalls eine Ausgabe zu kaufen und seine Arbeit zu unterstützen.

EXECUTIVE SUMMARY

Soweit ich weiß, ist dies das erste Audit des HadCRUT4-Datensatzes, also des Haupt-Datensatzes, der die Grundlage bildet für Klimazustands-Berichte des IPCC. Regierungen und das UNFCCC stützen sich schwer auf die IPCC-Berichte, so dass unabdingbar ist, dass die Temperaturdaten präzise und zuverlässig sind.

Diese Überprüfung zeigt, dass nichts dergleichen der Fall ist.

Über 70 Bereiche wurden untersucht, welche den gesamten Prozess abdecken von der Messung der Temperaturen bis zur Erstellung des Datensatzes, den daraus abgeleiteten Daten (wie etwa Mittelwerte) und deren eventueller Veröffentlichung. Die Ergebnisse (in kompakter Form in Anhang 6 gezeigt) enthalten sogar einfache Dinge wie offensichtlich falsche Daten, beschönigte Mängel von Daten, bedeutende, aber fragwürdige Hypothesen und Temperaturdaten, die unrichtig auf eine Art und Weise adjustiert worden sind, dass sie Erwärmung übertreiben.

So wurden beispielsweise Stationen gefunden, aus denen mittlere monatliche Temperaturen über 80°C vorlagen, zwei Beispiele einer Station in der Karibik mit gemeldeten mittleren Dezember-Temperaturwerten um 0°C und eine Station in Rumänien mit einer Meldung über ein September-Temperaturmittel um -45°C, wo doch das typische Septembermittel etwa 10°C beträgt. Als Clou des Ganzen gibt es auch Meldungen von Schiffen, die Standorte angaben, welche über 80 km landeinwärts liegen.

Es scheint, dass die Lieferanten der Temperaturdaten von Land und See keinerlei Checks auf grundlegende Fehler durchgeführt haben, und die Personen, welche den HadCRUT4-Datensatz erzeugten, haben diese Fehler nicht gefunden und auch keinerlei Fragen gestellt.

Das Verfahren zur Erstellung des Datensatzes hat einige Fehler entfernt, aber es wurde ein Satz von zwei Werten verwendet, berechnet aus einem Teil der Daten, aus denen jedoch vor der Berechnung die Fehler nicht korrigiert worden waren.

Datenmangel ist ein reales Problem. Der Datensatz beginnt im Jahre 1850, aber über zwei Jahre lang zu Beginn der Aufzeichnungen stammten die Festlands-Daten der Südhemisphäre von einer einzigen Station in Indonesien. Nach fünf Jahren gab es in jener Hemisphäre ganze drei Stationen. Globale Mittelwerte werden aus den Mittelwerten von jeder der beiden Hemisphären berechnet, so dass diese wenigen Stationen einen enormen Einfluss auf das haben, was vermeintlich „global“ genannt wird. Bezogen auf die Anzahl der Daten ist der Prozentsatz der Welt (oder der Hemisphäre) welche die Daten abdecken. Dem Verfahren der Berechnung der Abdeckung mit Daten in dem Datensatz zufolge wurden 50% der globalen Abdeckung erst im Jahre 1906 erreicht und 50% der Südhemisphäre erst im Jahre 1950.

Im Mai 1861 betrug die globale Abdeckung gerade mal 12% – weniger als ein Achtel. In vielen der Jahre von 1860 bis 1880 bestand die vermeintlich globale Abdeckung nur aus Europa sowie den Haupt-Schiffsrouten und Häfen, also nur etwa 13% der Erdoberfläche. Um aus diesen Daten Mittelwerte zu berechnen und sich auf diese als „globale Mittelwerte“ zu berufen muss man schon sehr leichtgläubig sein.

Ein weiteres bedeutendes Ergebnis dieses Audits ist, dass viele Temperaturwerte unsachgemäß adjustiert worden sind. Die Adjustierung von Daten zielt darauf ab, eine Temperaturaufzeichnung zu erzeugen, welche sich ergeben hätte, falls man an den gegenwärtigen Messpunkten und mit der Ausrüstung derselben die Temperatur vor Ort gemessen hätte. Adjustierungen werden typischerweise vorgenommen, wenn eine Station oder deren Instrumentierung verändert wurde.

Ein typisches Verfahren der Daten-Adjustierung ist es, alle zuvor gewonnen Messdaten um den gleichen Betrag zu verändern. Die Anwendung dieses Verfahrens Fälle mit graduellen Änderungen (wie etwa eine wachsende Großstadt die wahre Temperatur zunehmend beeinflusst), ist sehr falsch und führt dazu, dass die früheren Daten stärker adjustiert werden als man es hätte tun sollen. Messpunkte können häufig versetzt worden sein, und wenn man alle Daten zuvor jedes Mal adjustiert, können die frühesten Daten weit unter ihrem korrekten Wert liegen, womit der ganze Datensatz einen übertriebenen Erwärmungstrend zeigt.

Unter dem Strich lautet die Schlussfolgerung, dass die Daten in keiner Weise für globale Studien geeignet sind. Daten vor 1950 leiden unter geringer Abdeckung und sehr wahrscheinlichen falschen Adjustierungen der Stationsdaten. Daten nach jenem Jahr wiesen zwar eine bessere Abdeckung auf, haben aber immer noch das Problem der Daten-Adjustierung sowie die ganze Vielfalt der anderen, in dem Audit untersuchten Dinge.

Eine Berechnung der korrekten Temperaturen würde eine riesige Menge detaillierter Daten, Zeit und Mühe erfordern, was über diese Untersuchung hinausgehen würde und vermutlich unmöglich ist. Die primäre Schlussfolgerung des Audits lautet jedoch, dass der Datensatz eine übertriebene Erwärmung zeigt und dass globale Mittelwerte viel weniger sicher sind als behauptet.

Eine Implikation der Untersuchung ist, dass Klimamodelle frisiert wurden, damit deren Ergebnisse zu falschen Daten passen. Das verfälscht ihre Prophezeiungen zukünftiger Temperaturen und Schätzungen des menschlichen Einflusses auf die Temperatur.

Eine weitere Implikation ist, dass die Prämisse des Pariser Klima-Abkommens, nämlich die Mittelwerte der Jahre 1850 bis 1899 als „indikativ“ für die Temperaturen in vorindustrieller Zeit anzusehen, grundfalsch ist. Während jenes Zeitraumes war die globale Abdeckung mit Daten gering – nicht mehr als 30% über jenen Zeitraum – und viele Temperaturwerte vom Festland sind sehr wahrscheinlich exzessiv adjustiert worden und daher falsch.

Eine dritte Implikation ist, dass selbst falls die Behauptung des IPCC korrekt wäre, dass also die Menschheit für den größten Teil der Erwärmung seit 1950 verantwortlich ist, dann wäre die Größe einer solchen Erwärmung über die vergangenen 70 Jahre immer noch vernachlässigbar. Dann erhebt sich die Frage, ob die Mühen und Kosten, dieser zu begegnen, überhaupt in irgendeiner Weise Sinn machen.

Die Meinung des Autors ist ultimativ, dass der HadCRUT4-Datensatz und jedwede darauf beruhende Berichte oder Behauptungen in keiner Weise eine glaubwürdige Grundlage sind für Klimapolitik oder internationale Abkommen hinsichtlich der Gründe des Klimawandels.

Der ganze Report steht hier

Link: https://wattsupwiththat.com/2018/10/07/bombshell-audit-of-global-warming-data-finds-it-riddled-with-errors/

————————————

Auch der Karikaturist Josh, dessen Karikaturen verwendet werden dürfen, hat sich schon gedanken zum jüngsten IPCC-Bericht gemacht:

Josh: Der neue IPCC-Bericht ist ein Kunstwerk

Anthony Watts

Der Karikaturist Josh konnte schon vor der Veröffentlichung des IPCC SR 15-Berichtes darin Einblick nehmen und meint, dass ein technisches Wert hoch moderner Kunst ist:

Ich frage mich, was ist dieser Report wert?

Link: https://wattsupwiththat.com/2018/10/07/josh-the-new-ipcc-report-is-a-work-of-art/

Übersetzt von Chris Frey EIKE




Colorado sollte seinen riskanten Energie-Plan noch einmal überdenken

Wir würden es sehr begrüßen, wenn uns Andere folgen. Die Kommentarfunktion des PUC findet sich hier.

Dem Energieplan zufolge sollen zwei Kohleenergie-Erzeugungseinheiten mit einer kombinierten Kapazität von 660 MW vorsorglich abgeschaltet und durch verschiedene Windparks ersetzt werden. Während viele [US-]Staaten die Hinwendung zu erneuerbarer Energie vorgeschrieben haben, ist Colorado der erste Staat mit der Forderung, Kohle vollständig durch Windkraft zu ersetzen. Das kann so nicht funktionieren und gibt daher ein denkbar schlechtes Vorbild.

Es gibt drei große Bereiche, die zu erheblichen Bedenken Anlass geben, nämlich (1) riskante Angebote, (2) das offensichtliche Fehlen eins fairen Wettbewerbs und (3) das Risiko eines längeren Stromausfalls bei schwachem Wind zu Zeiten der stärksten Nachfrage.

Hier folgen nun die drei spezifischen Forderungen von CFACT. Sie werden danach kurz erklärt:

1.Wir fordern mit allem Respekt, dass das PUC eine sorgfältige Überprüfung der Angebote eines jeden Anbieters vornimmt bzgl. der Projekte, die sie anbieten. Außerdem sollte das PUC angemessene Notfallpläne entwickeln für den Fall des Scheiterns.

2.Wir fordern mit allem Respekt, dass das PUC genau unter die Lupe nimmt, ob das Pueblo County fälschlich bevorzugt worden ist im Verlauf der Angebots-Prozedur.

3.Wir fordern mit allem Respekt, dass das PUC einen detaillierte Notfall-Analyse durchführt für den Fall, dass Zeiten mit einer Spitzen-Nachfrage nach Strom mit Zeiten schwachen Windes zusammenfallen. Der Plan muss zuverlässige Reserve-Kapazitäten enthalten, um angemessen auf solche Fälle reagieren zu können.

[Es folgt eine kurze Diskussion der einzelnen Punkte mit Verweis auf die Petition, in der ausführlicher darauf eingegangen wird. Die Anfragen 1 und 2 von CFACT sind mehr ein inneramerikanisches Problem, weshalb hier nur die Begründung zu Punkt 3 übersetzt wird. Anm. d. Übers.]

Das Risiko eines längeren Blackouts bei schwachem Wind in Zeiten der stärksten Nachfrage

Wenn es um die Deckung der Spitzennachfrage geht, kann man nicht einfach Kohle durch Wind ersetzen, wie es der Colorado Energy Plan fordert. Die wärmsten und kältesten Perioden erzeugen Spitzenbedarf, doch gehen diese Perioden oftmals mit schwachem Wind einher. Sie kommen nämlich oft durch lang dauernde Hochdrucklagen zustande, bei denen der fehlende Druckgradient keine Windbewegungen zulässt.

In der Regel ist eine stabile Windgeschwindigkeit von 10 bis 15 km/h* erforderlich, um die Turbinen überhaupt in Drehung zu versetzen, aber selbst dann wird fast noch kein Strom erzeugt. Für eine signifikante Stromerzeugung ist eine Windgeschwindigkeit von 50 bis 80 km/h erforderlich. Sowohl bei Hitze- als auch bei Kältewellen fehlt es aber an diesem Wind.

Als Beispiel sei hier der aktuelle Fall von Denver genannt. Die folgende Graphik zeigt den Wetterverlauf vom 16. bis zum 22. Juli 2018. Es herrschte eine Hitzewelle, in welcher die Windgeschwindigkeit kaum einmal über 18 km/h hinausging. Bei dieser geringen Geschwindigkeit kann kaum oder gar kein Strom erzeugt werden, während die Nachfrage nach Strom auf dem höchsten Niveau liegt.

Wetterverlauf Denver vom 16. bis 22. Juli 2018. Quelle

Daher erfordert ein Ersatz der Kohle durch Wind Speichermöglichkeiten, um die Nachfrage bei einem solchen Spitzenniveau decken zu können. Die einzige Speichermöglichkeit betrifft Solar, nicht Wind, und ist relativ gering im Vergleich zur Windkapazität. Außerdem muss die Speicherung von Windstrom sehr groß sein, um den Bedarf über 7 Tage oder noch länger decken zu können. Der Punkt ist, dass ein derartig großes Speichervolumen außerordentlich teuer ist bis hin zur Unbezahlbarkeit – vor allem, wenn man es mit dem Gebrauch der bestehenden Kohlekraftwerke vergleicht.

[*Die Angaben im Original sind mph und werden hier gleich in km/h umgerechnet genannt. Anm. d. Übers.]

Kurz gesagt, der Colorado Energy Plan ist vernichtend gescheitert, falls Kohle durch Wind ersetzt wird. Er ist ein Rezept für großmaßstäbliche Stromausfälle bei Hitze- oder Kältewellen. In Zeiten der Spitzennachfrage kann Kohle nicht durch Wind ersetzt werden. Das war gerade der Fall in Australien, vor Ort bekannt als „die Woche ohne Wind“. Längere Stromausfälle müssen auf jeden Fall vermieden werden, koste es, was es wolle, weil der Schaden für die Stromzahler potentiell katastrophal ist. Stromausfälle sind viel schlimmer als höhere Preise oder fortgesetzte Emissionen.

Zusammengefasst: Durch die Genehmigung des Colorado Energy Plans seitens des PUC erheben sich eine Anzahl sehr ernster Fragen. So ernst, dass sie dem Fortbestehen der Genehmigung widersprechen. Dessen Aufhebung muss von den Ergebnissen dieser Untersuchungen und nachfolgender Analysen abhängig gemacht werden.

David Wojick is a journalist and policy analyst. He holds a doctorate in epistemology, specializing in the field of Mathematical Logic and Conceptual Analysis.

Link: http://www.cfact.org/2018/10/05/colorado-should-rethink-its-risky-energy-plan/

Übersetzt von Chris Frey EIKE




Jahr 2018: Geringste Anzahl von Tornados seit Beginn von Aufzeich­nungen vor 65 Jahren

Und jetzt das: Bislang in diesem Jahr wurden 759 Tornados in den USA registriert, das ist eine rekord-niedrige Anzahl. Den SPC-Daten zufolge waren das zwei weniger als das bisherige Rekord-Minimum von 761.

Überhaupt war die Tornado-Aktivität während der letzten Jahre ungewöhnlich gering, wenn man die Aufzeichnungen betrachtet, die bis zurück zu Anfang der fünfziger Jahre reichen.

Dr. Roy Spencer von der UAH schreibt auf seiner Website:

Dieses Fehlen von Tornado-Ereignissen während der letzten Jahre sollte allgemein auch mit geringerer Gewitter-Aktivität in den USA korrelieren, sind doch die atmosphärischen Bedingungen zur Bildung von Tornados, Hagel und schweren Sturmböen genau die Gleichen …

Die Graphik mit den jährlichen Tornado-Trends ist das Ergebnis eines Verfahrens, welches von Harold Brooks, NSSL, und Greg Carbin, SPC, auf die beobachteten Daten bzgl. Tornados angewendet worden ist. Da eingehende Tornado-Berichte immer begutachtet werden, wird die tatsächliche oder „geglättete“ Anzahl von Tornados der Graphik hinzugefügt.

Im Zusammenhang damit schreibt der Meteorologe Steve Bowen auf Twitter:

Heute ist der 1961-te aufeinanderfolgende Tag ohne einen F5-Tornado in den USA. Das ist bis dato der zweitlängste Zeitraum ohne ein solches Ereignis seit 1950.

Er fügte folgende Graphik hinzu:

Übersetzung: Anzahl der Tage zwischen Tornados der Stärke F5

Das lässt die Behauptungen der Alarmisten zerplatzen, dass Klimawandel Extremwetter immer schlimmer macht.

Und der Trend, wenn man ihn adjustiert nach der Zunahme der Bevölkerung, besseren Beobachtungen und verbesserter Technologie, verläuft einfach flach, wie diese vom SPC erstellte Graphik zeigt:

Diese Graphik reicht leider nur bis zum Jahr 2007. Hoffentlich kommt bald eine Aktualisierung.

Link: https://wattsupwiththat.com/2018/10/04/2018-us-tornadoes-lowest-in-65-years-of-record-keeping/

Übersetzt von Chris Frey EIKE