Die wirkliche Klimakrise ist nicht die globale Erwärmung, sondern globale Abkühlung – und vermutlich hat sie bereits begonnen

Einführung: Katastrophale anthropogene globale Erwärmung CADW – eine gescheiterte Hypothese

Die Panikmache um CAGW („globale Erwärmung“, „Klimawandel“, „Klimakrise“, „Klima-Notstand“) ist eine gescheiterte Hypothese und der größte wissenschaftliche Betrug aller Zeiten (hier). Der Globale-Erwärmung-Alarmismus wurde von politischen Extremisten vorangetrieben, und ihre leichtgläubigen Jünger glaubten Jahrzehnte lang daran – und das, obwohl es keinerlei stichhaltige Beweise dafür gibt, dass eine katastrophale Erwärmung in der Realität überhaupt existiert und trotz vielfältiger Belege, welche die CAGW-Hypothese falsifizieren.

Der gescheiterten CAGW-Hypothese zufolge soll ein gestiegener atmosphärischer CO2-Anteil aufgrund der Verbrennung fossiler Treibstoffe eine gefährliche Runaway-globale Erwärmung auslösen. Die einzigen vermeintlichen Beweise für diesen Betrug sind Computer-Klimamodelle, welche die gegenwärtig beobachtete leichte Erwärmung drastisch übertreiben, typischerweise um 300 bis 500 Prozent. In diese Klimamodelle gehen absichtlich exzessiv hohe geschätzte Werte der Klimasensitivität bzgl. CO2 ein, und sie sind darauf ausgelegt, falschen Alarm zu schlagen.

Die globale Erwärmung hat sich seit Mitte der 1990er Jahre verlangsamt. Also ließen die Alarmisten verlauten, dass ein gestiegener CO2-Gehalt heftigeres, chaotischeres Wetter auslösen wird. Es gibt vielfache Belege, dass auch das falsch ist (hier). Tatsächlich ist das Wetter weniger chaotisch geworden (hier).

Weitere Belege für groß angelegten Betrug sind: Der Mann’sche Hockeyschläger (MBH98 etc.), die Klimagate-E-Mails, die Verfälschung historischer Temperaturdaten und die aggressive Taktik der Klima-Extremisten.

Eindeutige Belege, dass der durch CO2 getriebene Alarmismus von globaler Erwärmung/Klimawandel eine erfundene Krise ist

Atmosphärische CO2-Konzentrationen waren in der geologischen Historie schon viel höher als heute, aber eine Runaway-globale Erwärmung ist über die Milliarden Jahre der Erdgeschichte niemals eingetreten. In geologischen Zeiten war es schon viel wärmer, und auch viel kälter als heute. Die Erde befindet sich derzeit in einer glazialen Epoche, in welcher Kilometer dicke Eisschilde große Teile des Planeten etwa 100.000 Jahre lang überzogen, jeweils unterbrochen von Interglazialen mit einer Dauer von etwa 10.000 Jahren. Die Erde befindet sich derzeit in einem solchen warmen Interglazial, aber die letzte Vereisung endete schon vor etwa 10.000 Jahren, so dass eine erneute Vereisung auf der Erde statistisch demnächst fällig ist.

Während der Mittelalterlichen Warmzeit von 900 bis 1300 lag die Temperatur viel höher als heute. Danach geriet die Menschheit in die Kleine Eiszeit von etwa 1300 bis 1850. Diese hatte viel Leiden und den Tod von Millionen zur Folge.

Die USA verfügen über einige der weltweit besten Temperaturdaten. Die höchsten Temperaturen wurden während der 1930er Jahre registriert, also deutlich bevor sich die Verbrennung fossiler Treibstoffe um das Jahr 1940 erheblich verstärkte.

Die Verbrennung fossiler Treibstoffe verstärkte sich zu Beginn des 2. Weltkriegs erheblich. Aber die globale Temperatur SANK signifikant von 1940 bis 1977. Diese eine Beobachtung ist bereits ausreichend, um die CAGW-Hypothese zu widerlegen – die globale Temperatur stieg NICHT katastrophal aufgrund eines steigenden CO2-Gehaltes.

Selbst unter der Annahme, dass die GESAMTE beobachtete globale Erwärmung dem gestiegenen atmosphärischen CO2-Gehalt zugeordnet werden kann, rechneten die folgenden beiden Studien vor, dass die MAXIMALE Klimasensitivität einer hypothetischen Verdoppelung des CO2-Gehaltes nur etwa 1°C beträgt, was viel zu gering ist, um eine gefährliche globale Erwärmung auszulösen: hier und hier.

Jene 1°C pro Verdoppelung ist nicht die mittlere, sondern die MAXIMALE Klimasensitivität, kann doch der größte Teil der beobachteten Erwärmung natürlichen Ursachen zugeordnet werden. Noch einmal: Computer-Klimamodelle des IPCC und Globale-Erwärmung-Alarmisten ziehen Werte der Klimasensitivität heran, die 3 bis 5 mal größer sind als bei 1°C pro Verdoppelung, nur um falsche Ängste bzgl. einer gefährlichen globalen Erwärmung zu wecken.

Die Beweislage ist ziemlich eindeutig: Sonnenaktivität und nicht das atmosphärische CO2 ist der primäre Treiber der Temperatur auf der Erde (hier). Im neuesten Video des Astrophysikers Willie Soon belegt er die Relation zwischen Sonne und Klima und erläutert seine Schlussfolgerungen. Es gibt eine starke Korrelation zwischen den täglichen Höchsttemperaturen und der gesamt-solaren Einstrahlung (54:51 im Video):

… in den USA (55:02):

Kanada (55:16):

und Mexiko (55:20):

Die gesamt-solare Einstrahlung liegt derzeit nahe 1360 W/m² und ist damit von ähnlicher Größenordnung wie während der sehr kalten Perioden um die Jahre 1700 und 1800. Die atmosphärischen Temperaturen dürften also in naher Zukunft sinken – wenn dies nicht bereits im Gange ist.

Quelle. Zu beachten: 1360 ist gleich Null gesetzt.

Wir wissen, dass sich die Sonne am Ende des Zyklus‘ 24 (SC24) befindet, dem schwächsten Zyklus seit dem Dalton-Minimum (um das Jahr 1800), und auch vom SC25 wird erwartet, dass er sehr schwach ausfällt. Wir wissen außerdem, dass sowohl das Dalton-Minimum als auch das Maunder Minimum (~1650 bis ~1700) sehr kalte Perioden waren mit erheblichen Leiden für die Bevölkerung.

Die globale Temperatur wird mit Sicherheit NICHT primär getrieben durch einen steigenden atmosphärischen CO2-Gehalt, weil Änderungen des CO2-Gehaltes Temperaturänderungen zeitlich HINTERHER laufen, was sowohl in Proxy-Aufzeichnungen in Eisbohrkernen als auch in den modernen Daten zum Ausdruck kommt. Dem Eisbohrkern aus Wostok zufolge beträgt die zeitliche Verzögerung einer CO2-Änderung aufgrund einer voran gegangenen Temperaturänderung etwa 800 Jahre (hier).

Im Januar 2008 beschrieb Allan MacRae in seiner Studie mit dem Titel „Carbon Dioxide Is Not The Primary Cause Of Global Warming“ die folgenden grundlegenden Beobachtungen (hier):

a) Die Geschwindigkeit der Änderungen des atmosphärischen CO2-Gehaltes variiert in etwa synchron mit Änderungen der globalen Temperatur.

b) Daher ergibt sich aus dem Integral der zeitlichen CO2-Änderungen eine Verzögerung um etwa 9 Monate nach einer Temperaturänderung.

Die sehr enge Korrelation zwischen der zeitlichen CO2-Änderung (rot) und derjenigen der globalen Temperatur (blau) ist eindeutig erkennbar. Große Vulkanausbrüche (einige VE15 und die meisten VE16-Ereignisse) stören die Relation:

Die Integration der Daten der CO2-Änderungen mit der Zeit ergeben ein zeitliches Hinterherlaufen hinter Temperaturänderungen um etwa 9 Monate.

Obige Graphiken zeigen CO2-Daten des Mauna Loa. Ähnliche Ergebnisse zeigten sich bei der Auswertung globaler CO2-Daten wie bei MacRea im Jahre 2008. Die Auswirkungen großer Vulkanausbrüche sind offensichtlich.

Das 12-monatige Delta des CO2 wird herangezogen, um die „Jahreszeiten-Sägezahnkurve“ darzustellen.

Die ~9-monatige Verzögerung der atmosphärischen CO2-Änderungen (rot) nach Temperaturänderungen (blau) ist offensichtlich (hier).

Im Januar 2013 machten Humlum, Stordahl und Solheim eine ähnliche Etdeckung – dass nämlich atmosphärische CO2-Änderungen den globalen Luft- und Wassertemperatur-Änderungen um 9 bis 12 Monate nachlaufen. Die Studie: „The phase relation between atmospheric carbon dioxide and global temperature

a) Änderungen des atmosphärischen CO2-Gehaltes laufen Änderungen der globalen Wassertemperatur um 11 bis 12 Monate nach

b) Änderungen des atmosphärischen CO2-Gehaltes laufen Änderungen der globalen Lufttemperatur um 9,5 bis 10 Monate nach.

c) Änderungen des atmosphärischen CO2-Gehaltes laufen Änderungen der globalen Temperatur der unteren Troposphäre um etwa 9 Monate nach.

Unsere Prognosen-Auswertung ist exzellent; das IPCC und seine Erfüllungsgehilfen lagen fortwährend falsch.

Die Fähigkeit zur Prognose ist vermutlich die beste objektive Eigenschaft zur Feststellung wissenschaftlicher Kompetenz. Das IPCC nebst seinen Globale-Erwärmung-Alarmisten lagen grundsätzlich falsch – jede einzelne ihrer Panik-Prophezeiungen bzgl. globale Erwärmung/Klimawandel ist nicht eingetreten (hier).

Schon im Jahre 2002 schrieben die Mitautoren Dr. Sallie Baliunas, Astrophysiker, Dr. Tim Patterson, Paläoklimatologe, und Allan Mac Rae hier:

Die Klimawissenschaft stützt nicht die Theorie einer katastrophalen, vom Menschen ausgelösten globalen Erwärmung – die vermeintliche Erwärmungskrise existiert nicht“.

Auf der ultimativen Agenda der Befürworter des Kyoto-Protokolls steht die Eliminierung fossiler Treibstoffe, aber dies würde zu einer katastrophalen Verknappung der globalen Energieversorgung führen – die von den Befürwortern vorgeschlagenen verschwenderischen und ineffizienten Energie-Lösungen können fossile Treibstoffe einfach nicht ersetzen“.

Beide Aussagen sind nachweislich bis heute korrekt. Trotz der zunehmenden Verbrennung fossiler Treibstoffe – vor allem seit dem Jahr 1940 – und der Zunahme des atmosphärischen CO2-Gehaltes seit 1958 ist der Welt nichts Anderes widerfahren als eine erhebliche vorteilhafte Zunahme der Ernteerträge und eine milde, wohltuenden globale Erwärmung.

Trotz der Jahrzehnte langen Kampagnen bzgl. deren Eliminierung haben fossile Treibstoffe immer noch ihren Anteil von 85% an der globalen Primärenergie, der Rest stammt überwiegend aus Kern- und Wasserkraft. Trotz der verschwendeten Zehner-Billionen Dollar an Subventionen macht grüne Energie immer noch lediglich 4% der globalen Primärenergie aus. Wegen deren Intermittenz werden durch grüne Energie-Programme nicht einmal CO2-Emissionen nennenswert reduziert, müssen diese doch zu fast 100% durch zumeist fossile Energie ersetzt werden, wenn der Wind nicht weht und die Sonne nicht scheint.

CO2-Konzentration ist viel zu niedrig; auf der Erde ist es kälter als es optimal für die Menschheit und die Umwelt wäre

Die radikalen Grünen könnten falscher nicht liegen. Im Gegensatz zur grünen Propaganda ist der atmosphärische CO2-Gehalt viel zu niedrig – viel zu niedrig füroptimales Pflanzenwachstum und Ernteerträge, und viel zu niedrig für das weitere Überleben aller irdischen Lebensformen (hier). Programme zur CO2-Reduktion oder zu dessen Abscheidung sind nicht nur falsch, sondern auch kostspielig, destruktiv und idiotisch.

Durch Kälte sterben etwa 20 mal mehr Menschen als durch Wärme oder Hitze (hier). Winterbedingte Todesfälle (ermittelt aus dem Vergleich zwischen Anzahl der Todesfälle in den vier Wintermonaten einerseits (Dezember bis März auf der Nordhemisphäre) sowie der Hälfte der Anzahl von Todesfällen in den übrigen acht Monaten andererseits) treten weltweit auf, sogar in warmen Ländern wie Thailand und Brasilien.

Prognosen einer unmittelbar bevorstehenden globalen Abkühlung, die jetzt jederzeit beginnen kann.

Allan McRae hat am 1. September 2002 auf der Grundlage von Diskussionen mit Dr. Tim Patterson die Prognose veröffentlicht, wonach eine globale Abkühlung, wie sie bereits von ~1940 bis 1977 zu verzeichnen war, erneut zwischen 2020 und 2030 auftreten dürfte (hier):

Während der letzten 1000 Jahre zeigte die globale Temperatur eine starke Korrelation mit Variationen der Sonnenaktivität. Diese Erwärmungs- und Abkühlungsphasen waren mit Sicherheit nicht durch vom Menschen verursachte Variationen des CO2-Gehaltes ausgelöst worden, weil die Verbrennung fossiler Treibstoffe bis zum 20. Jahrhundert keine Rolle spielte.

Aber auch der Temperaturverlauf über das 20. Jahrhundert zeigt kaum eine Korrelation mit dem atmosphärischen CO2-Niveau, welches über das Jahrhundert gestiegen ist. Allerdings erfolgte ein großer Teil der Erwärmung im 20. Jahrhundert vor dem Jahr 1940. Danach wurde es von 1940 bis 1977 kühler, gefolgt von erneuter Erwärmung ab dem Jahr 1977. Da 80% des vom Menschen erzeugten CO2 erst nach dem Jahr 1940 freigesetzt worden ist, stellt sich die Frage, warum der Großteil der Erwärmung schon davor eingetreten ist. Und außerdem, warum war es von 1940 bis 1977 zu einer Abkühlung gekommen trotz des steigenden CO2-Niveaus? Auch diese Erwärmungs- und Abkühlungstrend korrelieren viel besser mit Variationen der Sonnenenergie.

Erst seit 1977 korreliert die Erwärmung mit dem gestiegenen CO2-Gehalt, aber die Sonnenaktivität hat während dieses Zeitraumes ebenfalls zugenommen. Diese Erwärmung wurde nur an der Erdoberfläche gemessen, wohingegen Satelliten kaum oder überhaupt keine Erwärmung registriert haben in Höhen zwischen 1,5 bis 8 km. Dies steht in völligem Widerspruch zur Theorie des CO2 als dem Haupttreiber der Erwärmung. Falls wirklich die Sonnenaktivität der Haupttreiber der Temperatur in den bodennahen Luftschichten ist und nicht CO2, dann sollten wir den Beginn der nächsten Abkühlungsperiode 2020 bis 2030 erwarten“.

Während der letzten fünf Jahre schrieb MacRae genauer, dass die globale Abkühlung eher 2020 beginnen würde und dass sie sporadisch beginnt – an verschiedenen Stellen der Welt unterschiedlich. Ähnliche Prognosen globaler Abkühlung finden sich im Anhang.

Erwähnt werden muss in diesem Zusammenhang, dass das Ausbringen von Saatgut in Nordamerika sowohl 2018 als auch 2019 erst einen Monat später als gewöhnlich erfolgen konnte. Im Jahre 2019 waren außerdem viel mehr Allzeit-Kälterekorde in den USA registriert worden als Wärmerekorde (hier). Diese Ereignisse mögen Wetter und nicht Klima gewesen sein, aber sie könnten auch erste Anzeichen einer globalen Abkühlung sein.

[Hier folgt eine längere Beschreibung mit Einzelheiten zu den Ernteausfällen von Sojabohnen und anderem Getreide.]

Anhang – andere Prognosen einer globalen Abkühlung in chronologischer Reihenfolge ab dem Jahr 2003 [diese Prognosen stimmen bzgl. Abkühlung alle überein, lediglich Beginn und Dauer werden unterschiedlich beurteilt. Anm. d. Übers.]

Im Jahre 2003 verfasste Dr. Theodor Landscheidt eine Studie mit der Prognose einer ernsthaften globalen Abkühlung (hier):

Eine Analyse der variierenden Sonnenaktivität während der letzte beiden Jahrtausende zeigt, dass es im Gegensatz zu den Behauptungen des IPCC bzgl. einer vom Menschen verursachten Erwärmung um 5,8°C im Verlauf der nächsten 100 Jahre eine lange Periode kühleren Klimas zu erwarten ist mit der kältesten Phase um das Jahr 2030“.

Im Jahre 2005 prognostizierte Piers Corbyn eine Abkühlung bis 2040 (hier):

Am 2. Februar hielt Corbyn seinen Vortrag vor dem Institute of Physics Energy Management Group. Darin stellte er fest:

Während der nächsten 5 bis 10 Jahre wird die Wärme noch bestehen bleiben, wenn es zu einer transpolaren Verschiebung kommt. Dieser folgt eine Verlagerung des magnetischen Pols weg vom geographischen Pol, eine Abnahme der Sonnenaktivität eine Südwärts-Verlagerung des Golfstromes und eine merkliche Abkühlung bis zum Jahr 2040.

Im Jahre 2006 prognostizierte die NASA, dass der „Sonnenzyklus 25 um das Jahr 2022 einer der schwächsten seit Jahrhunderten sein kann“ (hier).

Khabibullo Abdusamatov et al. an der Russian Academy of Science schrieb im Jahre 2006 (hier):

50 Jahre lang kann es auf der Erde zu einer Abkühlung kommen mit ernsten Konsequenzen, bevor eine neue Periode mit Erwärmung Anfang des 22. Jahrhunderts einsetzt.

Auf der Grundlage unserer Forschungen bzgl. solarer Emissionen entwickelten wir ein Szenario einer globalen Abkühlung des Erdklimas bis Mitte dieses Jahrhunderts und dem Beginn eines regulären, 200 Jahre währenden Zyklus‘ mit globaler Erwärmung, welche Anfang des 22. Jahrhunderts einsetzen dürfte“.

Abdusamatov sagte, dass er und seine Kollegen zu dem Ergebnis gekommen seien, dass eine Periode globaler Abkühlung ähnlich der zum Ende des 17. Jahrhunderts – als die Grachten in den Niederlanden zufroren und Siedlungen in Grönland aufgegeben werden mussten – im Zeitraum 2012 bis 2015 beginnen und ihren Höhepunkt im Zeitraum 2055 bis 2060 erreichen kann. Weiter führte er aus, dass seiner Ansicht nach eine solche zukünftige Klimaänderung sehr ernste Konsequenzen zeitigen würde und dass man sich seitens der Behörden darauf vorbereiten sollte.

Nigel Weiss von der University of Cambridge schrieb im Jahre 2006 hier:

Betrachtet man die Vergangenheit der Sonne genauer, dann erkennt man, dass wir uns gegenwärtig in einer Phase anomal hoher Sonnenaktivität befinden. Derartige Perioden sind aber nicht von langer Dauer, dann erfolgt ein Einbruch. Diesen erwarte ich schon sehr bald“.

Leif Svalgaard von der Stanford University schrieb im Jahre 2006 hier:

Die Anzahl der Sonnenflecken wird im nächsten Jahrzehnt stark abnehmen. Sie wird extrem gering sein, und dieser Absturz wird drastisch ausfallen. Dieses bevor stehende Minimum der Sonnenflecken kann auf der Erde Abkühlung auslösen“.

[Schlussbemerkung des Übersetzers: Interessant bei diesen Prognosen aus den 2000er Jahren ist ja, dass man sie schon auf ihren Gehalt abklopfen kann, und zumindest was die Sonnenaktivität betrifft, waren die Prognosen durchweg weitgehend zutreffend!]

Link: https://wattsupwiththat.com/2019/10/27/the-real-climate-crisis-is-not-global-warming-it-is-cooling-and-it-may-have-already-started/

Übersetzt von Chris Frey EIKE




Winter 2019/20 – jetzt wird abgerechnet

Bevor die Prognosen nochmals gezeigt und bewertet werden, soll ein Blick auf die Entwicklung der Wintertemperaturen seit dem „Klimasprung“, welcher mit dem Mildwinter 1987/88 in Deutschland begann, geworfen werden. Anders als die übrigen Jahreszeiten, erwärmte sich der Winter im Deutschland-Mittel seitdem kaum. Mit 4,2°C zählt er bei unseren momentanen Klimabedingungen, wie sie seit 1988 herrschen, zu den mildesten Wintern, nur 2006/07 verlief noch etwas milder.

Abbildung 1: Kaum winterliche Erwärmung in Deutschland seit 1987/88 – trotz deutlich steigender CO2-Konzentrationen und des Beinahe-Mittelwertrekords im Winter 2019/20.

Der extrem milde, stürmische Winter 2019/20 und die Klimaerwärmung – ein Widerspruch?

Zunächst passt der Winter 2019/20 ideal ins ideologische Schema der Klima-Erwärmung; unter anderem sorgte im Norddeutschen Tiefland permanenter, lästiger Westwind für ein erstmaliges Fehlen von Eistagen (solche mit einem Tagesmaximum unter 0°C). Doch halt – hat sich nicht die Arktis viel stärker erwärmt, als die niederen Breiten, und müsste sich deshalb die Zonalzirkulation („Westwetter“) wegen des dadurch geringeren Temperaturgefälles nicht merklich abschwächen? Nach dieser Theorie wären doch eher Winter zu erwarten, in denen Nord-, Ost- und Südlagen mit weniger Wind und insgesamt extremen Wetterumschwüngen zwischen sehr kalt und sehr mild in Deutschland dominieren, so etwa, wie nur im Winter 2012/13 beobachtet. Das durchgehend milde, fast ständig windige Wetter dieses (und auch das der meisten, vergangenen Winter der 2010er Jahre) passt nicht in dieses Schema einer durch die allgemeine Erwärmung veränderten Zirkulationsdynamik. Weitere Skepsis weckt folgende Grafik, welche die Wintertemperaturen in Abhängigkeit vom Zeitpunkt der Winter nach dem Maximum des SCHWABE-Zyklus der Sonnenaktivität zeigt:

Abbildung 2: Während die Winter 2 bis 5 nach dem Maximum des SCHWABE-Zyklus relativ kühl verliefen, war der sechste herausragend mild; auch die Winter 1, 9 und 11 verliefen tendenziell eher mild.

Nun sollten aber eigentlich bei der nachlassenden Sonnenaktivität die Winter eher kälter werden und Störungen der Zonalzirkulation zunehmen; doch könnte es eine Ursache geben, welche momentan diesen Prozess überkompensiert? Da lohnt es sich, den kürzlich hier bei EIKE erschienenen Beitrag „Über einen möglichen Zusammenhang zwischen winterlichem Polarwirbel und Winterkälte in Mittleren Breiten“ von Christian Freuer zu lesen. Darin wird erklärt, was ein Polarwirbel ist, und wie er die Zirkulationsverhältnisse beeinflusst. Tendenziell gilt: Je ungestörter und je kälter der winterliche Polarwirbel ist, desto intensiver fallen die Westlagen aus, was einen milden Winter in Deutschland zur Folge hat. So auch 2019/20, als es im Dezember und Januar über dem Nordpol im 50-hPa-Niveau mit minus 73 und minus 80°C deutlich zu kalt war; die Februar-Werte liegen noch nicht vor (Quelle: NOAA). Ein eher beiläufiger Nebensatz des erwähnten Beitrages zur Ursache der winterlichen Abkühlung im stratosphärischen Polarwirbel bringt nun aber wieder die geringe Sonnenaktivität ins Spiel: „… Die Ozonbildung kann in der Polarnacht nicht mehr stattfinden – sie ist aber der Grund, warum es in der Stratosphäre ansonsten relativ warm ist (der kurzwellige Teil des UV wird bei der Ozonbildung in Wärme verwandelt).“ Je geringer die Sonnenaktivität ist, desto weniger UV-Strahlung steht jedoch im vorausgehenden Sommer/Herbst zur Verfügung, was zur Folge hat, dass die Stratosphäre in Polnähe schon zu Winterbeginn kälter ist und dann zumindest in Einzelfällen einen kräftigen, zeitigen Polarwirbel bildet, dessen mehr oder weniger große Erhaltungsneigung dann unsere weitere Winterwitterung steuert. Eine erste Sichtung der Aerologischen Daten ergab tatsächlich eine merkliche herbstliche Abkühlung über dem Nordpol im 50-hPa-Niveau, aber kaum eine winterliche Änderung.

Abbildung 3: Merklicher Rückgang der 50 hPa-Stratosphärentemperatur am Nordpol seit 1948 (keine längere Datenverfügbarkeit) im Herbst; fast kein Trend im Winter. Aber im Winter kann die nachlassende Sonnenaktivität auch keinen direkten Einfluss mehr haben, da die Sonne dann nicht scheint (Erdschatten über dem Pol). Es ist aber denkbar, dass die im Herbst kälter werdende Stratosphäre die Westwind-Zirkulation des Winters „ankurbelt“. Man beachte außerdem, dass hier nur der nördlichste Gitterpunkt betrachtet wurde; der gesamte Polarwirbel ist viel größer und in seiner Form sehr variabel; außerdem beeinflussen auch die QBO und weitere Faktoren, wie er sich verhält.

 

Hier besteht noch viel Forschungsbedarf; aber so einfach, dass sich unser Klima durch die CO2-Emissionen immer weiter erwärmt, sind die atmosphärischen Zusammenhänge eben doch bei weitem nicht.

Die Bewertung der Langfrist-Vorhersagen einiger Institute, Wetterdienste und Privatpersonen

Zuerst wird im Folgenden nochmals die ursprüngliche Prognose gezeigt; darunter erfolgt jeweils die Bewertung; meist auf die CLINO- Periode 1981 bis 2010 bezogen, abweichende Referenz-Zeiträume sind in den betreffenden Prognosen genannt. Eine Bewertung mit objektiven Maßzahlen wie etwa dem Root Mean Square Error (rmse) oder der Reduktion der Varianz (RV) war leider bei keiner Prognose möglich; da man hierfür eine genaue Prognosezahl benötigt. Bei Intervallangaben wurde ein „Treffer“ daher mit Note 2 bewertet, wenn er dieses vorhergesagte Intervall traf; verfehlte er dieses um nicht mehr als +/- 0,5 Kelvin, so ergab das Note 3, darüber bei bis zu +/- 1K Abweichung Note 4; bei noch mehr Abweichung Note 5, über +/- 2 K Note 6. Bei Prognosen mit mehreren Teilprognosen (etwa für den gesamten Winter und die 3 Einzelmonate) wurden diese einzeln gewertet und dann die Gesamtnote gemittelt. In die Bewertung wurde auch einbezogen, ob genauere Vorhersagen über den Gesamtwinter hinaus zu Einzelmonaten erfolgten. Fehlten diese ganz, so wurde um eine Note abgewertet Wo Bezugswerte und/oder konkrete Zahlenprognosen ganz fehlten, wurde ebenfalls um eine Note abgewertet. Reine Wahrscheinlichkeitsaussagen konnten, sofern sie in etwa zutrafen, bestenfalls die Note 4 erhalten, weil ihr Aussagewert einfach zu gering ist.

UKMO (Großbritannien): Stand 15.11.2019 Winter (D, J, F) mit deutlich erhöhter Wahrscheinlichkeit in ganz Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; erstere weist eine Wahrscheinlichkeit von 20 bis 40% auf; während ein zu kalter Winter zu etwas über 20% wahrscheinlich ist.

Neuerdings wird auch eine Median-bezogene Wahrscheinlichkeitsaussage angeboten; sie zeigt eine sehr stark erhöhte Wahrscheinlichkeit für über dem Median liegende Wintertemperaturen besonders in Nordost- und Mitteldeutschland:

Die aktuellen Karten jederzeit hier

Bewertung: Grob zutreffende, aber sehr unkonkrete Bewertung; Note 4.

Meteo Schweiz Stand Nov. 2019: Deutlich erhöhte Wahrscheinlichkeit für einen zu milden Winter. Zu kalter Winter zu kaum 10% wahrscheinlich; normaler zu knapp 30%. Die „doppelten T“ sind die Fehlerbalken; die Prognose gilt nur für die Nordostschweiz, ist aber auch für Süddeutschland repräsentativ:

Bewertung: Auch in der Nordost-Schweiz verlief dieser Winter merklich zu mild. Grob zutreffend; aber sehr unkonkret, Note 4.

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2019: Dezember viel zu mild, Januar zu mild, Februar zu kalt. Winter insgesamt eher zu mild. Die Prognose bezieht sich vorrangig auf Mittel- und Nordostdeutschland:

Bewertung: Das „nordostdeutsche Wintermittel“ lässt sich aus den 5 Bundesland-Mitteln der ehemaligen DDR berechnen; im Dez. 3,9°C, im Jan. 3,8°C und im Feb. ca. 5,4°C. Dez. daher mäßig um 0,9K unterschätzt; Note 4; Jan. deutlich um 1,3K unterschätzt; Note 5. Feb. totale Fehleinschätzung, Note 6. Gesamtnote 5; nennenswerte Vorhersageleistung für Dez/Jan.

IRI (folgende Abbildung), Vorhersage vom Nov. 2019: Kaum Aussagen für Deutschland; lediglich in Sachsen und Bayern leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter; zu mild in weiten Teilen Nord- und Osteuropas.

Bewertung: Wegen fehlender Aussagen für weite Teile Deutschlands wertlose Prognose; auch in Südost-Sachsen und Südbayern verlief dieser Winter extrem mild; keinerlei Vorhersageleistung, Note 6.

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den DWD-Mittelwert der Jahre 1990 bis 2017, der ca. 1,4°C beträgt (Stand Nov. 2019):

Bewertung: Die Abweichung zum Bezugsmittel ergibt für 2019/20 2,8K; vorhergesagt waren 1,9 bis 2,4°C; gerade noch Note 3, weil aber Aussagen zu einzelnen Monaten fehlen, Abwertung auf Note 4.

NASA (US-Weltraumbehörde) Karten vom November 2019: Dezember in Norddeutschland normal, Süddeutschland zu mild, Januar, Februar und Winter insgesamt überall zu mild:

Bewertung: Dezember um mehr als 2K unterschätzt, Note 6; Januar um etwa 2K unterschätzt, Note 5; Februar stark unterschätzt, Note 6. Gesamtnote gerade noch 5, weil im Jan/Feb. bessere Vorhersageleistung als der CLINO-Wert.

Donnerwetter Berlin (Quelle). Neben den Aussagen für Berlin werden auch gesamtdeutsche getroffen, freilich ohne Bezugswert; Stand Mitte Nov. 2019:

Dezember erst zu mild, ab dritter Dekade zu kühl. Januar durchweg zu kühl und niederschlagsreich; Februar zu kühl und zu trocken. Während der Dezember also auf Kosten der ersten zwei Dekaden etwas zu mild ausfallen soll, werden die Hochwintermonate in Deutschland als zu kühl geschätzt; in Berlin sollen der Januar um gut 2 Kelvin, der Februar um 1 Kelvin zu kalt ausfallen; der Winter insgesamt wäre nach dieser Prognose etwas zu kalt.

Bewertung: Krasse Fehlprognose aller Monate, besonders im Jan/Feb. völlig unzutreffend und für den gesamten Winter völlig falsch; keine Vorhersageleistung, Note 6.

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 14. bis 23.11. 2019): Winter insgesamt 1 bis 2 K zu mild. Dezember (links) 1 bis 2 K, Januar (rechts) 1 bis 2 K, Februar (unten) 1 bis 2 K zu mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Diese experimentellen, fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Bewertung: Dez. um etwa 0,6K unterschätzt, Note 4; Jan. um gut 1K unterschätzt, Note 5; Feb. um weit mehr als 2K unterschätzt, Note 6. Gesamtnote wegen konstanter, erkennbarer Vorhersageleistung aller Monate (ein zu milder Winter wurde fast durchgängig seit dem Sommer 2019 vorhergesehen!) auf 4 aufgewertet.

Stefan Kämpfe (verfasst am 25.11. und veröffentlicht bei EIKE am 27.11.2019):

Fazit: Eindeutige, verlässliche Anzeichen für einen Winter in die sehr kalte Richtung fehlen. Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute tendieren bei großer Unsicherheit in Richtung eines bestenfalls normalen, eher deutlich zu milden Winters. Insgesamt fällt der Winter 2019/20 nach momentanem Stand also normal bis deutlich zu mild aus und wird im Deutschland-Mittel auf +0,5 bis +3,5°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Kategorien „zu kalt“, „normal“ und „zu mild“ stellen sich die Wahrscheinlichkeiten des Winters 2019/20 folgendermaßen dar:

Die Schneesituation für Wintersport besonders in Lagen unter 1.000m bleibt zumindest in der ersten Dezemberdekade eher durchwachsen, weil es trotz gelegentlicher Schneefälle zeitweise auch hier zu Plustemperaturen kommen kann. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt-Bindersleben (Mittel 1981- 2010 +0,5°C) 0,0 bis +3,0°C (normal bis sehr mild). Für Jan/Feb. 2020 lässt sich noch kein Temperaturbereich schätzen; doch deuten viele Signale auf einen eher milden Januar hin; Richtung Februar ist die Entwicklung noch völlig offen. Das Schneeaufkommen nach Mitte Dezember ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein normaler bis milder Hochwinter deutlich wahrscheinlicher, als ein durchgehend zu kalter. Wegen eines möglichen Wechsels zur Ostwindphase in der unteren Stratosphäre (QBO) sind kältere Phasen aber noch nicht völlig ausgeschlossen; sie stehen im Widerspruch zu einigen Prognosesignalen für einen sehr milden Februar. Sollte der Dezember tatsächlich zu mild ausfallen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2020, besonders im Januar, noch weiter.

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 15% Analogfälle, 5% Wirbelsturm-Aktivität und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet. Aktualisierung voraussichtlich Ende Dezember.

Bewertung: Das Dezember- Mittel für Erfurt betrug 3,6K, Unterschätzung um 0,6K, Note 4. Das DWD-Mittel des Winters 2019/20 (4,2°C) wurde um 0,7K unterschätzt; Note 4. Der Gesamtcharakter des Winters wurde grob richtig geschätzt; Gesamtnote 4.




Winter in Deutschland: Ist die Erwärmung schon ausgereizt?

Deutschlands nördliche Breitenlage – wie viel Wintermilde lässt sie theoretisch zu?

Mit etwa 48 bis 55° nördlicher Breite liegt Deutschland so nördlich wie Südrussland, die Ukraine, Süd-Sibirien und das südliche Kanada – alles Regionen mit mittleren Wintertemperaturen meist zwischen minus 4 und teilweise unter minus 25°C; bei annähernd denselben, wachsenden CO2-Konzentrationen; hierzulande sind es (1981 bis 2010) im Flächenmittel +0,9°C. Deutlich milder geht es bei ähnlicher Breitenlage über Land nur in Großbritannien oder Irland, wo in Zentralengland im selben Zeitraum etwa +4,6°C erreicht wurden. Diese für eine so nördliche Breitenlage ungewöhnlich milden Wintertemperaturen resultieren aus dem Zusammenspiel zwischen Golfstrom und Westwetterlagen – das wegen seiner hohen Wärmekapazität im Winter ohnehin laue Atlantikwasser (dort liegt das Wintermittel auf 51°N zwischen etwa +6 und +9°C Lufttemperatur) ist dank Golfstrom eben deutlich wärmer, als es der Breitenlage entspricht. Diese Wärme gelangt mit der in unseren Breiten vorherrschenden Westdrift unter Abschwächung ostwärts, was auch erklärt, warum die Winter in Deutschland mal fast frühlingshaft mild, wie 2019/20, und mal, bei selteneren oder fehlenden Westlagen, sehr kalt ausfallen können. Die bislang wärmste Winter in Deutschland, 2006/07 und 2019/20, erreichten mit 4,4°C und etwa 4,2°C fast die englischen Verhältnisse, doch auch nur, weil sie deutlich überdurchschnittlich viele Tage mit Westwetteranteil aufwiesen; oftmals solche mit Starkwind oder Sturm (unter anderem Orkane „Kyrill“ und „Sabine“). Betrachtet man jedoch nur die Häufigkeit der Tage mit Westwetter, so war diese in den milden Wintern 1987/88, 1988/89, 1994/95 und 1999/2000 mit 64 bis 79 Tagen noch etwas höher, doch spielen neben der Windstärke, welche auch 1999/2000 sehr hoch war, auch die herangeführten Luftmassen und die Bewölkungsverhältnisse (Wolken wärmen im Winter!) eine Rolle. Man kann in etwa folgende Regel aufstellen: „Die mildesten Winter in Deutschland sind die mit den stärksten und häufigsten Westwinden, den häufigsten Fällen mit atlantisch-subtropischen Luftmassen und der stärksten Bewölkung“. Weil diese Bedingungen quasi aus Westen bis Südwesten „importiert“ werden müssen, lohnt ein Vergleich der Entwicklung der deutschen und der englischen Wintertemperaturen seit dem „Klimasprung“ von 1987/88, als die Winter plötzlich dauerhaft milder wurden:

Abbildung 1: Der Winterverlauf der letzten 33 Jahre in Deutschland und Zentralengland. Keine signifikante Erwärmung trotz stark steigender CO2-Konzentrationen. Man beachte das deutlich höhere Temperaturniveau des „atlantischen“ Winterklimas in Zentralengland; der dortige „Rekordwinter“ 2015/16 erreichte 6,7°C.

Noch deutlich mildere Winter in Deutschland wären – eine extreme Häufung der Westwetterlagen bei sehr hohen Windgeschwindigkeiten vorausgesetzt, nur bei einer merklichen Erwärmung am und auf dem Nordatlantik möglich; doch diese ist momentan anhand der Entwicklung in Zentralengland und der AMO-Werte nicht erkennbar.

Abbildung 2: Schon einmal, nämlich im frühen 20. Jahrhundert, waren die Winter in Zentralengland ähnlich mild, wie momentan. Die AMO, ein Indexwert für die Wassertemperaturen im zentralen Nordatlantik, befindet sich seit etwa 1990 in einer Warmphase; man kann jedoch annehmen (nicht sicher vorhersagen!), dass diese demnächst enden wird. Wegen der komplizierten Zirkulationsverhältnisse wirken jedoch die AMO-Warmphasen im Winter, anders als in den übrigen Jahreszeiten, in West- und Mitteleuropa nicht unmittelbar erwärmend.

Mehr als höchstens 5 bis 5,5°C sind also im DWD-Mittel kaum möglich; und auch diese könnten nur bei den allergünstigsten Bedingungen erwartet werden, was unwahrscheinlich ist. Mehr noch – sollte sich die zonale Zirkulation (Westlagen) abschwächen, könnte es gar eine merkliche winterliche Abkühlung geben, was schon einmal in der Mitte des 20. Jahrhunderts passierte. In diesem Kontext lohnt sich ein Blick auf die langfristige Häufigkeitsentwicklung wichtiger Großwetterlagen im Winter:

Abbildung 3: Die Häufigkeit der Großwetterlagen mit Westanteil im Winter (HESS/BREZOWSKY, violett) korreliert recht eng mit dem Verlauf der winterlichen Lufttemperaturen in Deutschland (blau). Zwecks besserer Darstellung in einer Grafik musste in Indexwerte umgerechnet werden; viel mehr als 80 Westlagen-Tage in einem Winter sind kaum möglich (er hat bloß 90 bis 91 Tage); das bisherige Maximum wurde kurz nach dem Klimasprung im Mildwinter 1988/89 mit 79 Tagen beobachtet. Als im Rekordwinter 1962/63 Bodensee und Ostsee gefroren, wurden gerade mal 12 Tage mit Westwetter gezählt.

Abbildung 4: Tendenziell etwas mehr Nord- und etwas weniger Südwetterlagen im Winter. Der Winter ist die einzige Jahreszeit mit dieser Entwicklung; in den übrigen Jahreszeiten führte die merkliche Häufigkeitszunahme südlicher Großwetterlagen zu einer teils starken Erwärmung. Man beachte, dass Südlagen im Winter nur in höheren Luftschichten markant zu warm ausfallen; die nördlichen Lagen fallen besonders in höheren Luftschichten zu kalt aus.

Und während in den anderen Jahreszeiten, besonders im Sommerhalbjahr, die stark zunehmende Sonnenscheindauer vielleicht noch eine gewisse Erwärmung zulässt (falls es noch sonniger werden sollte), bewirkt mehr Sonnenschein keine winterliche Temperaturzunahme:

Abbildung 5: Keine Erwärmungswirkung der tief stehenden, kurz scheinenden Wintersonne in Potsdam. Die geringe negative Korrelation ist nicht signifikant; doch kann die schwache Wintersonne die Wärmeverluste der langen, klaren Winternächte nicht völlig kompensieren (negative Strahlungsbilanz).

Der Wärmeinseleffekt im Winter

Als Wärmeinseleffekte (WI-Effekte) bezeichnet man alle durch die menschliche Siedlungs- und Nutzungstätigkeit bewirkten Temperaturerhöhungen. Sie sind fast unmöglich genau zu quantifizieren und keinesfalls nur auf Siedlungs-, Gewerbe- und Verkehrsanlagen beschränkt, deshalb ist der Begriff der „Wärmeinsel“ irreführend. Die durch Siedlungen bewirkte Erwärmung, der so genannte UHI-Effekt („Urban Heat Island Effect“), lässt sich jedoch als Teilmenge des gesamten WI-Effektes zumindest grob durch den Vergleich benachbarter städtischer und ländlicher Wetterstationen abschätzen und ergab, dass in Ostdeutschland die Großstädte gegenwärtig ein um etwa 0,6K höheres winterliches Temperaturniveau als ländliche Orte mit ähnlicher Höhenlage aufweisen:

Abbildung 6a und 6b: Zwei Stadt-/Umland-Vergleiche ergaben für den Raum Berlin (oben, 5a) als auch für ein Stationspaar in Thüringen einen aktuellen, winterlichen UHI von etwa 0,6K (höhenbereinigt). Man beachte, dass jedoch auch an ländlichen Stationen WI-Effekte auftreten, und zwar ebenfalls durch Bautätigkeit, vor allem aber durch Meliorationen und andere landwirtschaftliche Nutzungsänderungen; neuerdings verstärkt durch die erwärmende Wirkung von Wind- und Solarparks.

Auch, weil sich die Bebauung und die landwirtschaftliche Nutzungsintensität in Deutschland seit 1881 stark ausdehnten, wurde es also allmählich wärmer; dieser Effekt hält im Zuge der verstärkten Nutzung von Wind- und Solarenergie besonders in ländlichen Regionen momentan an; allerdings dürfte er in den kommenden Jahrzehnten wohl nur eine winterliche Erwärmung von wenigen Zehntelgrad bewirken können. Der menschenerzeugte Wärmeinseleffekt bei einer Station erhöht die Temperaturen in der Regel umso mehr, je länger die Zeitreihe ist, und je stärker die Einwohnerdichte und der Bebauungsgrad zunehmen.

Um über einen längeren Zeitraum den Temperaturzuwachs aufgrund des nahezu überall steigenden Wärmeinseleffektes in den Temperaturreihen möglichst zu eliminieren, greifen wir gleich auf eine Einzelstation in freier Landschaft zurück. In diesem Artikel ist das die DWD-Station 482 bei Mittenwald auf 981 m Höhe in den deutschen Alpen. Sie befindet sich seit 2008 in den Buckelwiesen nördlich des Ortes. Wir betonen, die Wetterstation Mittenwald hat in den letzten 70 Jahren seit ihrer Einrichtung sicherlich ihren Platz getauscht wie alle anderen deutschen Stationen, bzw. die Umgebung der Station hat in den Alpen eine natürliche menschengemachte wärmende Umgebungsveränderung erfahren wie alle anderen deutschen Stationen.

Betrachtungsbeginn bei einer Alpenstation:

Wir wählen das Jahr 1958, da die CO2-Messungen am Mauna Loa genau in diesem Jahr begannen und inzwischen um 100 ppm angestiegen sind, Grafik siehe: https://de.wikipedia.org/wiki/Keeling-Kurve

Abbildung 7a: Die Keeling-Kurve mit den Messwerten des atmosphärischen Gehalts an Kohlenstoffdioxid in der Atmosphäre, gemessen am Mauna Loa.

Abbildung 7b: Unbedeutender Anstieg der Wintertemperaturen seit 1958 (63 Winter), trotz starkem Anstieg der CO2-Konzentrationen in diesem Zeitraum.

Man kann den Winterverlauf der DWD-Klimastation Mittenwald in zwei Teile aufteilen: Kein Anstieg der Temperaturen bis 1987, Temperatursprung ab 1988, seit 1988 ein höheres Niveau, wobei die Temperaturen seitdem wieder fallen und das Ausgangsniveau fast erreicht haben.

Im Folgenden sollen noch die Einzelmonate der DWD-Wetterstation Mittenwald für den Winter nachgereicht werden. Zur Erinnerung: Wir wählen als Anfangsjahr 1958, weil damals die CO2-Messungen am Mouna Loa starteten, siehe Grafik 7a.

Abbildung 8: Der Wintermonat Dezember wurde auch bei der Station Mittenwald wärmer, ähnlich wie die Gesamtzahl der DWD- Stationen.

Der Monat Januar

Abbildung 9: Der Januar zeigt aufgrund der kalten Januare Anfang der 60er Jahre eine ausgeglichene Regressionslinie. Anstieg bis 1988, danach Rückgang.

Der Monat Februar:

Abbildung 10: Der Wintermonat Februar wurde im Betrachtungszeitraum im Raum Mittenwald leicht kälter. Wir erkennen wieder den Temperatursprung 1988/89/90 und seitdem einen Rückgang. Mit der CO2-Grafkkurve Abb.6 zeigt sich keinerlei Übereinstimmung. Vielleicht ein Hinweis, dass sich auch in den Alpen die Winter weiter verspäten werden?

Nun könnte man meinen, die Wärmeinselproblematik sei auf Europa beschränkt. Doch weit gefehlt, unsere noch laufenden Untersuchungen zeigen auch im Nordosten der USA eine wesentlich stärkere winterliche Erwärmung in den Städten; ländliche Regionen erwärmten sich kaum oder kühlten gar leicht ab.

Abbildung 11: Geringe winterliche Erwärmung in der US-Hauptstadt Washington D.C; leichte Abkühlung im ländlichen Dale Enterprise. Die Daten des Winters 2019/20 liegen noch nicht vor.

Zusammenfassung:

1) Einen weiteren, “katastrophalen“ Temperaturanstieg wird es zumindest im Winter mit sehr hoher Wahrscheinlichkeit in Mitteleuropa nicht mehr geben können; alle möglichen, plausiblen Erwärmungsfaktoren sind in den Mildwintern 2006/07 und 2019/20 schon nahezu ausgereizt gewesen. Der wesentlichste Erwärmungsfaktor, die Häufigkeit und Intensität der Westlagen, würde bei einer Abnahme gar zu einem Temperaturrückgang führen; zumal die in den anderen Jahreszeiten stark erwärmende Zunahme der Sonnenscheindauer im Winter unwirksam ist. Allenfalls die Wärmeinseleffekte können – sofern alle anderen Einflussfaktoren konstant bleiben, noch eine leichte Erwärmung bewirken; aber mehr als allerhöchstens etwa 5,5°C sind im DWD-Mittel wohl auch langfristig unmöglich zu erreichen.

2) Trotz einer enormen „touristischen Entwicklung“ des Alpenraumes (Zunahme des Wärmeinseleffektes in den Zentren) und trotz des milden letzten Winters haben sich die Wintertemperaturen seit 1958 in der freien Fläche außerhalb der Ortschaften in den Alpen kaum geändert. Das zeigt uns die Trendlinie der DWD-Station Mittenwald.

3) Im gleichen Betrachtungszeitraum der letzten 63 Winter haben die CO2-Konzentrationen der Atmosphäre jedoch um 100 ppm zugenommen.

4) Wieder einmal konnten wir anhand der Grafiken zeigen, dass der Temperaturverlauf und die CO2-Konzentration unabhängig voneinander verlaufen. CO2 hat somit gar keinen oder kaum einen Einfluss auf die Temperaturen.

5) Der menschenerzeugte Wärmeinseleffekt in der Umgebung der DWD-Wetterstationen und natürliche Wetterursachen bestimmen das Klimaverhalten und die Klimaänderungen in einer Region.

6) Ein angeblicher CO2-Treibhauseffekt müsste überall zu Erwärmungen führen. Schon allein die Tatsache, dass sich einzelne Monate und Jahreszeiten unterschiedlich bei allen Wetterstationen über die letzten 30 Jahre verhalten, ist mit dem CO2-Erwärmungsglauben nicht vereinbar.

Fazit: Es wird endlich Zeit, dass Natur- und Umweltschutz in den Mittelpunkt politischen Handelns gestellt werden, und nicht das Geschäftsmodell Klimaschutz. Die ständige weitere Bebauung und Versiegelung einst freier natürlicher Flächen führt bei den meisten Wetterstationen zu einer schleichenden Erwärmung, die je nach Jahreszeit sehr unterschiedlich ausfallen kann. Im Winter ist eine weitere, angeblich bevorstehende, „katastrophale Klimaerwärmung“ aufgrund der Erwärmungsursachen (Großwetterlagenhäufigkeiten, Sonnenscheindauer, AMO und WI-Effekte) sehr unwahrscheinlich.




Kann globale Abkühlung in aller Stille real werden?

 

Die reale Klima-Krise könnte nicht globale Erwärmung, sondern globale Abkühlung sein, und diese kann bereits begonnen haben. Die folgenden Ereignisse mögen nicht anomal sein, können aber ein Vorläufer dessen sein, was da demnächst kommen kann:

● Sowohl im Jahre 2018 als auch 2019 konnte das Ausbringen von Saatgut infolge eines sehr kalten Frühjahres in den Großen Ebenen der USA erst mit einem Monat Verspätung erfolgen.

● Im Jahre 2019 war das Frühjahr sehr kalt, und im Herbst setzten sehr früh Schneefälle ein. Daher konnten ~40% der Maisernte in den USA gar nicht erst gesät und dann geerntet werden.

● Auch der Somme 2019 war sehr kühl ausgefallen, und mit den frühen Schneefällen im Herbst war es im Gebiet der Großen Ebenen zu massiven Ernteausfällen gekommen.

● Im Süden und Südosten der USA war 2019 ein gutes Erntejahr, so dass viel Getreide eingelagert werden konnte und die Preise nicht nennenswert gestiegen sind. Aber es gab große Ernteausfälle weiter nördlich. Außerdem taugt ein großer Teil des Getreides nur noch als Futtergetreide, weil es nicht rechtzeitig von den Feldern gebracht werden konnte.

Die Sonnenaktivität, welche natürlich nicht von der Menschheit oder von sozialen Medien kontrolliert werden kann, wird vermutlich der Welt eine ganz andere Vorhersage bescheren. Sogar die NASA kann sich inzwischen eine „Kleine Eiszeit“ in naher Zukunft vorstellen (hier).

Niedrige Temperaturen verkürzen die Wachstumssaison. Außerdem sorgen sie für geringere Verdunstung aus den Meeren, was in weniger Niederschlag auf dem Festland resultiert. Als Folge davon ist die Zeit des Getreideanbaus kürzer, es gedeiht nicht so gut aufgrund der Kälte, und weniger Regen sorgt für stärkere Austrocknung der Böden. Die Folge davon wiederum sind Ernteausfälle und möglicherweise Hunger.

Im Gegensatz dazu sorgen höhere Temperaturen für eine Verlängerung der Wachstumssaison, führen zu mehr Verdunstung und damit zu mehr notwendigem Regen. Klima-„Wandel“ vernichtet keine Ernten, Klima-Abkühlung aber sehr wohl.

Damit sind Möglichkeiten und Konsequenzen einer drohenden geringeren globalen Erzeugung von Nahrungsmitteln während der kommenden Jahre durchaus gegeben, ebenso wie eine Zunahme von wetterbedingten Todesfällen.

Weder Menschen noch fossile Treibstoffe waren während der fünf Erwärmungszyklen zugegen, während der die Eisberge der fünf vorangegangenen Eiszeiten schmolzen. Auch sollte man nicht vergessen, dass nur etwa 12 Prozent der Erdoberfläche bewohnbar sind.

Menschen haben Temperaturen aufgezeichnet, seit es Meteorologen gibt, also etwa während der letzten 150 Jahre. Auf einer 24-Stunden-Uhr repräsentieren diese 150 Jahre den 0,00288ten Teil einer Sekunde!

Ohne die Existenz von Menschen oder von fossilen Treibstoffen, welche man für die fünf vorherigen Eiszeiten und die nachfolgenden Erwärmungszyklen verantwortlich machen kann, bleiben wir zurück mit einer problematischen Frage:

Wie kann die Gegenwart des Menschen und von fossilen Treibstoffen über den „0,00288ten Teil einer Sekunde“ auf der „24-Stunden-Uhr“ auf 12 Prozent der Erdoberfläche, die bewohnbar ist, irgendeinen Einfluss haben im Vergleich zu all den natürlichen Kräften, welche nicht nur die vergangenen fünf Erwärmungszyklen ausgelöst haben, sondern auch seit 4,5 Milliarden Jahren für ununterbrochenen Klimawandel sorgen?

Falls wir davon ausgehen, dass die Sonnenaktivität der Haupttreiber der Temperatur auf der Erde ist und nicht das Kohlendioxid, dann dürfte der nächste Abkühlungszyklus noch in diesem Jahrzehnt einsetzen.

Die Sonne mag schwächer werden, vorübergehend, aber keine Panik. Die Erde wird nicht gefrieren. Aber wird die resultierende Abkühlung eine Delle in den Trend globaler Erwärmung bringen? Die solare Abkühlung hat vermutlich schon begonnen. Die Sonnenflecken-Aktivität befindet sich auf einem Tiefststand, und es sind bereits intensive Diskussionen im Gange, welche Auswirkungen dies auf das Klima der Erde haben könnte.

Ein periodisch wiederkehrendes solares Ereignis, genannt ein „Grand Minimum“, könnte die Sonne erfassen, beginnend schon in diesem Jahr und bis 2070 dauernd – mit der Folge verringerten Magnetismus‘, wenigen Sonnenflecken und weniger die Erde erreichende UV-Strahlung – was alles eine kältere Periode auf der Erde bewirken kann, die sich über 50 Jahre erstreckt.

Das letzte Grand Minimum – also eine Unterbrechung des 11-jhärigen Sonnenzyklus‘ variabler Sonnenflecken-Aktivität – ereignete sich Mitte des 17. Jahrhunderts. Bekannt unter der Bezeichnung Maunder-Minimum dauerte es von 1645 bis 1715 innerhalb einer noch längeren Zeitspanne, als es in manchen Teilen der Welt so kalt wurde, dass dieser Zeitraum die „Kleine Eiszeit“ genannt wird. Sie dauerte etwa von 1300 bis 1850.

Als die Kleine Eiszeit vor etwas über einem Jahrhundert glücklicherweise zu Ende gegangen war, setzte auf der Erde ein allgemeiner Erwärmungstrend ein – ohne irgendeinen Green New Deal, sondern durch die Natur selbst. Die Ernteerträge stiegen wieder, Hungersnöte wurden seltener, Extremwetterereignisse nahmen an Häufigkeit und Stärke ab, und das menschliche Wohlergehen verbesserte sich dramaitisch.

Billionen Dollar in der Hoffnung zu verschwenden, dass die Temperatur während der nächsten 80 Jahre nicht mehr als ein oder zwei Grad steigt, wie es Computermodelle hergeben, um Kohlenstoff-Emissionen zu reduzieren, ist blanker Unsinn. Selbst wenn die USA einen Null-Kohlenstoff-Fußabdruck KAUFEN könnten, sind es die Milliarden in China und Indien, wo über 5000 Kohlekraftwerke in Betrieb sind und über 600 weitere gebaut werden, um deren Bevölkerung mit Strom zu versorgen, wodurch die Emissionen unverändert steigen.

Würde irgendjemand eine Temperaturänderung von ein oder zwei Grad bemerken? In Kalifornien erlebt man fast jeden Tag Temperaturänderungen von 30 Grad, vom Morgen bis zum Nachmittag.

Vor vierzig Jahren war es globale Abkühlung, heute ist es globale Erwärmung. Was wird es morgen sein? Die The New York Time schrieb über globale Abkühlung und einen entsprechenden wissenschaftlichen Konsens während der Jahre 1974 und 1975. Klima-Alarmisten haben dieses falsche Narrativ eines Ende-der-Welt-Unsinns seit über 140 Jahren hinaus posaunt und prophezeien jetzt das Ende der Welt innerhalb des nächsten Jahrzehnts aufgrund globaler Erwärmung – obwohl die Sonne sehr gut die Ouvertüre eines weiteren Abkühlungszyklus‘ für die Welt spielen könnte.

Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics




Politiker die sich von solchen Personen beraten lassen, können (und wollen) nie klug werden

Professor Quaschning

Professor Quaschning ist ein Professor im Schlepptau der unseligen Professorin C. Kemfert. Diese Professorin ohne Habilitation – also aufgrund von „Beziehungen“ -, trotzdem Regierungsberaterin für Klima und Energie, hat vom Strom etwa so viel Ahnung wie die Führungsspitze der GRÜNEN.
Nur so kann es sein, dass sie bei freier Rede schon mal einen „Molekülstau im Netz“ postuliert [1], oder öffentlich einfach etwas fabuliert [7]. Was sie aber nicht daran hinderte, mit ihrem alten Blog „Klimaretter“, bewusste Klimahysterie- und Ökoenergie-Propaganda, verbunden mit der Diffamierung von Kritikern zu führen [2].

Wohl deshalb hat sich Frau Kemfert einen – diesmal wirklichen – Professor, Herrn Quaschning, „an Bord“ geholt. Und damit jemanden gefunden, der ihr an Agitation und politischem Aktivismus in nichts nachsteht.

Professor Quaschning erzählt, wie Ökostromversorgung funktioniert

Vor kurzem brach über Deutschland eines der regelmäßigen Winter-Wetter-Unheile herein: Für den Winter typisch, wehte wenige Tage lang ein stärkerer Wind als üblich.
Während die öffentliche Nah- und auch Fernmobilität rein vorsichtshalber einen ganzen Tag lang fast vollständig eingestellt wurde um zu zeigen, was passiert, wenn „Verantwortliche“ über Mobilitätsanforderungen entscheiden dürfen, „röhrten“ die Windmühlen und erzeugten Strom.

Anlass für den „Energiefachmann“ Herr Quaschning, den folgenden Tweet zu posten:

Bild 1 Tweet von Prof. Quaschning zum jüngsten Wintersturm

Nichtfachleuten wird an diesem Tweet wenig auffallen. Eher eine Bestätigung für den „Segen“ und Notwendigkeit zu mehr „rettender“ Ökoenergie, wie sie regelmäßig publiziert werden. Nur, ist es wirklich so (einfach)?

Was Professor Quaschning schon weiß, anbei kurz erklärt

Was passiert, wenn zu viel Strom im Netz ist

Die Grafik im Tweet stammt vom Agora-Viewer. Herrn Quaschning war es wichtig, den negativen Strompreis vom 8.2. auf den 9.2. darzustellen, für den er eine eindeutige Erklärung bietet:
– alleine schuld sind die verbliebenen, konventionellen Energieerzeuger,
und dazu eine Lösung:
– abschalten dieser und Ausbau der „Erneuerbaren“.

Auslöser ist der dargestellte, negative Börsenpreis. Wie kann es dazu kommen, dass das Energiegut Strom nicht vom Verbraucher, sondern zum Verbrauchen bezahlt muss? Der alleinige Grund ist ein Überangebot an Strom. Wird dieses Überangebot in das Netz eingespeist, hat der Netzbetreiber die folgenden Möglichkeiten:
– er sieht der Einspeisung einfach zu, mit der Folge: Die Spannung im Netzt steigt und zerstört bald Netzinfrastruktur und Verbraucher. Oder
– es findet sich jemanden, der den Strom „absaugt“ und damit aus dem gefährdeten Netz entfernt.
Diese „Zwangsabnehmer“ finden sich öfters im Ausland. Da diese die Problematik natürlich (er-)kennen, wissen sie um die Not. Folge: der Lieferant Deutschland muss Geld bezahlen, damit sein Netz vom Stromüberfluss geleert wird.

Zwar würde der Strom nach dem Ohmschen Gesetzt sowieso automatisch dorthin fließen, wo die Spannung niedriger ist. Das verhindern aber zusehens an den Grenzen errichtete Phasenschieber.

– Eine weitere wäre, den überflüssigen Strom gar nicht erst einzuspeisen, die Windgeneratoren und Solarpanel also einfach leer laufen zu lassen. Der Begriff dazu heißt „Abregeln“.
Warum dieses Abregeln hier nicht in ausreichendem Umfang gemacht wurde, entzieht sich der Kenntnis des Autors. Ohne es genau zu wissen, vermutet er dahinter zu einem erheblichen Teil energiepolitisch, publizistische Gründe.

– Am liebsten und präferiert wäre es GRÜN, wenn der Überfluss-Strom in einen Speicher flösse, um bei Flauten als Reserve verfügbar zu sein.
Leider sind und bleiben der „Stromsee“ und Annalenas „Speichernetz“ nach wie vor – da physikalisch unmöglich – reine, GRÜNE und leider muss man sagen: Aller etablierten Parteien und auch Bayerns besonderer Illusionswunsch.
Allerdings halten diese an dem Versprechen fest, dass dieser Wunsch sicher Wirklichkeit wird, sofern der Glaube daran fest – und das dafür hinausgeworfene Geld – genügend hoch ist.

Wie kommt es zu einem Strom-Überfluss im Netz

Prof. Quaschning beschreibt als alleinige Ursache „ein klares Zeichen, dass Kohle und Atomkraftwerke zu unflexibel sind“.
Diese Darstellung ist nicht neu, sondern gängige Lesart, wie sie von C. Kemfert „Molekülstau im Netz“ [4] und den GRÜNEN [3] „der Kohlestrom verstopft die Leitungen“ immer neu verbreitet werden.

Was steckt jedoch wirklich dahinter? Aufgrund der gesetzlich festgelegten Vorrangeinspeisung, dürfen alle Ökoenergie-Produzenten ihren Strom jederzeit bedenkenlos in das Netz einspeisen, vollkommen unabhängig davon, ob dieser auch gebraucht wird.
Die einzige „Einschränkung“ besteht in der Möglichkeit einer Verhinderung durch den Netzbetreiber. wenn dieser sein Netz zu stark gefährdet sieht. Dann kann er per Fernzugriff die Einspeisung kappen. Selbstverständlich hat der private Stromkunde dem Ökostrom-Hersteller in diesem Fall den nicht eingespeisten Strom trotzdem voll zu vergüten.
Dieses Abregeln wird aber nicht immer durchgeführt, oder ist im Netzverbund nicht ausreichend lenkbar oder negative Strompreise sind teils billiger als eine ausreichende Abregelung.

Auf jeden Fall lässt sich aufgrund des Einspeisevorrangs immer öfter nicht vermeiden, dass im Netz ein die Technik durch Spannungshub gefährdendes Strom-Überangebot herrscht.

Wir haben nun gelernt, wer die Ursache dafür ist: Alleine – und zwar ganz allein – die vollkommen vom Bedarf und technischen Problemen entkoppelte Vorrangeinspeisung der sprunghaften und unvorhersagbaren Ökoenergie.

Früher gab es dieses Problem also nicht. Bedarf und Verbrauch waren über die Jahrzehnte recht sorgfältig austariert. Kurzfristige Restdifferenzen konnten teils von den Kraftwerken selbst geregelt werden und so war die dazu erforderliche, noch kurzfristigere Regelenergie nur in geringem Umfang erforderlich und durch z.B. Gas- und Speicherkraftwerke, wie auch Import-/Export leicht (und billig) beherrschbar.

Lösung?

Eine ganz einfache und sofort wirksame Lösung wäre, die gesetzliche Vorrangeinspeisung abzuschaffen.
So viel „Hirn“ ist im aktuellen, von Ideologen und Freitags-hüpfenden Schulkindern „getriebenem“ Deutschland jedoch nicht mehr vorstellbar.

Also müssen andere Lösungen erfunden werden. Da der Zwang dazu als alternativlos gilt, braucht man dabei zum Glück nicht die geringste Rücksicht auf Kosten zu nehmen (zahlt ja alles brav der private Stromkunde).
Ein favorisierter Lösungs(-Versuch): Akkuspeicher, wurde bereits beschrieben:
[5] EIKE 29.01.2020: Die Ökoenergie Speicher-Lösung ist so einfach. Es muss sie nur jemand bezahlen
Die Kosten erfordern eine Dimensionen, bei denen einem nur noch reinstes Grauen überkommt. Nur: Lobbyisten und Politiker schrecken Kosten heutzutage nicht im Entferntesten ab. Man meint fast, je mehr Nullen vor dem Komma stehen, um so enthusiastischer wird ein Thema bejubelt. Es lässt sich verstehen: Das viele Geld verschwindet ja nicht in der „klimagereinigten Luft“, sondern in irgendwelche Taschen.

Da (außer der Annalena, die es noch teurer bereits mit E-Auto-Akkus als gelöst sieht) trotzdem klar ist, dass daraus keine wirkliche Lösung werden kann, wird parallel an wirklich allem geforscht, was moderne StartUps an Ideen (er)finden.

Unter den noch im Ansatz entfernt „realistischen“ beispielsweise die Wasserstoff-Speicherung:
[6] EIKE 01.11.2019: Wasserstoff, der neue Heilsbringer?
Auch diese hat (neben vielen anderen) das Problem, aufgrund des geringen Wandlungs-Wirkungsgrades von ca. 25 … 30 % (besser umgekehrt: Der hohen Wandlungsverluste von ca. 75 %) deutlich teurer zu sein, als der zu wandelnde Strom wert ist. Aber jedes Kind lernt: Essen wird niemals weggeworfen. Und so wird auch der „ökologisch“ erzeugte Strom betrachtet.
Denn wie gesagt: Nutzlosen Überflussstrom gar nicht erst zu erzeugen, ist in Deutschland nicht verhandelbar.

Manche meinen nun, sich mit dem Lösen von Unlösbarem besonders profilieren zu können. Und so sieht Bayern, dank einem GRÜN-mutiertem Ministerpräsidenten und einer Provinzpartei an wichtigen Positionen gerade darin die Lösung:
Bayerisches Staatsministerium für Wirtschaft: Zentrum Wasserstoff.Bayern
… Die Bayerische Staatsregierung will das enorme Potenzial von Wasserstoff als Energieträger der Zukunft nutzen und gründet am 5. September 2019 das Zentrum Wasserstoff.Bayern (H2.B). Gemeinsam mit einer Reihe relevanter Industriepartner schließt die Bayerische Staatsregierung zudem das „Wasserstoffbündnis Bayern“

Im Jahr 20 der Energiewende (im Jahr 2000 wurde das Gesetz verabschiedet) ist man damit wirklich weit zu einer Lösung „vorgedrungen“:
Bayerisches Staatsministerium: … Initiation, Koordination und Begleitung von Demonstrationsprojekten mit dem Ziel, Erkenntnisse aus Demonstrationsprojekten nutzbar zu machen für die Weiterentwicklung und die großflächige Umsetzung der Wasserstoffwirtschaft in Bayern...

Die „verstopften“ Leitungen

Im Tweet-Bild von Herrn Quaschning fehlt (bewusst) einiges. Deshalb vollständige Darstellungen, was um diesen Zeitpunkt herum im Energienetz passiert ist.
Erkennbar ist inzwischen Stromimport öfters erforderlich (laut GRÜN hat Deutschland allerdings viel zu viel Strom). Meistens ist der Anlass eine Delle in der Ökoenergie-Gewinnung, also zum Energieernten ungeeignetes Wetter. Ein Zeichen, dass die bisherige Abschaltung der grundlastfähigen, konventionellen Kraftwerke Deutschlands Stromreserve bereits an ihre Grenze gefahren hat und Notabschaltungen wegen Energiemangel wohl nicht mehr lange auf sich warten lassen.

Das Umgekehrte passiert, wenn plötzlich Energie-Erntewetter vorliegt. Nun wird auf Teufel komm raus alle Energie ins Netz gespeist, auch wenn sie niemand braucht und deshalb sofort wieder entfernt werden muss.
So geschah es am getweetetem 9. Februar: Es herrschte Sturm, gleichzeitig schien auch noch die Sonne und der Strombedarf war gering. Da war die Regelgrenze – hier eher Minimalauslastung – der konventionellen Kraftwerke erreicht. Man hätte es durch Abregeln der Ökoeinspeiser lösen können – wurde aus irgendwelchen Gründen jedoch nicht durchgeführt – und so kam es wieder zu negativen Strompreisen.
Für Herrn Quaschning der Beleg, die restlichen Grundlastkraftwerke auch noch abzuschaffen und die Erzeuger des Problems zügig auszubauen.

Wie Kinder, die gerne mal etwas kaputt machen

Herrn Quaschnings Tweet offenbart damit ein ganz sonderbares Wissenschaftsverständnis.

Anbei ein vollständigeres Bild über das Stromnetz zur besagten Zeit (Bild 2). Die Ökoenergie konnte zu keiner Zeit ausreichend Energie liefern. Ohne die noch vorhandenen Grundlastkraftwerke wäre unser Elektro-Energiesystem über viele Tage hoffnungslos zsammengebrochen!!!!
Dass bei diesem Energiedesaster nur kurzzeitig ein negativer Strompreis entstand, muss man bei dem desolaten Netzzustand schon fast als „Vorteil“ abhaken. Diese Kosten sind im Vergleich zu dem, was die Ökoenergie ohne so viel (noch) vorhandene Grundlast an Problemen durch großflächige Stromausfälle angerichtet hätte, bestimmt „Penauts“.
Wobei diese Peanuts erhebliche Summen erreichen:
[8] EIKE 27. Februar 2020: Sturm Yulia kostet Rekordsumme von 347 Mio € an ungenutztem Windstrom

Bild 2 Verläufe: Verbrauch, Ökoenergie-Einspeisung, Börsen-Strompreis, Strom-Export/Import-Saldo. Quelle: Agora-Viewer

Noch deutlicher wird dies beim Betrachten des längerfristigen Einspeiseverlaufs. Kein vernunftbehafteter Ausbau des Ökostromes wäre in der Lage, die erforderliche Grundlast zu liefern. Doch Vernunft gibt es unter Frau Merkel nicht, wenn es der vorbeugenden Umsetzung GRÜNER Forderungen dient, wie es die jüngste Aktion ihres „unterwürfigsten Adlatus“ wieder zeigt: Die Zeit 26.02.2020: Peter Altmaier will Abstandsregelung für Windräder lockern

Bild 3 Verbrauch und Ökoenergie-Einspeisung vom 14.01. … 15.02.2020. Vom Autor umrahmt der Zeitpunkt mit negativem Strompreis. Datenquelle: Agora-Viewer

Und zu diesem Desaster, welches die Deutsche „Energiewende“ im Stromnetz bereits aktuell anrichtet, fällt auch Herrn Quaschning nur ein, es zügig weiter auszubauen.

Da bezahlbare Stromspeicher im Großmaßstab (physikalisch bedingt) nie kommen werden, gibt es nur eine Lösung

Herr Quaschning hat natürlich ein Ziel „vor Augen“. Er ist zur „Wissenschaftlerfraktion“ der Klimahysteriker gewechselt. Ein Beleg, dass diese Spezies nicht auf „weniger Gebildete“ beschränkt ist. Hier allerdings mit dem Verdacht, dass die „Bildung“ genutzt wird, den Situations-Vorteil wie ihn die Politik derzeit bietet, scham- und gewissenlos zum eigenen Vorteil zu nutzen.

Bild 4 Tweet von Prof. V. Quaschning

Bild 5 Tweet von Prof. V. Quaschning (9.1.2020)

Bild 6 Tweet von Prof. V. Quaschning

Bild 7 Tweet von Prof. V. Quaschning

Als Alarmist sind ihm jedoch vernünftige Lösungen verschlossen. Aus rein ideologischen Gründen muss er nun gegen die bewährten und bezahlbaren Atomkraft- und Kohlekraftwerke angehen.

Die „Jünger“ und Gläubigen dieser Agenda erwarten allerdings „Lösungen“. Diese erfordert, dass die Ökoenergie-Einspeisung wenigstens zeitweise zumindest mal den Bedarf erreicht. Also muss der Ausbau kompromisslos gefordert werden.
Dass in Flautezeiten selbst der Zehnfache Ausbau aber nicht zur Versorgung reicht, weiß Herr Quaschning auch. Das „löst“ (nicht nur) er, indem er die bewährte, konventionelle Grundlasterzeugung als „unflexibel“ schlecht redet und schneller regelbare Gaskraftwerke als allein richtige Lösung preist.
Dass man dies aus vielen guten Gründen bisher bewusst nicht gemacht hat, verschweigt er dabei.

Es sind einmal die horrenden Kosten der Stromerzeugung und die Abhängigkeit vom Russischen Gas. Natürlich lässt sich damit der Strom auch durch elektrolytisch erzeugtes Gas gewinnen. Dann steigen die Kosten allerdings noch weiter.

Einen gut bezahlten Professor im öffentlichen Dienst mit sicherem Pensionsanspruch mag das nicht weiter beunruhigen. Den Rest der Bürger sollte es schon. Anmerkung: Tut es allerdings nicht, wie die Bürgerschaftswahl in Hamburg bewies.

Wirtschaftslenker wussten schon immer: Ganz wichtig ist, die Meinung der Führer-In zu kennen und davon nicht abzuweichen. Sonst wird man nur von den abfallenden Brosamen ausgeschlossen

Wie bereits der damalige Daimler-CEO Tsetsche sich den GRÜNEN auf einem ihrer Parteitage zu Füßen geworfen hat und freudig die Zerstörung seines Basisgeschäftes durch die GRÜNEN begrüßte, mach es nun auch der Siemens-CEO Kaeser:
Lokalausgabe der Norddbayerischen Nachrichten, 29.02.2020: Kaeser mahnt Koalition
… Siemens-Chef Joe Kaeser hat die Pläne für den deutschen Kohleausstieg als zu wenig ehrgeizig kritisiert. „Das kann ja gar nicht angehen, dass, dass wir bis 2038 brachen, um kohlefrei zu sein“, sagte der 62-jährige bei einem Wirtschaftskongress der Grünen Bundestagsfraktion in Berlin, wo er dafür Applaus bekam. „Wenn man es will, dann geht es auch bis 2030“. Dafür müssten die Interessenvertreter … bei Themen wie Ausbau der Stromversorgung und Ausbau der Windkraft an einem Strang ziehen. Die Braunkohlekraftwerke müsse man … dann zuerst abschalten. “Wenn man das will, dann geht das“ ... Die Zulieferung der Zugsignalanlage sei etwas, „was wir niemals hätten machen dürfen … “

Im Kern hat er ja „Recht“. Wann gab es das schon, dass eine deutsche Regierung in Friedenszeiten mittels Gesetzen die Versorgungs-Infrastruktur „zerbombt“ und ein Aufbauszenario wie nach einem Krieg hinterlässt? Wer (nur) an sein Geschäft denkt, muss ein solch seltenes Szenario tatkräftig unterstützen, vor allem, da das ehemals florierende, konventionelle von den gleichen Protagonisten kaputt gemacht wurde.
Zwar krankt das Neue schon an allem, was krank sein kann und scheint ebenfalls den Weg der ehemals hochgehypten Solarindustrie zu gehen. Also lobt es Kaeser noch schnell, wohl in der Hoffnung, vor dem vollständigen Geschäftsverfall noch Subventionen abzuholen, die sein erwartbares Ende als CEO beschönigen könnten. Minister Altmaier zeigt mit dem Kippen der Abstandsregelung, dass die Politik bereit ist, solche Wünsche zu unterstützen. Und wer weiß, welche Partei bald die Bundeskanzlerposition besetzt?

Also nicht (nur) auf „Fachpersonen“, wie Professor Quaschning schimpfen, der sich seine kleinen Brosamen sichert. Die „Großen Lenker“ der Industrie sind keinen Deut besser.

Quellen

[1] Achgut: Claudia Kemfert, Chefideologin der Energiewende

[2] EIKE 11.10.2016: C. Kemfert, Professorin und Politik-Beraterin für Umwelt und Energie, bekommt Ehrenpreise für Agitation

[3] EIKE 11. September 2017: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen

[4] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

[5] EIKE 29.01.2020: Die Ökoenergie Speicher-Lösung ist so einfach. Es muss sie nur jemand bezahlen

https://www.eike-klima-energie.eu/2019/11/01/wasserstoff-der-neue-heilsbringer-2/

[6] EIKE 01.11.2019: Wasserstoff, der neue Heilsbringer?

[7] Achgut 26.02.2020: 20 Jahre EEG – Gaudi mit Claudi

[8] EIKE 27. Februar 2020: Sturm Yulia kostet Rekordsumme von 347 Mio € an ungenutztem Windstrom