Kaltes Wasser auf heiße Klimamodelle

Mein vorheriger Artikel mit dem Titel „CLINTEL Manifesto blasts climate scaremongering“ enthält unter Anderem die höchst bedeutende Graphik, welche eine dramatische Divergenz der IPCC-Klimamodell-Prophezeiungen von den Temperaturmessungen via Satellit zeigen. Die Modelle laufen heißer als die Wirklichkeit. Siehe hier.

Es gibt jedoch ein wesentliches Modell, mit welchem die Satellitenmessungen übereinstimmen, und zwar das russische Modell. Der Grund dafür ist einfach, wenngleich fundiert. Der Präsident von CLINTEL Guus Berkhout erklärt es so: „Ich habe das russische Klimamodell INM untersucht. Anders als die IPCC-Modelle passen die Prognosen des russischen INM-Modells bemerkenswert gut zu den Messungen. Eine plausible Erklärung dafür ist, dass eine negative Wolken-Rückkopplung darin eingeht: -0,13 W/m² pro Grad Celsius,während die IPCC-Modelle von einer großen positiven Wolken-Rückkopplung ausgehen: bis zu 0,80 W/m² pro Grad Celsius. Diese große positive Wolken-Rückkopplung ist verantwortlich für die Katastrophen-Prophezeiungen des IPCC“.

Die Physik hinter dieser Erklärung ist ziemlich einfach. Erwärmung führt zu mehr Wasserdampf in der Luft, was zu verstärkter Wolkenbildung führt. Wolken können die Erwärmung entweder zunehmen (positive Rückkopplung) oder abnehmen lassen (negative Rückkopplung). Die wissenschaftliche Frage lautet: was gilt? Die Russen finden, dass die Rückkopplung negativ ist. Die Messungen stützen diesen Befund.

CLINTEL ist ein internationaler Klima-Ratgeber, weshalb es sinnvoll ist, dass man dort diese Ergebnisse genau unter die Lupe nimmt. Die CLINTEL-Vision lautet: „Fortschritt erfordert Redefreiheit und die Freiheit wissenschaftlicher Forschungen“. Tatsächlich ist Prof. Berkhout offiziell von der russischen Akademie der Wissenschaften eingeladen worden, um mehr über das INM-Modell zu erfahren und die Klima-Version von CLINTEL zu teilen.

Anders als die Modellierer in den USA und in Europa wurden die russischen Modellierer nicht von den Alarmisten vereinnahmt. Dies hat ihnen die Freiheit gegeben, die Option der negativen Rückkopplung zu erkunden, was die Alarmisten strikt abgelehnt haben – bisher zumindest.

Aber selbst innerhalb der Alarmisten-Gemeinschaft ist eine vielversprechende Entwicklung erkennbar, ist doch dort ein großer Kampf ausgebrochen bzgl. der Wolken-Rückkopplungen. Beim IPCC ist man derzeit am Abfassen des jüngsten großen Klima-Zustandsberichtes AR 6. Die meisten der alarmistischen Klimamodelle laufen, um in diesen Bericht einzugehen.

Dieses Mal erleben wir, dass im AR 6 etwa die Hälfte dieser Modelle noch heißer läuft als es im AR 5 der Fall war. Obwohl der Begutachtungsprozess noch nicht beendet ist, scheint es so, als ob die AR 6-Modellierer die positive Wolken-Rückkopplung noch aufgemotzt haben. Wir können keinerlei neue Wissenschaft erkennen, welche diese Übertreibung stützen würde. Hat man es gemacht, um den politischen Schub hin zu einer radikalen Null-Kohlenstoff-Gesetzgebung zu unterstützen? Je heißer das Modell umso schlimmer die prophezeite Katastrophe ob des Verbrauchs fossiler Treibstoffe, damit ein noch höheres Niveau der Panik gerechtfertigt werden kann.

Viele Leute innerhalb der Klima-Gemeinschaft hinterfragen diese gesteigerte globale Erwärmung in den Modellergebnissen des AR 6. Einmal zeigt dies, dass mindestens die Hälfte aller dieser Modelle falsch ist – entweder die Hälfte, die nicht heißer gelaufen ist (und das gleiche Panik-Niveau wie im AR 5 prophezeit) oder die Hälfte der Modelle, die heißer gelaufen ist (und damit ein noch höheres Panik-Niveau wie im AR679 prophezeit hat).

Eine höhere positive Wolken-Rückkopplung mag nicht alle Inkonsistenzen lösen, aber wir können sicher feststellen, dass es eine höchst unwahrscheinliche Hypothese auf Modelliererseite ist. Keine Wissenschaft erzwingt diese Wahl, und Messungen deuten stark gegen diese Hypothese. Dies öffnet die Tür für die empirisch bestätigten russischen Ergebnisse, welche das gesamte Katastrophen-Narrativ des AR 5 und noch mehr dasjenige des AR 6 in Frage stellen.

Prof. Berkhout drückt es prägnant so aus: „Falls die Russen recht haben, ist das Kohlenstoff-Budget sehr, sehr groß – also die Menge Kohlenstoff, welche die Menschheit emittieren kann, bevor das Limit der Erwärmung um 1,5°C bzw. 2°C erreicht wird. Mit anderen Worten, es gibt kein Problem mit fortgesetzten CO2-Emissionen, bis wir eine technologisch zuverlässige und ökonomisch sich rechnende Alternative haben. Das Anstreben von Null-Emissionen bis zum Jahre 2050 ist total töricht. Hinsichtlich des gegenwärtigen Gesundheits-Notstandes ist es ein Verbrechen gegen die Menschheit“.

Es ist eine Ironie, dass die „blauer Himmel“-Phantasie des Klima-Alarmismus‘ durch Wolken zurück zum Boden gebracht werden könnte. Negative Rückkopplung ist eine wahrhaft positive Meldung.

Es wird spannend sein zu sehen, wie sich dieses Drama entfaltet.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting
Link: https://www.cfact.org/2020/04/03/throwing-cold-water-on-hot-climate-models/

Übersetzt von Chris Frey EIKE




Markante Zirkulations­anomalien: 2018, 2019 – und nun auch 2020?

Der Witterungsverlauf seit Herbst 2019
Über den Verlauf seit Beginn der markanten Zirkulationsanomalien von Februar 2018 bis zum Sommer 2019 wurde beim EIKE schon hier und hier ausführlich berichtet. Der September 2019 brachte den typischen Mix aus Altweibersommerwetter und wechselhaften Phasen, allerdings um den 19. schon vereinzelte Bodenfröste, während im Oktober nach kühlen ersten Tagen mit Bodenfrösten feucht-mildes Herbstwetter überwog. Ersten Nachtfrösten um das Monatsende folgte ein wechselhafter, durchschnittlicher, regenreicher November, der zur sehr milden Westwind-Witterung des Dezembers überleitete. Im Januar 2020 bestimmte sehr hoher Luftdruck über Nordwest-, Mittel- und Südosteuropa mit langen, niederschlagsfreien Phasen das Geschehen, was besonders nordöstlich der Elbe durch einfließende Nordseeluft extrem mildes Wetter zur Folge hatte; in Süddeutschland kühlte sich die Luft bei Windstille hingegen zeitweise stark ab; es traten mäßige, vereinzelt strenge Nachtfröste auf. Der zweitwärmste Februar seit 1881 wurde praktisch vollständig von mildem, stürmischem, regenreichem Westwetter dominiert, welches sich noch bis Mitte März fortsetzte; pünktlich zum kalendarischen Frühlingsbeginn setzte eine massive Kaltluftzufuhr, erst aus Nordost, dann aus Nord, ein. Dabei entstand am letzten Märzwochenende ein rekordverdächtig starkes Hochdruckgebiet auf dem Ostatlantik:

Abbildung 1: Wetterkartenausschnitt vom 29. März 2020 mittags. Man erkennt südlich von Island ein extrem starkes Atlantik-Hoch mit einem Kerndruck von 1055 hPa, das an seiner Ostflanke arktische Kaltluft nach Deutschland lenkt. Ob das ein neuer Luftdruck-Rekord ist, konnte wegen fehlender Unterlagen nicht eindeutig geklärt werden. Bildquelle Archiv wetter3.de, leicht verändert und ergänzt.


Erst mit Aprilbeginn setzte eine allmähliche Erwärmung ein.
Werden die ausgleichend wirkenden Westwetterlagen seltener?
Westwetterlagen (auch zonale Lagen genannt) haben im Jahresmittel kaum Einfluss auf die Deutschland-Temperaturen, denn ihr stark wärmender Einfluss im Winter wird durch ihren kühlenden Einfluss im Sommer fast ausgeglichen; außerdem sind sie unsere „Regenbringer“ und aufgrund ihrer Häufigkeit sozusagen das „normale“ Wetter – aber wie wir gleich noch sehen werden, können Zirkulationsanomalien mitunter auch bei Westlagen auftreten, dann nämlich, wenn sie mit Sturm und Starkregen über die Stränge schlagen wiez. B. im Februar 2020. Ihre Gegenspieler sind die so genannten meridionalen oder meridianen Wetterlagen, das sind alle Nord-, Ost- und Südlagen, von denen die Ostlagen wegen ihrer Winterkälte und Sommerhitze gefürchtet sind, während nördliche Lagen besonders im Frühling und Herbst markant zu kalt, Südlagen außer im Winter fast stets markant zu warm ausfallen. Die Behauptung, es gebe neuerdings mehr Extremwetter, lässt sich anhand der langfristigen Häufigkeitsentwicklung dieser beiden Gegenspieler aber nicht belegen:

Abbildung 2: Deutliche Häufigkeitsabnahme der (zonalen) West- und nicht signifikante Zunahme der meridionalen Großwetterlagen in Mitteleuropa. Lineare Trends (fette Linien) und 21ig-jährige Gleitmittelwerte, endbetont (halbfette Linien).


Aber wenn die zu Extremwetter neigenden Lagen den Häufigkeitsschwund der Westlagen nicht ausgleichen konnten, welche waren es dann? Es sind, wie in früheren Arbeiten des Verfassers schon öfters erwähnt, die zur gemischten Zirkulation zählenden, im Jahresmittel stark erwärmend wirkenden Südwestlagen; diese haben einen westlichen und einen südlichen Strömungsanteil und zählen daher zur gemischten Zirkulation:

Abbildung 3: Seit 1881, dem Beginn der Erstellung halbwegs verlässlicher Wetterkarten, hat sich die Häufigkeit der in Deutschland stark erwärmend wirkenden Südwestlagen merklich erhöht. Außerdem erwärmte sich der Nordatlantik, wobei es eine schwächere Warmphase um 1900, eine stärkere um 1945 und eine aktuelle, sehr starke, gibt. Die Kurvenverläufe der gleitenden Mittelwerte (fette Kurven) ähneln sich, wobei die AMO etwa 20% der Häufigkeitsvariabilität der SW-Lagen erklärt. Fast alle Jahre ganz ohne SW-Lagen traten vor 1950 auf; danach war nur 1991 frei von SW-Lagen; 2019 hatten wir 44 Tage.


Südwestlagen können, besonders in ihrer antizyklonalen Form, zwischen Mai und Oktober mitunter auch Hitzewellen auslösen. Und eine mögliche Ursache ihrer Häufigkeitszunahme haben wir nun gleich mit kennengelernt – die AMO (AMO = Atlantische Mehrzehnjährige Oszillation, ein Index für die gemittelten Meeresoberflächentemperaturen im zentralen Nordatlantik). Ob und wann jedoch das Ende der aktuellen AMO-Warmphase und damit auch der häufigen SW-Lagen schon begonnen hat, kann nicht mit Sicherheit gesagt werden. Hingegen lässt sich die Häufigkeitsabnahme der Westwetterlagen im Jahresmittel nicht zweifelsfrei erklären; möglicherweise kommt hierfür die seit 1990 stark nachlassende Sonnenaktivität in Betracht. Bliebe außerdem zu erwähnen, dass die Häufigkeit der Westwetterlagen nur von Frühling bis Herbst, besonders im Sommer, nicht aber im Winter, abnahm, was einer gesonderten Erklärung bedarf.
Viele, sehr intensive Westwetterlagen im Winter 2019/20 – warum?
Freuer (2020) hat in seiner Arbeit „Über einen möglichen Zusammenhang zwischen winterlichem Polarwirbel und Winterkälte in Mittleren Breiten“ hier bei EIKE dargelegt, was ein Polarwirbel ist, und wie er die Winterwitterung in Mitteleuropa beeinflussen könnte. Da es an einem lange zurückreichenden Archiv von Stratosphärenkarten mangelt, erweist es sich als praktisch, die beim USA-Wetterdienst NOAA seit 1948 verfügbaren Angaben zu den Temperaturen in der Stratosphäre über der Arktis zu nutzen; für die folgenden Untersuchungen wurden die 50hPa-Stratosphärentemperaturen über dem Nordpol verwendet. Die Sachlage stellt sich folgendermaßen dar: Je kälter es dort im Winter ist, desto kräftiger ist tendenziell der die Zirkulation beeinflussende Polarwirbel. Setzt man diese Nordpol-Stratosphärentemperatur nun in Relation zu den Wintertemperaturen in Deutschland, so zeigt sich tatsächlich ein, wenn auch schwacher, negativer Zusammenhang – tendenziell hat ein kalter Polarwirbel einen Mildwinter in Deutschland zur Folge! So auch 2019/20, als über dem Nordpol im Wintermittel minus 77,7°C gemessen wurden – deutlich kälter als der Mittelwert 1948/49 bis 2018/19 mit minus 69,4°C. Ähnliche Verhältnisse herrschten in den Mildwintern 1973/74, 1975/76, 1982/83, 1989/90, 1992/93, 1999/2000, 2006/07, 2013/14 und 2015/16; doch kann die polare Stratosphärenkälte nicht jeden Mildwinter erklären; in seltenen Fällen (1985/86 und besonders 1995/96) hatte sie auch Kaltwinter zur Folge. Es stellt sich aber die spannende Frage, ob engere Beziehungen zu den Häufigkeiten der Westwetterlagen und zu den Index-Werten der NAO bestehen. Der NAO-Index (Nordatl. Oszillation) ist ein Maß für das Luftdruckgefälle zwischen den Azoren und Island; bei hohen, positiven Werten stehen sich ein jeweils kräftiges Azoren-Hoch und Island-Tief gegenüber, was Westlagen begünstigt; bei sehr negativen Werten tauschen Hoch und Tief die Plätze (Island-Hoch und ein Tief über SW-Europa; es kommt dann oft, aber nicht zwangsläufig, zu Kälteeinbrüchen aus Nord oder Nordost in Mitteleuropa). Tatsächlich findet sich für den Winter ein freilich nur mäßiger Zusammenhang zwischen der Stratosphärentemperatur am Nordpol und den NAO-Werten:

Abb. 4: Obwohl der statistische Zusammenhang zwischen der winterlichen Stratosphären-Temperatur über dem Nordpol und dem winterlichen NAO-Index nur mäßig ist, deutet er darauf hin, dass ein intensiver, kalter Polarwirbel die winterliche Westwind-Zirkulation beschleunigt und damit Mildwinter in Deutschland begünstigt.


Leider liegen die genauen NAO-Daten für den Mildwinter 2019/20 noch nicht vor, doch verdeutlicht die folgende Abbildung das markante Vorherrschen positiver NAO-Werte und deren jähen Absturz ins Negative nach Mitte März, was dann die für den Frühling so typische Umstellung der Zirkulation auf Nord bis Ost mit später Kälte und beginnender Dürre auslöste:

Abbildung 5: Täglicher Verlauf der NAO seit Mitte Dez. 2019. Bildquelle NOAA.gov, ergänzt.


Damit ist klar: Mildwinter in Deutschland werden zumindest durch unterdurchschnittliche Stratosphären-Temperaturen begünstigt – je niedriger diese sind, desto eher dominieren positive NAO-Werte, was die Intensität und die Häufigkeit milder Westwetterlagen erhöht; freilich ist hier noch viel Forschungsarbeit zu leisten. Im Winter 2019/20 kamen außerdem noch sehr hohe AMO-Indexwerte, besonders im Februar, hinzu. Ob die Kombination hoher AMO-Werte und sehr niedriger Stratosphärentemperaturen über der Arktis die Wahrscheinlichkeit sehr milder Winter weiter erhöht, bedarf noch einer Klärung.
Beeinflusst die Sonnenaktivität die arktischen Stratosphärentemperaturen?
Mit der winterlichen Abkühlung alleine lässt sich die Lage des Polarwirbels über der Arktis nicht erklären, denn viel weiter südöstlich, im Inneren Sibiriens, herrschen deutlich tiefere Wintertemperaturen. Eine wesentliche Rolle spielt vielmehr das winterliche Fehlen der Sonne über der Arktis; damit fehlt das für die stratosphärische Ozonbildung erforderliche kurzwellige UV-Licht. Bei den komplizierten Prozessen des Ozonumsatzes wird jedoch Wärme frei – dies ist auch der Grund dafür, warum es in Teilen der Stratosphäre wärmer sein kann, als in der oberen Troposphäre. Wenn im Spätwinter die Sonne über der Arktis aufgeht, beginnt die Ozonbildung und leitet den Zerfall des Polarwirbels ein; erst im Herbst entsteht er neu. Nun strahlt aber die Sonne in Zeiten höherer Aktivität etwas mehr kurzwelliges UV ab, was zu mehr Ozonbildung in der Stratosphäre führen könnte und damit diese von Frühling bis Herbst stärker erwärmt. Momentan lässt die Sonnenaktivität stark nach, was zwar im Winter keine Rolle spielt, weil sie da nicht scheint, aber in den anderen Jahreszeiten zu sinkenden arktischen Stratosphärentemperaturen führen müsste, was dann einen zeitigeren und tendenziell kälteren winterlichen Polarwirbel entstehen lässt. Tatsächlich deutet sich ein derartiger Trend an:

Abbildung 6: Langfristige Abnahme der herbstlichen Stratosphärentemperatur (50hPa) über dem Nordpol. Bislang noch kein negativer Langfristtrend im Winter; doch nach dem Jahr 2000 deutet sich auch hier ein leichter Rückgang an.


Diese Zusammenhänge könnten auch erklären, warum der Winter die einzige Jahreszeit ist, in welcher die Westlagen nicht seltener wurden. Aber warum gab es dann während der „Kleinen Eiszeit“ mit ihrer sehr inaktiven Sonne so viele bitterkalte Winter in Europa, welche momentan fehlen? Damals dauerte die Ruhephase der Sonne sehr lange, nämlich über ein halbes Jahrhundert. Möglicherweise wurde damals der winterliche Polarwirbel immer kälter und größer, bis er irgendwann auch in die mittleren Breitengrade reichte. Damit verlief aber das Westwindband immer weiter südlich, bis schließlich Mitteleuropa auf seine kalte Seite gelangte; das entspräche der Großwetterlage „Südliche Westlage“, welche auch den in Norddeutschland extrem kalten Winter 1978/79 einleitete; momentan ist diese Wetterlage selten. Hier besteht noch viel Forschungsbedarf; doch sollte die aktuelle inaktive Sonnenphase noch lange anhalten, kann mein eine starke Klima-Abkühlung nicht ausschließen.
Zirkulationsstörungen 2020 und Vegetationsentwicklung
Die Bauern-Regeln „April dürre, macht die Hoffnungen irre“ oder „Mai trocken, macht alles Wachstum stocken“ sind uns von den vergangenen Jahren mit ihren im Frühling sehr ausgeprägten Zirkulationsstörungen in unguter Erinnerung; und nach dem Witterungsumschwung ab dem 20.März drohen weitere Zirkulationsanomalien. Auch im Frühling deuten sich nämlich Zusammenhänge zwischen den stratosphärischen Temperaturen über der Arktis und den Zirkulationsverhältnissen an; unter anderem werden die gefürchteten Ostlagen durch positive Anomalien der Stratosphärentemperaturen am Nordpol gefördert. Die Stratosphären-Vorhersagen lassen da zumindest für die nächsten Wochen nichts Gutes erahnen:

Abbildung 7: Vorhersage der Stratosphären-Temperaturen über der Nordhalbkugel für den 21.April 2020 (10 hPa-Niveau) . Der winterliche Polarwirbel ist längst verschwunden – es herrschen nun gegensätzliche Verhältnisse. Über dem Nordpol liegt Warmluft (gelb); über den mittleren Breiten ein Band kälterer Höhenluft (blau). Quelle meteociel.fr


Hinzu kommen die hohen AMO-Werte; diese hatten besonders im April tendenziell erhöhte Lufttemperaturen in Deutschland zur Folge:

Abbildung 8: In AMO-Warmphasen fällt der April in Deutschland eher wärmer aus. Der Zusammenhang ist nur schwach, aber trotzdem spürbar.


April-Wärme fördert aber die Verdunstung – schon um den 5.April bildeten sich Trockenrisse in den Böden.

Abbildung 9: Die wegen der März-Kälte wochenlang blühenden Osterglocken kämpfen nun mit der beginnenden Dürre – ähnlich, wie 2018. Foto: Stefan Kämpfe


Und welche Schäden die Spätfröste Ende März anrichteten, ist noch gar nicht voll absehbar. Ihre enorme Stärke könnte in selbst noch geschlossenen Blütenknospen die Narbe und den Fruchtknoten geschädigt haben, doch Genaueres wird sich erst in den kommenden Wochen zeigen.

Abbildung 10: Frühtemperaturen bei der antizyklonalen Ostlage am 23.03.2020. In Südostdeutschland wurden minus 4 bis unter minus 10 Grad gemessen, und die Wetterstationen stehen nicht in den Kältelöchern. Bildquelle wetterzentrale.de


Wie dramatisch sind die aktuellen Zirkulationsanomalien?
So unangenehm die momentanen Witterungsanomalien auch sein mögen, sie sind harmlos im Vergleich zu historischen Ereignissen. Ein Blick auf die beiden wohl dramatischsten Naturkatastrophen Mitteleuropas während der letzten 1.000 Jahre reicht schon aus. Das erste Ereignis war das so genannte Magdalenen-Hochwasser vom Juli 1342. Bei diesem Ereignis wurden an vielen Flüssen die höchsten jemals registrierten Wasserstände erreicht. Möglicherweise handelte es sich um das schlimmste Hochwasser des gesamten 2. Jahrtausends im mitteleuropäischen Binnenland; fast die gesamte Ernte wurde zerstört; es entstanden bis zu 14 Meter tiefe Erosionsschluchten; und die Zahl der Todesopfer ging vermutlich in die Zehntausende. Bei dem anderen Ereignis, der „zweiten Marcellus-Flut“ im Januar 1362, ertranken im Nordseeraum mehrere hunderttausend Menschen, etwa 100.000 Hektar bestes Ackerland gingen verloren, und die Nordseeinsel Rungholt, auch „Atlantis des Nordens“ genannt und damals der größte nordische Handelsplatz, versank bei dieser schweren Sturmflut. Gegen diese Beispiele sind die Hochwasser von 2002 und 2013 oder die Stürme „Lothar“ und „Kyrill“ unbedeutend. Wenn unsere Gesellschaft schon durch ein mäßig-infektiöses Virus an den Rand des gesellschaftlichen und wirtschaftlichen Ruins gerät – was würde wohl passieren, träfe sie eine solche Naturkatastrophe wie im 14. Jahrhundert (kurz nach diesen beiden Katastrophen zog 1347 die Pest ein und tötete etwa ein Drittel der deutschen Bevölkerung – mit Panik-Medien wie ARD und ZDF hätten sich vermutlich die zwei Drittel der Überlebenden auch noch zu Tode gestürzt).




Energiewende am Himmel: Wann kommt das E – Flugzeug?

Dennoch bleibt es nicht aus, dass man nun auch im Himmel, so wie auf Erden, den E-Antrieb fordert. Politiker und brave Journalisten lassen sich mit E-Planes ablichten und künden ein neues Zeitalter für den Luftverkehr an.
Zuhauf finden wir Überschriften wie diese:

Why the age of electric flight is finally upon us
By Tim Bowler
BBC News, Le Bourget, Paris, 3.7.2019

Ich schlage vor, wir schauen uns das mal an.
Der Preis des Auftriebs
Wenn Sie als Kind den Arm aus dem Autofenster gestreckt haben, dann spürten Sie den Druck des Fahrtwinds. Das funktioniert übrigens auch bei Erwachsenen, die jung geblieben sind. Je nachdem wie die Hand gedreht wird wirkt da eine Kraft nach oben oder nach unten, auf jeden Fall aber nach hinten.  Die nach oben, auch „Lift“ genannt, ist nützlich für die Fliegerei, damit können wir Maschinen fliegen lassen, die schwerer sind als Luft. Die Kraft nach hinten stört uns, weil sie das Flugzeug abbremst. Sie heißt „Drag“.
Die Tragflächen an einem Flieger will man nun so gestalten, dass sie möglichst viel Lift bei wenig Drag produzieren, mit anderen Worten man will das Verhältnis Lift / Drag (L:D) so groß wie möglich machen. Darüber haben die Ingenieure viel nachgedacht und herausgefunden,  dass dieses L:D umso besser wird, je länger man den Flügel macht und je kürzer das Maß von Vorder- zur Hinterkante der Tragfläche ist, genannt „Sehne“.
Bei Segelflugzeugen finden wir extrem lange Tragflächen mit ganz kurzen Sehnen. Das gibt ein optimales L:D, bis zu Zahlen von 40 oder 50. So ein Segelflieger sinkt bei ruhiger Luft gerade mal einen Meter und kommt dabei 50m voran. Aus guten Gründen haben Motorflugzeuge nicht so schlanke Flügel, aber man kommt dennoch auf ein L:D zwischen 10 und 20. Dabei wird der Drag natürlich nicht nur von den Tragflächen geliefert, sondern auch von Rumpf und Zubehör. Letzteres kann durch glatte, aerodynamische Formen stark gemindert werden, so wie bei Ihrem Sportwagen.
Ein Helikopter, dessen Tragflächen sich nicht geradeaus bewegen sondern im Kreis, hat ein L:D von 4-5; in dieser Kategorie liegen auch die Drohnen. Und der König der Lüfte und Schrecken der Fische, der Albatros, bringt es bei einer Spannweite von 3,5m auf ein rekordverdächtiges L:D von 20.
Egal wie der Flieger angetrieben wird, durch Muskelkraft, elektrischen Strom oder Benzin, und egal wie wir ihn „streamlinen“, der Drag der Tragflächen wird immer bleiben. Das ist der Preis, den wir für den Lift bezahlen müssen. Das ist der große Unterschied zum Auto – das braucht keinen Auftrieb. Deswegen ist Leichtbau beim Flugzeug oberstes Gebot. Deswegen sind Flieger aus Aluminium und Autos aus Stahl.
Unterwegs in der Boeing 737
Eine volle Boeing 737 wiegt 70 Tonnen und hat ein L:D von 14. Der Luftwiderstand in Flugrichtung entspricht also 70:14 Tonnen = 5 Tonnen. Das sind, als Kraft ausgedrückt, 50.000 Newton. (Die Zahlen die Sie hier lesen – außer die 737 – sind übrigens nicht auf das Hundertstel genau, aber das tut der ganzen Betrachtung keinen Abbruch. Denken Sie sich vor jeder Zahl immer ein gedrucktes „etwa“. Lieber ungenau und richtig als genau und falsch.)
Jetzt kommt noch etwas mehr Physik: um einen Gegenstand mit bestimmter Kraft und Geschwindigkeit zu bewegen brauchen wir eine bestimmte Leistung = Kraft x Geschwindigkeit. Die Kraft bei unserer B737 wissen wir schon, das sind die 50.000 Newton. Ihre Geschwindigkeit ist 250 m/sec. Multipliziert ergibt das eine Leistung von 12.500 Kilowatt  (Das gilt im Reiseflug. Die Triebwerke der B737 müssen bei Bedarf wesentlich mehr leisten, als die oben geforderten 50.000 Newton, etwa bei Start und Steigflug.)
Dafür wollen die Triebwerke gefüttert werden. Auf einen Flug von sechs Stunden nimmt man, einschließlich Reserve, Treibstoff für acht Stunden mit. Dann berechnet sich der an Bord notwendige Energievorrat– sei es Kerosin oder elektrischer Strom – folgendermaßen: 12.500 Kilowatt mal acht Stunden, das sind genau 100.000 Kilowattstunden. (Tatsächlich braucht man mehr, weil die eingespeiste Energie nicht zu 100% in Antrieb umgesetzt wird, aber so genau wollen wir das jetzt nicht wissen.)
Batterien
Normalerweise ist das Futter für die Motoren in Form von Kerosin an Bord, aber wir wollen ja jetzt elektrisch fliegen. Bauen wir also Elektromotoren an den Flieger und packen Batterien an Bord. Wie viele?
Eine typische Autobatterie hat 12 Volt Spannung und die Kapazität von 80 Amperestunden. Damit hat sie ziemlich genau eine Kilowattstunde gespeichert. Davon bräuchten wir jetzt nur 100.000 in den Flieger zu stellen und los geht’s. Als verantwortungsvolle Piloten checken wir vor Abflug gerade noch das Gewicht, das wir uns da einladen. Eine Batterie hat so etwa 20 kg, wir packen uns also 100.000 x 20 kg = 2000 Tonnen Batterien ein. Das passt mit den 70 Tonnen Maximalgewicht unserer 737 nicht so recht zusammen!
Zurecht weisen Sie mich jetzt darauf hin, dass diese schweren Bleibatterien von vorgestern seien, und  dass Elon Musk für seinen Tesla eine wesentlich leichtere Lösung gefunden hat. Einverstanden, die bringen aber immer noch 6 Kg pro kWh auf die Waage, also 600 Tonnen für den Betrieb unserer Boeing. Und auch die bringen wir in besagten 70 Tonnen nicht unter.
Sie wenden ein, dass es in der Vergangenheit schon immer unerwartete technische Durchbrüche gab, welche die geheiligten Thesen von gestern Lügen straften. Mag sein, aber hier wäre es nicht unerwartet, sondern herbeigesehnt. Und da kann man sich die Wartezeit nur damit vertreiben, dass man an inkrementellem Fortschritt arbeitet. Wir müssten aber eine Gewichtsminderung der Batterien um den Faktor 20 erreichen, um mit Kerosin gleichzuziehen. Das hört sich verdammt schwierig an und ist auch so.
Erinnern Sie sich an Boeings Schwierigkeiten mit dem nagelneuen B787 Dreamliner vor sieben Jahren? Da gab es “elektrische Feuer“ an Bord, verursacht durch die Batterien des Flugzeugs.
In unserem Auto startet die Batterie bekanntlich den Motor und versorgt das Radio, wenn wir auf jemanden warten müssen. Ähnlich ist es im Airliner; der hat zwei davon. Eine dient zum Anlassen der APU (Auxiliary Power Unit), eines Hilfsaggregats, welches dann seinerseits die großen Triebwerke startet. Die andere betreibt Funk und Elektronik, wenn alle Motoren noch schlafen.
Typischerweise sind das Nickel-Cadmium-Batterien und nicht viel größer als die im Auto. Um ein paar Kilo abzuspecken wurde im Dreamliner nun die modernere Lithium-Ionen-Variante eingesetzt. Und da gab es dann häßliche Überraschungen, die zum Grounding der 787 führten. Das war eine sehr teure Innovation, nur um das Gewicht von ein paar Touristenkoffern einzusparen. Und jetzt wollen wir den ganzen Flieger mit Lithium vollpacken?
In diesem Sinne ist kaum anzunehmen, dass unsere lieb gewonnenen Dinosaurier, die Kerosin verbrennen und Kondensstreifen hinterlassen, in den nächsten Jahrzehnten aussterben werden.
Ein elektrischer Biber
Jetzt aber halten Sie mir den ultimativen Trumpf vor die Nase, einen Zeitungsausschnitt von The Guardian vom Januar 2020. Da steht es schwarz auf weiß:

… Das E-Flugzeug – ein 62 Jahre alte DHC-2 de Havilland Beaver mit sechs Passagieren, die mit einem 750 PS starken Elektromotor nachgerüstet war – wurde von Greg McDougall, Gründer und Geschäftsführer von Harbour Air, pilotiert. „Für mich war dieser Flug wie das Fliegen einer Beaver, aber es war eine Beaver voller elektrischer Steroids. Ich musste tatsächlich die Leistung zurückdrehen “, sagte er nach der Landung. McDougall hatte das Flugzeug kurz nach Sonnenaufgang auf eine kurze Reise entlang des Fraser River in der Nähe des internationalen Flughafens von Vancouver genommen, vor rund 100 Zuschauern. Laut AFP-Journalisten vor Ort dauerte der Flug weniger als 15 Minuten.

Ein interessanter Artikel. Aber haben Sie auch den letzten Satz gelesen?
Wie funktioniert das? Der Motor leistet 750PS, das sind ca. 560 kW. Die brauchte er aber nur zum Start, dann wurde Leistung zurückgenommen – hat er selber gesagt – auf 60%. Dann hat er also eine viertel Stunde lang 60% von 560 kW = 336 kW verbraten, macht ca. 84 kWh. Und dann ist er gelandet.
Woher hat er die 84 kWh gehabt? Vielleicht von Freund Musk. Eine Standard Tesla-Batterie wiegt 540 kg und lieferte 85 kWh – dann ist sie leer. Eine halbe Tonne Sprit für 15 Minuten Flug! Hatten wir nicht gesagt, dass Flieger leicht sein müssen?
Reality Check
War das ein guter „Reality Check“ in Sachen E-Flugzeug?
Ich selbst bin zwar nie eine Beaver geflogen, dafür die Beech Bonanza. Sie ist etwas schlanker und hübscher als die Beaver, und schneller. Die sechssitzige A36 hat einen 220 kW 6-Zylinder Boxermotor, den man auf Strecke mit 60% Leistung fliegt und dabei pro Stunde 50 Liter Flugbenzin verbrennt. Das sind 0,3 Kilogramm Sprit pro Kilowattstunde im Vergleich zu 6kg bei der Tesla Batterie.  Anders ausgedrückt, mit den 540kg der Tesla-Batterie als Sprit an Bord  könnte man über 10 Stunden unterwegs sein, im Vergleich zu 15 Minuten im E-Beaver – am Fraser River entlang.
Und noch etwas: mit jeder Stunde Flug wird der Tank der Bonanza um 40 kg leichter. Die Batterien aber bleiben immer so saumäßig schwer, auch wenn sie ganz leer sind.
Elektrisches Fliegen ist ein attraktives Thema für Start-Ups, die mit guter PR Investoren ausfindig machen. Das ist eine realistische Zielsetzung. Die Physik aber lässt sich auch von bester PR nicht beeindrucken. „You cannot fool nature“.
Dieser Artikel erschien zuerst bei www.think-again.org und im Buch Grün und Dumm




Plausible Szenarien des Klimawandels: 2020 – 2050

[Hinweis: Die Übersetzung wird bei ausführlich dargestellten Details der Berechnung gekürzt, jeweils gekennzeichnet durch …]

Mitten in all der Angst* um 1,5°C oder 2,0°C Erwärmung verglichen mit irgendeiner mythischen Zeit, als das Klima vermeintlich ,stabil‘ und (relativ) unbeeinflusst vom Menschen war, verlieren wir die Tatsache aus dem Auge, dass wir eine bessere Grundlage haben – jetzt. Ein Vorteil, ,jetzt‘ als Grundlinie zukünftiger Klimaänderungen zu nehmen ist, dass wir über gute Beobachtungen verfügen, um das Klima von ,jetzt‘ zu beschreiben.

Während sich die meisten Klima-Projektionen auf das Jahr 2100 beziehen, ist der Zeitraum 2020 bis 2050 aus verschiedenen Gründen bedeutsam:

[*Das Wort „angst“ steht so im Original! An. d. Übers.]

1. Es ist der Zeitraum, in welchem die Vorgaben des UNFCCC bzgl. Emissions-Reduktionen erfüllt werden müssen.
2. Viele finanzielle und infrastrukturelle Entscheidungen werden in dieser zeitlichen Größenordnung getroffen.
3. Die tatsächliche Klimaentwicklung über diesen Zeitraum wird die Punkte 1. und 2. beeinflussen; ,Überraschungen‘ können gegenteilige Auswirkungen haben als nach den Punkten 1. und 2. beabsichtigt.

Globale Klimamodelle haben wenig zu bieten, wenn es um zeitliche Größenordnungen von Jahrzehnten geht. Für diesen Zweck berechnen die CMIP5- und CMIP6-Modelle initialisierte Simulationen bis zu 35 Jahren im Voraus. Dekaden-Ergebnisse von CMIP6 liegen mir noch nicht vor, aber der Punkt ist, dass sie die Atlantische Multidekadische Oszillation AMO für 8 bis 10 Jahre im Voraus halbwegs abbilden können, sonst jedoch nichts weiter.

Ich habe zuvor die Interpretation der CMIP5-Simulationen kritisiert als tatsächlich Klimawandel-Szenarien – stattdessen zeigen diese Simulationen die Empfindlichkeit des Klimas auf verschiedene Emissions-Szenarien. Sie lassen Szenarien der solaren Variabilität und von Vulkanausbrüchen außen vor, und sie korrigieren Phase und Amplitude der multidekadischen Variabilität mit ozeanischen Zirkulationen. Begründet wird die Nichtberücksichtigung dieser Faktoren damit, dass deren Antrieb geringer ist als der Emissions-Antrieb. In multidekadischer Größenordnung muss das aber nicht unbedingt stimmen.

Und in er CMIP6-Ära haben wir jetzt ausreichende Informationen, mit welchen wir plausible Szenarien des Antriebs durch Vulkane und Sonne im 21 Jahrhundert erzeugen können, ebenso wie für die AMO.

Ich habe ein semi-empirisches Verfahren entwickelt, um Klimawandel-Szenarien des 21. Jahrhunderts zu beschreiben, welche sich nur indirekt auf Klimamodelle stützen. Multiple Szenarien werden entwickelt für jeden Treiber in der Vorhersage (natürlich und anthropogen), mit der Betonung auf plausiblen Szenarien (anstatt auf Extrem-Szenarien, die nicht völlig ausgeschlossen werden können).

Anmerkung: Im Folgenden werden viele Referenzen genannt. Mir fehlt die Zeit, eine vollständige Bibliographie zusammenzustellen, aber die Wichtigsten sind mit Hyperlinks hinterlegt.

Vom Menschen verursachte globale Erwärmung

Beim hier angewendeten Verfahren werden so weit wie möglich die neuen Informationen berücksichtigt, wie sie in das CMIP6 eingehen: neue Emissions-Szenarien und neue Überlegungen hinsichtlich der Sensitivität der Klimamodelle auf CO2.

Ähnlich wie im jüngsten SR1.5-Report des IPCC wird nicht versucht, Ergebnisse des CMIP6 Earth System Model heranzuziehen. Folgt man dem SR1.5-Report, werden Szenarien der globalen Erwärmung angetrieben von Szenarien sich kumulierender Emissionen. Die individuellen kumulativen Emissions-Szenarien zwischen 2020 und 2050 werden dann übertragen in eine globale Temperaturzunahme mittels einer Palette von Werten der Transient Climate Response auf Cumulative Carbon Emissions (TCRE). Zur Verdeutlichung betrachte man die folgende Graphik:

Abbildung 1: CO2-induzierte Erwärmung als Funktion kumulativer Emissionen und TCRE. Nach Millar et al.


Emissions-Szenarien

Für den demnächst erscheinenden AR 6 des IPCC wurde ein neuer Satz von Emissions-Szenarien (SSP) erstellt.

Der World Energy Outlook Report der IEA stellt die kurzfristigen SSP-Projektionen bis 2040 in Frage. Man untersuchte drei Szenarien: ein derzeitiges Politik-Szenario (CPS), bei welchem von den Ländern keine neuen Klima- und Energie-politische Maßnahmen ergriffen werden, ein erklärtes Politikszenario (STPS), bei dem die Verpflichtungen aus dem Pariser Abkommen erfüllt werden, und ein Szenario für nachhaltige Entwicklung (SDS), bei dem die rasche Eindämmung die Erwärmung am Ende des 21. September auf deutlich unter 2°C begrenzt. Sowohl das IEA CPS- als auch das STPS-Szenario können als Business-as-usual-Szenario betrachtet werden, bei dem entweder die derzeitige Politik oder die derzeitigen Verpflichtungen weitergeführt, aber danach keine weiteren klimapolitischen Maßnahmen ergriffen werden.

In Abbildung 2 werden die Projektionen der IEA bzgl. Emissionen durch fossile Treibstoffe verglichen mit im AR 6 des IPCC angeführten Szenarien. Die Graphik zeigt, dass die IEA-Projektionen zwischen dem SSP2-RCP4.5-Szenario und dem SSP4-RCP6.0-Szenario liegen, während das STPS-Szenario der IEA etwas unter SSP2-RCP4.5 liegt:

Abbildung 2: Jährliche CO2-Emissionen aus Industrie und durch fossile Treibstoffe bei den Szenarien CPS und STPS im Vergleich zur Bandbreite zugrunde liegender Szenarien zusammen mit einem Abschnitt der Grundlinie und Abschwächungs-Szenarien, die im demnächst erscheinenden AR 6 des IPCC gewählt worden sind. Ritchie and Hausfather (2019) https://thebreakthrough.org/issues/energy/3c-world



TCRE

Die Umrechnung von Emissions-Szenarien in einen globalen Temperaturanstieg werden normalerweise mit Simulationen von globalen Klimamodellen durchgeführt. Die CMIP6-Simulationen jedoch, in welche die neuen SSP-Szenarien nebst deren Analyse eingehen, sind derzeit im Gange. Im jüngsten SR1.5-Report des IPCC wurden Werte der kurzzeitigen Reaktion des Klimas [Transient Climate Response TCR] auf kumulative Kohlenstoff-Emissionen TCRE gewählt und zur globalen Temperaturänderung auf kumulative Emissionen bei den SSP-Szenarien in Relation gestellt.

Wie stark sich die Welt laut Projektion durch die Emissionen erwärmt, ist in etwa linear proportional zu kumulativen Kohlenstoff-Emissionen (Matthews et al. 2018). Diese Relation zwischen Temperatur und kumulativen Emissionen wird allgemein als TCRE bezeichnet [transient climate response to cumulative carbon emissions]

Für einen gegebenen TCRE-Wert können wir die über eine zukünftige Periode zu erwartende Erwärmung berechnen als Reaktion auf kumulative Kohlenstoff-Emissionen.

Projektionen der natürlichen Klima-Variabilität

Szenarien der Variationen/Änderungen im Zeitraum 2030 bis 2050 sind Folgende:

● Solare Variationen

● Vulkanausbrüche

● Variabilität von Ozean-Zirkulationen im Zeitmaßstab von Jahrzehnten

Hinsichtlich der Solar-Szenarien im 21. Jahrhundert gibt es zwei Komplexe:

● Wie stark wird sich die gesamt-solare Einstrahlung (TSI) ändern und

● Wie viel Erwärmung bringt ein spezifischer TSI-Wert.

Dem AR 5 des IPCC zufolge ist der Einfluss der Sonne auf unser Klima seit vorindustriellen Zeiten hinsichtlich des Strahlungsantriebs sehr gering im Vergleich zur Variation des Strahlungsantriebs durch zusätzliche anthropogene Treibhausgase: 0,05 W/m² vs. 2,29 W/m². Die Botschaft des AR 5 lautet also, dass Änderungen der Sonnenaktivität praktisch vernachlässigbar sind im Vergleich zum anthropogenen Antrieb.

Diese Interpretation wird jedoch immer mehr in Frage gestellt:

Es gibt substantiell keine Übereinstimmung bzgl. der Trends der Sonnenaktivität, nicht einmal während der Satelliten-Ära. In vielen Studien aus dem vergangenen Jahrzehnt wurde behauptet, dass die Sonnenaktivität in der zweiten Hälfte des 20. Jahrhunderts höher war als zu jeder anderen Zeit während der letzten 10.000 Jahre. In einigen Studien wird behauptet, dass die Sonne mindestens zu 50% zu der globalen Erwärmung nach 1850 beigetragen hat.

Im AR 5 des IPCC wurden nur die direkten solaren Auswirkungen auf die globalen Temperaturen berücksichtigt. Es stellte sich heraus, dass die Energie-Änderung des 11-jährigen Sonnenzyklus‘ größenordnungsmäßig 1,0 bis 1,5 W/m² beträgt. Das ist um fast eine Größenordnung mehr als man von der solaren Einstrahlung allein erwarten kann, und es zeigt, dass der Einfluss der Sonnenaktivität durch atmosphärische Prozesse verstärkt wird. Zu Letzteren zählen: Änderungen der solaren UV-Strahlung; Eindringen energetischer Partikel, Auswirkungen des atmosphärisch-elektrischen Feldes auf die Wolkenbildung, Änderungen der Bewölkung durch solar beeinflusste kosmische Strahlung, große relative Änderungen in deren magnetischem Feld, Stärke des Sonnenwindes.

Relationen zwischen solaren Variationen und dem Erdklima gibt es viele, und sie sind kompliziert. Die meisten davon wirken im lokalen und regionalen Maßstab, und viele sind nicht linear. Starke solare Einflüsse wurden im Pazifik und dem Indischen Ozean und auch in der Arktis gefunden, neben anderen Regionen.

Wie von Svensmark (2019) zusammengefasst zeigen Satellitendaten, dass die TSI um bis zu 0,05% bis 0,07% im Verlauf eines Zyklus‘ variiert. An der Obergrenze der Atmosphäre bringt diese Variation etwa 1 W/m² von einer Solarkonstanten um 1361 W/m². An der Oberfläche macht das nur 0,2 W/m² aus nach Berücksichtigung der Geometrie und der Albedo. Modellsimulationen und Beobachtungen haben eine Reaktion der globalen Temperatur auf TSI-Änderungen über den 11-jährigen Sonnenzyklus von etwa 0,1°C gezeigt (Matthes et al. 2017).

Der gegenwärtige Zyklus 24 ist der schwächste Sonnenfleckenzyklus seit 100 Jahren und der dritte, der einem Trend abnehmender solarer Zyklen zeigt. Gelangt die Sonne gegenwärtig in ein neues Grand Minimum oder lediglich in einer Periode geringer Sonnenaktivität? Viele Solarphysiker gehen davon aus, dass im 21. Jahrhundert eher Ersteres der Fall ist: ein Minimum im Jahrhundert-Niveau. Viele nehmen ein Minimum an, welches vergleichbar ist mit dem Dalton- oder sogar dem Maunder-Minimum.

In den CMIP5-Modellen gehen die Klima-Projektionen von einem stationären Sonnen-Szenario aus, indem einfach der Sonnenzyklus 23 wiederholt wird. Dieser erstreckte sich von April 1996 bis Juni 2008 und war der drittstärkste Sonnenzyklus seit 1850. Eindeutig ist ein solches stationäres Szenario nicht repräsentativ für die wahre Sonnenaktivität, welche von Zyklus zu Zyklus Variationen und Trends aufzeigt. Daher werden in den CMIP6-Modellen realistischere Szenarien der zukünftigen Sonnenaktivität entwickelt, welche Variabilität in allen zeitlichen Größenordnungen aufweisen (Matthes et al. 2017). Matthes et al. präsentieren die folgenden beiden Szenarien (Abbildung 3): Ein Referenz-Szenario und ein Szenario des Maunder-Minimums in der zweiten Hälfte des 21. Jahrhunderts:

Abbildung 3: CMIP6-Szenarien des solaren Antriebs (TSI): Referenz-Szenario (oben); Szenario eines Maunder-Minimums (unten). Von Matthes et al. (2017)

Falls es zu einem Minimum von der Größenordnung des Maunder-Minimums im 21. Jahrhundert kommt, wie viel Abkühlung würde dies bewirken? Wie von Svensmark zusammengefasst zeigen sich in der Mehrheit aller Rekonstruktionen nur geringe Änderungen des Signals der Solarstrahlung: seit dem Maunder-Minimum soll die TSI um etwa 1 bis 2 W/m² zugenommen haben, was mit 0,18 W/m² an der Erdoberfläche korrespondiert. Das ist von gleicher Größenordnung wie die Amplitude des 11-jährigen Sonnenzyklus‘. Jones et al. (2012) verwendeten ein einfaches Klimamodell, mit welchem sie schätzten, dass die wahrscheinliche Minderung der Erwärmung bis zum Jahr 2100 durch ein Ereignis von der Größenordnung eines Maunder-Minimums zwischen 0,06°C und 0,1°C betragen dürfte. Fuelner und Rahmstorf (2010) schätzten, dass ein derartiges weiteres solares Minimum äquivalent zum Dalton und zum Maunder-Minimum eine Abkühlung von jeweils 0,09°C bzw. 0,26°C auslösen würde. Meehl et al. (2013) gingen von einer Abkühlung eines Maunder-Minimums von 0,3°C aus.

Bei diesen Berechnungen werde jedwede indirekte solare Auswirkungen ignoriert, welche diese Zahlen um einen Faktor 3 bis 7 größer machen würden. Shaviv (2008) zog die Ozeane als Kalorimeter heran, um die Variationen des Strahlungsantriebs in Zusammenhang mit dem Sonnenzyklus zu messen. Er fand heraus, dass die in die Ozeane einfallende Energie über einen Sonnenzyklus 5 bis 7 mal größer ist als die TSI-Änderung von 0,1%, was die notwendige Existenz eines Verstärkungs-Mechanismus‘ impliziert. Scafetta (2013) zeigte, dass die seit dem Mittelalter beobachtete große klimatische Variabilität nur dann korrekt interpretiert werden kann, wenn die klimatischen Auswirkungen der Sonnenvariabilität auf das Klima von den Klimamodellen stark unterschätzt worden ist, und zwar um einen Faktor von 3 bis 6. Svensmark (2019) argumentierte nach der Untersuchung von Bohrloch-Temperaturen seit der Mittelalterlichen Warmzeit ähnlich und fand einen Verstärkungs-Faktor von 5 bis 7 bei der Erwärmung, die durch einen Abfall der TSI erwartet werden kann. Falls man einen Verstärkungsfaktor dieser Größenordnungen einbringt, kann man bei einem Maunder-Minimum eine Abkühlung bis zu 1°C (oder sogar noch mehr) erwarten.

Drei Szenarien der solaren Variabilität werden hier betrachtet:

Gar keine Variabilität (CMIP5)

Ein CMIP6-Referenz-Szenario mit einem Verstärkungsfaktor 2 durch indirekte solare Auswirkungen.

Szenario eines Maunder-Minimums (CMIP6) mit einem Verstärkungsfaktor 4 durch indirekte solare Auswirkungen.

Tabelle 3: Szenarien einer solaren Abkühlung relativ zum Sonnenzyklus des CMIP5:
Vulkane

Die CMIP5-Klimamodell-Simulationen enthielten für das 21. Jahrhundert keinerlei Strahlungsantrieb durch zukünftige Vulkanausbrüche. Während diese nicht vorhersagbar sind, ist die Annahme eines Vulkan-Strahlungsantriebs von Null im 21. Jahrhundert ein schlechter Ausgangspunkt. Auch die Annahme, dass der Vulkan-Strahlungsantrieb aus dem 20. Jahrhundert sich einfach wiederholt, ist keine gute Annahme.

Im vorigen Jahrzehnt wurden zwei grundlegende paläoklimatische Rekonstruktionen von Vulkanausbrüchen während der letzten Jahrtausende vorgelegt. Gao et al. (2008) untersuchten Eisbohrkerne und erstellten eine Rekonstruktion des Sulfat-Ausstoßes durch diese Ausbrüche. Eine Rekonstruktion aus jüngerer Zeit von Sigl et al. (2015) folgt hier, dargestellt in Termen eines Strahlungsantriebs durch globale vulkanische Aerosole. Diese Rekonstruktionen stellten sie vor dem Hintergrund der relativ geringen Vulkanaktivität seit Mitte des 19. Jahrhunderts ins Verhältnis:

Abbildung 4: Rekonstruktion des globalen Strahlungsantriebs durch vulkanische Aerosole der letzten 2500 Jahre. Aus: Sigl et al. (2015).

Weil Vulkanausbrüche unvorhersagbare Ereignisse sind, wurden sie allgemein aus den Klima-Projektionen für das 21. Jahrhundert ausgeklammert. Die jüngsten Projektionen spezifizieren den zukünftigen vulkanischen Antrieb als Null oder als konstanten Hintergrundwert. Bethke et al. (2017) erkundeten, wie sechzig vulkanische zukünftige Szenarien [volcanic futures] in Konsistenz mit den Eisbohrkernen die Projektionen der Klima-Variabilität unter dem RCP4.5-Szenario des Norwegian Earth System Model (NorESM; ECS=3.2C) beeinflussen. Ein gehäuftes Auftreten starker Ausbrüche in den Tropen hat zu nachhaltigen Kaltperioden wie der Kleinen Eiszeit beigetragen, während längerfristige Auswirkungen auf das Klima durch Anomalien des ozeanischen Wärmegehaltes sowie Änderungen der Ozean-Zirkulationen moderiert werden. Extreme vulkanische Aktivität kann potentiell ausgedehnte Kaltphasen auslösen.

Abbildung 5: Jährlicher GMST-Mittelwert*. Ensemble-Mittelwert (durchgezogen) von VOLC (stochastischer vulkanischer Antrieb; blau), VOLC-CONST (Mittel des vulkanischen Antriebs von 1850 bis 2000; violett) und NO-VOLC (rot/orange) mit der 5% bis 95%-Bandbreite (schattiert) sowie Minima/Maxima des Ensembles (Punkte) für VOLC und NO-VOLC; Entwicklung des extremsten Members (schwarz). Nach Bethke et al. (2017).

[*GMST = Global Mean Surface Temperature]

Auf der Grundlage der Ergebnisse von Bethke et al. (2017) werden drei vulkanische Szenarien für Abkühlung betrachtet, bezogen auf die in Abbildung 5 gezeigten Dekadenwerte:

Kein Antrieb

50. Perzentilwert: mittlerer Antrieb

95. Perzentilwert: starker Antrieb

Abbildung 6: Dekadische GMST-Mittelwerte relativ zur präindustriellen Zeit. Ensemble-Mittel (durchgezogen) mit Bandbreite 5% bis 95% (schattiert) bei VOLC (blau) und NO-VOLC (rot).


Tabelle 4 zeigt die dekadischen Szenarien vulkanischer Abkühlung, konsistent mit Abbildung 6.
Interne Variabilität

Variationen der globalen mittleren Temperatur sind auch verknüpft mit der multidekadischen internen Variabilität der großräumigen Ozean-Zirkulationen. Allerdings ist die Trennung der internen Variabilität von der erzwungenen Variabilität nicht immer einfach infolge Unsicherheiten bei den externen Antrieben.

Es wurde geschätzt, dass die multidekadische interne Variabilität (Größenordnung 50 bis 80 Jahre) von Höhepunkt zu Höhepunkt eine Amplitude bis zu 0,3°C bis 0,4°C aufweisen kann (Tung und Zhou 2012), was etwa die Hälfte der Erwärmung bis zum Ende des 20. Jahrhunderts ausgelöst hat.

Aus den meisten Analysen war hervorgegangen, dass die Atlantische Multidekadische Variabilität die Temperaturen global und auf der Nordhemisphäre hauptsächlich beeinflusst. Die Identifizierung der ENSO als Treiber von Variationen der globalen mittleren Temperatur oder ein Signal der Reaktion darauf bleiben umstritten, mit sich widersprechenden Ergebnissen.

Berücksichtigt man die multidekadische Variabilität nicht bei Prognosen der zukünftigen Erwärmung unter verschiedenen Antriebs-Szenarien, besteht das Risiko der Überschätzung der Erwärmung im Verlauf der nächsten zwei bis drei Jahrzehnte, wenn die Atlantische Multidekadische Oszillation (AMO) wahrscheinlich ihre Kaltphase durchläuft.

Die Analyse historischer und paläoklimatischer Aufzeichnungen legt nahe, dass ein Übergang in die kalte Phase der AMO vor 2050 zu erwarten ist. Enfield und Cid-Serrano (2006) verwendeten paläoklimatische Rekonstruktionen der AMO, um eine probabilistische Projektion der nächsten AMO-Verschiebung zu entwickeln. Abbildung 7 zeigt die Wahrscheinlichkeit einer AMO-Verschiebung im Verhältnis zur Anzahl der Jahre seit dem letzten Phasenwechsel. Der letzte Phasenwechsel fand 1995 statt; daher sind im Jahr 2020 seit dem letzten Phasenwechsel 24 Jahre vergangen. Abbildung 7 zeigt, dass eine Verschiebung in die kalte Phase innerhalb der nächsten 15 Jahre erwartet wird, wobei die Wahrscheinlichkeit, dass die Verschiebung im Verlauf der nächsten 6 Jahren stattfindet, 50% beträgt.

Abbildung 7: Wahrscheinlichkeiten eines Phasenwechsels der AMO relativ zur Anzahl der Jahre nach dem letzten Phasenwechsel. Nach Enfield und Cid-Serrano (2006)

Der Zeitpunkt eines Wechsels der AMO in die Kaltphase ist nicht vorhersagbar. Er hängt bis zu einem gewissen Ausmaß von der unvorhersagbaren Variabilität des Wetters ab (Johnstone 2020). Seine Analyse zeigt, dass Änderungen niedriger Frequenz der Wassertemperatur (SST) im Nordatlantik seit dem Jahr 1880 objektiv definiert werden können als eine Reihe alternierender Phasenwechsel mit abrupten (~1 Jahr) Übergängen während der Jahre 1902, 1926, 1971 und 1995 (Abbildung 8). Diese abrupten Änderungen (seit 1880) betonen längere quasi-stabile Perioden von 24 Jahren (1902bis 1925), 45 Jahren (1926 bis 1970) und 24 Jahren (1971 bis 1994). Die jüngste und wärmste Phase seit Beginn der Reihe dauerte nunmehr von 1995 bis 2019 (25 Jahre). Voran gegangene Wechsel in die Kaltphase in den Jahren 1902 und 1971 wiesen ähnliche Amplituden (-0,2°C) auf, welche längeren Perioden relativer Wärme folgten (1880 bis 1901, 1926 bis 1970). Eine Verschiebung in die Kaltphase innerhalb kürzerer Zeit (~5 Jahre) könnte vorläufig aus einem starken Rückgang der SST im subpolaren Nordatlantik gefolgert werden, ein Verhalten, welches ein Vorzeichen einer breiteren Abkühlung des Nordatlantiks sein kann auf der Grundlage eines frühen subpolaren Auftauchens des jüngsten Wechsels in die Kaltphase im Jahre 1971.

Abbildung 8: Jährliche SST-Anomalien im subpolaren (blau) und tropischen (rot) Nordatlantik. Eine starke subpolare Abkühlung im Jahre 2015 ist klar erkennbar (Johnstone 2020).

Auf der Grundlage obiger Analysen lassen sich die in Tabelle 5 gezeigten drei Szenarien einer globalen Temperaturänderung in Verbindung mit der AMO ableiten.

Tabelle 5: Dekadische Szenarien einer Temperaturänderung im Zuge der internen Variabilität (°C) bei einem Übergang der AMO in die Kaltphase:

Integrale Szenarien der Temperaturänderung: 2050

Die finale integrale Temperaturänderung ist die Summe der Temperaturänderungen, die angetrieben werden durch

Emissionen (4 Szenarien)

Vulkane (3 Szenarien)

Solar (3 Szenarien)

AMO (3 Szenarien)

Es gibt 108 mögliche Kombinationen dieser Szenarien. Tabelle 6 zeigt die Szenarien jeweils mit extrem hoher und niedriger Erwärmung plus das Szenario bei Heranziehen der Mittelwerte.

Tabelle 6: Integrale Szenarien der einer Änderung der globalen Mitteltemperatur von 2020 bis 2050:

Alle Komponenten der natürlichen Variabilität deuten auf Abkühlung im Zeitraum 2020 bis 2050. Individuell ist nicht zu erwarten, dass diese Terme bei den moderaten Szenarien groß sind. Wenn man jedoch deren Amplituden summiert, nähert man sich der Amplitude der Erwärmung in Verbindung mit der Erwärmung, die verbunden ist mit moderaten Werten der TCRE -1,35°C und 1,65°C. Falls die natürliche Abkühlung über den erwarteten Wert hinausgeht oder der TCRE am unteren Ende liegt (1,0°C bis 1,35°C), dann dürfte es insgesamt zu Abkühlung kommen.

Conclusions
Drei grundlegende Folgerungen gibt es:

Wir fangen an, die Unsicherheit bei der Stärke der Erwärmung durch Emissionen einzuengen, welche wir bis zum Jahr 2050 erwarten können.

Alle drei Zustände der natürlichen Variabilität – Solar, Vulkane, interne Variabilität – neigen während der nächsten 3 Jahrzehnte zu Abkühlung

Abhängig von den relativen Magnituden der von Emissionen angetriebenen Erwärmung im Vergleich zur natürlichen Variabilität sind Jahrzehnte ohne Erwärmung oder sogar mit Abkühlung mehr oder weniger plausibel.

Aber was ist mit der 2. Hälfte des 21. Jahrhunderts bis 2100? Unsicherheiten hinsichtlich Emissionen sind dann sehr viel größer. Die Solar-Szenarien des CMIP6 (Referenz und Maunder) zeigen stärkere Abkühlung während der 2. Hälfte des 21. Jahrhunderts. Vulkanausbrüche könnten dann stärker sein (oder auch nicht). Nach der projizierten Kaltphase der AMO kann man eine Rückkehr zur Warmphase erwarten, aber es gibt kein Vertrauen bei der Projektion entweder einer warmen oder einer kalten AMO-Phase im Jahre 2100.

Unabhängig von der Größenordnung von Vulkanausbrüchen besteht die große Unsicherheit in indirekten Auswirkungen der Sonne. Auf der Grundlage der von mir gesichteten Literatur scheinen UV-Effekte auf das Klima mindestens so stark zu sein wie TSI-Effekte. Ein Faktor von 2 bis 4 mal TSI scheint mir vollkommen plausibel, und es gibt auch ernsthafte Argumente für sogar noch höhere Werte. Ich möchte hier auch noch einmal betonen, dass fast alle Schätzungen von ECS/TCR auf der Grundlage von Beobachtungen keinerlei Berücksichtigung von Unsicherheiten der indirekten Auswirkungen der Sonne finden. Scafetta (2013) hat derartige Effekte bei einer Schätzung der ECS berücksichtigt und kam auf einen ECS-Wert von 1,35°C.

Weder die Auswirkungen der AMO noch indirekte solare Effekte sind bei der Analyse der Ursachen der Erwärmung seit 1950 berücksichtigt worden.

Link: https://wattsupwiththat.com/2020/02/16/plausible-scenarios-for-climate-change-2020-2050/
Übersetzt von Chris Frey EIKE




Ökoenergieanlagen: Betreiber kassieren auch in der Krise – EEG Umlage festgemauert

Selten wurde in einer Bundestagssitzung wie der am 24. März so viel Dank ausgesprochen. Das ist berechtigt und nicht zu kritisieren, auch wenn nicht alle genannt wurden, die derzeit den noch funktionierenden Teil der Gesellschaft aufrechterhalten. Die Strom-, Wärme- und Gasversorger zum Beispiel, deren Absatz schrumpft und die auf den Kosten für die Organisation der Arbeit unter Pandemiebedingungen natürlich sitzenbleiben. Abschottung der Leitwarten, Einrichtung von Übernachtungsplätzen für das eventuelle Arbeiten unter Bedingungen der Quarantäne und so weiter. Wie immer ist es uns selbstverständlich, dass Energie rund um die Uhr verfügbar ist, in jetzigen Zeiten wichtiger denn je.
Natürlich ist jede Krise schlecht, aber nicht so schlecht, dass es nicht noch schlimmer hätte kommen können. Der gegenwärtige Zustand in eiskalte dunkle Winterzeit mit viel Schnee verschoben hätte alle gegenwärtigen Sorgen deutlich verschärft.
Zumindest die sonst aufgeregten ökokorrekten Diskussionen sind etwas abgeflacht. Niemanden stört jetzt, dass tausende Menschen für viele Stunden des Tages Plastik im Gesicht tragen, dass Diesel-LKWs auch sonntags die Feinstaubzonen befahren und Pendler ihren Auto-Individualverkehr bevorzugen anstelle der ÖPNV-Virenmultiplikatoren. Sehnsüchtig wartet man auf ein passendes Medikament, das dann von ach so bösen Pharmakonzernen produziert werden wird.
Das Klimathema ist weitgehend abgetaucht. Seitdem jeder Werktag schulfrei ist, lohnt der Aufstand der juvenilen Untergangspropheten von fff nicht mehr. Vereinzelt herrscht Freude über derzeit geringe Treibhausgas-Emissionen, verbunden mit der vorsichtig ausgesprochenen Hoffnung, sie mögen doch so niedrig bleiben. Professor Schellnhuber verbreitet im Interview mit klimareporter.de die Einsicht, dass weder Viren noch der Klimawandel an Grenzen halt machen. Prinzipiell muss man ihm Recht geben, dennoch hinkt es hier. Virenträger kann man durch Grenzkontrollen reduzieren, wie inzwischen selbst an deutschen Binnengrenzen praktiziert und wo es schon zu gewaltsamen Grenzdurchbrüchen kommt. Noch wird nicht geschossen.

Nationale Maßnahmen wie Grenzkontrollen helfen hingegen bei Emissionen nicht. Bilanzen für einzelne Länder oder Regionen kann man erstellen, sie sind aber nur Theorie, wenn die Emissionen nur verschoben werden, zum Beispiel durch zunehmenden Stromimport über Ländergrenzen. Klimanationalismus hilft nicht, globale Probleme zu lösen. In dieser Frage ist die deutsche Sicht allerdings eine besondere, der Weltrettungsanspruch tief verwurzelt. Während wir unseren Nachbarn unser hässliches Gesicht zeigen, bleibt die politische Anmaßung eigener Fähigkeiten auf hohem Niveau. Das unterscheidet uns von den Nachbarländern, die pragmatisch die Probleme zu lösen versuchen. Die Holländer bauen die Deiche höher, Deutschland senkt den Meeresspiegel.
Mit dem schrumpfenden Stromabsatz fallen die Preise an der Börse, auch etwas die der CO2-Zertifikate. Den Haushaltskunden nutzt das nichts, 53 Prozent Staatsanteil am Strompreis bleiben und auch die EEG-Umlage steht festgemauert in deutscher Erden. Zurücklehnen können sich die Betreiber der Ökoenergieanlagen, deren Strom unabhängig vom Bedarf zum Festpreis abgenommen wird. Sie bekommen das Geld vom EEG-Umlagekonto, das über die Netzbetreiber gefüllt wird. Fallen Einzahler am Anfang der Kette aus, zum Beispiel weil Mieter die Stromrechnung nicht mehr zahlen können, haben die Netzbetreiber das Inkassoproblem, nicht die Windmüllerin oder der Biogasmann.
Der Streichelzoo der Erneuerbaren ist krisenfest, egal, wie das Virus heißt. Dafür sollten sich die Profiteure dann doch auch mal bedanken.
Der Beitrag erschien zuerst bei TE hier