Elon Musk düpiert Haltungsjournalisten – die Tesla-PR machen dafür deutsche Politiker

Im Jahr 2019 hat Tesla 367.500 Autos verkauft, damit liefert man sich ein Kopf-an-Kopf-Rennen mit Lada, einem Überbleibsel der glorreichen sowjetischen Autoproduktion. Lada schraubte 2019 immerhin 412.889 ziemlich geländegängige Avtomobile zusammenen, doch sein Börsenwert dürfte dem eines versunkenen russischen Atom-U-Bootes entsprechen. Was kann Musk also, was Lada nicht kann?

Zum Beispiel schickte er unlängst mit einer seiner Trägerraketen einen metallic-roten Tesla-Sportwagen ins All („Ground Controll to Dalai Lama“). Auf dem Bordcomputer-Display steht der von Douglas Adams in „Per Anhalter durch die Galaxis“ populär gemachte Schriftzug: „Don’t Panic“. Der Sciene-Fiction-Klassiker ist voller wunderbarer Sprüche. Beispielsweise, wenn „Marvin“, der depressive Roboter, sagt:

„Ich kriege schon Kopfschmerzen, wenn ich nur versuche, mich auf euer Niveau herunter zu denken.“

So etwas ist unschlagbar, warum Elon Musk jetzt die einzig richtige Entscheidung traf, nämlich die, seinen PR-Stab ebenfalls in den Orbit zu befördern. Im Gegensatz zu seinen Space-X-Raketen beabsichtigt er aber nicht, diese von dort zurückzuholen. Schon länger beschweren sich Kollegen aus den USA, dass sie auf Anfragen an die Presseabteilung von Tesla über Monate hinweg keine Antwort bekamen. „Der Elektroautobauer Tesla hat seine PR-Abteilung aufgelöst und verzichtet offenbar künftig auf den Austausch mit Journalisten“ heißt es in einem Bericht.

Wechsel zu einem Berliner Tretroller-Startup

Besonders hart traf es im vergangenen Jahr den deutschen PR-Chef, der nach nur wenigen Monaten im Amt zurückgetreten war. Der Mann wechselte dann zu einem Berliner Tretroller-Startup, wo seine Batterie aber ebenfalls nach kurzer Zeit verglühte.

Inzwischen teilen sich Bundeswirtschaftsminister Peter Altmeier und der brandenburgische Ministerpräsiden Dietmar Woidke die Aufgabe des deutschen Tesla-PR-Beauftragten und legen auch noch ein paar hundert Millionen Steuergelder in die Tesla-Sammelkollekte für das neue Werk in Brandenburg, das für die Region eine ähnliche Bedeutung hat wie der Dom von Naumburg für Sachsen-Anhalt. In Sachen Ablasshandel ist der Unterschied zwischen Tetzel und Tesla nur graduell. Für ein florierendes und zukunftsfähiges Geschäft muss man eben nicht unbedingt Autos, sondern vor allem eine gute Geschichte, sprich das grüne Paradies, verkaufen. Anders gesagt: Die Berliner Charité hätte an der Börse keine Chance gegen die Grotte von Lourdes.

Die Politik in Deutschland dürstet nach ein wenig orbitalem Glanz und göttliche Nähe, zumal es sich beim Elektroauto um ein politisch einwandfrei korrektes Produkt handelt. Ganz im Gegensatz übrigens zu Elon Musk selbst, und das macht die Sache besonders amüsant. Man muss diesen Musk und seine Art einfach gerne haben. Der liebe Gott hält sich ja immerhin noch den Papst als Pressesprecher auf Erden. Raketenbauer Musk macht das mit ein bisschen twittern lieber selbst, da ist er ganz nah bei Donald Trump. „Tesla verzichtet als erster Autobauer auf Kontakt zu Journalisten“, meint ein erschrockener Newsdienst. Genau wie Donald Trump also, der als erster Präsident auf den Kontakt zu Journalisten verzichtete. Der größte Teil der medialen Sittenwächter musste seitdem gekränkt festgestellten, dass man auch ganz prima ohne ihn auskommen kann.

Bei Trump ist das gut nachvollziehbar, er wird in den meisten Medien ohnehin heruntergemacht, egal was er tut oder sagt. Mit Musk, von ähnlich schillernder Erscheinung, haben sie ebenfalls ein paar Rechungen offen, zuletzt, als er zu den amerikanischen Corona-Restriktionenen twitterte: „Befreit Amerika jetzt!“ Es handelt sich bei Elon Musk somit um den einzigen mit deutscher Staatsknete massiv geförderten Corona-Leugner, das muss man erst einmal schaffen. Genau wie Trump ist auch Musk ein Virtuose der gepflegten Twitter-Randale, und die Medienmeute ist beleidigt, weil die beiden einfach an Ihnen vorbei kommunizieren. Während Trump die Amerikaner auffordert: „Lasst euer Leben nicht von Corona dominieren“, sieht Musk ganz gelassen dem Tod entgegen: „Ich würde gerne auf dem Mars sterben. Nur nicht bei der Landung.“

Die peinliche Demutshaltung deutscher Manager

So ein Spruch macht mich geneigt, mir nun doch einen Tesla zuzulegen, bevor es alle Anderen tun und den Rest Ihres Daseins mit Schlägereien vor der Ladestation fristen. Aber das ist ein anderes Thema. Trump und Musk entlarven – jeder auf seine Weise – einen zeitgenössischen Irrtum: den von der Relevanz der herkömmlichen Massenmedien und den Glauben, dass diese immer noch ein Monopol auf die Meinungsbildung haben. Tatsächlich verfällt Ihre Bedeutung ähnlich schnell wie der Börsenkurs der Deutschen Bank. Gerhard Schröder soll mal gesagt haben„Zum Regieren brauche ich BILD, BamS und Glotze“. Diese Zeiten nähern sich dem Ende und damit auch der Brauch des Kotaus vor den scheinbar übermächtigen Medien.

Die peinliche Demutshaltung deutscher Manager und Verantwortungsträger selbst bei falschen Vorwürfen und ideologischen Attacken hat eine verhängnisvolle Tradition. Ich erinnere mich beispielsweise an den Fall des Atomkraftwerks Krümmel im Jahre 2007, der das exemplarisch vorführte. Nach einem Brand in einem Transformator wurde es abgeschaltet. Auf der achtstufigen internationalen Sicherheitsskala wurden die Vorfälle in die Kategorie „Null“ eingestuft. Im Schaltgebäude war keine Rauchentwicklung zu verzeichnen, aber vorbeugend wurden Atemschutzgeräte gebracht. Der Reaktorfahrer setzte vorsichtshalber eine Schutzmaske auf. Das reichte nun wirklich nicht für einen Gau. An dessen Stelle trat deshalb der „Kommunikations-GAU“. Grund: Das führende Personal von Vattenfall sah den Vorfall eher von der nüchtern technischen Seite und ließ die gebührende Bußfertigkeit vermissen.

Das kam gar nicht gut an. Besonders schlimm fanden es die Manager der anderen Atomkraftwerksbetreiber. Die bangten zwar keine Sekunde um die Sicherheit, stattdessen fürchteten sie einen „Image-Gau“ für die Branche. Und als auch noch die Bundeskanzlerin ein „unzulängliches Krisenmanagment“ bemängelte, wurden die leitenden deutschen Vattenfall-Manager eiligst entsorgt.

Der schwedische Vattenfall-Chef Lars G. Josefsson tat dann zur besten Fernseh-Sendezeit endlich das, was in solchen Fällen mittlerweile üblich ist: keine Widerrede, Fehler einräumen, Schuld eingestehen (egal, ob man irgendeine Schuld hat oder nicht) auf den Rücken legen, alle Viere von sich strecken und Ergebenheitshaltung einnehmen. „Wir waren unfähig, richtig zu kommunizieren,“ sagte er. Damit war das Unternehmen zwar raus aus den Schlagzeilen, das Misstrauen gegen die Atomenergie aber einmal mehr drin in den Köpfen. Inzwischen ist die Atom-Branche erfolgreich abgewickelt, weil die Manager genau so handelten, wie Lenin einst prophezeite: „Die Kapitalisten werden uns noch den Strick verkaufen, mit dem wir sie aufknüpfen“.

Panikmache und Hysterie widersprechen

Unternehmen und Manager verwechseln gerne das Wegducken vor harten Auseinandersetzungen mit gesellschaftlicher Verantwortung, ich sage nur Zetsche, Diess, Kaeser. Das Wirtschaftsmagazin „Economist“ konstatierte schon vor vielen Jahren, dass mittlerweile sogar die Auseinandersetzung mit „Nonsens-Forderungen“, die sich an ein Unternehmen richteten, unterblieben.

So verfuhr beispielsweise Coca-Cola bei einem Skandal um angeblich verseuchte Brause in Belgien, der sich später als Massenhysterie unter Schülern herausstellte. Die Firma hatte sich nichts zuschulden kommen lassen und entschuldigte sich dennoch. Seit der legendären Greenpeace-Kampagne gegen die Versenkung der Ölplattform Brent Spar scheuen besonders Großunternehmen die Auseinandersetzung mit Aktivisten. Heute weiß man: Greenpeace hatte damals die Unwahrheit über angebliche Inhaltsstoffe gesagt, Shell hingegen die Wahrheit. Die geplante Versenkung im Nordatlantik wäre ökologisch unbedenklich gewesen. Seitdem ist Shell, wie viele andere Großkonzerne, ein Musterknabe in Sachen Political Correctness.

Die Unternehmensführer vergessen dabei, dass es auch zur Zivilcourage gehört Panikmache und Hysterie in der Öffentlichkeit laut und deutlich entgegenzutreten. Stattdessen werden sinnlose Bußrituale vollführt. Patrick Moore, einer der Gründer und jahrelanger Chef von Greenpeace, kennt das Phänomen. Er trat bei Greenpeace aus, nachdem dort die Ideologen das Ruder übernahmen, greift aber auch heute noch gerne Konzerne an oder redet ihnen ins Gewissen. Allerdings aus anderen Gründen. Sein Credo: Wenn euer Produkt oder euer Dienstleistung den Menschen nützt und der Umwelt nicht schadet, dann steht gefälligst dazu. Manager, die sich anbiedern, unterstützen eine „Anti-Industrielle Revolution“.

Das ist so ziemlich das genaue Gegenteil dessen, was die meisten PR-Berater ihren Auftraggebern verkünden. Sie predigen Beschwichtigung und Appeasement: Am besten, man verziert Führungsseminare mit Globalisierungsgegnern und lässt Ökoaktivisten in Geschäftsberichten schreiben. Ausgewiesene Anti-Kapitalisten, Fortschritts- und Globalisierungs-Gegner werden von Firmenlenkern umgarnt, auf dass endlich Friede, Freude, Eierkuchen herrsche. Wer gegen „Globalisierung“, „Neoliberalismus“ und die „Konsumgesellschaft“ polemisiert, endet beinahe zwangsläufig als „mahnende Stimme“ auf dem Podium einer Bank oder in der Hauszeitschrift eines Pharmakonzerns. Am besten, man imitiert ihre Sprache, übernimmt die Dogmen (in weichgespülter Light-Version) und stellt gemeinsam mit ihnen andere Industrien an den Pranger.

Doch die Zeiten ändern sich. Trump und andere sogenannte „Populisten“ revolutionieren die Art der politischen Kommunikation. Leute wie Elon Musk übertragen das auf die Wirtschafts-Kommunikation und schaffen es vor den Augen der verdutzten Konkurrenz zum Kult-Status. Die betroffenen Medien versuchen derweil immer hektischer, solche Störenfriede zur Strecke zu bringen. Erreichen tun sie das genaue Gegenteil, indem sie über jedes Stöckchen springen, das man ihnen hinhält. Sie sitzen gleichsam in einem Loch und graben immer schneller, in dem verzweifelten Glauben, dass dies die Rettung bringen könnte. Paul Watzlawick nannte diese vergebliche Strategie der Problemlösung einmal: „Mehr vom selben“.

Medien werfen der Wirtschaft gerne vor, einen irgendwie gearteten „Strukturwandel“ verpasst zu haben. Dabei findet gerade in ihrem Gewerbe ein echter Strukturwandel statt, den sie nicht wahrhaben wollen. Wie der Schäferhund an der Kette verteidigen sie kläffend den Hof und merken nicht, dass das Publikum genervt längst den Hintereingang benutzt.

Einstweilen ist man deshalb schwer beleidigt, weil erfolgreiche Politiker und Führungsfiguren allmählich darauf kommen, dass man die Gilde der Sittenwächter und Hofschranzen ignorieren, ja übergehen und trotzdem erfolgreich sein kann. Sie haben ihren Watzlawick gelernt, den geschätzten Medienvertretern steht es noch bevor:

„Wenn du immer wieder das tust, was du immer schon getan hast, dann wirst du immer wieder das bekommen, was du immer schon bekommen hast. Wenn du etwas anderes haben willst, mußt du etwas anderes tun! Und wenn das, was du tust, dich nicht weiterbringt, dann tu etwas völlig anderes – statt mehr vom gleichen Falschen!“

Zuerst erschienen bei der Achse.

Von Dirk Maxeiner ist in der Achgut-Edition erschienen: „Hilfe, mein Hund überholt mich rechts. Bekenntnisse eines Sonntagsfahrers.“ Ideal für Schwarze, Weiße, Rote, Grüne, Gelbe, Blaue, sämtliche Geschlechtsidentitäten sowie Hundebesitzer und Katzenliebhaber, als Zündkerze für jeden Anlass(er). Portofrei zu beziehen hier.




Niemand hat die Absicht, eine Öko­diktatur zu errichten

Unter dem Mäntelchen einer vorgeblich vom Menschen verursachten Klimakatastrophe träumt man in diesen Kreisen von der „Großen Transformation“ zu einer ökologischen Weltgemeinschaft bis zum Jahre 2100. Die Gleichsetzung einer solchen vollsubventionierten Zwangstransformation mit der kulturellen Entwicklung des Ackerbaus und der technischen Industrialisierung als epochalen Umbrüchen in der Menschheitsgeschichte verkennt aber in ihrer Hybris, dass sich beide im freien Wettbewerb alternativer Möglichkeiten erfolgreich durchgesetzt hatten. Alle planwirtschaftlich gesteuerten Revolutionen hatten dagegen in Unfreiheit, wirtschaftlicher Not und gesellschaftlichem Chaos bis hin zum Massenmord geendet.

Die mediale Klimahysterie ist inzwischen im Vollpanik-Modus, und besonnene Stimmen werden nur noch als verzichtbare Störgrößen wahrgenommen. Klimaalarm ist alles und alles ist Klimaalarm. Ein schönes Beispiel lieferte der STERN auf dem Titelblatt seiner Ausgabe 40 vom 24. September 2020, Zitat, „#kein Grad weiter – Die Klimakrise ist längst da. Was wir jetzt tun müssen, um uns zu retten“.

Ja, da ist es schon wieder, dieses politisch-alternativlose „WIR“. Wer ist dieses ominöse „WIR“ eigentlich, und warum meint dieses „WIR“, uns alle zwangsweise vor einer „menschengemachten“ Klimakatastrophe retten zu müssen?

Schauen wir also mal auf die wissenschaftlichen Grundlagen dieses allgegenwärtigen Klimaalarms.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ (THE) löst das Arrhenius-Problem, nämlich die Diskrepanz von 33°C zwischen einer „theoretischen“ und einer „gemessenen“ globalen Durchschnittstemperatur. Und das anthropogen erzeugte CO2 soll nun diesen THE noch weiter verstärken. Sehen wir uns also zunächst einmal die vorgeblichen Eckwerte dieses THE an:

Quelle: Hamburger Bildungsserver. Werte nach Wild et al. (2017)

Und jetzt mal ein Blick auf die dortigen Zahlen:

In=Out: 342W/m² gehen ‘rein und (107+235=342)W/m² gehen wieder ‘raus

Bleiben also: 168W/m², 350W/m², 324W/m², „latente Wärme“ und „fühlbare Wärme“, aus denen am Ende 235W/m² herauskommen müssen

Man kann es drehen und wenden wie man will, nach der obigen Abbildung lautet die Gleichung für den „natürlichen atmosphärischen Treibhauseffekt“:

168W/m² +/- 350W/m² +/- 324W/m² +/- „latente Wärme“ +/- „fühlbare Wärme“ = 235W/m²

Es bleibt zunächst also völlig schleierhaft, welche physikalischen Verknüpfungen und welche mathematischen Zahlenwerte auf der linken Seite schließlich zu dem eindeutigen Ergebnis „235W/m²“ führen sollen. Jedenfalls beschreibt dieser THE von vorgeblich 33°C aus dem herkömmlichen 24h=Faktor4-THE-Ansatz die Differenz zwischen einer „theoretischen Globaltemperatur“ von (-18°C) und einer angeblich „gemessenen“ globalen Durchschnittstemperatur von (14,8°C) mit einem S-B-Strahlungsäquivalent von 155W/m². Es gibt beim THE offensichtlich keine Abhängigkeit von der Tageszeit und von der geographischen Breite, der THE ist also streng eindimensional.

Dieser THE soll zum kleineren Teil (etwa 9–26%) durch Kohlenstoffdioxid (CO2) verursacht werden und der zusätzliche anthropogene Ausstoß von CO2 seit Beginn der Industrialisierung soll diesen THE nun kontinuierlich weiter verstärken. Da das CO2 lateral einigermaßen gleichmäßig in der Atmosphäre verteilt ist und die IR-Abstrahlung der Erde über eine sogenannte „atmosphärische Gegenstrahlung“ als Antrieb für diesen atmosphärischen THE angenommen wird, muss man von der folgenden Wirkungskette ausgehen:

Primär: Die spezifische solare Strahlungsleistung auf der Tageshemisphäre erzeugt die Temperatur unserer Erde.

Sekundär: Die Infrarotabstrahlung der aufgeheizten Erde erfolgt über die gesamte Erdoberfläche.

Tertiär: Eine sogenannte „atmosphärische Gegenstrahlung“, die im Widerspruch zum 2.HS der Thermodynamik steht, soll dann wiederum einen „natürlichen atmosphärischen Treibhauseffekt“ antreiben.

In der deutschen Zusammenfassung des IPCC-Berichtes „1,5 °C GLOBALE ERWÄRMUNG“ für politische Entscheidungsträger findet man auf Seite 11 unter Punkt B.1.2 folgende Aussage zum geweissagten „menschengemachten“ Klimawandel, Zitat: Extrem heiße Tage werden in den mittleren Breiten bei 1,5 °C globaler Erwärmung um bis zu etwa 3 °C wärmer und bei 2 °C bis zu etwa 4 °C wärmer, während extrem kalte Nächte in den hohen Breiten bei 1,5 °C bis zu etwa 4,5 °C und bei 2 °C bis zu etwa 6 °C wärmer werden (hohes Vertrauen).“

Beim sogenannten „menschengemachten“ Klimawandel fällt nun auf, dass nach Aussage des IPCC-Berichtes „1,5 °C GLOBALE ERWÄRMUNG“ eine Temperaturkomponente zum THE hinzutritt, denn seine Wirkung in extrem kalten Nächten soll angeblich größer sein, als an extrem heißen Tagen.

WIDERSPRUCH 1: Die vorgebliche Temperaturkomponente beim IPCC beruht auf der physikalischen T4-Beziehung des S-B-Gesetzes, nach der eine definierte spezifische Strahlungsleistung in W/m² bei niedrigerer Temperatur einen höheren Zuwachs in Kelvin ergibt, wie die obige Abbildung beweist. Diese IPCC-Aussage würde aber nur dann Sinn ergeben, wenn das CO2-Molekül aus sich selbst heraus und entgegen dem 2. HS der Thermodynamik bei beliebiger Außentemperatur eine konstante Strahlungsleistung abgeben würde. Wenn aber CO2 aus sich selbst heraus stahlen könnte, dann hätten wir alle schon längst eine betriebskostenfreie CO2-Heizung. Da nun einmal die solare Einstrahlung als Primärquelle für IR-Abstrahlung unserer Erde anzusehen ist, die wiederum eine „atmosphärische Gegenstrahlung“ als THE-Antrieb speisen soll, ist eine maximale Temperaturwirkung eines „menschengemachten Treibhauseffektes“ an extrem kalten Tagen völlig widersinnig.

Denn eine anthropogen verursachte Temperaturanomalie müsste im jeweiligen sommerlichen Strahlungsmaximum der Sonne und/oder aufgrund der Tageslängen im jeweiligen Polarsommer am deutlichsten hervortreten. Und andererseits dürfte ein „menschengemachter“ Treibhauseffekt in der Polarnacht nur rudimentär vorhanden sein, weil dort zu dieser Zeit die entsprechende primäre solare Strahlungsleistung fehlt, wie das beides in der nachfolgenden Abbildung dargestellt wird:

Abbildung: Tentative räumliche und zeitliche Auswirkungen auf einen „natürlichen atmosphärischen Treibhauseffekt“ mit Ableitungen aus meinem hemisphärischen Stefan-Boltzmann-Modell (nicht flächengetreu) Links: Jahresverlauf der maximalen solaren Strahlungsleistung mit den Beleuchtungsklimazonen Rechts: Die maximale spezifische solare (Strahlungs-) LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel

Anmerkungen zu den Overlays in der linken Abbildung: Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne MAX Si (rot=940W/m², schwarz=0W/m²) in Abhängigkeit von der geographischen Breite und der Jahreszeit. Für den Nordwinter (linke Seite) und den Nordsommer (rechte Seite) wurden darüber jeweils die Beleuchtungsklimazonen der Erde projiziert (von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne von 940W/m² erhält immer derjenige Breitenkreis zwischen den Wendekreisen, an dem die Sonne mittags lotrecht steht. Dieses Maximum ist nicht zu verwechseln mit dem Maximum der 24h-durchschnittlichen Strahlungsleistung, das aufgrund der Länge des Polartages um die jeweilige Sommersonnenwende auf den Sommerpol fällt. Es lässt sich aus einem solchen 24h-Durchschnitt (=(Leistung @ 24h)/24h) allerdings kein entsprechendes S-B-Temperaturäquivalent ableiten, obwohl es immer wieder versucht wird. Halten wir also fest, dass am jeweiligen Sommerpol die tägliche solare ARBEIT (=Leistung*Zeit) am größten ist, während die tägliche solare MAXIMAL-LEISTUNG (die das S-B-Temperaturäquivalent bestimmt) auf den Bereich zwischen Äquator und dem sommerlichen Wendekreis beschränkt bleibt. Der sogenannte THE und seine „menschengemachte“ CO2-Verstärkung müssten sich also insbesondere auf der jeweiligen jahreszeitlichen Frühlings- und Sommerhemisphäre ganz deutlich herausbilden.

Ein 1:1-Experiment mit vorgeblich gemessenen IPCC-Temperaturdifferenzen

Betrachten wir also einmal ein 1:1-Experiment, nämlich die vorgeblich gemessene Realität auf unserer Erde. Im Framing and Context Supplementary Material zum IPCC Spezialbericht “Global Warming of 1.5°C” (SR1.5) von Oktober 2018 findet sich eine Abbildung zum sogenannten „menschengemachten Temperaturanstieg“. Dort wird in „Figure 1.SM.1“ die Jahreszeit der größten menschengemachten Erwärmung für den Zeitraum 2006-2015 gegenüber dem Zeitraum 1850-1900 dargestellt, also genau dieser vorgeblich vom Menschen verursachte Temperaturanstieg seit Beginn der Industrialisierung:

Abbildung: Die IPCC-„Figure 1.SM.1“ aus dem Framing and Context Supplementary Material des IPCC Spezialberichts “Global Warming of 1.5°C” (SR1.5) mit der Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015 gegenüber 1850-1900

Die erratische Verteilung der jahreszeitlichen Temperaturanomalien in „Figure 1.SM.1“ stützt die konventionelle Treibhausthese nicht. Es hebt sich in dieser Abbildung weder das jahreszeitliche Strahlungsmaximum zwischen den beiden Wendekreisen noch die Tageslänge im jeweiligen Polarsommer optisch eindeutig hervor. Speziell die mittleren und höheren geographischen Breiten der jeweiligen Sommerhemisphäre, also Nordfrühling und Nordsommer (MAM und JJA) sowie Südfrühling und Südsommer (SON und DJF), zeigen in „Figure 1.SM.1“ nach qualitativer Farbgebung gar keine exklusiven jahreszeitlichen Temperaturanomalien. Vielmehr können wir in der „Figure 1.SM.1“ des IPCC die größte Veränderung in der Arktis ausgerechnet im Nordwinter (=Südsommer DJF-ockerfarben), also in der ausklingenden Polarnacht zwischen Wintersonnenwende und Frühlingsäquinoktium beobachten.

Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden das chaotische globale Wettergeschehen ab

Die beiden Steuergrößen „ursächlicher solarer Primärantrieb im solaren Strahlungsmaximum“ und die über „örtliche Tageslängen“ induzierte Gesamtwärmemenge lassen sich unter „jahreszeitlich maximale örtliche IR-Abstrahlung der Erde“ subsummieren. Der nachfolgende graphische Vergleich zeigt, dass die erforderliche Übereinstimmung zwischen den IPCC-Temperaturdifferenzen und der maximalen örtlichen IR-Abstrahlung unserer Erde in der Farbgebung der IPCC-„Figure 1.SM.1“ jahreszeitlich nicht prägnant hervortritt:

Abbildung: Vergleich der IPCC-„Figure 1.SM.1“ (links) mit den tentativen jahreszeitlichen Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Anmerkung: Die jeweils zweistufige Farbskala für die Sommerhemisphäre in der Abb. links (Beispiel MAM und JJA für den Nordsommer) wurde im rechten Bild willkürlich in zwei einstufige Skalen für LEISTUNG (~JJA) und ARBEIT (~MAM) auf der jeweiligen Sommerhemisphäre aufgespalten und (nicht flächentreu) der jeweiligen geographischen Lage zugeordnet. Deshalb können Farbsignaturen für Leistung/Arbeit (~JJA/MAM) in der jeweiligen geographischen Lage auch in umgekehrter Signatur (~MAM/JJA) auftreten; beispielsweise blau für LEISTUNG zwischen Äquator und mittleren Breiten.

Eigentlich müsste sich in der IPCC-Abbildung „Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015“ der zusätzliche THE-Anteil aus dem „menschengemachten“ CO2 aufgrund seiner vorgeblichen IR-Abhängigkeit als Temperaturanomalie proportional zur jahreszeitlich maximalen örtlichen IR-Abstrahlung unserer Erde abbilden. Das ist aber ganz offensichtlich nicht der Fall, denn insgesamt finden wir in „Figure 1.SM.1“ lediglich eine globale und unspezifische jahreszeitliche Durchmischung und sogar jahreszeitlich stark gegenläufige Anomalien. Der vorstehende Vergleich von „Figure 1.SM.1“ (links) mit den tentativen Auswirkungen der jahreszeitlich maximalen örtlichen IR-Abstrahlung (rechts) verdeutlicht vielmehr, dass sich die erratisch verteilten Temperaturanomalien nicht mit den jahreszeitlichen Schwankungen erklären lassen, sondern viel eher mit deren zeitlicher Veränderung (also der 1. Ableitung), wobei das Maximum dieser Veränderung um die Äquinoktien liegt und jeweils beide jahreszeitlichen Hemisphären betrifft.

WIDERSPRUCH 2: Ein proportionaler Zusammenhang zwischen einem „menschengemachten Temperaturanstieg“ über eine zusätzliche CO2-Verstärkung des „natürlichen atmosphärischen Treibhauseffektes“ und der jahreszeitlich maximalen örtlichen IR-Rückstrahlung unserer Erde bildet sich in den veröffentlichten IPCC-Daten (Figure 1.SM.1) nicht einmal ansatzweise ab.

Eine schnelle Erwärmung / Abkühlung in mittleren und höheren geographischen Breiten aufgrund der sich dort jahreszeitlich um die Äquinoktien herum schnell verändernden solaren Strahlungsleistung / örtlichen Tageslänge bildet mit seinen atmosphärischen Ausgleichsströmungen vielmehr das chaotische globale Wettergeschehen ab. Während also der herkömmliche 24h=Faktor4-THE-Flacherdeansatz im Arrhenius-Paradoxon eines unbewiesen konstruierten „natürlichen atmosphärischen Treibhauseffektes“ und einem Widerspruch zum 2. HS der Thermodynamik stecken bleibt, erlaubt mein hemisphärisches S-B-Modell ganz konkrete qualitative Aussagen zu Temperatur- und Klimadaten auf unserer realen Erde.

Mit Hinweis auf ein vorindustrielles klimatisches Paradies soll unsere Kohlenstoff-basierte Industriegesellschaft in ein globalisiertes Öko-Mittelalter zurück entwickelt werden

Mit dem Hinweis auf eine solch fragwürdige IPCC-Datengrundlage werden heute unter ganz harmlosen Begriffen wie „Große Transformation“ und „New Green Deal“ gesellschaftspolitische Bestrebungen als ein sich selbst finanzierender cargoistischer Potlatch inszeniert, um unsere Kohlenstoff-basierte Industriegesellschaft auf ein vorindustrielles Niveau zurück zu entwickeln. Eine abgehobene und sich allwissend gerierende politisch-mediale Klasse geht also in ihrer Hybris soweit, das „Weltklima“ vor dem Menschen retten, sogenannten „Atommüll“ für eine Million Jahre sicher wegschließen und einen Neuen Menschen erschaffen zu wollen, den ‚Die Tagespost‘ als „Homo climaticus“ beschreibt, Zitat:

Der Homo climaticus macht sein Dasein vom Kampf gegen das CO2 abhängig, ohne in der Regel viel über das angebliche Treibhausgas zu wissen. Zur inhaltlichen Gestaltung dieser Daseinsform boomt eine ganze Ratgeberliteratur, die empfiehlt: klimaneutral leben, essen, bauen, urlauben, ja sogar Ökosex und vieles mehr wird derzeit entdeckt. Schon seit einiger Zeit werden klimaneutrale Speisepläne entworfen. Butter gilt als noch klimaschädlicher denn Fleisch. Der Klimawandel darf sich nicht beschleunigen. Dafür wird alles auf den Prüfstand gestellt. Als wichtiges Ergebnis des Klimapakets fallen vor allem finanzielle Belastungen für die Bevölkerung auf, die aus sozialen Gründen wiederum kompensiert werden müssen.“

Bevor man aber nun den klimagerechten Rattenfängern folgt, sollte man sich vielleicht fragen, wo denn im Zeitraum 1850-1900 weltweit überhaupt flächenhafte Temperaturdaten über längere Zeiträume erhoben worden sein sollen, auf denen sich ja angeblich die IPCC-Abbildung 1.SM.1 zum „menschengemachten“ Klimawandel gründet. Allein die Entdeckungsgeschichte der Kontinente unserer Erde lässt größere Datenlücken vermuten, was eine NOAA-Darstellung derjenigen Gebiete bestätigt, in denen zwischen 1861 und 1890 mehr als 10 Jahre kontinuierlich Temperaturdaten erhoben worden waren:

Abbildung: IPCC Figure 1.SM.1 mit der Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015 gegenüber 1850-1900 (links) NOAA Global Historical Climatology Network: Gebiete mit mehr als 10 Jahren kontinuierlicher Temperaturaufzeichnung im Zeitraum 1861-1890 (rechts, grau unterlegt)

Im Zeitraum zwischen 1861 und 1890 gab es auf den Weltmeeren und Polkalotten, sowie in Südamerika, Afrika und Asien (ohne Sri Lanka) laut NOAA-Graphik demnach kein einziges überwachtes Gebiet mit einer Aufzeichnungsdauer größer 10 Jahre. Die damaligen Temperatur-Meßstationen konzentrieren sich vielmehr auf Nordamerika, Europa und den Osten Australiens.

Dagegen zeigt die „Figure 1.SM.9“ aus dem “Framing and Context Supplementary Material” zum IPCC Report “Global Warming of 1.5°C (als diejenige von 3 gleichartigen Abbildungen mit den größten Temperaturanomalien) die regionale Veränderung der Dekade (2006-2015) relativ zur vorindustriellen Zeit:

Abbildung: “Figure 1.SM.9” aus dem “Framing and Context Supplementary Material” zum IPCC Report “Global Warming of 1.5°C für den GISTEMP-Datensatz. Die beiden anderen gleichartigen Abbildungen beziehen sich auf die Tempertaturdatensätze „NOAA“ (Figure 1.SM.8) und „HadCRUT4“ (Figure 1.SM.10).

Der zugehörige Abbildungstext von „Figure 1.SM.9“ verweist auf die mittlere Veränderung des externen Klimaforcings im Zeitraum 2006-2015 gegenüber dem vorindustriellen Zeitraum 1850-1900, die aus dem „GISTEMP“-Datensatz ermittelt worden sei. Erstaunlicherweise ist aber auch hier keinerlei systematische Verändertung der globalen Temperaturanomalien durch das jahreszeitlich variable örtliche Klimaforcing feststellbar, wie die nachstehende Abbildung belegt:

Abbildung: “Figure 1.SM.9” mit der Temperaturanomalie (2006-2015 gegenüber 1850-1900) aus dem “Framing and Context Supplementary Material” zum IPCC Report Global Warming of 1.5°C (links) vs. Tentative jahreszeitliche Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Nach der IPCC-“Figure 1.SM.9” ergeben sich erstaunlicherweise die größten Temperaturanomalien auf der Polkalotte der jeweiligen Winterhemisphäre, und daraus widerum ergibt sich ein diametraler Widerspruch zum THE-Postulat für eine durch die IR-Rückstrahlung der Erde verursachte tertiäre „atmosphärischen Gegenstrahlung“, die wiederum einen „natürlichen atmosphärischen Treibhauseffekt“ antreiben soll.

WIDERSPRUCH 3: Nach „Figure 1.SM.9“ wäre der anthrtopogen verursachte Leistungsanstieg einer „atmosphärischen Gegenstrahlung“ (=Antrieb eines THE) umgekehrt proportional zur IR-Strahlungsleistung der Erdoberfläche (=Antrieb der „Gegenstrahlung“).

Es ist hier also festzustellen, dass das IPCC eigentlich melden müsste, „April, April – die Erde brennt gar nicht“. Selbst wenn wir den IPCC-Fauxpas mit dem 2. HS der Thermodynamik einmal hintenanstellen, so ist in den veröffentlichten IPCC-Daten selbst weder ein konkreter „THE-Fingerabdruck“ bei den vorgeblich „menschengemachten“ Temperaturresiduen nachweisbar, noch wird eine „atmosphärische Gegenstrahlung“ proportional zur IR-Abstrahlung der Erde erkennbar. Vielmehr bildet sich bei den Temperaturresiduen insbesondere das chaotische Wettergeschehen um die Äquinoktien ab, wie es sich in der raschen jahreszeitlichen Veränderung der maximalen spezifischen Strahlungsleistung der Sonne und/oder der örtlichen Tageslänge mit meinem hemisphärischen S-B-Ansatz leicht nachvollziehen lässt.

Das IPCC verkauft in seinem Bericht “Global Warming of 1.5°C” (SR1.5) also einen auf höchst fragwürdigen Vergleichsdaten (1850-1900) basierenden interpolierten 10-Jahre-Wettertrend als menschengemachte Klimaveränderung, denn die stärkste „menschengemachte“ Erwärmung hat ausgerechnet dort stattgefunden, wo der ursächliche Zusammenhang mit einem „natürlichen atmosphärischen Treibhauseffekt“ am geringsten wäre.

Die Weltklimarettung durch ein höheres „WIR“ ist weder alternativlos noch notwendig

Die hier vorgestellten Ergebnisse beweisen also insbesondere die Diskrepanz zwischen Anspruch und Wirklichkeit derjenigen IPCC-Grundlagendaten, mit denen die gesellschaftspolitischen Ziele zum Umbau unserer Industriegesellschaft in eine globalisierte Öko-Dystopie medial begründet und politisch vorangetrieben werden. Und irgendwie spiegelt sich dieser Wille zum „Systemwechsel“ auch in der Beibehaltung und Verschärfung der ursprünglichen Klimaziele bei absteigender Intensität der beschreibenden Begrifflichkeiten wider – von Klimakatastrophe über Klimaerwärmung und Klimawandel bis hin zu einer Klimakrise – wie sie, vom Temperaturanstieg zwischen 1975 bis 1995 bis hinein in die nachfolgende Erwärmungspause, fortlaufend an die tatsächlichen Gegebenheiten angepasst worden waren.
Das bevorstehende solare Minimum war zum Zeitpunkt des Klimaabkommens von Paris (2015) noch gar nicht in der Öffentlichkeit angekommen. Mit dem Begriff „Klimakrise“ könnte die staatsreligiöse Klimahysterie nun auch eine beginnende Kälteperiode für sich vereinnahmen. Vielleicht findet man dann ja abseits der seriösen Klimaforschung sogar ein paar willige Wissenschaftskurtisanen, die ganz zufällig die bestehende Lehrmeinung über die sogenannten „Klimagase“ in ihr aktuelles Gegenteil verkehren. So etwas ließe sich beispielsweise vordergründig durch die sogenannte Erwärmungspause bei steigenden atmosphärischen CO2-Werten begründen und dann in geeigneter Weise medial weiterverarbeiten; denn ohne eine strikte CO2-Vermeidung wäre ja schließlich die schönste globale Dekarbonisierung nichts wert…

Um in das gelobte ökologische Mittelalter zu gelangen, müssen wir also lediglich unsere technisch-naturwissenschaftlichen Erkenntnisse, unsere zuverlässige Energieversorgung und unsere wertschöpfende fossile Marktwirtschaft vernichten. Gleichzeitig bleiben die neu zu schaffenden „erneuerbaren“ Arbeitsplätze völlig unproduktiv und ihre subventionierten Schattenwelten werden am Ende der fossilen Wertschöpfung ganz von selbst zusammenbrechen, wenn es nichts mehr umzuverteilen gibt. Die Weltklimarettung durch ein „ÜBER-WIR“ ist also weder alternativlos noch wünschenswert. Vielmehr sollten WIR SELBST in EIGENER Verantwortung entscheiden, vor WAS wir uns von WEM retten lassen wollen und vor allem: WARUM SOLLTEN WIR EIGENTLICH?

 




Auch Bayern meint ein „Klimaschutzgesetz“ zu brauchen, oder wie der Experte aus der offiziellen Berichterstattung wieder auftauchte! Teil II

So lautete der Beginn meines Berichtes über die Anhörung im Bayerischen Landtag zur Verabschiedung des neuen „Klimaschutzgesetzes“ (hier). Sie fand am 25. September statt, das zughörige Wortprotokoll wurde mir am 8.10.20 per pdf (Sie finden es hier 032 UV 250920 ges endg Anhörung) zugestellt. Es umfasst 128 Seiten, incl. allen Gesetzestexten, Vor- und Nachbemerkungen, sowie allen Statements, die in schriftlicher und mündlicher Form vorlagen, oder vorgetragen wurden. Und es enthält auch das Wortprotokoll aller mündlichen Fragen, sowie die jeweiligen Experten-Anworten darauf.

Bevor ich darauf – zumindest was mich und meine Antworten anbelangt- eingehe, möchte ich das Rätsel um den verschwundenen Experten lösen. Der geneigte Leser meines ersten Berichtes wird sich erinnern, dass mein Name, ebenso wie eine kurze Zusammenfassung meiner Äußerungen im zunächst veröffentlichten Bericht nicht erwähnt wurden. Es wurden zwar brav alle anderen neun Experten vorgestellt und ihre Ausführungen kurz zusammengefasst erwähnt, aber mein Name fehlte völlig.

Darob verwundert fragte ich beim Ausschusssekretariat an und erhielt die schnelle Antwort, man bemühe sich um Klärung. Die kam dann auch einige Tage später. Eine Frau Anja Schuchardt von der Stabsstelle K2 schrieb mir, man würde das nachtragen. Sie zeichnet auch als Autorin des Kurzberichtes, entschuldigte sich und erfand dann eine Kurz-Beschreibung die – außer meinem Namen-  nichts von dem enthielt, was ich vor Ort geschrieben oder gesagt hatte. Man las da:

„Michael Limburg, Vizepräsident EIKE (Europäisches Institut für Klima und Energie), warf die Frage auf, ob der globale Klimawandel überhaupt menschengemacht sei und lehnte die Förderung der erneuerbaren Energien ab.“

Ich monierte das sofort, weil es nicht das war, was ich im Ausschuss mündlich und zuvor auch schriftlich in meinem Statement gesagt hatte. Denn ich hatte ausführlich begründet, warum ich empfehle den Gesetzentwurf in Gänze abzulehnen. Und mich dabei zur Begründung weder auf Erneuerbare Energien noch auf die Frage bezogen, ob der Klimawandel menschgemacht sei, oder nicht.

Das führte dann zu einer erneuten Korrektur, zumal ich ihr den Wortlaut meines mündlichen Statements zugesandt hatte und nun steht da:

„Michael Limburg, Vizepräsident EIKE (Europäisches Institut für Klima und Energie), empfahl den Gesetzentwurf abzulehnen, da er gegen die Grundprinzipien des demokratischen Umgangs miteinander verstoße, weil er Begriffe wie „Klimaschutz“ zum Inhalt habe, die keine klare Bedeutung hätten, nicht zur Zuständigkeit des Landtages gehöre und auch nicht dem Gebot der Verhältnismäßigkeit genüge.“

Soweit, wenn auch unvollständig, so korrekt.

Und nun zu den Fragen und Antworten

Der AfD Abgeordnete Prof. Dr. Ing Hahn fragte… Ich bin selber Geograf und Geowissenschaftler und habe mich mit Themen wie der Klimatologie befasst, allerdings empirisch nicht so tiefgehend, indem ich selber Metastudien durchgeführt hätte. In der Öffentlichkeit hört oder hörte man immer wieder, dass angeblich 97 % der Wissenschaftler davon überzeugt seien, dass der Klimawandel menschengemacht sei. Ich selber habe viel Literatur gelesen und kann diese empirische Tendenz aufgrund meiner Studien überhaupt nicht bestätigen – aber, wie gesagt, ich habe das nicht systematisch untersucht. Herr Limburg, ich hätte gerne von Ihnen eine Einschätzung, ob das stimmt.

Mein zweiter Punkt ist ein Thema, mit dem ich mich als Wissenschaftler auch schon beschäftigt habe, und das in den Medien häufig präsent ist. Wir hören bei allen möglichen Dingen Zusammenhänge mit dem sogenannten Klimawandel – jetzt zum Beispiel wieder bei den Waldbränden in den USA. Ich als Ökologe habe bereits zu meiner Studienzeit gelernt, dass in den USA Waldbrände – übrigens im Gegensatz zu Europa – ein natürlicher Faktor im Ökosystem sind. Gerade wenn es länger nicht brennt, wächst einfach die Wahrscheinlichkeit, dass dort solche Brände entstehen.

Mich würde interessieren, Herr Limburg, wie Sie das einschätzen, und zwar auch gerade im Hinblick darauf, warum das jetzt in den Medien immer mit der Verbindung „Klimawandel“ transportiert wird. Waldbrände gehen schon länger durch die Medien, aber vorher wurde dazu nie etwas über Klimawandel berichtet.

Doch bevor ich dran war, konnte sich der Sachverständige Prof. Arlt nicht verkneifen diese Frage wie folgt zu beantworten:

SV Prof. Dr. Wolfgang Arlt (Friedrich-Alexander-Universität Erlangen-Nürnberg, emeritiert): Zuerst möchte ich mich an den Herrn Abgeordneten Prof. Hahn wenden, der sagte, das Klima könne nicht durch Menschen geschützt werden. Das heißt, er hat uns auf gut Deutsch gesagt: Geht heim und vertrödelt eure Zeit hier nicht. – Dieser Meinung bin ich nicht.

Des Weiteren redeten Sie davon, dass 97 % oder 95 % der Wissenschaftler die Theorie zum Klimawandel befürworten würden. Sie sind selbst im wissenschaftlichen Betrieb und wissen, dass wir im Gegensatz zum Parlament nicht abstimmen. Vor 100 Jahren hatte einer Recht – Einstein –, und 99,9999 % hatten unrecht. Laufen Sie also nicht diesen komischen Zahlen hinterher. Die Wissenschaft ist kein Parlament mit Abstimmungen, mit denen wir dann die Wahrheit herausfinden.

Ferner antwortete er auf die Frage des  Abgeordnete Uli Henkel (AfD):

Vielen Dank, Frau Vorsitzende. Ich halte mich an Ihre Vorgaben und fasse mich sehr kurz. – Meine Frage an Herrn Prof. Arlt lautet: Wenn Deutschland mit Hilfe von Bayern seine Klimaschutzziele erreichen und die CO2- Emissionen auf null senken würde, welchen Einfluss hätte das auf die Welttemperatur?

Worauf der Sachverständige Arlt ehrlicherweise zugab:

Zu der mir gestellten Frage: Ich bin kein Experte für die entsprechenden Berechnungen. Allerdings habe ich auch angeführt, dass für mich der CO2-Ausstoß in Bayern im weltweiten Maßstab unerheblich ist. Mein Klimaschutz ist, dass wir diese Technologie in die Welt exportieren, sodass dadurch die CO2-Bilanz überall in der Welt besser wird. Wir denken immer gerne in Kirchtürmen: Ja, unser Dorf ist CO2-frei. – Ich sage einmal: Was für ein Blödsinn im weltweiten Maßstab.

 

Dann durfte ich auf die ersten Fragen antworten, nachdem mir die Vorsitzende Frau Rosi Steinberger (Grüne) das Wort erteilt hatte:

Limburg:

Zunächst herzlichen Dank an Prof. Arlt. Sie haben mir die Beantwortung der Frage mit den 97 % abgenommen – volle Zustimmung.

(Zuruf)

– Das war vielleicht unbeabsichtigt, aber ich nehme das trotzdem gerne zur Kenntnis.

Wir wissen, dass die Wissenschaft keine demokratische Veranstaltung ist, denn es geht dabei um Verifizierung und Falsifizierung. Dafür genügt zur Not einer, der anderer Meinung ist, und wenn er sich durchsetzt, dann ist das eben so. Das möchte ich jetzt aber nicht weiter ausführen.

Die weitere Frage bezog sich auf die derzeitigen Waldbrände in Kalifornien und Oregon. Diese werden durch die Neigung insbesondere der Medien, aber auch der Politik gekennzeichnet, sämtliche Katastrophen – und das ist eine Katastrophe – dem Klimawandel und unterschwellig auch immer dem menschengemachten Klimawandel zuzuordnen. Sogar der Gouverneur von Kalifornien hat sich dazu „verstiegen“: Seht her, hier ist der Klimawandel, hier seht ihr ihn an den kalifornischen Waldbränden.

Was man feststellen kann ist: Niemand wird behaupten, dass eine Erhöhung der Temperatur – über die Kontinente hinweg waren das in den letzten 150 Jahren Pi mal Daumen 1,5 Grad; also so wie in Bayern – zu einer Entzündung von Holz führen kann, denn das ist schlicht unmöglich. Holz wird entzündet, wenn es brennen kann – sprich: wenn es nicht nass, sondern trocken ist –, und wenn eine Temperatur um die 300 Grad erreicht wird. Dazu braucht man einen Zünder, und das sind in erster Linie Blitze. Das kann aber auch durch Brandstiftung, Fahrlässigkeit oder was auch immer geschehen. All das ist in Kalifornien passiert.

Der entscheidende Punkt dort ist aber, dass die Brandlast massiv erhöht wurde. Seit der Besiedelung hat sich die Baumdichte um den Faktor 10 bei einer gleichzeitigen Verstärkung der Besiedelungsdichte erhöht. Seit etwa 10, 15 Jahren gibt es dort Maßnahmen, um die Brandlast zu vermindern – die Indianer haben damals kontrolliert abgebrannt, die Forstbehörden haben das ebenfalls jahrzehntelang gemacht –, die jedoch vermindert und zurückgefahren wurden, und zwar einerseits um Geld zu sparen, und andererseits, weil die grüne Ideologie gesagt hat: Lassen wir es naturbelassen usw. – In meiner Heimat Brandenburg sieht das übrigens genauso aus; da genügt ein Streichholz, um das anzuzünden.

Diese Dinge werden nun verwendet, um zu sagen: Seht, der Klimawandel schädigt uns alle. – Damit kommen wir jetzt zu dem eigentlichen Ziel, nämlich das 1,5/2- Grad-Ziel nicht zu überschreiten oder dafür zu sorgen, es nicht zu überschreiten, worauf Herr Geilhufe bereits verwiesen hat.

Mir fehlt bei den sehr klugen Anmerkungen, die hier von Ihnen zum Inhalt dieses Gesetzes gemacht wurden, ein Ansatz, wie erreicht werden soll, dass Bayern oder auch Deutschland mit seinen CO2-Minderungen zu diesem Ziel irgendetwas beitragen kann.

Rechnen wir es einmal um. Bei einer Anwendung der härtesten IPCC-Bedingungen könnte Deutschland, wenn es von heute auf morgen den CO2-Ausstoß auf null senken würde, zur allgemeinen Senkung der Temperaturerhöhung gerade einmal sechstausendstel Grad Celsius beitragen – das kann natürlich niemand messen –; andere Randbedingungen führen immerhin zu fünfhundertstel Grad. In Bayern ist das vielleicht ein Zehntel davon. Das kann es also nicht sein.

Sie haben die NDCs (Anmerkung: Nationally Determined Contributions) erwähnt. Von den hinterlegten 193 Vorschlägen sind 190 Vorschläge aus der ersten Runde von 2016. Nur drei sehr kleine Länder gingen darüber hinaus. Alle andere haben sich geduckt und gesagt: Machen wir nicht. – Die Folge ist, dass die CO2-Emissionen seit Kyoto weltweit um 50 % gestiegen sind und noch weiter steigen. Sie können es also drehen und wenden, wie Sie es wollen. Sie können Bayern auf den Kopf stellen oder verschwinden lassen, oder Sie können die Wirtschaft strangulieren – es wird daran nichts ändern.

Es bleibt daher nicht Vermeidung, sondern Anpassung als Ziel. Eine Anpassung ist auch insofern interessanter, weil das zum einen eine Fähigkeit ist, die die Menschheit von allen anderen Spezies auszeichnet. Zum anderen gibt sie uns Zeit, die Dinge dann zu machen, wenn wir sie kommen sehen. Nehmen wir die Meeresspiegelerhöhung: Wer hindert uns daran, einige 10 Milliarden Euro in die Hand zu nehmen, um zum Beispiel in Bangladesch einen Deich zu ziehen, wenn das – was übrigens nicht der Fall ist – kommen sollte?

Anpassung ist das Ziel, das wir haben sollten, um zu sagen: Wir können es nicht vermeiden. Egal, was wir tun – ob wir uns tot stellen, ob Deutschland oder Bayern klimatisch gesehen heute von der Landkarte verschwinden, ob wir die Wirtschaft in eine neue Richtung führen, die sehr, sehr unüberschaubar ist; zu Wasserstoff könnte man übrigens sehr viel sagen –, meine ich, dass Anpassung das Gebot der Stunde ist.

Ich bitte Sie, nicht dem Spruch von Mark Twain zu folgen, der sagte: Als die Reisegesellschaft ihr Ziel aus den Augen verloren hatte, verdoppelte sie ihre Geschwindigkeit. – Das ist jedoch das, was nach meinem Eindruck mit diesem Gesetz derzeit geplant ist.

Es wirkt nichts, es kommt nichts, es ist falsch. Erfreulicherweise steht Anpassung aber auch im Gesetz. Lassen Sie uns doch darauf konzentrieren.

 

Dann kam nochmals Abg. Prof. Dr. Ingo Hahn (AfD): Meine Sorge ist, dass mit diesem Klimaschutzgesetz auch etwas gegen den Umweltschutz ausgespielt wird.

Die Biodiversitätskrise wurde heute schon angesprochen, unter anderem vom BUND Naturschutz. Allerdings soll der Klimawandel auch von solchen Naturschutzorganisationen sozusagen korrigiert oder bekämpft werden, weshalb Windräder gebaut werden, obwohl wir genau wissen, dass bei dieser Energieform mehr Vögel und Fledermäuse sterben, als durch jede andere Form der Energiegewinnung in Deutschland. Meine Frage an Frau Völzow lautet: Wer sind eigentlich die Gewinner und Verlierer in der Wirtschaft, wenn wir ein solches Klimaschutzgesetz bekommen?  Zum Thema Wasserstoff – wir haben einen Energieexperten in unserer Fraktion –: Wer soll für eine solche Wasserstoffwirtschaft oder Produktion die Energie aufbrin- gen? Zudem ist das teuer.

Herr Limburg, wer sind die Gewinner und Verlierer beim Umweltschutz bei einem solchen Klimaschutzgesetz?

 

SV Michael Limburg (EIKE): Zunächst darf ich mir die Freiheit erlauben, die Frage zu beantworten, von der Sie (Anmerkung: Herr Arlt) sagten, Sie könnten es nicht. Ich verstehe das gut; das ist eine komplizierte Rechenoperation. Ich hatte es vorher kurz angesprochen: Wenn Deutschland von der Klimakarte verschwinden würde, dann würde sich das um sechstausendstel Grad und bei anderen Randbedingungen um fünfhunderstel Grad auswirken. Für Bayern wäre es noch einmal eine Zehnerpotenz weniger. Sechs Zehntausendstel zu fünf Tausendstel Grad wäre also das Ergebnis eines erfolgreichen Klimaschutzplanes, wenn er wirklich wirken würde.

Zu der Frage „Win-win-Situation“: Ich glaube, da haben wir Sie alle ein wenig missverstanden. Sie meinten sehr spezielle lokale Gegebenheiten, und da mag das so sein.

Wenn man sich jedoch das Klimaschutzpaket ansieht – das bayerische, aber auch alle anderen –, dann gibt es eindeutig nur eine Win-lose-Situation. Es gibt einige wenige Gewinner und eine große Anzahl von Verlierern.

Wer sind die Verlierer zum Beispiel beim Umweltschutz? – Ich nehme einmal die Zupflasterung der Landschaft in Deutschland mit riesigen Industrieanlagen, die dann Windkraftanlagen heißen, und von denen wir zurzeit rund 30.000 haben. Um auch nur annähernd die Stromziele der Energiewende zu erreichen, müssten wir diese Zahl auf das Vier-, Fünf-, Sechsfache erhöhen. Das heißt, wir würden die Landschaft weiter zupflastern.

Diese 200 Meter hohen Windkraftanlagen, für die 4.000 Tonnen Beton pro Fundament vergraben werden müssen, haben wir natürlich nicht nur, damit sie sich drehen und dastehen, sondern sie haben auch eine Wirkung auf die Vögel. Der Rotmilan – er ist öfters schon einmal genannt worden – und auch andere Vögel verschwinden aus diesem Land; sie werden zerschlagen, geschreddert. Auch die Fledermäuse werden geschreddert. Darüber hinaus gibt es einen großen Insektenschwund; es sind einige Millionen Tonnen, wenn nicht Milliarden, die jährlich daran glauben müssen.

Außerdem haben wir jetzt im Bund, ich glaube, zwei Millionen Photovoltaik-Anlagen, und deren Anzahl soll sehr erhöht werden. In diese Photovoltaik-Anlagen fallen viele Tiere und verbrennen dann auf diesen Anlagen, auf diesen großen Parks, wie das beschönigend heißt. – Der Umweltschaden ist also gewaltig.

Noch viel gewaltiger ist aus meiner Sicht, dass auch der Mensch ein Teil dieser Umwelt ist. Die Anrainer, die diese Windkraftanlagen oder Photovoltaik-Anlagen ertragen müssen, leiden, ihre Grundstücke verlieren an Wert usw. Die Menschen leiden also ebenso.

Worunter sie aber noch viel mehr leiden, sind die Maßnahmen der Elektromobilität. Woher soll der Strom dafür kommen? – Die Automobilindustrie hat 2,5 Milliarden Euro für die Entwicklung der Elektroautos ausgegeben, die anders sinnvoller eingesetzt gewesen wären. Wir haben die saubersten Motoren, die es auf diesem Sektor je gegeben hat. Darüber hinaus haben wir nicht einmal den Strom, um die vorhandenen Elektroautos mit Schnellladern auszurüsten, geschweige denn, dass wir diesen in Zukunft haben werden.

Wer sind die Gewinner? – Die Gewinner sind in erster Linie die Subventionsabgreifer; das ist ganz klar. Nicht, dass ich dagegen etwas hätte – wenn das Angebot vorhanden und das eine sinnvolle Sache ist, kann man das gerne nutzen. In aller Regel sind das aber auch diejenigen, die sich nicht um den Klimaschutz kümmern.

International sind da als erstes die großen Player China und Indien zu nennen. Interessanterweise sind das aber auch viele andere. Trump als Präsident hat es durch die entsprechende Gesetzgebung, aber insbesondere durch das von ihm nicht gewollte Versiegen der Kohleverstromung geschafft, dass mehr Gas verstromt wird, sodass die USA als eines der wenigen großen Länder einen sinkenden CO2-Ausstoß hat. Die EU hat das auch, aber bei allen anderen nimmt der CO2-Ausstoß zu. China macht, was es will, und es werden 1.500 Kohlekraftwerke weltweit gebaut. – Das sind die Gewinner.

Die Gewinner würden aber besser dastehen, wenn man sich an sinnvolle Ziele hielte, wie zum Beispiel den Wasserstoff als Ersatz für Brennstoffe auf fossiler Basis. Da wäre dann angesagt, Prozesswärme für die Erzeugung von Wasserstoff zu nutzen.

Wir müssen die Energien aber dazu doch haben. Elektrisch geht das nicht; wir haben diese Energien nicht. Wir könnten aber Kernkraft einsetzen, um Prozesswärme zu erzeugen. Die Generatoren der vierten Generation haben eine Prozesswärme von 600, 800 oder auch 1000 Grad[1], und das ginge wunderbar. Dann würde sich das auch rechnen. Anders gesehen rechnet es sich hingegen nicht.

Um es kurz zu machen: Es gibt eine geringe Zahl von Gewinnern bei diesem Klimaschutzpaket, die irrsinnige Summen zulasten aller anderen einstreichen. Beim Rest handelt es sich eigentlich um Verlierer.

Soweit meine Antworten auf mir gestellte Fragen.

Und nun kann niemand, auch nicht in Bayern im Bayerischen Landtag, sagen, man hätte es nicht wissen können, denn niemand hätte sie informiert oder gar gewarnt. Das geschah, sogar mehrfach, z.B. auch vom Kollegen Sebastian Lüning.

Und trotzdem wird das scheinheilig sogenannte „Klimaschutzgesetz“ kommen, die Mehrheit will es, und die Politiker werden es nutzen, um die Ihnen anvertrauten Menschen nach bestem Können zu gängeln und gleichzeitig dabei auszunehmen. Es ist nicht mal eine Frage der Zeit.

 

 

 

 

[1] Im Protokoll stehen immer noch 600.000 und 800.000 Grad. Ebenso wie CDC statt NCD´s. Aber das wurde nicht gesagt.




„Keine Parkplätze bei Öko-Demo mehr“ – Luxus-Demonstranten im Dannenröder Forst

Wir berichteten darüber, daß in Gießen Autos als Ziel von Brandanschlägen markiert wurden. Dahinter stecken autonome Aktivisten, die die Rodung eines Waldgebietes zwischen Kassel und Gießen verhindern wollen; auch, weil Holz ein guter Speicher für CO2 sei, das freigesetzt nun die Atmosphäre aufheize.

Daneben gab es auch legale Willensbekundungen von bürgerlichen Klima- und Naturschützern. Die örtliche Polizei wies im Radio allerdings darauf hin, daß es im Bereich der Demo keine Parkplätze mehr gebe. Die Klimaschützer sind also wohl fast alle mit dem Auto über die Autobahn gekommen. Wieviele Fahrzeuge davon einen Verbrennungsmotor besaßen, ist nicht bekannt. Wir schätzen: 99%.




Luftmassen – was heißt das?

Was ist eine Luftmasse?

„Offizielle“ Definitionen: Wetterlexikon bei Wetter.de: Über einem größeren Bereich lagernde oder zirkulierende Luftmenge mit einheitlichen Eigenschaften

Synoptische Meteorologie.de: Luftmassen sind riesige Luftkörper ähnlicher Temperatur, Luftfeuchtigkeit und Schichtung. Ihre horizontale Ausdehnung erreicht nicht selten mehrere Tausend Kilometer. Diese auch vertikal hochreichenden Luftkörper bilden sich meist in antizyklonalen und damit windschwachen Regionen. In diesen sogenannten Quellgebieten verbleiben sie tagelang quasistationär, sodass sie die thermischen und humiden Eigenschaften des Quellgebietes annehmen können. Erst im Zusammenhang mit Winden verlagern sich Luftmassen in andere Regionen und prägen dort das Wetter. Im Extremfall kommt es zu Hitze- und Kältewellen. Im Übergangsbereich zu anderen Luftmassen, an den sogenannten Luftmassengrenzen, entwickeln sich häufig markante Wettererscheinungen wie Starkregen, Gewitter oder Sturm.

Kurze Historie der Klassifikation

Die erste sinnvolle Klassifikation von Luftmassen führte der damalige Leiter des Meteorologischen Instituts der Freien Universität Berlin Prof. Dr. Richard Scherhag während der 1950er Jahre durch. Er unterschied zunächst vier Hauptluftmassen:

  • Arktische Luftmassen (A)

  • Polare Luftmassen (P)

  • Tropische Luftmassen (T)

  • Äquatoriale Luftmasse (E)

Hinzugefügt wurden dann noch die vorangestellten Indizes „m“ für maritime und „c“ für kontinentale Luftmassen.

Es zeigte sich aber mit der Zeit, dass diese Einteilung zu grob und zur Beschreibung für die Witterung in Mitteleuropa unzureichend war. So wurde eine auf das Festland strömende Meeresluft nicht nach einer bestimmten Zeit zu Festlandsluft ohne jeden Übergang. Zum Anderen wurde eine Luftmasse, die direkt aus der Arktis über das Nordmeer und die Nordsee hinweg nach Mitteleuropa strömte, genauso als „Meeresluft polaren Ursprungs“ bezeichnet wie eine Kaltluftmasse, die erst über dem Atlantik nach Süden strömt, etwa bis zu den Azoren, und dann von dort ihren Weg nach Mitteleuropa findet. Beides sind labil geschichtete, das heißt höhenkalte Luftmassen, die zu Schauern und Gewittern neigen. Der Temperaturverlauf ist jedoch gänzlich anders, vor allem im Winter. Zwar bringt die direkt aus Norden einströmende Meeresluft zumindest im Flachland auch kein richtiges Winterwetter, sondern eher der Jahreszeit entsprechende Temperaturwerte mit Naßschnee oder Schneeregen. Die von den Azoren einströmende Meeresluft – obgleich ebenfalls „polaren Ursprungs“ – bringt jedoch im Januar extrem mildes Wetter. Um diesem Umstand Rechnung zu tragen, wurde dann noch ein kleiner Index beigefügt, so dass beispielsweise die letztgenannte Luftmasse zu „mPt“ wurde.

Außerdem wurde zwar zwischen arktischer und subarktischer (subpolarer) Luft unterschieden, nicht jedoch nach tropischer und subtropischer Luft. So strömen tatsächlich nur sehr selten echte tropische, sondern bei entsprechenden Wetterlagen subtropische Luftmassen nach Mitteleuropa. Scherhag unterschied zwischen „tropischer“ und „äquatorialer“ Luft, doch sind diese beiden Begriffe klimatologisch gesehen ein und dasselbe.

Aus diesem Grunde machte sich der Scherhag-Schüler und spätere Geschäftsführende Direktor des Instituts Prof. Dr. Manfred Geb daran, dieses Konzept grundlegend zu überarbeiten und zu erweitern. So führte er zusätzlich zu den Indizes „m“ und „c“ die Bezeichnung „x“ ein. Damit trug er dem Umstand Rechnung, dass eine auf das Festland strömende und dort zur Ruhe kommende Meeresluft nicht sozusagen „ruckartig“ zu Festlandsluft wird, sondern erst einmal den Charakter einer „gemischt maritim und kontinental geprägten“ Luftmasse annahm. Eine Kaltluftmasse, die sich vor dem Eintreffen in Mitteleuropa stark erwärmt hatte, erhielt nun den nachgestellten Index „s“ und umgekehrt eine ehemalige Warmluftmasse, die große kältere Gebiete vor ihrem Eintreffen in Mitteleuropa überströmt hatte, den nachgestellten Index „p“. Damit ergab sich nach Geb die folgende Einteilung:

Tabelle: Luftmassenbezeichnungen nach Manfred Geb. Diese Klassifikation lässt sich grundsätzlich auch weltweit anwenden; lediglich der geografische Ursprung ist dann anders zu bezeichnen.

Anwendung dieser Klassifikation für die Vorhersage der Temperatur

Als der Autor zu Beginn der 1980er Jahre, aber auch schon als Student, nach seiner Diplom-Prüfung die Arbeit im Wettervorhersage- und Wirtschaftswetterdienst am Institut für Meteorologie der Freien Universität Berlin aufgenommen hatte, gab es natürlich noch nicht die zahlreichen numerischen Produkte von heute. Es gab zwar rudimentär bald erste numerisch gerechnete Vorhersagen, doch erwiesen sich diese für den praktischen Gebrauch als unzureichend. Erschwerend kam hinzu, dass das Institut mit seinem Wirtschaftswetterdienst nur für die Stadt Berlin (West) zuständig war, also für einen Punkt. Die Angabe einer Differenz bei der Vorhersage von Höchst- oder Tiefsttemperatur, wie sie in Flächenländern wie Bayern üblich und sinnvoll war, (und womit man Fehlvorhersagen ganz gut kaschieren konnte!) verbot sich also. Zwar gab und gibt es auch innerhalb des Stadtgebietes von Berlin mitunter beachtliche gleichzeitige Temperaturunterschiede wegen des WI-Effektes, doch war das Temperaturniveau abgesehen von diesen Einzelfällen etwa gleichmäßig.

So wurden nun am Institut Temperatur-Statistiken nach Luftmasse sowie nach Jahreszeit und Wetter erstellt über einen Zeitraum von 10 Jahren, nämlich von 1969 bis 1978. Es wurden vier „Wettertypen“ definiert von 1 (wolkenlos) bis 4 (trübe und regnerisch). Ggf. wurde noch eine fünfte Kategorie benutzt für anhaltenden Dauerniederschlag.

Nun ist das Auftreten verschiedener Luftmassen in Mitteleuropa räumlich und zeitlich sehr unterschiedlich verteilt. Im Winter und im Hochsommer dominieren bei den häufigen Westlagen vor allem die Luftmassen mP und mPs, im Frühling ist hingegen der Anteil kontinentaler und arktischer Luftmassen höher; im Herbst beherrschen mPs, alle Sp-Massen und/oder mS oft das Wettergeschehen. Die Luftmasse cA tritt im Sommer gar nicht, die Luftmasse cP nur sehr selten auf; Tropische Luftmassen (T) sind in allen Jahreszeiten extrem selten. Auch dazu haben Kämpfe et al. viele Beiträge geschrieben. Für die Erstellung einer Statistik ist nun aber ein möglichst häufiges Vorkommen von Datenpunkten erwünscht. Eine der am häufigsten in Mitteleuropa auftretenden Luftmassen ist die subpolare Meeresluft mP, und zwar zu allen Jahreszeiten. Als Beispiel für eine Luftmassen-Temperatur-Statistik sei hier der statistische Temperaturverlauf dieser Luftmasse unterschieden nach den vier Wettertypen gezeigt:

Abb. 1: Temperaturverlauf in Abhängigkeit von Jahreszeit und Wettertyp bei subpolarer Meeresluft mP. Der Verlauf gilt für den Punkt Berlin für 2 Meter Messhöhe über Grund, wo die Streuung durch verschiedenste Einflüsse wie den Wärmeinsel-Effekt hoch ist; eindeutiger und weniger abhängig von den Witterungstypen ist die Klassifikation für das 850-hPa-Niveau. Grafik: Autor

Bei dieser Klassifikation im 850-hPa-Niveau spielt ein anderer Parameter eine entscheidende Rolle. Die pseudoäquivalentpotentielle Temperatur oder abgekürzt pseudopotentielle Temperatur Arktische und subpolare (subarktische) Luftmassen zeichnen sich tendenziell durch hohe Sichtweiten und ein tiefes Himmelsblau aus; tagsüber entstehen oft prächtige Haufenwolken bis hin zu kleinräumigen Schauern (Abb. 2a). Festlandsluft erkennt man besonders im Sommerhalbjahr an ihrer Wolkenarmut bei geringer relativer Luftfeuchte und hoher Temperaturamplitude zwischen Tag und Nacht. Subtropische Luftmassen sind gekennzeichnet durch Schwüle mit der Folge punktueller schwerer Gewitter (Abb. 2b) und die geringe nächtliche Abkühlung.

Abb. 2a und 2b: Gleicher Wolkentyp: Cumulonimbus capillatus, auf deutsch: Schauer/Gewitter. Abb. 2a(oben) zeigt eine solche Wolke in einer (sub-)arktischen Luftmasse – kleinräumig und überschaubar. Abb. 2b (unten) zeigt eine massive Unwetterwolke, wie sie für die Luftmasse xS typisch ist. Diese weht im Sommer von Südwesten nach Mitteleuropa, was erklärt, warum die von Kämpfe gefundene Häufung von Südwestlagen während der letzten Jahre auch recht häufig von schweren Unwettern in Deutschland begleitet war. Beide Fotos: Autor

Beispielhaft sei hier zur Verdeutlichung folgender Fall angenommen: Ein Vorstoß subpolarer Meeresluft (mP) bringt im Sommer Temperaturwerte unter dem Durchschnitt. Sollte diese Luftmasse aber über dem Festland zur Ruhe kommen, wird sie sich erwärmen und gleichzeitig Eigenschaften des Festlandes aufnehmen. Die resultierende Luftmasse wäre eine erwärmte, gemischt maritim und kontinental geprägte subpolare Luft (xPs). Im Winter bringt diese Luftmasse eher über dem Durchschnitt liegende Temperaturwerte. Kommt sie über dem Festland zur Ruhe, wird sie sich abkühlen und zu „subpolarer Luft“ (xP) werden. Was dabei auch noch zu beachten ist: Je höher die Meereskaltluft reicht (etwa im Bereich eines 500-hPa-Troges), umso länger dauert diese Umwandlung.

Nach eingehender Abschätzung von Luftmasse und Wettertyp lag hier also jetzt eine objektive Grundlage für die Temperaturvorhersage vor, bevor numerische Produkte diese Art der Vorhersage ersetzten. Dies zog sich jedoch bis in die 1990er Jahre hin.

Luftmassen in Mittleren Breiten

Ursprungsgebiete von Luftmassen sind naturgemäß die Breiten, in denen der Polar-Jet keine oder nur eine sehr untergeordnete Rolle spielt, also die Tropen/Subtropen und die Polargebiete. In den Polargebieten ist vor allem im Winter eine mehr oder wenige gleichmäßige Oberfläche vorhanden (ob der Schnee auf dem Festland oder auf Meereis liegt, spielt nun wirklich keine Rolle). In den Tropen jedoch gibt es markante Unterschiede zwischen tropischen Meeresgebieten und dem Festland. Die Passatwinde der Subtropen sorgen dafür, dass auch diese Luftmassen ausgetauscht werden. Bei bestimmten, zirkulationsarmen Wetterlagen, welche in den letzten Jahrzehnten häufiger wurden, gewinnt jedoch auch Zentral-Europa im weitesten Sinne als Entstehungsort von Luftmassen an Bedeutung. Wegen seiner geografischen Besonderheiten (Mitteleuropa ist strenggenommen nur eine extrem reich gegliederte Halbinsel zwischen Atlantik im Westen, Nord-und Ostsee im Norden und dem Mittelmeer im Süden) entstehen hier bevorzugt x-Massen; im Sommerhalbjahr meist die gemäßigte, europäische Warmluft xSp, seltener cSp, im Winter xP, xPs,, seltener cPs oder cP. Sprichwörtlich war am Institut in Berlin die „Bayerische Polarluft“, wenn nämlich im Winter nach dem Einströmen einer Meeresluftmasse von Westen her die Strömung im Bereich einer windschwachen Hochdruckzone auf Süd oder Südost drehte. Bodennah war dieser Vorgang mit einer markanten Abkühlung verbunden, während sich oberhalb der Reibungsschicht (ca. 1000 m) in dieser Hinsicht gar nichts tat.

In diesem Beitrag soll es aber hauptsächlich um den Wechsel von Luftmassen in mittleren Breiten, sprich in Mitteleuropa gehen. Der ständige Wechsel zwischen Luftmassen tropischen/subtropischen Ursprungs und solchen arktischen/subarktischen (subpolaren) Ursprungs ist bei uns ganzjährig die Regel und macht unser wechselhaftes Wetter aus. Ist eine Luftmasse am Rande des möglichen Spektrums (kalt bzw. warm) längere Zeit vorherrschend, wird es eine entsprechende Abweichung der Mitteltemperatur geben – wobei es hier noch egal ist, welchen Bezugszeitraum man zugrunde legt.

Dies gilt sowohl im kurzfristigen Maßstab als auch mittelfristig! Wenn Kämpfe et al. nachgewiesen haben, dass es über die letzten Jahre eine Häufung von Südwestlagen gegeben hatte, dann gab es naturgemäß auch eine Häufung des Zustromes milder/warmer Luftmassen. Denn auch zu kältesten Zeiten irgendeiner Eiszeit kann mit einer großräumigen Südwestströmung keine winterkalte Luft herangeströmt sein!

Luftmassenwechsel gibt es natürlich von Tag zu Tag (Wetter!). Aber auch im Abstand von einigen Wochen kann die Vorherrschaft einer bestimmten Luftmasse durch die Vorherrschaft einer anderen Luftmasse abgelöst werden (Witterung! Für diesen Begriff gibt es im Englischen keine Entsprechung!). Das hängt natürlich von den planetarischen Wellen der Westwindzone ab. Tröge sind allgemein mit Kalt-, Hochkeile mit Warmluftmassen angefüllt. Ob die Häufigkeitsverteilung warmer bzw. kalter Luftmassen durch irgendetwas moderiert wird, steht auf einem anderen Blatt und ist hier nicht das Thema.

Eigenschaften von Luftmassen in Mitteleuropa

Generell wird der Charakter von Luftmassen in Mitteleuropa von drei grundlegenden Faktoren bestimmt:

1) Das Ursprungsgebiet, aus welchem die jeweilige Luftmasse stammt,

2) den Weg, den sie bis zum Eintreffen in Mitteleuropa zurückgelegt hat, und

3) wie lange das gedauert hat.

Dazu kommen untergeordnete Fragen wie etwa: war/ist es in den Ursprungsgebieten gegenwärtig besonders warm/kalt? Sind die überströmten Land-/Meeresgebiete besonders warm/kalt? Eine Änderung der ozeanischen Wassertemperatur drückt einer diese Meeresgebiete überströmenden Luftmasse einen gewaltigen Stempel auf! Erleben durften das die Bewohner in Südaustralien und Südamerika im gerade zu Ende gegangenen Südwinter. Offenbar haben sich Luftmassen mit Ursprung in der Antarktis auf ihrem Weg über die eisfreien Meeresgebiete nach Australien deutlich weniger stark erwärmt als sonst (was immer hier „als sonst“ heißen soll). Die Folge waren sowohl in Südaustralien als auch in Südamerika „ungewöhnliche“ Schneefälle. Man darf aber wohl davon ausgehen, dass derartige Ereignisse dort vielleicht nicht in jedem Jahr, aber doch immer wieder vorkommen, vermutlich aufgrund irgendwelcher Oszillationen. (Nebenbei: Aus der völligen Ignoranz dieser Vorgänge seitens der hiesigen Medien folgert der Autor, dass es sich dabei vermutlich doch um ein recht seltenes Kalt-Ereignis handelte!).

Nach Mitteleuropa strömende Meeresluftmassen (aus Südwesten bis Nordwesten) werden natürlich entscheidend von der Wassertemperatur im Nordatlantik geprägt. Ob diese aufgrund bestimmter mächtiger Kräfte (z. B. der Atlantischen Multidekadischen Oszillation AMO) höher oder niedriger liegt (als was eigentlich?), ist von entscheidender Bedeutung für das Temperaturniveau der hier wetterbestimmenden Luftmasse. Die AMO ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird. Die AMO hat eine Periodendauer von 50 bis 70 Jahren und besitzt „warme“ und „kalte“ Phasen. Von 1900 bis 1925 sowie von etwa 1965 bis 1995 befand sie sich in einer kalten Phase, von etwa 1925 bis 1965 und seit etwa Mitte der 1990er Jahre in einer warmen Phase. Ob aufgrund dieser Oszillationen bestimmte Strömungsmuster bevorzugt werden (wie eben in letzter Zeit die Häufung von Südwestlagen), ist ebenfalls nicht Thema dieses Beitrags, auch wenn es Indizien gibt, dass dies tatsächlich der Fall ist. Siehe hierzu den Beitrag von Kämpfe hier. Daraus die folgende Abbildung:

Abbildung 3: Seit 1881, dem Beginn der Erstellung halbwegs verlässlicher Wetterkarten, hat sich die Häufigkeit der in Deutschland stark erwärmend wirkenden Südwestlagen merklich erhöht. Außerdem erwärmte sich der Nordatlantik, wobei es eine schwächere Warmphase um 1900, eine stärkere um 1945 und eine aktuelle, sehr starke, gibt. Die Kurvenverläufe der gleitenden Mittelwerte (fette Kurven) ähneln sich, wobei die AMO etwa 20% der Häufigkeitsvariabilität der SW-Lagen erklärt. Fast alle Jahre ganz ohne SW-Lagen traten vor 1950 auf; danach war nur 1991 frei von SW-Lagen; 2019 hatten wir 44 Tage.

Sollte das tatsächlich der Fall sein, dann kann man wohl mit einiger Sicherheit davon ausgehen, dass irgendwann (demnächst vielleicht?) auch wieder andere Strömungsmuster vorherrschend sind, z. B. winterliche Nordostlagen. Dem Autor scheint das ausschließlich eine Frage der Zeit zu sein – nicht ob, sondern wann es dazu kommt.

Die Kleine Eiszeit war vermutlich in Mitteleuropa nur deswegen so kalt, weil es bevorzugt zu Nordostlagen und/oder südlichen Westlagen (WS) gekommen war, bei denen der Jet-Stream südlich an Deutschland vorbei über das Mittelmeer hinweg verlief – aus welchen Gründen auch immer. Wenn in den Niederlanden die Grachten zufrieren, kann das nur eine von Osten auf direktem Weg heranströmende Festlandskaltluft bewirken – und auch das nicht über Nacht, sondern über einen längeren Zeitraum.

Und was hat das alles mit Klima zu tun?

Kurz gesagt: fast gar nichts!

Aus der Vorherrschaft bestimmter Luftmassen in Mitteleuropa (einem für das globale Wetter kleinen und unbedeutendem Punkt) gleich auf das Wetter des gesamten Globus‘ zu schließen, ist – gelinde gesagt – Humbug. Was aber einige Klima-Obergurus nebst willfährigen Kriech-Medien nicht daran hindert, genau das seit Jahrzehnten zu tun. Was auch immer die Ursache der von Kämpfe et al. beschriebenen Häufung von Südwestlagen in Mitteleuropa ist – das winzige bisschen Kohlendioxid in der Luft ist dafür mit Sicherheit nicht verantwortlich. Und wenn sich ein zum Klimagott hoch stilisierter Mann mit indischen Wurzeln hinstellt und sagt, dass „es bei uns keine Winter mehr wie noch vor zwanzig Jahren geben werde“, dann sagt er damit, dass es bei uns im Winter nie mehr den Zustrom von Luftmassen aus Nordosten geben wird. Das ist natürlich absoluter Unsinn. Aber es ist eben ein Gott, und Götter sind ja bekanntlich unfehlbar. Und wenn sich die Fakten nicht nach diesen göttlichen Geboten richten, dann sind diese Fakten eben leugnerisch und rechtsradikal.

Fazit: Das Temperaturniveau von Tagen, Monaten und Jahren wird bei uns durch das Vorherrschen bestimmter Luftmassen festgelegt, modifiziert durch die 4 bis 5 Wettertypen und das Temperaturprofil sowie das Geopotential der Troposphäre, wobei in den letzten Jahrzehnten die starke Häufigkeitszunahme der wolkenarmen, sonnigen Wettertypen und eine höhere Lage des 500hPa-Niveaus auffällig waren – und durch fast nichts sonst!

Nachtrag: Der Autor hat in den 1980er Jahren mal versucht zu ergründen, ob sich das Temperaturniveau ein und derselben Luftmasse in Mitteleuropa ändert, und zwar am Beispiel der subpolaren Meeresluft mP, der mit am häufigsten in Mitteleuropa wetterbestimmenden Luftmasse. Der Einfluss der o. g. Faktoren ist jedoch so vielfältig, dass der Versuch bald wieder aufgegeben wurde. Siehe auch hierzu die zahlreichen Arbeiten von Kämpfe & Kowatsch, zuletzt hier.

————————

Der Autor bedankt sich bei Herrn Stefan Kämpfe für die ausführliche Begutachtung dieses Beitrags sowie für ein paar Ergänzungen dazu.