Den Bayerischen Wäldern geht es nur schlecht, weil die schlimmere Vergangenheit abgeschnitten wird

Die GRÜNEN sehen sich als „die Waldpartei“, die SPD will noch mehr Stellen

Der Bayerische Landtag debattierte über den Waldzustand. Wie noch gezeigt wird, hat scheinbar niemand Ahnung vom Thema, dafür aber eine fest(gefügt)e Meinung:
[3] Bayerischer Landtag: Die im Zuge des Klimawandels vermehrt auftretenden Witterungsextrema stellen für die bayerischen Wälder eine immer größere Bedrohung dar.
Eindringlich wies Forstministerin Michaela Kaniber (CSU) zu Beginn ihrer Berichterstattung darauf hin, dass sowohl die bisher in Häufigkeit und Ausmaß nicht gekannten Trocken- und Hitzeperioden als auch Orkane und Gewitterstürme sowie Schneebruch und Überschwemmungen den ökologisch gebotenen und wirtschaftlich nutzbaren Baumbestand in Bayern stark gefährden. Diese Entwicklung begünstige zudem die Ausbreitung bekannter und die Etablierung neuer invasiver Schädlinge. Vor allem der Borkenkäfer schädige dabei zunehmend die Gesundheit der Wälder. Dies bestätige laut der Ministerin auch die diesjährige Waldzustandserhebung. Aus diesem gehe hervor, welch großen Druck der Klimawandel mittlerweile auf die Vitalität der Wälder ausübt

… Hans Urban (BÜNDNIS 90/DIE GRÜNEN) fragte die Ministerin nach weitergehenden Bemühungen im Kampf gegen die Einflüsse des Klimawandels auf bayerische Wälder und hob zugleich die Rolle der Grünen als „Waldpartei“ hervor …
Horst Arnold (SPD) kritisierte die von der Ministerin erwähnte Schaffung von 200 neuen Stellen im Forstministerium als unzureichend …

In das gleiche Horn blies das Mitteilungsblatt des Landtags. Es wusste sogar zu berichten, dass sich Experten mit dem Thema beschäftigt hätten:
Bayerische Staatszeitung 13.11.2019: [4] Bayerns Wäldern geht es immer schlechter
Der Nadel- beziehungsweise Blattverlust steigt rasant auf immer neue Rekordhöhen. Das schockt selbst Experten. Schuld daran ist der Klimawandel und der damit verbundene Insekten- und Pilzbefall der Bäume. Der Landwirtschaftsausschuss sucht nach Lösungen …

Dabei geht es Bayerns Wäldern aktuell überwiegend besser als zu Beginn der Erhebung

Immer öfter fragt man sich, was unsere Abgeordneten überhaupt für ihr üppiges Salär treiben. Zumindest gehört sorgfältiges Analysieren, Hinterfragen und neutrales Abwägen des ihnen Vorgesetzten nicht dazu.

Denn sonst hätte ihnen sofort auffallen müssen, dass in der aktuellen Erhebung 2019 vier (wichtige) Jahre der Erfassung einfach weggeschnitten wurden (eine beliebte Methode, um die schlimmere Vergangenheit verschwinden zu lassen, wie sie die MuRe mit ihren Schadensdaten ebenfalls betreibt).

Um zu zeigen, welcher Unterschied sich ergibt, wenn man die vier fehlenden Jahre – die sich im Waldbericht 2011 [2] finden -, ergänzt, sind diese vom Autor für die Schadstufe 0 in den Grafiken orientierend zugefügt.

Bild 1 Nadel-/Blattverlust alle Baumarten. Für Schadstoffklasse 0 seit 1991 dargestellt. Quellen: [1][2]

Bild 2 Nadel-/Blattverluste Fichte. Für Schadstoffklasse 0 seit 1991 dargestellt. Quellen: [1][2]

Bild 3 Nadel-/Blattverluste Kiefer. Für Schadstoffklasse 0 seit 1991 dargestellt. Quellen: [1][2]

Bild 4 Nadel-/Blattverluste Tanne. Für Schadstoffklasse 0 seit 1991 dargestellt. Quellen: [1][2]

Bild 5 Nadel-/Blattverluste Buche. Für Schadstoffklasse 0 seit 1991 dargestellt. Quellen: [1][2]

Bild 6 Nadel-/Blattverluste Eiche. Für Schadstoffklasse 0 seit 1991 dargestellt. Quellen: [1][2]

Aus den Schadensverläufen lässt sich ableiten, dass ausschließlich die Fichte in der Schadensstufe 0 weniger Gut-Anteil hat, als zu Beginn der Datenerhebung im Bericht von 2011 angegeben sind.
Wenn dieser überwiegend positive, aktuelle „Schadenszustand“ ein schlimmer Einfluss des Klimawandels sein soll, muss man am Verstand unserer Abgeordneten zweifeln. Selbstverständlich haben wir keine „dummen“ Abgeordneten; wir haben nur faule, die sich auf ihre Aufgabe des Controllings nicht vorbereiten, das Denken inzwischen anderen überlassen [8],.und deren „Ergüsse“ postwendend, unbesehen „absegnen“.

SPD und GRÜNE outen sich als Parteien, bei denen inzwischen „Hopfen und Malz“ verloren gegangen ist. Nur schade, dass die CSU sich diesem unterirdischen Niveau konsequent angleicht.

Überdeutlich lässt sich anhand der Grafiken ein zyklischer Verlauf beim Schadenszustand erkennen. Nachdem nicht davon auszugehen ist, dass die kurze Trockenperiode (nur das Jahr 2018 war trocken, 2019 lag schon wieder in der Gegend des Mittelwertes) länger dauert, könnte man ahnen, dass die nächsten, noch besseren Jahre für die Wälder wieder vor uns liegen.

Anbei der langjährige Niederschlagsverlauf in Bayern, wie ihn der DWD ausweist. Keine Spur ist von der angeblich zunehmenden Trockenheit zu sehen, nur die für Niederschlag ganz typischen, schon immer extremen Schwankungen. Der Gesamtniederschlag nimmt stetig zu, vor allem auch im wichtigen Winter (Grundwasser-Auffüllung) und Frühling (Blattaustrieb). Nur im Sommer gibt es ein verschwindend kleines Minus.

Ergänzung: Niederschlag in Bayern

Bild 7 Bayern. Niederschlagsanomalie Jahr seit 1880. Quelle: DWD-Viewer

Bild 8 Bayern. Niederschlagsanomalie Winter seit 1880. Quelle: DWD-Viewer

Bild 9 Bayern. Niederschlagsanomalie Frühling seit 1880. Quelle: DWD-Viewer

Bild 10 Bayern. Niederschlagsanomalie Sommer seit 1880. Quelle: DWD-Viewer

Was der Klimawandel in Bayerns Wälder sonst noch Schlimmes anrichtet

Wenn Ministerinnen ins Erzählen kommen:
[3] … Eindringlich wies Forstministerin Michaela Kaniber (CSU) zu Beginn ihrer Berichterstattung darauf hin, dass sowohl die bisher in Häufigkeit und Ausmaß nicht gekannten Trocken- und Hitzeperioden als auch Orkane und Gewitterstürme sowie Schneebruch und Überschwemmungen den ökologisch gebotenen und wirtschaftlich nutzbaren Baumbestand in Bayern stark gefährden.
Nichts von dem, was diese Ministerin hier sagt, stimmt. Sie hat schlichtweg nicht die geringste Ahnung über das, was die Natur in der kälteren Vergangenheit dem Wald zumutete. Ihre Ausbildung lässt den Grund ein bisschen ahnen:
WIKIPEDIA: Nach der Mittleren Reife … Berufsausbildung zur Fachangestellten für den Steuer- und Wirtschaftsberatenden Bereich …
Vielleicht hat sie sich danach für ihren anspruchsvollen Ministerinnen-Job weitergebildet?
WIKIPEDIA: Bis 2014 war sie Mitglied des Stadtkirchenrats der Pfarrgemeinschaft Bad Reichenhall. Darüber hinaus ist sie Mitglied des Trachtenvereins Bayerisch Gmain und des WSC Bayerisch Gmain.
Seit 2015 ist sie Vorsitzende des Kundenbeirats der Volksbank Raiffeisenbank Oberbayern Südost …

Zwar übertrifft diese Ministerin damit bei Weitem das Ausbildungsniveau vieler GRÜNEn Führungskräfte und ist auch abgeschlossen worden. Es bedeutet aber eben nicht, dass es damit für ein Ministeramt ausreichen würde, zumindest, wenn man dann auch die Aneignung von Sachkenntnis erwartet.
Doch erkennbar wird auch in Bayern (wie im Bund) bei der Führungskräfteauswahl darauf geachtet, möglichst niemanden mit zu viel Wissen zu hoch kommen zu lassen, was dem Landesfürsten vielleicht einmal gefährlich werden zu können …
Obwohl: Seit Joe Kaeser „Langstrecken-Luisa“ einen Vorstandsjob anbot, weiß man, dass auch in der Industrie für Vorstände praktisch nichts, außer einer großen – von jeglicher Sachkenntnis befreiten – „Klappe“ gefordert wird.

Extremereignisse in Bayern

Sehen wir uns noch einmal die jährlichen Niederschlagsmengen in Bayern an, diesmal aber die Differenzen zum Vorjahr. Erkennbar nehmen die Differenzen – und das sind Extreme – kontinuierlich ab, von (für Niederschlag typischen Ausreissern abgesehen).

Bild 11 Bayern. Jeweilige Jahresniederschlagsdifferenz zum Vorjahr. Grafik vom Autor anhand der DWD-Daten erstellt

Und nun die Abnahme der kurzfristigen und damit schlimmen Niederschlagsextreme, wie sie die Wetterstation Nürnberg exemplarisch ausweist:

Bild 12 Nürnberg, Tagesniederschlag seit 1936. Grafik vom Autor aus den DWD-Daten zusammengestellt

Auch der umfangreiche Klimabericht 2019 zeigt es ganz unmissverständlich: In Deutschland ist nichts von einem schlimmen Klimawandel-Einfluss zu erkennen:
[5] EIKE 19.12.2019: Klimabericht 2019: Absolute Unkenntnis und/oder Falschinformation kennzeichnen unsere „Eliten“. Beispiel Hitzetote durch den „Klimawandel“ T2(2)
Einfach alle Sichtungen zu Extremniederschlag zeigen, dass es mit der überall postulierten Zunahme nicht stimmt:
[6] EIKE 01. Juni 2019: Extreme Wetterlagen verstärken sich. Bayern gehört zu den besonders gefährdeten Regionen
Gleiche Unkenntnis und Faktenignoranz war aber auch eine hervorstechende Eigenschaft der ehemaligen, bayerischen Umweltministerin
[7] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

Um Extreme zu erfahren, muss man in die Historie zurückgehen und dort nachlesen, wann Wälder in Bayern in einem heute unvorstellbarem Ausmaß kaputt waren. Dazu Auszüge aus einem Foliensatz des Autors:

Bild 13 Waldzustand (Vortragsbild des Autors)

Bild 14 Waldzustand (Vortragsbild des Autors)

Zusatzinfo

Nachdem eine Bayerische Ministerin klagt, dass das aktuelle Wetter extrem wäre, anbei mehr Information, wie extrem das Wetter zu den angeblich „natürlich und idealen“ Zeiten war, als das Leben „im Einklang mit der Natur“ einen dauernden Überlebenskampf bedeutete:

Bild 15 Wetterextreme in geschichtlicher Zeit. Folienbild des Autors

Bild 16 Wetterextreme in geschichtlicher Zeit. Folienbild des Autors

Bild 17 Wetterextreme in geschichtlicher Zeit. Folienbild des Autors

Bild 18 Wetterextreme in geschichtlicher Zeit. Folienbild des Autors

Bild 19 Wetterextreme in geschichtlicher Zeit. Folienbild des Autors

Bild 20 Wetterextreme in geschichtlicher Zeit. Folienbild des Autors

Bild 21 Vorteil und Segen des sich nach der „kleinen Eiszeit“ endlich wieder erwärmenden Klimas. Folienbild des Autors

Quellen

[1] Bayerische Forstverwaltung: ERGEBNISSE DER WALDZUSTANDSERHEBUNG 2019

[2] Bayerische Forstverwaltung: Waldbericht 2011

[3] Bayerischer Landtag 13. 11.2019: Landwirtschaftsausschuss: Bericht der Staatsministerin Michaela Kaniber zum Schädlingsbefall in bayerischen Wäldern und zu den Ergebnissen der Waldzustandserhebung 2019

[4] Bayerische Staatszeitung 13.11.2019: Bayerns Wäldern geht es immer schlechter

[5] EIKE 19.12.2019: Klimabericht 2019: Absolute Unkenntnis und/oder Falschinformation kennzeichnen unsere „Eliten“. Beispiel Hitzetote durch den „Klimawandel“ T2(2)

[6] EIKE 01. Juni 2019: Extreme Wetterlagen verstärken sich. Bayern gehört zu den besonders gefährdeten Regionen

[7] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[8] EIKE 24.02.2020: Niedersachsens enormer Beitrag zur Weltrettung! Landtagsabgeordnete Niedersachsens diskutieren mit EIKE VP Michael Limburg über den Klimawandel und die Absicht den „Klimaschutz“ in (niedersächsische) Verfassung zu bringen.




Experi­mentelle Verifi­kation des Treibhaus­effektes – 6. Mitteilung: Fourier und die falschen Klima-Propheten

1. Das Hoimar von Ditfurth Experiment

Man findet im Internet eine Reihe von einfachen Versuchen, die den CO2-Treibhauseffekt mit der Lufttemperatur verbinden. Danach soll sich CO2 wie eine Glasscheibe verhalten, die kurzwelliges Licht durchlässt, aber langwellige Wärmestrahlung absorbiert. Eine deutliche Erwärmung nach Zugabe von CO2 wurde als Beweis eines Treibhauseffektes erachtet. Die bekanntesten Versuche stammen von Al Gore und Hoimar von Ditfurth. Sie haben einen sehr ähnlichen Aufbau und lassen sich wie folgt charakterisieren:

1. Eine Glühlampe bestrahlt von außen ein Gefäß (Simulation der Sonnenstrahlung).
2. Das Gefäß wird wahlweise mit normaler oder CO2-haltiger Luft gefüllt (Erd-Atmosphäre).
3. Eine Bodenfläche oder ein kugelförmiger Körper simuliert die Erdoberfläche.

Das wohl spektakulärste Experiment wurde 1978 von dem Autor und Fernsehmoderator Dr. Hoimar von Ditfurth† durchgeführt. Diese Vorführung verdient einige Superlative: Neben spektakulär ist es das größte und gefährlichste Experiment, mit dem stärksten Temperatur-Anstieg und den meisten physikalischen Rätseln hier.

Video des Versuchs von Hoimar v. Ditfurth aus dem Jahre 1978 (Mit Dank an Michi Krüger für das Hochladen auf YT)
Auf einer Bühne waren zwei große Zylinder mit den ungefähren Maßen 2 x 3 m aus durchsichtiger Plastikfolie aufgebaut, in denen eine Testperson ein Thermometer beobachtete. Nur in einem Zylinder, in dem von Ditfurth stand, wurde CO2 aus mehreren großen CO2-Flaschen sehr rasch von unten eingeleitet.
Der eigentliche Kern des Versuches waren zwei Bühnenscheinwerfer, die aus kürzester Entfernung von oben in die offenen Zylinder hineinstrahlten und damit erwärmten.
Am Ende wurde festgestellt, dass der CO2-gefüllte Zylinder 11,3 °C wärmer war als der Vergleichszylinder.
Das YouTube-Video, das noch immer im Internet zugänglich ist, vermittelt eine Botschaft, die wegen ihrer Einfachheit auch von der breiten Öffentlichkeit leicht zu verstehen ist: „Seht her, CO2 kann unsere Erde um 11 °C oder vielleicht noch höher erwärmen, wenn ihr nicht sofort handelt.“ Aber stimmt diese Prophezeiung?Die Versuche von Al Gore und Ditfurth sind reine Demonstrationen. Es fehlen detaillierte Beschreibungen, Angabe der CO2-Konzentrationen und Kontroll-Experimente. Zur Auswertung kommt lediglich eine Vorher-Nachher-Betrachtung. Diese Versäumnisse sollen durch eine gründliche Überprüfung nachgeholt werden.

2. Die Versuchsapparatur

Die Versuchsapparatur und erste Ergebnisse wurden bereits auf der alternativen 13. Klima-Konferenz (IKEK) in München November 2019 vorgestellt (hier).
In der Zwischenzeit wurde die Apparatur durch Einbau eines 7. Sensors „Tp. Boden“, der die Temperatur der Dom-Wand misst, erweitert. Dadurch lassen sich Luft- und Boden-Temperaturen miteinander vergleichen.

Die wichtigste Neuerung ist eine PE-Folie in Form von Blende 2 oberhalb der konischen Erweiterung der Röhre. PE hat den Vorteil, dass die Folie Wärmestrahlung durchlässt, aber den Versuchsraum gasdicht verschließt. Dadurch lassen sich vergleichende Experimente mit offener und geschlossener Apparatur durchführen.

2.1 Überprüfung des Ditfurth-Experimentes

Wie beim Ditfurth-Experiment wird die mit Luft gefüllte, offene Apparatur (Abb. 2, linkes Bild) mit einer 100 W Rotlicht-Reflektor-Lampe bestrahlt. Durch die Bestrahlung ist die Versuchs-Apparatur bis zu 10 °C wärmer als die Raum-Luft. Dabei entsteht eine ungewöhnliche Luftschichtung, mit warmer Luft unten und kälterer Luft oben (Abb. 3). Die Erklärung ist das Lambertsche Kosinusgesetz. Der Boden, obwohl am weitesten von der Lampe entfernt, erhält wegen seiner parallelen Ausrichtung zur Strahlungsquelle die größte Strahlungsdichte von der Rotlicht-Lampe. Alle anderen Flächen werden nur schräg angestrahlt und dadurch weniger erwärmt. Die Wärme breitet sich hauptsächlich durch Wärmeleitung aus, wie an der 4 °C Differenz zwischen Boden und Dom-Luft zu sehen ist (Abb. 3, Boden vs. Dom).
Nach einiger Zeit werden 23 L CO
2 innerhalb von 15 Minuten von unten in die Apparatur eingeleitet. Die Temperaturen in der Apparatur reagieren sofort auf das CO2, allerdings sehr unterschiedlich. Während sich Boden und Dom-Luft sofort erwärmen, zeigen die anderen Sensoren zunächst eine Abkühlung, um nach einer gewissen Verzögerung ebenfalls einen Anstieg zu vermelden (Abb. 3).

Nach einer Beobachtungszeit von 180 Minuten (Ruhephase) werden die Gase durch das „Einleitungsrohr“ im Boden wieder abgepumpt. Das Abpumpen dient der Kontrolle, dass die Temperatur-Anstiege tatsächlich durch das eingeleitete CO2 verursacht wurden und alle Messwerte annähernd wieder Ausgangsniveau zeigen.
Eine Bestimmung der CO
2-Menge beim Abpumpen ergab, dass nur noch wenig CO2 von den ursprünglichen 23 Litern vorhanden war. Das meiste CO2 w CO2 ährend des Versuches durch Diffusion unbemerkt in den Laborraum entwichen. Die Temperatur-Verläufe der Messpunkte Tp. R1 – R3 und der stetige Temperatur-Anstieg der Top-Position zeigen diese Diffusion. Demgegenüber waren die Temperaturen des Bodens und der Dom-Luft während der Ruhephase relativ konstant und veränderten sich erst beim Abpumpen.

2.2 Das Argon-Kontroll-Experiment

Auf den ersten Blick sieht das vorherige CO2-Experiment wie eine Bestätigung der Ditfurth-Hypothese aus. Aber Zweifel ist die Mutter aller Wissenschaften und so muss auch dieses Ergebnis überprüft werden. Als alternatives Kontroll-Gas bietet sich Argon an. Argon ist wie CO2 ein schweres Gas aber kein Treibhausgas und sollte beim Einleiten in die Röhre keine Temperatur-Änderung verursachen. Der Kontroll-Versuch ist jedoch eine faustdicke Überraschung: Das IR-inaktive Argon verursacht exakt die gleichen Temperatur-Anstiege wie das Treibhausgas CO2 (Abb. 4).

2.3 Schlussfolgerungen

Das Edelgas Argon ist ein IR-inaktives Gas, das weder Wärmestrahlung absorbieren noch emittieren kann. Wenn CO2 und Argon den gleichen Erwärmungs-Effekt zeigen, muss man die Ursache außerhalb der Wärmestrahlung suchen. Schwere Gase haben eine kleinere spezifische Wärmeleitfähigkeit λ als Luft (die Tabelle in Abb. 4). Werden diese Gase in die Röhre eingeleitet, verringern sie den Wärmestrom innerhalb der Apparatur. Die schweren Gase wirken wie eine Isolierschicht. Somit lässt sich feststellen:

Das Ditfurth-Experiment zeigt nicht den Treibhauseffekt, sondern ist ein Phänomen schwerer Gase.

Diese erste Erkenntnis bestätigt die Skepsis von Helmut Krebs und Anthony Watts, die an den Ditfurth- und Al Gore-Experimenten, als Beweis des CO2-Treibhauseffektes, gezweifelt hatten (hier, S. 91,98).

3. Experimente in der geschlossenen Apparatur

3.1 Überprüfung des Ditfurth-Experimentes in der geschlossenen Apparatur

Da bei der ersten Untersuchung CO2 entweichen konnte, wurde der Versuch von Kap. 2 mit einer geschlossenen Apparatur wiederholt. Hierzu wurde Blende 2 mit Silicon-Gummi oberhalb der konischen Erweiterung eingeklebt. Blende 2 ist mit einer durchsichtigen PE-Folie (Schichtdicke: 11 µm) bespannt, die Wärmestrahlung durchlässt, aber den Austritt von CO2 verhindert (Abb. 1, das Bild in der Mitte). Überraschenderweise gingen bei diesem Versuch die Temperaturen bereits nach zwei Stunden wieder auf die Ausgangswerte zurück, obwohl gar nicht abgepumpt wurde (Abb. 5).

Das abweichende Verhalten lässt sich durch einen unterschiedlichen Verlauf der CO2-Diffusion bei einer offenen und geschlossenen Apparatur erklären. Beim CO2-Einleiten durch das untere Einleitungsrohr bildet sich im Dom ein CO2CO2“, vergleichbar mit einer Flüssigkeit, die in eine Schüssel gefüllt wird. Das CO2 breitet sich danach langsam durch Diffusion nach oben aus. Dabei nähert sich das CO2 der Rotlichtlampe und wird hier stärker erwärmt als in den unteren Schichten, was den Aufstieg beschleunigt. Bei der offenen Apparatur führt das zu einem Entweichen von CO2, bei der geschlossenen aber zu einer Vermischung, Homogenisierung mit der Innenluft.

Dieser Homogenisierungs-Prozess verändert das Verhältnis von CO2-Wärmeleitung und CO2-Wärmestrahlung.
Die Wärmeleitung einer CO2-haltigen Schicht hängt von ihrer Zusammensetzung und der CO2-Konzentration ab (hier). Den größten Isoliereffekt hat das reine CO2 beim Einleiten in den Dom, wodurch die oberen Schichten weniger Wärme von dem wärmeren Boden bekommen. Beim Vermischen mit Luft verringert sich der Isoliereffekt mit abnehmender CO2-Konzentration.
Im Gegensatz dazu ist das Strahlungsvermögen von CO2 nicht von seiner Konzentration, sondern von der Anzahl der CO2-Moleküle abhängig. Der Homogenisierungs-Prozess verringert die CO2-Konzentration aber nicht die Anzahl der CO2-Moleküle.
Dieser Zusammenhang führt zu der Erkenntnis, dass der anfänglich starke Temperatur-Anstieg von 1 – 2 °C hauptsächlich durch ein Konzentrations-Gefälle verursacht wird. Eine homogene CO2-Luft-Mischung führt dagegen nur zu einer geringen Erwärmung von 0,1 – 0,2 °C (Abb. 5).
3.2 CO2-Experiment mit beschleunigter Homogenisierung

Die These der internen Vermischung von CO2 und Luft ließ sich experimentell bestätigen. Nach Einleitung von CO2 wurde durch eine Aquarium-Pumpe das im Dom befindliche CO2 abgesaugt und in das obere Rohr wieder eingeleitet. Durch 30 minütiges Umpumpen wurde die Homogenisierung beschleunigt, wodurch die Temperaturen sofort wieder zurückgingen (Abb. 6 und Tab. 1).

3.3 Homogenisierungs-Versuche mit schweren Gasen

Weitere Homogenisierungs-Versuche mit unterschiedlichen Mengen CO2, Freon 134a und Argon ergaben immer die gleichen geringen Temperatur-Anstiege von 0,1 – 0,3 °C (Tab. 1). Auch ein CO2 Kontrollversuch mit einem farblosen 100 W Strahler (Abb. 2, rechtes Bild) führte zu keinem anderen Ergebnis.


3.4 Homogenisierungs-Experimente in Argon

In einer letzten Versuchsreihe wurde die Innenluft der Apparatur vor Zugabe von Treibhausgasen weitgehend durch Argon ausgetauscht. Durch diese Maßnahme sollte die Wärmeleitung des Versuchsraumes von vornherein vermindert werden. Tatsächlich verursachte jetzt die Einleitung von CO2 bzw. Freon 134a keine messbare Erwärmung der Dom-Luft, während es am Boden sogar zu einer Abkühlung kam (Tab. 2).

4. Fazit und Ursachensuche

Die Behauptungen von Al Gore und Ditfurth, den CO2-Treibhauseffekt durch eine Luft-Erwärmung nachgewiesen zu haben, sind falsch. Beseitigt man Sondereffekte, die durch die geringe spezifische Wärmeleitung schwerer Gase und durch einen Konzentrations-Gradienten entstehen, bleibt von der postulierten Erwärmung nichts mehr übrig.

Aber warum funktionieren solche Experimente mit einer Bestrahlung von außen nicht? Um das zu verstehen, muss man sich die Bestrahlungs-Lampen, als Quelle der Energiezufuhr, genauer ansehen. Die Glaskolben der farblosen und der Rotlicht-Lampe erreichen Temperaturen von 115 °C bzw. 125 °C und produzieren dadurch, neben ihrem sichtbaren Licht, eine erhebliche Wärmestrahlung. Entscheidend ist nun, dass dies Wärmestrahlung den gleichen Wellenlängen-Bereich λ = 3 – 30 µm umfasst, der auch von Treibhausgasen benutzt wird.

Um die Bedeutung von Wärmestrahlung und Gegenstrahlung zu verstehen, müssen wir zunächst abschweifen und die Frage beantworten, wie die Erde ihre Wärme abgibt:
Die Erde hat eine ganze Reihe von Möglichkeiten, Wärme horizontal und vertikal zu transportieren, wobei der größte Teil in der Atmosphäre landet. Nur ein sehr kleiner Teil (40 W/m2) wird direkt von der Oberfläche an das Weltall abgegeben (hier). Tatsächlich ist es die Atmosphäre und nicht die Erde, die für die Kühlung des Systems Erde/Luft sorgt, und zwar ausschließlich durch Wärmestrahlung von rund 200 W/m2 in Richtung Weltall. Das mag paradox klingen, da eine Erde ohne Atmosphäre deutlich kälter wäre, aber das sind nun mal die realen Wärmeströme wenn man Kevin E. Trenberth Energieschema zugrunde legt.
Stickstoff, Sauerstoff und Argon, die Hauptbestandteile der Atmosphäre, sind IR-inaktiv, d.h. sie können zwar Wärme speichern und transportieren, aber keine Wärmestrahlung aussenden. Diese Funktion und Fähigkeit besitzen nur Wolken, Aerosole und Treibhausgase. Ohne diese kleinen Partikel und die IR-aktiven Spurengase würde sich die Atmosphäre langfristig erwärmen, und nur in Bodennähe gebe es noch einen gewissen Wärmeaustausch durch Wärmeleitung.
Nun wird die Wärmestrahlung dieser Stoffe aber in alle Richtungen gleichmäßig ausgestrahlt. Dadurch wird einerseits die Atmosphäre abgekühlt und andererseits die Erdoberfläche angestrahlt. Die Bestrahlung der Erde, auch Gegenstrahlung genannt, bewirkt, dass die Netto-Energieabgabe der Erdoberfläche vermindert wird. Dieser Strahlungs-Effekt führt zu einer gewissen Erd-Erwärmung, was fälschlicherweise als Treibhauseffekt bezeichnet wurde.

Doch nun zurück zu den Laborversuchen, hier überlagert die Wärmestrahlung der Lampen die Strahlung der Treibhausgase. So wird einerseits die nach unten gerichtete Gegenstrahlung durch die externe Lampe vergrößert und andererseits die nach oben gerichtete Wärmestrahlung der Apparatur durch die Treibhausgase erhöht. Die Laborversuche ergeben keine Erwärmung, weil bei diesen Experimenten offensichtlich beide Energieströme gleich groß und gegeneinander gerichtet sind.

Dass Treibhausgase tatsächlich die Wärmestrahlung einer Luftschicht vergrößern, konnte mit ganz anderen Experimenten nachgewiesen werden (Mitteilungen 1 – 5). Bei diesen Versuchen wurde die simulierte Erdoberfläche elektrisch beheizt und nur homogenisierte Gasmischungen untersucht. Dadurch wurde die Konkurrenz von externer und interner Wärmestrahlung vermieden und der Wärmeleitungs-Effekt unterdrückt. Bei diesen Experimenten erwärmte sich die simulierte Erde und nicht, wie von Fourier postuliert, der Gasraum. So konnte die Strahlungen verschiedener IR-aktiver Gase quantifiziert und bewertet werden. Dabei erwies sich CO2 als ein deutlich schwächerer IR-Strahler als andere Treibhausgase. Nur Methan, mit einem angeblich 28-mal größeren Treibhauspotential als CO2, war überraschenderweise ein noch schwächerer IR-Strahler (hier).

Meine einfachen Experimente können weder eine Erd-Erwärmung beziffern, noch sind sie 1:1 auf die Atmosphäre übertragbar, aber sie sollten selbsternannten Propheten eine Warnung sein. Es gibt Behauptungen, die sich überprüfen lassen, und apokalyptische Prophezeiungen erfüllen sich nur selten:
Plinius der Jüngere, 1. Jahrhundert: „Wir vergiften die Flüsse und die Grundbestandteile der Natur; und wir verwandeln gerade das, was unsere Lebensgrundlage ist, in Nägel für unseren Sarg.“

Doch es sollte anders kommen: Das Weströmische Reich erlebte noch das halbe Jahrtausend – – bis die Vandalen Rom zerstörten. Sollte sich diese Geschichte durch „Friday for Future“ und „Extinction Rebellion“ wiederholen?

Danksagung:
Ich danke Herrn Prof. Jörg Gloede für seine kritische Durchsicht und vielen wertvollen Hinweise.




Die Verkehrs­wende müssen wir angehen, um die Klimakrise und den damit verbun­denen Anstieg des Meeres­spiegels zu bekämpfen …

Der aufwendige Kampf gegen nichts

Sowohl den Schildbürgern wie auch Don Quichotte muss man zugutehalten, dass ihr sinnloser Kampf gegen Imaginäres die übrigen Bürger und dem Land kaum Geld gekostet hat. Für den Schildbürgerstreich „Kampf gegen den Klimawandel“, lässt sich das allerdings nicht behaupten.

Hier geht es jedoch um den Einfluss des Individualverkehrs von Deutschland und die Fragestellung, wie weit dessen Abschaffung und Umbau die Temperatur und damit den globalen Meerespegel wohl beeinflussen könnte, und ob man den Kampf dagegen – wie von den GRÜNEN (und leider unisono allen etablierten Parteien) behauptet – wirklich durchführen muss.

Der Verkehr in Deutschland

Die Abgase des Verkehrs machen rund ein Fünftel der gesamten CO2-Emissionen in Deutschland aus. Sollen 95 % vom Straßenverkehr kommen.

Mittels Dreisatzrechnung lassen sich anhand dieser Angaben die Temperatureinflüsse des Verkehrs grob bestimmen:

Tabelle: Abschätzung des Einflusses Verkehrs-bedingter C02-Emission auf das globale Klima

Nach dieser Abschätzung hat der gesamte Verkehr Deutschlands bis zum Jahr 2100 einen Temperatur-Erhöhungseinfluss (falls er überhaupt einen hat) von irgendwo zwischen 0,0047 … 0,014 Grad.

Nun ist der Meerespegel zwischen 1900 … 2000 um etwas unter 20 cm gestiegen, während sich die Temperatur in dieser Zeit um ca. 0,7 … 1 Grad erhöht hat [2].
Nehme man nun an, dass dazwischen ein direkter Zusammenhang besteht, der linear weitergeschrieben werden kann. Dann führt die emissionsbedingte Temperaturerhöhung des Verkehrs von Deutschland bis zum Jahr 2100 – abhängig vom angenommenen Forcing – zu einer anteiligen Pegelerhöhung von 0,134 … 0,4 cm.

Es mag viele GRÜNE Gründe für das in Deutschland inzwischen angesagte „Wenden“ und damit Verbieten und Verteuern alles Bewährten geben. Retten des angeblich schlimm ansteigenden Meerespegels als Begründung anzuziehen, ist aber nur dämlich.

Leider ist das eine bei den GRÜNEN (sofern es um Klima und Energie geht), geradezu bejubelte Eigenschaft.

Quellen

[1] Lokalausgabe der Nürnberger Nachrichten vom 22. Feb. 2020

[2] WIKIPEDIA: Globale Erwärmung




Über einen möglichen Zusammen­hang zwischen winter­lichem Polarwirbel und Winter­kälte in Mittleren Breiten

Zunächst einmal muss definiert werden, was mit dem Terminus „Polarwirbel“ – oder „Polar Vortex PV“ – eigentlich gemeint ist. Nicht jedes Tiefdruckgebiet in polaren Gebieten ist ein Polarwirbel, und natürlich ist ein Polarwirbel außerhalb polarer Breiten ein Widerspruch in sich.

In der angelsächsischen Literatur ist mit PV immer der winterliche Polarwirbel in der Stratosphäre gemeint. Ein Beispiel desselben zeigt Abbildung 1:

Abbildung 1: Klassisch ausgeprägter Stratosphärischer Polarwirbel, hier im 50-hPa-Niveau (ca. 20 km Höhe), und zwar als numerische Simulation über eine Woche im Voraus. Quelle: NOAA

Der winterliche Polarwirbel in der Stratosphäre ist natürlich eine Folge der winterlichen Abkühlung der Troposphäre. Grob vereinfacht erklärt: Die einzelnen atmosphärischen Schichten sacken bei Kälte so zusammen, dass in der Höhe ein Defizit, also „Tiefdruck“, entsteht.

Es gibt aber noch einen zweiten wichtigen Grund: Die Ozonbildung kann in der Polarnacht nicht mehr stattfinden – sie ist aber der Grund, warum es in der Stratosphäre ansonsten relativ warm ist (der kurzwellige Teil des UV wird bei der Ozonbildung in Wärme verwandelt).

So klassisch Breitenkreis-parallel wie in dieser Graphik zeigt er sich nun aber keineswegs immer. Die Beispielgraphik ist eine numerische Simulation vom 23. Februar 2020, 00 UTC (1 Uhr MEZ) für 168 Stunden im Voraus, also für genau eine Woche. Aktuell erscheint er nämlich deformiert:

Abbildung 2: Stratosphärischer Polarwirbel mit Deformation, aktuell vom 23. Februar 2020, 00 UTC. Quelle: NOAA

Derartige Deformationen sind nun allerdings normal, und die klassisch runde Ausprägung wie in Abb. 1 ist eher die Ausnahme. Im bisherigen Winterverlauf jedoch war er fast durchweg in dieser Form ausgeprägt.

Nun gut, das ist alles ziemlich weit oben. Steigen man jetzt ein paar Etagen ab, z. B in die mittlere, Troposphäre (500-hPa-Niveau, ca. 5000 m Höhe), sieht das Bild natürlich anders aus. Die folgende Graphik zeigt die Topographie des 500-hPa-Niveaus vom 23. Februar 2020, 06 UTC:

Abbildung 3: Zirkumpolare Topographie 500-hPa-Niveau vom 23. Februar 2020, 06UTC. Quelle: Wetteronline.de

Man erkennt grob integrierend betrachtet eine ähnliche Struktur wie in der Stratosphäre, jedoch mit viel mehr Mäandern. Das ist normal. Hinzuweisen ist hier aber auf die ebenfalls fast Breitenkreis-parallele Strömung von Neufundland bis nach Russland hinein. Es liegt auf der Hand, dass unter diesen Umständen winterliche Kaltluft aus Osten keine Chance hat, sich westwärts bis nach Mitteleuropa auszubreiten. Dazu später noch mehr.

Der Vollständigkeit halber hier noch die zirkumpolare Strömungsverteilung am Boden:

Abbildung 4: Bodendruck zirkumpolar am 23. Februar 2020, 06 UTC. Quelle wie Abb. 3

Da sich am Boden aber lediglich die „Spur des Schlittschuhläufers“ abbildet und der Schlittschuhläufer selbst weiter oben seine Kreise zieht, steigen wir jetzt wieder hinauf.

Zusammenfassung dieses Abschnitts: Der Polarwirbel bezeichnet das Phänomen der Bildung einer zirkumpolaren Zirkulation in der höheren Troposphäre und der Stratosphäre. Im Sommer verschwindet der Polarwirbel oder ist zumindest sehr schwach ausgeprägt. Belegt werden soll das mit der Zirkulation im 50-hPa-Niveau über der sommerlichen Antarktis:

Abbildung 5: Geopotential im 50-hPa-Niveau vom 23. Februar 2020, 00 UTC auf der Südhalbkugel. Quelle: NOAA

Und damit kommen wir zurück zur eigentlichen Frage: Ist an der in der Überschrift dieses Beitrags aufgestellten Behauptung etwas dran? Gibt es einen Zusammenhang?

Da es dem Autor nicht gelungen ist, historische Reanalysen der Stratosphäre zu finden, beschränken wir uns hier auf den atlantisch-europäischen Bereich. Wie aus den Abbildungen 1 bis 3 hervorgeht, geht ein kräftig ausgeprägter zonaler Grundstrom im 500-hPa-Niveau einher mit einem ausgeprägten stratosphärischen Polarwirbel, so wie es in diesem und auch den vergangenen Wintern fast durchweg der Fall war.

Nun kann der PV aber auch ein ganz anderes Verhalten zeigen. Man betrachte noch einmal die Abbildung 2 mit der aktuellen Deformation des PV. Sie soll sich den Simulationen zufolge wieder zurückbilden zum Zustand in Abbildung 1. Das ist aber nicht immer so. Im Extremfall deformiert sich der PV so stark, dass er sich ähnlich einer sich am Strand brechenden Meereswoge in zwei Teile aufspaltet – es kommt zu einem sog. „Major Warming“. In diesem Falle erscheint der PV nicht nur stark abgeschwächt, sondern auch mit zwei weniger stark ausgeprägten Zentren.

Bekannt ist, dass ein solcher Vorgang in Mittleren Breiten auf der gesamten Nordhemisphäre gravierende Kälteperioden zur Folge hat, so wie letztmalig im Spätwinter 2018. Vergleicht man ein solches „Major Warming“ nun mit der aktuellen Lage, scheint sich die Behauptung aus der Überschrift zu bestätigen.

Betrachten wir noch einmal die im Subheader erwähnte „gefangene“ Kaltluft im Falle stark ausgeprägter PV. Kann man das irgendwie mit Bodendaten belegen?

Das Winterindiz schlechthin ist neben der Meereisbedeckung die Schneedecke, und zwar sowohl deren Ausdehnung als auch deren Volumen. Bei in Mittleren Breiten milder Witterung macht sich die dort fehlende Schneedecke sicher durch eine vergleichsweise geringe Ausdehnung bemerkbar. Das war während der vergangenen Winter auch so. Betrachten wir also die Ausdehnung der Schneedecke auf der Nordhemisphäre:

Abbildung 6: Größe der schneebedeckten Fläche auf der Nordhemisphäre. Quelle.

Man sieht, dass die Ausdehnung in diesem Winter eher noch geringer ist als während der vorangegangenen Jahre. Das überrascht nicht, denn in fast ganz Europa liegt derzeit kaum oder gar kein Schnee.

Exkurs: Gibt es auf der NH vielleicht einen allgemeinen Trend zur Abnahme der Schneedecken-Ausdehnung? Dazu folgende Graphik:

Abbildung 7: Überraschung: Es zeigt sich neben der üblichen Variation eher ein steigender Trend! Quelle

Ende Exkurs

Nun sollte man aber erwarten, dass wenn schon die Kaltluft irgendwie „gefangen“ ist, wenigstens das Volumen der Schneedecke relativ hoch sein sollte, sorgt doch diese Konstellation für große Temperaturgegensätze im Bereich der jeweiligen Frontalzone und damit für mehr Niederschlag, der auf der kalten Seite als Schnee fällt. Dazu betrachte man jetzt Abbildung 8:

Abbildung 8: Volumen der winterlichen Schneemenge. Quelle

Und siehe da: Das Volumen der Schneemenge dieses Winters liegt deutlich über dem Mittel der Jahre 1982 bis 2012 und sogar noch deutlich über dem Band der Standardabweichung 1.

Nun aber zur Frage, ob ein ausgeprägter Polarwirbel (PV) routinemäßig zu milder Winterwitterung in Mitteleuropa führt?

Es wurde schon erwähnt, dass die Temperaturgegensätze zwischen warm und kalt bei stark ausgeprägten PV sehr hoch sein können, während sie bei schwächer ausgeprägten oder gar geteilten PV nicht so groß ausfallen. Große Temperaturgegensätze bedeuten aber in der Troposphäre auch besonders starke Wettervorgänge, hier in Gestalt der Tiefdruckgebiete im Bereich der Polarfront. Da zeigt sich Verschiedenes, was sehr bemerkenswert ist. Zunächst aber einige Anmerkungen zum Kältepol dieses Winters, der praktisch den ganzen Winter über im kanadisch-grönländischen Gebiet zu finden war. Dieser war in diesem Winter so extrem stark ausgeprägt, dass hier in einem Exkurs näher darauf eingegangen werden soll.

Exkurs: Der kanadische Kältepol des Winters 2019/20

Weil es im Zuge der Mainstream-Klimapropaganda keine Kälterekorde geben darf, sei an dieser Stelle darauf hingewiesen, dass in Kanada in diesem Winter gleich reihenweise Kälterekorde gebrochen wurden. Sogar auf der sonst stramm alarmistisch ausgerichteten, sonst aber eigentlich sehr guten Site von Wetteronline.de wurde schon darauf hingewiesen. Temperaturwerte unter -50°C sind nicht so ganz ungewöhnlich in den kanadischen Nordwest-Territorien, aber dass das so wiederholt und regelmäßig in diesem Winter vorkam, ist schon bemerkenswert. Nun ist es dort natürlich in jedem Winter sehr kalt, aber wenn die Temperatur statt der „normalen“ -30°C wiederholt unter -50°C sinkt, ist das selbst für die dortigen kältegewohnten Bewohner beachtlich.

Dazu gibt es auch einen Beitrag, in welchem Ausbrüche aus diesem kanadischen Kaltluft-Reservoir in Richtung USA bis hinunter nach Florida beschrieben werden. Das ist Wetter, nicht Klima, und wird hier nur nebenbei erwähnt. Aber am Ende jenes Beitrags folgen ein paar Bemerkungen, die hier übersetzt werden sollen:

Ersten aktuellen Modellrechnungen zufolge dürfte sich die Lage im März zunächst kaum bessern – und all diese anomale Kälte bedeutet, dass sich im Jahre 2020 der substantielle Abkühlungstrend fortsetzt, der während der letzten 5 Jahre zu verzeichnen war.

Der eigenen, zum Warmen verzerrten und den UHI-Effekt ignorierenden Temperatur-Datensätze der NOAA zufolge kühlte es sich in Nordamerika seit dem Jahr 2015 mit einer Rate von 2,03°C pro Dekade ab* (das ist 29 mal schneller als die Rate der Erwärmung vor dem Jahr 2015):

[*Verdeutlichung: wäre die Abkühlung in dieser Größenordnung 10 Jahre lang erfolgt, würde sie 2,03°C betragen. Während der 5 Jahre aktuell war es also die Hälfte]

Abbildung E1: Nordamerika, Abkühlung um 2,03°C pro Dekade. Quelle

Die kalten Zeiten kehren wieder – und das schnell – was auf einer Linie steht mit der historisch geringen Sonnenaktivität, der stärkeren, Wolken erzeugenden kosmischen Strahlung (hier) und meridionalen Strömungsanteilen des Jet-Streams.

Man falle nicht auf falsche politische Agenden herein – unsere Zukunft ist eine der fortwährenden Abkühlung.

Link: https://electroverse.net/wave-after-wave-of-brutal-arctic-cold-set-to-engulf-north-america-over-the-next-10-days/

Ende Exkurs

Auswirkungen dieser Extremkälte in West- und Mitteleuropa

In dem ausschnittsweise übersetzten Artikel wird wie erwähnt vor zwei gefährlichen Kaltluftausbrüchen bis in den Südosten der USA gewarnt. Das kommt aber seltener vor als Ausbrüche nach Osten auf den Atlantik hinaus. Und hier tut sich in der Tat Bemerkenswertes und etwas, das für uns Synoptiker und Wetterfreaks immer wieder aufs Neue faszinierend ist: Es bilden sich Orkanwirbel der absoluten Spitzenklasse (man sehe dem Autor die etwas überschäumende Wortwahl nach). Am 16. Februar 2020 erreichte diese Entwicklung einen einsamen Höhepunkt: Es bildete sich ein Orkanwirbel mit einem Kerndruck unter 930 hPa! Das ist zwar kein Weltrekord, sinkt doch der Luftdruck im Auge tropischer Wirbelstürme häufig noch tiefer. Aber im Nordatlantik dürfte das schon in die Nähe von Rekordwerten reichen. Die Wetterlage zeigt Abbildung 9:

Abbildung 9: Wetterlage vom 16. Februar 2020, 00 UTC. Weiße Linien: Bodendruck in hPa, bunt: Geopotential der 500-hPa-Fläche. Quelle

Vermutlich wird auch Laien schnell klar, dass bei einem solchen Giganten-System, das ja entgegen dem Uhrzeigersinn umweht wird, für Mitteleuropa nur die Südwest-Komponente gelten kann. Kälte ausgeschlossen.

Dieser Wirbel war aber nur die (höchste) Spitze des Eisbergs der Bildung großer Orkanwirbel. Seit Anfang Januar entwickelte sich über dem Nordatlantik ein Wirbel mit Kerndruck unter 950 hPa nach dem anderen. Das ist zwar auch nicht ungewöhnlich, kommt aber auch nicht in jedem Winter vor.

Derartige Entwicklungen sind also im Mittel an einen ausgeprägten Kältepol über Kanada-Grönland gekoppelt. Aber sind so starke Entwicklungen schon ein Indiz, dass es immer so weitergeht, bis dem Kältepol aus jahreszeitlichen Gründen die Puste ausgeht?

Nein! Dem Autor ist nämlich ein ziemlich drastisches Gegenbeispiel erinnerlich. Am 15. Dezember 1986 bildete sich im Seegebiet zwischen Island und Grönland ebenfalls ein Orkanwirbel der Spitzenklasse mit einem Kerndruck deutlich unter 930 hPa:

Abbildung 10: Wetterlage vom 15. Dezember 1986, 00 UTC. Weiße Linien: Bodenluftdruck, bunt: 500-hPa-Geopotential. Quelle

Tatsächlich waren die ersten beiden Dekaden des Dezember 1986 außerordentlich mild ausgefallen. Die damals 1-jährige Tochter des Autors konnte Anfang Dezember 1986 bei tiefblauem Himmel und einer Temperatur über 15°C leicht bekleidet im Garten herumkrabbeln. Wie jedoch erinnerlich, folgte dann der sehr kalte Winter 1986/87. Auf der Suche nach Unterschieden zur diesjährigen Situation wird man denn auch schnell fündig.

Im Gegensatz zu derzeit lag nämlich damals über Nordosteuropa ebenfalls ein ausgeprägter Kaltluftkörper, dem auch die Mega-Entwicklung bei Grönland nichts anhaben konnte. Kaum hatte sich der Wirbel bei Grönland nämlich stark abgeschwächt, wurde dieser Kaltluftkörper angezapft – der erforderliche hohe Luftdruck über dem nördlichen Mitteleuropa war jedenfalls auch schon vorhanden.

Leider ist es dem Autor wie gesagt nicht gelungen, historische zirkumpolare Stratosphärenkarten zu finden. Dann könnte man schauen, wie der stratosphärische PV zu jener Zeit ausgesehen hat. Falls jemand aus der geneigten Leserschaft hier helfen kann, wäre er dankbar für einen entsprechenden Kommentar mit Links.

Aber zurück zur derzeitigen Lage. Sie ist nämlich gekennzeichnet durch einen „Rekord“, der sich aber nur Fachleuten offenbart, der aber hier kurz erläutert werden soll.

West- und Mitteleuropa sind jedenfalls gegen Kaltluftvorstöße der Art, wie sie derzeit für die USA prognostiziert werden, nachhaltig geschützt, und zwar in Gestalt des Atlantischen Ozeans mit seinen vom Golfstrom erwärmten Gewässern. Momentan kommt noch die AMO-Warmphase im Zentralen Nordatlantik hinzu, welche den Temperaturgegensatz noch etwas steigern könnte. Die aus Kanada auf den Atlantik hinaus advehierten Kaltluftmassen werden auf dem langen Weg über dieses warme Wasser nach Europa so weit aufgeheizt, dass sie hier ihre winterlichen Eigenschaften weitgehend eingebüßt haben – jedenfalls normalerweise. Die Luftmassen, welche vom nordöstlichen Nordamerika aus als extrem kalte Kontinentale Arktikluft (cA) starten, erreichen West- und Mitteleuropa hinter den Kaltfronten der durchziehenden Sturm- und Orkanwirbel nur noch als subpolare Meeresluft (mP), die in den untersten Luftschichten dann meist 3 bis 8°C mild geworden ist. In diesem Winter war es jedoch so, dass es in diesen Luftmassen trotz des langen Weges über die warme Unterlage in Irland zu Schauern kam, die trotzdem noch als Schnee fielen. Auch in den höheren, deutschen Mittelgebirgslagen kam es dann häufig zu Schneeschauern. Natürlich wird es bei einer Nord- oder Ostlage auf der Insel noch sehr viel kälter, aber dass der lange Weg über den Atlantik nicht ausreicht, die kanadische Luftmasse auf das übliche Niveau aufzuwärmen, hält der Autor für bemerkenswert. Im schottischen Hochland, wo sich der wärmende Einfluss der tiefen Luftschichten verliert, wird man vielleicht ein Lied davon singen können.

Abbildung 11: Temperatur und Geopotential im 850-hPa-Niveau über dem Atlantik und Europa. Quelle.

Es hängt von drei Faktoren ab, mit welchen Eigenschaften eine von Westen kommende Kaltluftmasse aus Kanada in Westeuropa ankommt. Faktor 1: Das Temperaturniveau im Ursprungsgebiet, Faktor 2: Die Länge des Weges über das warme Wasser und Faktor 3: Die Zeit für das Überströmen. Zu Letzterem wird aus Abbildung 11 ersichtlich, dass die Strömung aus den o. g. Gründen sehr stark war und die Luftmasse die Strecke schneller zurücklegen konnte, d. h. dass die Zeit für eine stärkere Aufheizung gar nicht gereicht hat. Da aber dieser spezielle Kaltluftausbruch nun wirklich nicht der einzige dieses Winters war, könnte es sein, dass sich das Wasser des Nordatlantiks durch die gigantischen, zum Aufheizen benötigten Wärmemengen ebenfalls etwas stärker als gewöhnlich abgekühlt hat:

Abbildung 12: Wassertemperatur-Anomalien, 20. Februar 2020. Man erkennt die deutliche Abkühlung im Nordatlantik. Quelle

Fazit der Abbildung 12: Das Wasser war gar nicht mehr warm genug, um eine stärkere Aufheizung zu bewirken.

Zum Abschluss dieses Beitrages soll noch auf einen Punkt hingewiesen werden, der natürlich im Mainstream nie erwähnt wird. Die sehr milde Witterung dieses Winters in Mitteleuropa (die übrigens Kämpfe (2019) bereits aufgrund statistischer Auswertungen hier im November 2019 zutreffend prognostiziert hatte!), gab natürlich den Alarmisten jedweder Couleur hierzulande Auftrieb. Allerdings ist es grob falsch, aus der milden Witterung zu schließen, dass es „hier keine Winter mehr gibt“. Denn: Das würde bedeuten, dass man glaubt, dass die Strömung bei uns nie mehr aus einer andere Richtung als West oder Südwest kommen soll. Außerdem haben Kowatsch & Kämpfe in verschiedenen Arbeiten die Häufung winterlicher Westwetterlagen in Mitteleuropa nachgewiesen. Man kann wohl getrost davon ausgehen, dass diese Häufigkeit auch mal wieder abnimmt.

Wenn man wirklich die gegenwärtige Lage im Zusammenhang mit irgendwelchen Klima-Fluktuationen bringen will, dann muss man immer in die Ursprungsgebiete schauen: Wie kalt ist es im Zentrum der hemisphärischen Kältepole geworden? Und nur dann lassen sich Äpfel mit Äpfeln vergleichen!




Wie „grünes“ Großkapital und linke Journalisten gemeinsame Sache machen – Teil 5: Die Netzwerke

Mit dem weitgehenden Umbruch der Medienbranche als Folge des Internetzeitalters haben sich auch die bisherigen Strukturen grundlegend geändert. Journalisten sind immer seltener nur einer Zeitschrift, einem Verlag bzw. einem Sender zugeordnet, sondern teilen ihre Zeit oft auf verschiedene Auftraggeber auf. Zudem verwischen sich die bisherigen Grenzen zwischen Text, Bild und Bewegtbild immer mehr. Die geringere Bindung an einen festen Auftraggeber hat zur Folge, dass die Beschäftigungssituation immer prekärer wird. Von geschätzt etwa 85.000 Journalisten in Deutschland sind nur ca. 45.000 fest angestellt, der Rest muss seine Haut als freier Mitarbeiter zu Markte tragen. Das Durchschnittseinkommen ist mit nur 36.000 €/Jahr sehr niedrig. Auf der anderen Seite bilden sich dadurch innerhalb des Journalismus eigenständige Strukturen – meist in Form von Netzwerken – heraus, die sich dann eigenständig Finanzmittel suchen und sichern und dadurch auch eigene Meinungsmacht gewinnen. Geldquellen sind oft Stiftungen, NGO´s oder staatliche Fördertöpfe, wobei insbesondere bei den Stiftungen die Transparenz über die Mittelverwendung meist gering ist. In den Stiftungen, bei den durch sie geförderten NGO´s sowie bei staatlichen Akteuren wie z.B. dem Umweltbundesamt (UBA) haben sich häufig Vertreter linksradikal-grüner Gruppierungen wie Greenpeace festgesetzt und nutzen diese für die finanzielle Absicherung ihrer Genoss*Innen, zur Diffamierung von „Klimaleugnern“ und zur Verbreitung ihrer Ideologie. In den letzten Jahren haben sich immer mehr Pressure-Groups linker bis linksextremer Journalisten gebildet, die über ihre Vernetzung mit den etablierten Medien und mit dem Staatsapparat einen unverhältnismäßig großen und oft sehr bedenklichen Einfluss auf die öffentliche Meinung ausüben.

Ein kaum übersehbarer Filz eng verflochtener Journalisten-Netzwerke

Diese Gruppierungen sind inzwischen so zahlreich und so kaum entwirrbar untereinander vernetzt, dass es nicht möglich ist, sie im Rahmen dieser kurzen Artikelserie auch nur ansatzweise umfassend zu behandeln. Deshalb können nur die wichtigeren kurz vorgestellt werden, bei anderen sind aus Platzgründen nur einige wenige Angaben möglich, und viele weitere konnten hier gar nicht berücksichtigt werden. Eines haben jedoch so gut wie alle dieser Gruppierungen gemeinsam: Sie sehen sich als Vorkämpfer gegen den Klimawandel und „gegen Rechts“ – und ihnen stehen über Stiftungen sowie aus öffentlichen Fördertöpfen Geldmittel in Größenordnungen zur Verfügung, von denen die verhassten „Klimawandelleugner“ – viele davon Privatleute oder Rentner ohne nennenswertes Vermögen – nur träumen können.

Bild 2. Jean Pütz – die sympathische Galionsfigur einer inzwischen sehr unsympathischen Ansammlung von Klimaaktivisten namens WPK (Bild: Creative Commons Michael Schilling)

Die Wissenschafts-Pressekonferenz – ein radikaler Wolf im wissenschaftlichen Schafspelz

Zu den Wegbereitern dieser Entwicklung gehört ausgerechnet ein fast schon idealer Sympathieträger, nämlich der längst pensionierte Jean Pütz vom WDR, der sich dort als Pionier moderner Formate von Wissenschaftssendungen wie Quarks oder nano betätigte. Die von ihm mit begründete Wissenschafts-Pressekonferenz (WPK) bezeichnete sich auch als „Mafia der Vernunft“. Ihre Mitglieder sind hauptberufliche Wissenschaftsjournalisten, die für Fernsehen, Hörfunk, Printmedien und/oder Internet arbeiten. Im Prinzip ist hier die Creme so gut wie aller deutschen Fernsehanstalten und ihrer populären Wissenschaftssendungen vertreten. Die Neigung dieser Elite des Fernseh-Wissenschaftsjournalismus, sogenannte „Leugner des Klimawandels“ nicht zu Wort kommen zu lassen, ist hinlänglich bekannt.

Wie kam es überhaupt zur Bildung der WPK? Den Anstoß gab nach den Worten von Jean Pütz die Unzufriedenheit mit der damaligen Industrieabhängigkeit des Wissenschaftsjournalismus im Fernsehen. Dadurch sei die Glaubwürdigkeit auf der Strecke geblieben. Die Gründer der WPK wussten als Fachleute „am besten, dass, damals wie heute, wichtige Weichenstellungen für die Wissenschaft und Forschung der Zukunft anstanden und dass davon nicht nur Politiker überzeugt werden mussten, sondern…auch unmittelbar der Bürger“. Was aus den hehren Absichten geworden ist, kann man mit dürren Worten zusammenfassen: Agitprop für die Weltrettung durch Vernichtung unserer modernen Industriegesellschaft.

Ob Jean Pütz in seinem Alter überhaupt noch mitbekommen hat, was seine Kollegen aus diesen Initiativen gemacht haben oder nicht, sei dahingestellt. Fakt ist jedoch: Statt der Ansichten der Industrie wird heute auf Kosten der Gebührenzahler Industriefeindlichkeit verbreitet. Die angeblich angestrebte „verantwortungsvolle, sachgerechte und unabhängige Berichterstattung aus dem gesamten Bereich der Wissenschaft, der Medizin und der Technik in allen publizistischen Medien“ ist weitgehend zur Propaganda für die Klimahysterie und gegen die Kernkraft sowie gegen moderne Methoden der Landwirtschaft verkommen. Stars sind Leute wie die aggressive Weltrettungs-Prophetin Mai Thi Nguyen Kim, Prof. Lesch mit seinen farbenfroh blubbernden Glasballons oder der Arzt Dr. von Hirschhausen, der den Eindruck erweckt, menschliches Fieber und Weltklima nicht so recht auseinanderhalten zu können. Zu den Kuratoriumsmitgliedern der WPK zählen neben einigen großen Konzernen die Creme der Großforschungseinrichtungen und Wissenschaftsverbände, diverse staatliche Stellen sowie die SAP-nahe Klaus Tschira Stiftung. Geld haben sie jedenfalls überreichlich…

Die Klaus Tschira Stiftung und das Science Media Center

Die von dem SAP-Mitgründer Klaus Tschira 1995 ins Leben gerufene Klaus Tschira Stiftung (KTS) gehört zu den großen gemeinnützigen Stiftungen und hat bisher mehr als 600 Millionen Euro an Fördermitteln und Sachspenden vergeben. Sie behauptet von sich, sie wolle Naturwissenschaften, Mathematik und Informatik fördern und die Wertschätzung für diese Fächer in der Gesellschaft steigern. Was dabei in Wirklichkeit herauskommt, zeigt sich am Beispiel der von ihr überwiegend finanzierten Stiftung Science Media Center Germany (SMC). Vordergründig soll SMC anerkannte Fachleute aus der Wissenschaft sowie Wissenschaftsjournalisten in Kontakt bringen, um letzteren schnell und fundiert zuverlässige Fakten und Einschätzungen zu technischen bzw. wissenschaftlichen Themen zu liefern. Dazu habe man gezielt Koryphäen für eine „Experten-Datenbank“ erkoren, welche den Medien kostenfrei zeitnah Experten-Statements und fundiertes Wissen vermitteln sollen. So wolle man „wissenschaftliche Argumente für Journalisten leicht zugänglich machen, um unabhängige Berichterstattung über Wissenschaft und wissensbasierte Themen in Politik und Gesellschaft zu stärken“. Soweit die Theorie.

Bild 3. Bei SMC dürfen „Koryphäen“ wie Prof. C. Kemfert und Prof. V. Quaschning für die Energiewende trommeln (Bild: Autor, Eigenes Werk auf der Grundlage eines Screenshots)

In der Praxis wird allerdings bei der Auswahl dieser „Wissenschaftler“ gänzlich parteilich vorgegangen. Dies wird sogar offen zugegeben, indem man den – nach SMC-eigenen Kriterien „auserwählten“ – Experten die Botschaft verkündet: „Helfen Sie uns dabei zu vermeiden, dass Medien jenen Interessengruppen zu viel Raum einräumen, die mitunter im Namen der Wissenschaft irreführende Botschaften verbreiten….Wenn Sie sich als Experte zu komplexen, ambivalenten oder kontroversen Themen nicht oder nicht rechtzeitig öffentlich äußern, überlassen Sie den vermeintlichen Experten das Feld….Über das SMC erreichen Sie gleichzeitig zahlreiche handverlesene registrierte Journalisten in relevanten Medien, vor allem in Deutschland, Österreich und der Schweiz“. Und diese Parteilichkeit begünstigt, wie die Namen der auserwählten Experten z.B. im Energiesektor belegen, gezielt Personen mit stramm grünlinker ideologischer Ausrichtung.

In einem funktionierenden Rechtsstaat müssten die zitierten Sätze im Prinzip zur Folge haben, dass dem Verein die Gemeinnützigkeit entzogen würde. Das ist den SMC-Verantwortlichen inzwischen wohl auch klar geworden, weshalb diese Texte inzwischen von der aktuellen Fassung der Webseite entfernt bzw. entschärft wurden. Es gibt jedoch immer noch Suchmaschinentreffer für die zitierten Aussagen – und archivierte Screenshots. Das Internet vergisst halt nicht so schnell.

Auch ein Blick auf die Themenliste der SMC-Veröffentlichungen offenbart schnell, dass SMC sich nach wie vor stark auf die grünlinks-typischen Umwelt- und Klimathemen wie Energiewende, CO2, Dürren, Glyphosat, Autoabgase, Feinstaub, Elektromobilität oder Gülledüngung konzentriert. Zu Wort kommen bekannte Eiferer der Klima- und Energiewende wie die Professoren Kemfert und Quaschning oder – beim Automobil – Fr. Prof. Hoffmann. Diese gehört zu den fanatischen Verfechtern der Vernichtung der Autoindustrie durch übertrieben scharfe Grenzwerte für Autoabgase. Echte Koryphäen wie Hans-Werner Sinn scheint man dagegen nicht zu

berücksichtigen.

Bild 4. Eine kaum verschleierte Aufforderung an Klimahysteriker, anderen Meinungen nicht das Feld zu überlassen (Bild: Autor, Eigenes Werk auf der Grundlage eines Screenshots)

Der größte Treppenwitz an SMC ist, dass ausgerechnet eine Stiftung aus dem direkten Umfeld des in Deutschland beheimateten SAP-Konzerns seit Jahren mit viel Energie darauf hinarbeitet, unter dem Deckmantel der „Förderung der Wissenschaft“ genau diese Wissenschaft und zugleich die deutsche Industrie zu zerstören.

Das Netzwerk Recherche

Nach dem Beispiel der WPK sind im Laufe der Jahre auch bei anderen Medienvertretern zahlreiche weitere Netzwerke entstanden. Eines der älteren ist das Netzwerk Recherche e.V. (NR), ein eingetragener gemeinnütziger Verein mit (2018) 840 Mitgliedern. Zwar behauptet man, man wolle „die journalistische Recherche und den Qualitätsjournalismus in Deutschland“ stärken und sei laut Satzung der „Förderung der Bildung“ verpflichtet. Doch lässt schon allein die 2001 erfolgte Gründung auf einer Tagung der Friedrich-Ebert-Stiftung erahnen, wessen Geist bei der angestrebten „Volkserziehung“ den gewünschten linksgrünen Ton angibt.

Offiziell gibt man sich beim Netzwerk Recherche auf der Homepage betont neutral, investigativ und dem Allgemeinwohl verpflichtet. Zu den Zielen gehört auch „gemeinnütziger Journalismus“, d.h. Redaktionen, denen endlich kein „Verlagsmanager im Nacken“ sitzt. Dank finanzieller Unabhängigkeit könne man endlich investigativ Themen angehen, die sonst untergehen würden. Dann, so die Hoffnung, könne der Journalist endlich die Welt so verbessern, wie er sich das vorstellt.

Bild 5. Die Stiftung Olin GmbH, die auch das Netzwerk Recherche fördert, unterstützt eine ganze Reihe klimaaktivistischer bzw. klimaradikaler Bewegungen mit teils hohen Summen (Bild: Autor)

Was jedoch wirklich dahintersteckt, zeigt sich beim Blick auf die Geldgeber. Daran herrscht kein Mangel: Zu den Partnern und Förderern zählen u.a. die Rudolf Augstein Stiftung, der NDR, die Bundeszentrale für politische Bildung, die GLS Treuhand, die Olin gemeinnützige GmbH, nextMedia.Hamburg und die Schöpflin Stiftung. Auch bei diesen Förderern liest man zunächst honigsüße Phrasen über Freiheit, Gleichheit, Gerechtigkeit etc. pp. Man muss schon in die Tiefe bohren, um festzustellen, welche Erwartungen diese großzügigen Spender denn wohl haben. Zum Beispiel die Olin Stiftung von Alexander Szlovák, der nach einer Meldung im Hamburger Abendblatt mit einem Vermögen von 100 Mio. zu den 80 reichsten Hamburger Familien gehört. Die Stiftung unterstützt knapp 30 zum Teil aktivistische NGO´s und erklärt den Kampf gegen den Klimawandel zu ihrem Hauptziel. Zu ihren Empfängern gehört auch die „Plant for the planet“-Bewegung, die ein sehr umtriebiger Unternehmer Frithjof Finkbeiner (u.a. Desertec, Club of Rome) und sein Sohn managen. Weiterer Förderer ist die Schöpflin-Stiftung, die sich ebenfalls dem Kampf gegen den Klimawandel verpflichtet hat. Und die an bestimmten Projekten des Netzwerk Recherche beteiligte Stiftung Mercator gehört als Finanzier der Agora Energiewende zu den größten und finanzstärksten Förderern der deutschen „Energiewende“. Die punktuell ebenfalls kooperierende Friedrich-Ebert-Stiftung ist eine Finanzierungsquelle für linksradikale Kräfte im Umfeld der SPD.

Angesichts solcher Hintermänner ist offensichtlich, dass der „Neutralitäts“-Anspruch des Netzwerks Recherche nur ein Feigenblatt darstellt, hinter dem sich das branchenübliche linksradikal-grüne Gedankengut verbirgt.

Correctiv – Kläger, Richter und Büttel zugleich

Sich selbst stuft Correctiv natürlich als edel, hilfreich und gut ein. Man bezeichnet sich als gemeinnütziges Recherchezentrum im deutschsprachigen Raum und nimmt für sich in Anspruch, investigativen Journalismus zu pflegen und sich für eine lebenswerte Zukunft einzusetzen. Nach eigenem Verständnis schütze man das Volk vor gezielten Falschmeldungen und setze ein klares Zeichen gegen Extremismus. So kehre der Journalismus zu seinen Wurzeln zurück und werde wieder zur Vierten Gewalt in der Gesellschaft. Man sage Nein zu Populismus, Nein zu Hass und Hetze und Nein zu Lügen im Netz. Soweit der hehre Anspruch.

Bild 6. Für Klimahysterie-Profiteure ist es besonders praktisch, wenn ihre Stiftung gleich integraler Bestandteil des Unternehmens ist (Bild: Autor, Eigenes Werk auf der Grundlage eines Screenshots)

In Wirklichkeit stimmt all dies nicht. Diese mit Millionenspenden von deutschen und internationalen Stiftungen finanzierte Gruppe mit knapp 30 bezahlten Mitarbeitern hat sich sowohl politisch als auch klimapolitisch eindeutig positioniert: Für die Klimahysterie, gegen sogenannte „Rechte“ und „Populisten“. Im Quartalsbericht XXI kann man sich über die aktuellen Projekte informieren. Doch irgendwie scheinen wichtige Themen zu fehlen:

  • Linker Extremismus und linke Gewalt, wie in Hamburg, wo ganze Straßenzüge verwüstet wurden? Scheinen für Correctiv kein Thema zu sein.
  • Finanzierung der Klimahysterie mit Milliardensummen aus dem In- und Ausland, mit Schwerpunkt USA? Da schreibt man lieber über das „böse“ Geld der „Klimaleugner“ vom Heartland-Institut.
  • Probleme mit kriminellen Clanstrukturen in unseren Großstädten? Uninteressant.

Diese Haltung erklärt sich, wenn man einen Blick auf die Geldquellen von Correctiv wirft. Ihre Rechtsform ist die einer gemeinnützigen GmbH. Auf der Webseite wird um milde Gaben zur Unterstützung von „mutigem und unabhängigem“ Journalismus geworben, mit 10,- € kann man dabei sein. Doch das schicke, für die eigenen Zwecke komplett maßgeschneiderte und mit technischen Raffinessen wie Video- und Audio-Studios, einem Experience-Lab, Co-Working Spaces und einem Cafe ausgestattete neue Zentrum, das derzeit in Berlin entsteht, sowie die auf fast 30 Mitarbeiter angewachsene Crew lassen sich mit solchen Mini-Beträgen nicht einmal ansatzweise bezahlen. Offenbar großzügig finanziert wird das Zentrum von der bereits weiter oben als Förderer der Klimahysterie erwähnte Schöpflin-Stiftung. Hinter Correctiv stehen aber noch weitere eindeutig klimahysterische Finanziers wie die Stiftung Mercator, die neben dem Energiesektor jetzt auch noch den Verkehrssektor vollständig dekarbonisieren will. Mit im Bunde ist hierbei die European Climate Foundation, hinter der sich wiederum sechs andere Stiftungen verbergen, darunter die US-Stiftung McCall McBain Foundation. Den Vogel schießt offenkundig die Schweizer Good Energy Foundation ab, die auf ihrer Webseite offen zugibt, dass sie integraler Bestandteil eines Unternehmens ist, das sein Geld mit Investitionen in Erneuerbare Energie verdient. Abgerundet wird das Ganze noch durch die Open Society Foundation des schillernden Multimilliardärs und Börsenspekulanten Soros, zu dessen Geschäften auch die Förderung von Umstürzen gehört.

Wie bei den meisten dieser Netzwerke findet man auch beim Correctiv-Personal schon bei oberflächlichem Durchchecken schnell Journalisten, die offensichtlich weder objektiv noch unabhängig sind. Neben Benjamin Schubert, der beim linksgrünen Netzwerk Attac mitmacht, gibt es da die engagierte Klima-„Aktivistin“ Annika Joeres, die auch in der Süddeutschen ihr Unwesen treibt, und Skandaljournalisten wie David Schraven, der versuchte, einer missliebigen Politikerin einen Sex-Skandal anzuhängen, oder Jonathan Sachse, der sich mit Familienverbänden anlegte.

Bild 7. Artikel 5 Grundgesetz verbietet eigentlich die Zensur missliebiger Meinungen (Bild: Autor)

Trotz dieser klar dokumentierbaren Einseitigkeit hat man Correctiv zum Zensor und Richter über andere Autoren im Netz befördert. Bei ihrer Tätigkeit sorgen sie u.a. dafür, dass die Verbreitung missliebiger Ansichten durch sofortiges Anhängen von Gegenmeinungen behindert wird. Dabei sind die Zensoren selbst gar keine Fachleute, sondern fachfremde Journalisten ohne eigene Kompetenz in Fragen der Klimawissenschaften. Was da gemacht wird, ist im Prinzip eine Verletzung des grundgesetzlich garantierten Rechts auf freie Meinungsäußerung. Es kommt hierbei zu einem schmutzigen Zusammenspiel von Staat und Social-Media-Konzernen wie Facebook: Der Staat zwingt die IT-Firmen, missliebige Meinungen zu zensieren, und unterläuft dabei den eigentlich unumgänglichen Rechtsweg, indem er das Recht, Zensur auszuüben, direkt den Konzernen zuschiebt. Das widerspricht dem Grundrecht auf freie Meinungsäußerung, denn letztere darf zwar durch andere Gesetze eingeschränkt werden, doch sind solche Einschränkungen eigentlich an die Einhaltung des Rechtswegs – also mit der Möglichkeit des Widerspruchs unter Einschaltung ordentlicher Gerichte – gebunden. Dennoch wurden staatlicherseits die Überwachung und auch gleich der Vollzug von Zensurmaßnahmen privaten Konzernen zugeschoben. Diese wiederum haben sich mit Correctiv einen Büttel besorgt, der für sie die dreckige Arbeit gegen Bezahlung erledigt. Was durchaus der Tradition eines der US-amerikanischen Ziehväter von Correctiv, dem Poynter Institute, entspricht. Auch dieses widmet sich unter dem Deckmantel des „Faktencheckens“ dem Krieg gegen missliebige Meinungen. Wobei Poynter allerdings in den USA mehr Gegenwind bekam und sogar eine schmachvolle Niederlage kassierte. In den USA steht es aktuell um die Pressefreiheit augenscheinlich besser als in Deutschland.

Die Medienmacht der (Linken in der) SPD

Das Redaktions Netzwerk Deutschland (RND) der Madsack Mediengruppe ist ein Instrument der Macht der Linken – vordergründig der SPD – in den deutschen Medien. Das RND ist eine Art Zentralredaktion, in der überregionale Nachrichten für ein Imperium aus 15 Regionalzeitungen und 28 Anzeigenblättern erstellt werden. Hinzu kommen noch weitere, nicht zur Gruppe gehörende Zeitschriften. Die angeschlossenen Blätter übernehmen diese Nachrichten in ihren Mantelteil und ergänzen dies um Örtliches und Regionales. Damit hat die SPD über ihre Deutsche Druck- und Verlagsanstalt, die größte Kommanditistin bei Madsack ist, die Deutungshoheit über das, was „täglich etwa 7 Millionen Lesern“ serviert wird. Und diversen Blogmeldungen zufolge gibt es in der RND-Redaktion auch Verbindungen zum Linksextremismus, siehe auch hier.

Bild 8. Die taz behauptet, sie engagiere sich für Meinungsvielfalt (Bild: Autor, Eigenes Werk auf der Grundlage eines Screenshots)

Das größte Netzwerk – die taz und ihre Ex-Journalisten

Sowohl von der Radikalität als auch von der Bedeutung her sticht in Deutschland ein Netzwerk ganz besonders hervor, und zwar die Gemeinschaft der heute und der ehemals bei der taz tätigen Journalisten. Die taz behauptet zwar munter, „für Meinungsvielfalt und gegen Meinungsmache“ zu sein, doch kann man auf der gleichen Homepage auch das Glaubensbekenntnis Linksradikale, unabhängige Presse in Deutschland: 40 Jahre taz finden. Bei der Überprüfung vieler Lebensläufe in Mainstreammedien und Journalisten-Netzwerken fällt auf, dass man immer wieder auf Journalisten stößt, die früher einmal für die taz geschrieben haben. Deren Redaktion fungiert augenscheinlich als eine Art Virusschleuder des Linksradikalismus in den deutschen Medien.

Bild 9. In Wirklichkeit ist sie nichts weiter als ein Sturmgeschütz des Linksradikalismus (Bild: Autor, Eigenes Werk auf der Grundlage eines Screenshots)

Etliche der dort geschulten und ideologisch gestählten Journalisten sind inzwischen in andere Redaktionen weitergewandert, teils bis in höchste Kreise z.B. der Deutschen Welle oder in die Leitung des lukrativen Finanztip. Obwohl sie nicht formell als Organisation agieren, ist ihre Genossenschaft mit bald 20.000 Mitgliedern als vernetzte Community eines der größten und am besten in den Medien verankerten linksradikalen Medien-Netzwerke Deutschlands.

Weitere Netzwerke

Darüber hinaus gibt es zahlreiche weitere – teils auch international geknüpfte – Netzwerke, die nur zum Teil noch so tun, als ob sie „neutralen, unabhängigen Journalismus“ betreiben würden. Meist genügt es, sich die Sponsoren etwas näher anzusehen oder in die beruflichen Hintergründe der maßgeblichen Mitarbeiter hineinzuleuchten, um schnell festzustellen, dass dieser Anspruch nicht der Wahrheit entspricht und sich dahinter eine meist sehr einseitige Agenda verbirgt.

Clean Energy Wire (CLEW) besteht aus hochkarätigen Journalisten, ist jedoch eine reine Lobbyorganisation für „erneuerbare“ Energien, die von der Stiftung Mercator und der European Climate Foundation finanziert wird.

Die in Österreich tätige cooppa bezeichnet sich als Genossenschaft von JournalistInnen und Organisationen und hat zum Ziel, die „große Transformation“ der Umstellung auf eine klimaneutrale Gesellschaft voranzubringen. Dahinter stehen auch diverse Unternehmen sowie Verbände wie das Green Brands Gütesiegel, die mit den geförderten Maßnahmen Geschäfte machen.

Bild 10. Das Netzwerk Covering climate now, das 2 Milliarden Leser erreicht, „optimiert” weltweit die Verbreitung klimahysterischer Botschaften (Bild: Autor, Eigenes Werk auf der Grundlage von Screenshots)

Covering climate now ist faktisch der Kronzeuge dafür, dass es sich bei der aktuellen Berichterstattung über den angeblich menschengemachten Klimawandel um eine global gesteuerte und synchronisierte Medienkampagne handelt. In den am Netzwerk beteiligten Publikationen – darunter auch wissenschaftliche Zeitschriften wie Nature oder Scientific American – wird das Erzeugen von Klimahysterie optimiert, während „klimaskeptischen“ Ansichten faktisch kein Raum mehr gegeben wird. Deutsche Teilnehmer dieses internationalen Netzwerks aus mehreren hundert Publikationen sind u.a. taz, correctiv und stern sowie klimareporter, globalmagazin, Edison, Spektrum der Wissenschaft und KlimaSocial. International sind auch große Nachrichtenagenturen wie AFP, Reuters, Bloomberg und Getty Images dabei.

Das European Data Journalism Network (EDJNet) behauptet von sich, seinen Mitgliedern keine Beschränkungen aufzuerlegen. Es wird allerdings von den EU-Behörden äußerst großzügig gefördert, bis hin zu kostenlosen Übersetzungen. Allerdings sollte die Berichterstattung der EDJNet-Söldner „europäische Perspektiven“ (von der Leyens EU-Version eines „Green New Deal“ und europäische Postkolonialtruppen in Afrika inklusive?) berücksichtigen. Noch Fragen?

Project Syndicate agiert als eine Art internationaler Presseagentur in 13 Sprachen und in 157 Ländern. Gebracht werden vor allem Meinungsbeiträge maßgeblicher Politiker, Abgeordneter, Wissenschaftler, Manager und Aktivisten, darunter solche „Größen“ wie Joschka Fischer. Finanziers sind, neben Herrn Soros mit seiner Open Society Foundation, die Bill & Melinda Gates Foundation, die European Climate Foundation, die grün-linksradikale Heinrich Böll Stiftung und die linksradikal-grüne Friedrich Ebert Stiftung.

Einen hohen Bekanntheitsgrad (Panama Papers, Paradise Papers etc.) hat schließlich auch noch das International Consortium of Investigative Journalists, zu dem in Deutschland auch die Redaktion der Süddeutschen Zeitung gehört. Zu den zahlreichen Förderern gehören eine Auswahl kirchlicher wie privater Stiftungen, Promis wie Barbara Streisand und Meryl Streep sowie der anscheinend unvermeidliche Herr Soros.

Die Gewinner des Prinzips Einäugigkeit

Angesichts dieser Fülle aggressiv-linksgrüner Ideologen-Netzwerke, die im Hintergrund mit enormen Geldmitteln gefördert werden, nimmt es nicht wunder, dass unsere Medienlandschaft politisch und sozial weitgehend einseitig aufgestellt ist. So schafft man es, die gesellschaftlichen Trends in die den Hintergrund-Finanziers genehme Richtung zu beeinflussen. In den Medien gibt es im Prinzip kaum noch eine bürgerliche Mitte. Das erklärt die Intensität der Dauerberieselung in Richtung Klimahysterie in den Medien. Im Fernsehen wird heute selbst in Natursendungen und sogar bei Tipps für den Kräutergarten vor dem „menschengemachten Klimawandel“ gewarnt. Bei all dieser Berichterstattung über Klima- und Wetterfragen ist schon seit Jahren eine geradezu phänomenale Einseitigkeit zu beobachten. Während Klima-Angstmacher wie Mojib Latif, Prof. Schellnhuber oder Stefan Rahmstorf ständig auftreten und teils sogar selbst schreiben dürfen, wurden die sogenannten Skeptiker systematisch ausgebremst und kommen heute kaum noch zu Wort. Darüber hinaus werden sie – je nach Präferenz des Journalisten – in der Regel als dumm, naiv oder „Rechts“ porträtiert und teils ehrenabschneidend angegangen. Solcher „Haltungsjournalismus“ lohnt sich offenkundig, die entsprechenden Stiftungen und die profitierenden Firmen haben für willfährige Unterstützer unglaubliche Geldmengen z.B. für Honorare oder für Anzeigen zur Hand. Allein ein Herr Bezos von Amazon hat gerade erst großzügig 10 Mrd. US-$ für seinen Bezos Earth Fund versprochen. Damit lassen sich ungezählte weitere „Wissenschaftler“ und Mietjournalisten bezahlen, welche die Botschaft vom kurz bevorstehenden Klima-Weltuntergang propagieren und den Schlaubergern unter den Kapitalisten nahezu risikolose, weil staatlich über lange Zeiträume garantierte Einnahmen bescheren.

Bild 11. Eine staatlich langfristig gesicherte Monopolstellung mit ebenfalls staatlich gesicherter Rendite ist für das internationale Großkapital ausgesprochen attraktiv (Grafik: Autor, entnommen aus Zitat)

Worum es den Herrschaften dabei geht, kann man am Beispiel der Netzbetreibergesellschaften erkennen: Egal welchen Unsinn der Staat im Bereich des Baus im Prinzip unnützer Leitungen wie Südlink oder Nordlink von ihnen verlangt – sie können alle Kosten auf die Netzdurchleitungsgebühren aufschlagen und damit eine von der Bundesnetzagentur zugesicherte Rendite erwirtschaften, die zurzeit bei 6-9 % liegt. Für Kapitalanleger sind solche Modelle sehr attraktiv, müssen sie sich doch nicht mehr mit den Unwägbarkeiten und Risiken von Märkten und Konkurrenzverhältnissen herumschlagen. Gerade die Groß- und Hochfinanz setzt deshalb gerne und zunehmend auf solche Renditebringer mit langfristig gesicherten Margen. Wichtig ist hierbei vor allem Dingen, dass man diese Projekte als „grün“ ausgeben kann – und dass die Medien mit ihrer Klimageddon-Angstmache genügend Wähler dazu bringen, den Befürwortern dieses größten Betrugs aller Zeiten ihre Stimme zu geben.